+

WO2006011255A1 - パノラマ画像合成方法および物体検出方法、パノラマ画像合成装置、撮像装置、物体検出装置、並びにパノラマ画像合成プログラム - Google Patents

パノラマ画像合成方法および物体検出方法、パノラマ画像合成装置、撮像装置、物体検出装置、並びにパノラマ画像合成プログラム Download PDF

Info

Publication number
WO2006011255A1
WO2006011255A1 PCT/JP2005/001829 JP2005001829W WO2006011255A1 WO 2006011255 A1 WO2006011255 A1 WO 2006011255A1 JP 2005001829 W JP2005001829 W JP 2005001829W WO 2006011255 A1 WO2006011255 A1 WO 2006011255A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
images
overlapping
panoramic
group
Prior art date
Application number
PCT/JP2005/001829
Other languages
English (en)
French (fr)
Inventor
Kazutoyo Takata
Kunio Nobori
Satoshi Sato
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to JP2006528343A priority Critical patent/JP3971783B2/ja
Priority to US11/132,654 priority patent/US7535499B2/en
Publication of WO2006011255A1 publication Critical patent/WO2006011255A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2624Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of whole input images, e.g. splitscreen

Definitions

  • panorama image composition method and object detection method panorama image composition device, imaging device, object detection device, and panorama image composition program
  • the present invention relates to a technique for synthesizing a so-called V Lama image and a technique for detecting an image power object using a panoramic image.
  • a large panoramic image is synthesized from a plurality of captured images having different angles of view, and the synthesized panoramic image is used.
  • a method of performing image processing such as background difference is effective.
  • a motion vector is obtained by image analysis from the position and orientation of a camera and an input image versus camera, and camera parameters are calculated based on the motion vector.
  • a method is disclosed in which panoramic image synthesis is performed by combining images according to the calculated camera parameters. By this method, it is possible to perform accurate alignment between each image, and there is little positional distortion! ⁇ Panorama images can be combined.
  • Patent Document 1 Japanese Patent Laid-Open No. 2002-150264
  • the generated panoramic image is a V, panoramic image in which the light source state is different for each part, that is, the light source environment is the same. If such a light source environment is not the same, if background difference is performed using a panoramic image, the background region other than the object is also detected as an object, and the accuracy of object detection is greatly reduced.
  • the present invention makes it possible to synthesize a panoramic image having the same light source environment over the entire image that can be detected even when the light source environment changes. Let it be an issue.
  • the present invention provides, as a method for synthesizing a V Lama image, a first overlapping region in common and a second overlapping region other than the first overlapping region.
  • a duplicate image group consisting of N images (N is an integer greater than or equal to 3) images and a second extended image that has no second overlap region, and the linear coefficient of the extended image is obtained as the first overlap region.
  • the size of the image to be expanded is calculated using the pixel values of each of the images in the overlapping image group in, and using the calculated linear coefficient and the pixel values of each of the N images in the second overlapping region.
  • the panorama image is synthesized based on the extended image that has been expanded to the second overlap area and this size has been expanded.
  • the extended image can be expanded to the second overlapping region by using the linear coefficient obtained from each image of the first overlapping region. That is, an image in the same light source environment as the arbitrarily selected extended image can be extended to “extended image + second overlapping region”. Therefore, it is possible to easily generate a panoramic image having the same light source environment over the entire image.
  • the "normal llama image with the same light source environment” refers to the estimated position, direction, intensity, and number of light sources in each part of the panorama image. This means that they are substantially the same. Theoretically, it is possible to make the light source environment completely the same, but in reality, the light source environment may not be completely the same due to errors in the calculation of linear coefficients. The present invention includes such a case.
  • the present invention provides a method for detecting an object from an image as a method of detecting a normal llama image of the present invention.
  • a plurality of panoramic images including the imaging range of the detection target image are generated by the synthesis method, and a predicted background image having the same light source environment as the detection target image is generated based on the detection target image and the plurality of panoramic images. By comparing this with the detection target image, object detection is performed.
  • a predicted background image having the same light source environment is generated by using a plurality of V Lamma images having the same light source environment throughout the entire image to be detected.
  • object detection with high accuracy can be performed even for images in which the light source environment differs from the V-llama image.
  • FIG. 1 is a configuration diagram of an object detection device according to a first embodiment of the present invention.
  • FIG. 2 is a diagram showing a coordinate system that defines the position and orientation of the camera.
  • FIG. 3 is a diagram showing a coordinate conversion method to a panoramic projection plane coordinate system.
  • FIG. 4 is a flowchart showing the operation of the V-Lama image synthesizing unit of FIG. 1, and showing the V-Lama image synthesizing method according to the first embodiment of the present invention.
  • FIG. 5 is a schematic diagram showing an example of a selected overlapping image group.
  • FIG. 6 is a diagram for explaining a method for calculating a linearization coefficient.
  • FIG. 7 is a diagram showing object detection using a panoramic image.
  • FIG. 8 is a flowchart showing a panoramic image synthesis method according to the second embodiment of the present invention.
  • FIG. 9 is a diagram showing an example of a no-V llama image synthesized using the panoramic image synthesis method according to the first embodiment of the present invention.
  • FIG. 10 is a diagram showing an example of an evaluation image group.
  • FIG. 11 is a diagram schematically showing FIG.
  • FIG. 12 is a flowchart showing a panoramic image synthesis method according to the third embodiment of the present invention. Yat.
  • FIG. 13 is a schematic diagram of an example of an evaluation image group.
  • FIG. 14 is a flowchart showing evaluation image group determination processing.
  • FIG. 15 is a diagram for explaining the process of panoramic image synthesis.
  • FIG. 16 shows an example of a panoramic image.
  • FIG. 17 shows a comparison result between the first embodiment and the third embodiment.
  • FIG. 18 is a schematic diagram of an example of an evaluation image group.
  • FIG. 19 is a flowchart showing evaluation image group determination processing.
  • N N is 3 having a first overlapping region in common and a second overlapping region other than the first overlapping region.
  • the step of obtaining an overlapping image group consisting of images and the extended image without the second overlapping region, and the linear coefficient of the extended image in the first overlapping region Using the pixel values of each of the images in the overlapping image group, the step of calculating, the linear coefficient, and the pixel values of each of the N images in the second overlapping region, And expanding the size of the image to the second overlapping region, and providing a panoramic image based on the extended image whose size has been expanded.
  • the N images are images having different light source environments.
  • a panoramic image synthesis method according to a first aspect for acquiring an image is provided.
  • the method includes a step of determining the reliability of the calculated linear coefficient of the extended image, and when it is determined that the reliability is low, a first acquisition of a duplicate image group is performed.
  • a method for synthesizing a panoramic image of a state is provided.
  • the obtaining step selects a duplicate image group from images stored in the image storage unit, and a new image is input to the image storage unit.
  • the re-selection of the overlapping image group is performed, the suitability of image synthesis is compared between the new overlapping image group and the old overlapping image group, and it is determined whether or not the panoramic image is updated based on the comparison result.
  • the suitability of image composition is determined using the number of diffuse reflection pixels.
  • the V A panoramic image synthesizing method according to a fourth aspect for updating an image is provided.
  • the suitability of image composition is determined using independence between images.
  • a panoramic image synthesizing method according to a fourth aspect for updating an image is provided.
  • a step of generating a plurality of panoramic images including a photographing range of the detection target image by the panoramic image synthesis method of the first aspect, the detection target image, the plurality of panoramic images,
  • An object detection method comprising the steps of: generating a predicted background image having the same light source environment as the detection target image, and performing object detection by comparing the detection target image and the predicted background image I will provide a.
  • the object detection method according to the seventh aspect wherein the plurality of panoramic images is at least three.
  • the reliability of the calculated linear coefficient for each overlapping image group A panoramic image synthesizing method according to the first aspect in which the image with the highest reliability is selected is provided.
  • the method includes a step of determining whether or not an evaluation image group exists for the extended image, and when the evaluation image group exists, using the evaluation image group, in front
  • a panoramic image synthesis method according to a first aspect for calculating a linear coefficient of a recorded extended image is provided.
  • the eleventh aspect of the present invention when there are a plurality of evaluation image groups, the one having the highest image independence in the second overlapping region included in the evaluation image group is selected.
  • a panoramic image synthesis method according to an aspect is provided.
  • the panorama image composition of the tenth aspect is selected in which the number of pixels in the image region occupied by the evaluation image group is the largest. Provide a method.
  • N is an integer of 3 or more sheets having a first overlapping region in common and a second overlapping region other than the first overlapping region.
  • Means for obtaining an overlapping image group consisting of an image and the second extended region and an extended image group, and a linear coefficient of the extended image, the overlapping image group in the first overlapping region Means for calculating using the pixel values of each of the images, the linear coefficient, and the pixel values of each of the N images in the second overlapping region, and determining the size of the extended image.
  • a panorama image synthesizing device for synthesizing a V-llama image based on the extended image whose size has been expanded.
  • the imaging unit, the captured image correction unit that performs geometric correction and optical correction on the image captured by the imaging unit, and the captured image correction unit correct the image.
  • an imaging device that acquires from images stored in the image storage unit.
  • the imaging device according to the fourteenth aspect, an object detection unit that performs object detection using a panoramic image synthesized by the panorama image synthesis device included in the imaging device,
  • an object detection device comprising a detection object display unit for displaying a region of an object detected by the object detection unit.
  • N having a first overlapping area in common and having a second overlapping area other than the first overlapping area (N is an integer greater than or equal to 3) images and the second overlapping area,
  • a plurality of partial images whose partial image regions overlap each other and whose light source environment is different are input, and each of the partial images is based on the input partial image.
  • a panorama image synthesizer is provided that generates and outputs a no-llama image with the same light source environment over a wider area.
  • FIG. 1 is a configuration diagram of an object detection apparatus using the panoramic image synthesis method according to the first embodiment of the present invention.
  • 101 is an imaging unit that captures still images or moving images
  • 102 is a captured image correction unit that corrects an image captured by the imaging unit 101
  • 103 is corrected using the captured image correction unit 102.
  • 104 is an image storage unit that stores the captured image
  • 104 is a panoramic image synthesis unit as a panoramic image synthesis device that combines panoramic images from images stored in the image storage unit 103
  • 105 is an image and panorama image captured by the imaging unit 101.
  • An object detection unit 106 that performs object detection using the panoramic image synthesized by the llama image synthesis unit 104, and a detection object display unit 106 that displays the object area detected by the object detection unit 105.
  • the imaging unit 101, the captured image correction unit 102, the image storage unit 103, and the panoramic image composition unit 104 constitute an imaging apparatus of the present invention.
  • the object detection described here refers to the synthesis of at least three panoramic images with different light source environments and using this as a background to detect what appears outside the background from the captured images.
  • the environmental condition is that the light source is a parallel light source, and the surface of the object is It is assumed that it is a completely diffuse reflecting surface.
  • the imaging unit 101 captures images with different imaging directions. Specifically, for example, panchiru
  • Shooting is performed with a video camera or digital still camera that can operate (HPT), or a video camera or digital still camera that is fixed to a pan that can operate with ⁇ .
  • HPT video camera or digital still camera that can operate
  • a video camera or digital still camera that is fixed to a pan that can operate with ⁇ is used.
  • the image capturing unit 101 sends camera position / posture information together with the captured image to the captured image correction unit 102.
  • the camera position / posture information refers to the five parameters (Xw, Yw, Zw, ⁇ , ⁇ ) shown in Fig. 2.
  • Xw, Yw, Zw are the camera position coordinates (point o) in the world coordinate system, and ⁇ , ⁇ are the angles to rotate counterclockwise with respect to the positive direction of the Y and X axes in the camera coordinate system (pan angle). , Tilt angle).
  • the position / posture of the camera may be detected using, for example, a position detection device such as GPS or a posture detection device such as a gyroscope.
  • a pre-planned shooting plan power may be calculated.
  • the pre-planned shooting plan is, for example, that the camera is set to an angular velocity in the positive direction of ⁇ from the starting point (X, Y, Z, ⁇ , ⁇ ).
  • the captured image correction unit 102 performs geometric correction, optical correction, and coordinate conversion from the captured image coordinate system to the panoramic projection plane coordinate system on the image captured by the imaging unit 101.
  • geometric correction of the captured image lens distortion is corrected.
  • the lens distortion correction method by Weng et al. Described in “Converter Vision Technology Review and Future Prospects, pp. 42-44, New Technology Communication, 1998” may be used.
  • optical correction of the captured image peripheral light reduction is corrected. For example, there is no time variation of luminance as shown in the “Natural Vision R & D Project (Next Generation Video Display / Transmission System) Research and Development Report, pp.
  • a panorama projection plane projected onto a cylindrical coordinate system such as a captured image coordinate system (i, j)
  • f is a function that converts to the coordinate system (u, V)
  • f is the camera position and orientation information sent from the imaging unit 101. Is expressed by the following equation.
  • the conversion from the captured image coordinate system (i, j) to the panorama projection plane coordinate system (u, V) may be performed using a spherical coordinate system. If the pan / tilt angle is small, projection using a plane coordinate system may be performed.
  • each correction parameter used in the above-described captured image correction unit 102 is obtained in advance before performing object detection with this apparatus.
  • the image storage unit 103 stores the image corrected by the captured image correction unit 102 and camera position / posture information in a storage medium.
  • the storage medium is realized by, for example, a memory, a hard disk, or a film.
  • the V Lama image composition unit 104 generates a panorama image from a plurality of images stored in the image storage unit 103.
  • the operation of the V Lama image synthesis unit 104 will be described with reference to the flowchart of FIG.
  • step S11 among the images stored in the image storage unit 103, a second overlapping image group having a first overlapping region (A region) in common and a second region other than the A region.
  • Select an overlapping image group consisting of N images (N is an integer greater than or equal to 3) images with overlapping region (B region) and images as extended images without B region (Sl l) .
  • N is 3.
  • FIG. 5 is a schematic diagram showing an example of the selected overlapping image group. In FIG. 5, 1, 1, 1
  • I are images selected from the image storage unit 103, and these four images I, I, I, I, I are A
  • the overlapping area of each image may be detected using the coordinate value of each image in the panorama projection plane coordinate system (u, V), for example. Further, when there are a plurality of overlapping image groups for a certain pixel position, for example, the one having the highest independence between the three images having the B region may be selected. This specific method will be described later.
  • step S12 the overlapped image group selected in step S11 is used.
  • a linear coefficient used for expansion of the tension image is calculated.
  • the linear coefficient is calculated by using the pixel values of each image of the overlapping image group in the A region, and using Shashua's method (“Shashua A.,“ Geometry and Photometry in 3D Visual Recognition, PD thesis, Dept. Brain and , MIT, 1992 ").
  • Shashua can represent an image in any light source direction by linear combination of three images with different light source directions by assuming a parallel light source and that the subject surface is a completely diffuse reflection surface. It is shown that.
  • I, 1, 1 are the vector representations of three images with different light source directions.
  • c [c 1 c 2 c 3 ] T is calculated as a linear coefficient for the image I.
  • the diffuse reflection pixel indicates a pixel that behaves as in (Equation 2).
  • step S13 the reliability of the linear coefficient calculated in step S12 is determined.
  • the reliability determination of the linear coefficient is to determine the independence between the three images having the B region in the overlapping image group.
  • the condition number of the matrix D calculated in step S12 is used. In other words, the condition number of the matrix D is obtained, and when this condition number is smaller than the predetermined threshold, it is determined that the three images having the selected B region are independent and the calculated linear coefficient is reliable. To do.
  • it is larger than the predetermined threshold value it is determined that the calculated linear coefficient is not reliable, and the process returns to step S11 to return to the overlapping image group having the same A area and different from the V and previous overlapping image groups. Reselect.
  • In any image, two or more of the selected three pixels have the same normal direction. ⁇ At least two or more images have the same light source state.
  • a panoramic image was synthesized using such a reliable low linear coefficient.
  • a panoramic image with a large luminance error is generated.
  • the three images with the B region have different light source directions and three or more pixels with different normal directions on the object surface. It satisfies the condition that it exists.
  • a panoramic image is synthesized using such a highly reliable linear coefficient, it is possible to generate a panoramic image with a small luminance error.
  • the above-described luminance error indicates a luminance error between an ideal panoramic image captured in the same light source environment as the extended image and the generated panoramic image.
  • the calculated linear coefficient has the highest reliability. May be selected. Specifically, for example, the candidate with the minimum number of conditions may be selected as the overlapping image group. This is because the smaller the condition number, the higher the reliability of the calculated linear coefficient, or the higher the independence of the three images with B images included in the selected overlapping image group.
  • the selection of duplicate images and the 3 in the selected images are based on the presence or absence of D- 1 in (Equation 3) and the number of D conditions with high reliability. Optimal linear coefficients are obtained by selecting points. Therefore, other methods will not work as long as they use the same criteria.
  • D- 1 and D condition numbers are simultaneously calculated in S12.
  • the reliability of the calculated D-D condition numbers is determined. If there is no reliability, three points P (X, y ), P (X, y), P (X, y) may be reselected. in this case
  • step S14 using this linear coefficient and the pixel values of three images having the B region, the extension is performed. Extend the image size.
  • the three images I, 1, 1 are areas other than the image area of the extended image I.
  • the extended image included in the overlapping image group can be expanded to “original image region + B region” by steps Sl l-S14. Therefore, by repeatedly performing such processing, it is possible to easily generate a no-llama image having the same light source environment over the entire image.
  • step S15 it is determined whether or not the image has been expanded to the entire region of the desired panoramic image. If it is determined that the entire area has not been expanded yet (No in S 15), the image expanded in step S 14 is stored in the storage medium in the image storage unit 103 (S 16), and the process returns to step S 11. On the other hand, when it is determined that the entire area has been expanded (Yes in S15), the panoramic image is stored in the storage medium in the image storage unit 103 (S17). As a determination method in step S15, for example, when the number of pixels of the expanded image becomes the number of pixels for the entire region, it may be determined that the entire region has been expanded.
  • a storage medium for storing the V Lama image for example, a memory may be a node disk, a film, or the like. In this way, by repeating the processing of steps S 11 to S 16, one panoramic image having the same light source environment expanded to the entire area is stored in the image storage unit 103. By steps S11 to S16, the panoramic image synthesis method according to the present embodiment is realized.
  • an end determination is performed (S18).
  • S18 in this embodiment, as will be described later, in order to perform object detection, it is necessary to generate three normal llama images with different light source directions. For this reason, here, when there are three or more panoramic images having independence between images in the image storage unit 103 (Yes in S18), the processing is terminated, and three V-llama images having independence between images are displayed. If the number is less than the number (No in S18), the process returns to step S11 and a new panoramic image is synthesized.
  • the value of a determinant is used. Specifically, three arbitrary V Lama images (I P , I P , I
  • 3 p is determined to be a panoramic image with a different light source direction, and the process ends.
  • the determinant IDI has a value ⁇
  • the selected three panoramic images I P can be determined to be independent of each other
  • a combination of the other three VRAM images stored in the image storage unit 103 is selected and the same processing is performed. If any of the three panorama images stored in the image storage unit 103 is selected and the value of the determinant becomes 0, the process returns to step S 11. Of course, if there are two or less images, the process returns to step S11.
  • the V Lama image synthesis unit 104 synthesizes 3 V Lama images having independence between images.
  • FIG. 9 is an example of a panoramic image synthesized by the panoramic image synthesizing method according to the present embodiment.
  • FIG. 9 (a) shows the extended image 10 whose image size is expanded and three images I 1, 1 and 1 with different light source directions.
  • Fig. 9 (b) shows the result of Fig. 9 (a) 4 by the method of this embodiment described above.
  • FIG. 9 (c) shows the images I and I using the histogram matching method (for details, see “Image Analysis Nordbook", The University of Tokyo Press, pp. 463, 1991).
  • the V-llama image has no joints in the image with less luminance error, as compared with the image in Fig. 9 (c). That is, according to the panoramic image synthesis method according to the present embodiment, a panoramic image with a small luminance error is synthesized even if images having different light source directions are given.
  • the panoramic image synthesized by the method according to the present embodiment is a panoramic image composed only of diffuse reflection pixels. Such an image is called a panoramic base image.
  • the object detection unit 105 performs object detection on the image received from the captured image correction unit 102 using the three V Lama images input from the V Lama image synthesis unit 104.
  • the object detection here may use, for example, a background difference.
  • FIG. 7 shows a case where the table 22 is photographed in a room where the refrigerator 21 and the table 22 are placed, and an object (empty can 23) placed on the table 22 is detected from the image.
  • IP are panorama images input from the panorama image composition unit 104, and The floor, refrigerator 21 and table 22 are taken as a scene.
  • I p , I p are already synthesized using the image taken before taking the object detection image.
  • images I 1, I 1, I corresponding to the image area of image I from panoramic images I P , I P , I P are represented as
  • Image I contains objects other than the background (empty can 23 in the example of Fig. 7).
  • ⁇ 3 may be selected as a point other than the background (for example, points ⁇ 1, ⁇ 2, and ⁇ 3 are selected in the area where the empty can 23 is reflected). In this case, the linear coefficient cannot be calculated correctly.
  • RANSAC ⁇ MA.FischlerandR.C.Bolles, '' Random sample consensus: a paradigm for model fitting with application to image analysis and automated cartography, Commun, Assoc, Comp, Mach, 24, pp.381-395, 1981
  • the three points PI, P2, and P3 can be selected on the background components of all four images, and linear coefficients that are not affected by anything other than the background can be calculated.
  • the difference in pixel value between the predicted background image IE and the original image I is equal to a predetermined threshold value.
  • the larger area is detected as the object area.
  • the detected object display unit 106 displays the area of the object detected by the object detection unit 105 on a display device such as a monitor.
  • the force (Formula 3) is used to calculate the linear coefficient using (Formula 3). Is an equation that assumes that the selected three points P, P, and P are all diffusely reflected. Fruit
  • a correct linear coefficient can be calculated by using four images for panoramic image synthesis and object detection.
  • the light source in the actual environment includes ambient light such as mutual reflection
  • the linear coefficient can be calculated with high accuracy by using more than five images. It is possible to perform image expansion and object detection using linearization. For example, even when ambient light is included, it has already been reported that a linear image with little error can be created using ninety nine images (for details, see “Bidirectional reflection distribution”). Separation of reflection components based on frequency characteristics of functions ”, Information Processing Society Research Report, CVIM 2002-134-1, pp.1-8, 2002).
  • an image captured in a real environment includes many pixels other than diffuse reflection pixels. These pixels become noise in the image compositing process and cause a luminance error of the generated panoramic image to increase.
  • the luminance error of the V-llama image increases. For this reason, in a system in which images are sequentially input, such as a surveillance system, a panoramic image is obtained with a luminance error smaller than that of a normal Vrama image when a new input image is used. If possible, it is preferable to update the image. As a result, the influence of noise caused by pixels other than the diffuse reflection pixels can be minimized.
  • FIG. 8 is a flowchart showing the operation of the V Lama image synthesis unit 104 in this embodiment.
  • steps common to FIG. 4 are denoted by the same reference numerals as in FIG. 4, and detailed description thereof is omitted here.
  • the difference from the first embodiment is that a step S21 for determining whether or not to update the V Lama image is provided.
  • step S21 when a new image is input to the image storage unit 103 in step S21, the overlapping image group is reselected, and the new overlapping image group and the old overlapping image group having the same overlapping area are imaged. Compare the suitability of the synthesis. If it is determined that the new overlapping image group is more suitable for image composition, it is determined that the V Lama image is updated (Yes in S21), and the process proceeds to step S11 and subsequent steps. On the other hand, if not (No in S21), the panorama image is not updated.
  • the new overlapping image group is an overlapping image group in which a new input image and an image stored so far are combined when a new image is input to the image storage unit 103.
  • the combination method can be realized using the conditions and methods already described in step S11.
  • the processes up to steps S12 to S14 are respectively performed to create a composite image.
  • the number of diffuse reflection pixels in the synthesized image thus created is compared, and the larger number of pixels may be considered suitable.
  • a pixel having a pixel value equal to or smaller than a certain threshold is used as a shadow pixel, and a pixel having a pixel value equal to or greater than a certain threshold is used as a specular reflection pixel.
  • the sum of the excluded pixels may be the number of diffuse reflection pixels.
  • the suitability of image composition may be judged using the total number of diffuse reflection pixels in each overlapping image group.
  • the correct linear coefficient cannot be calculated. Therefore, the larger the number of diffuse reflection pixels in the A area of the overlapping image used, the more expected the correct linear coefficient is calculated. it can.
  • the panorama image is updated. That's fine.
  • the suitability of image composition may be judged using independence between images. That is, when the new duplicate image group is more independent than the old duplicate image group, the panorama image may be updated.
  • the determination of independence between images can be realized by, for example, the method described in step S13 (calculating the condition number, and determining that the smaller the condition number, the higher the independence).
  • the condition number of the new duplicate image group is calculated using the luminance values at the same coordinate position as the three coordinate positions used when calculating the linear coefficient in the old duplicate image group, and the calculated new duplicate image group When the condition number is smaller than the condition number of the old overlapping image group, the panorama image may be updated.
  • the panoramic image synthesis unit 104 calculates a linear coefficient by a processing method different from that of the first embodiment.
  • evaluation image group means “at least one image having the same light source environment as the extended image exists in the image group connected as the extended image group and the extended image group V”. It is defined as “image group”. More specifically, a certain extended image I
  • N and N images constituting the overlapping image group of the present invention are first identified, and then N regions constituting the overlapping image group when the B region of the N images is set as an extended image.
  • the N images that make up the overlapping image group are concatenated, such as specifying the image, and further identifying the N images that make up the overlapping image group with the B region of the N images. We will identify them sequentially. When the last identified N images overlap with the original extended image I and the same light source environment,
  • evaluation image group Multiple sets of N images identified up to now and the original extended image I are referred to as an “evaluation image group”.
  • this evaluation image group it is possible to evaluate a luminance error by using a plurality of A regions together, and an image can be obtained while evaluating the luminance error sequentially in each A region. Compared to the extended first embodiment, it is possible to synthesize a panoramic image with less luminance error.
  • the original extended image itself is used as an image having the same light source environment as the original extended image.
  • An example of using an image different from the original extended image will be described later.
  • FIG. 10 shows an example of a specific evaluation image group.
  • Figure 10 shows the evaluation image group (I, I).
  • Fig. 11 shows a group of images with corners, which are schematically represented as a single image.
  • I is connected by two overlapping images (with A i + B 1 (I, I).
  • FIG. 12 is a flowchart showing the operation of the V Lama image synthesis unit 104 in the present embodiment. It is.
  • steps common to FIG. 4 are denoted by the same reference numerals as in FIG. 4, and detailed description thereof is omitted here.
  • the difference from the first embodiment is that it includes a step S31 for determining whether or not an evaluation image group exists, and a step S32 for calculating a linear coefficient with a small error when the evaluation image group exists. This is the point.
  • step S31 the presence / absence of the evaluation image group is determined from the images stored in the image storage unit 103. If there is an evaluation image group (Yes in S31), a linear coefficient with less error is calculated using an image belonging to this evaluation image group (S32). On the other hand, if not (No in S31), the processing after step S11 is performed as in the first embodiment.
  • FIG. 13 shows an example of an evaluation image group consisting of n sets of I force and I for image I (light source
  • kG is the kth image group
  • FIG. 14 is a flowchart showing a specific processing flow of the evaluation image group determination step S31. Hereinafter, the processing flow of S31 will be described with reference to FIG.
  • step S41 one arbitrary image I is selected from the images stored in the image storage unit 103.
  • step S42 it is determined whether or not all images stored in the image storage unit 103 in step S41 have been selected.
  • the history of the image I selected in step S41 is stored in a memory, and the image stored in the image storage unit 103 is referred to.
  • Step S43 it is determined whether or not a pair exists. This determination can be realized by using the overlapping region detection method described in the first embodiment. As a result of the determination, when two or more image groups do not exist (No in S43), the process returns to Step S41 and image I is reselected. On the other hand, the image group is at least
  • Step S43 When two sets exist (Yes in S43), 0 is substituted for k in Step S44.
  • step S45 one set (A, k) of the image group determined in step S43.
  • step S46 B k + 1 k + 1
  • A means k + 1 n n detected in step S43.
  • Step S48 and if k is too small (Yes in S48), increment k (step S49), return to step S45 and repeat the process. On the other hand, if k is not smaller than the threshold beam (No in S48), the process returns to step S41 and image I is reselected.
  • the threshold t for the number of repetitions may be determined as follows, for example. That is, when the total number of captured images stored in the image storage unit 103 is a, when a is divided by the number N of images having the B region in the overlapping image group (3 in the description of each embodiment) The value of the quotient can be used as the threshold value t.
  • the condition number of the matrix D described in the first embodiment is calculated in each B area, and the value of the condition number is equal to or less than the threshold value in each B area, and the condition in each B area
  • the evaluation image group having the smallest sum of the number values may be selected as having the highest independence. Thereby, a panoramic image with less luminance error can be synthesized.
  • evaluation image group occupies them.
  • the image having the largest number of pixels in the image area may be selected. As a result, the number of calculations until the final panoramic image is synthesized is reduced, and the luminance error of the panoramic image can be reduced.
  • step S31 is performed by performing the processing of steps S41—S50.
  • the presence or absence of the evaluation image group can be determined.
  • C k is a linear coefficient set of the k-1th image group and the kth image group.
  • Equation 8 by finding the coefficient set that gives the highest evaluation value e-val, it is possible to minimize the accumulation of errors due to repetitive calculations when synthesizing the V Lama image.
  • the linear coefficient can be calculated.
  • the evaluation function E (A) is expressed as I and I k k k k in the kth A region
  • i represents the pixel value in I.
  • Equation 9 use (Equation 9) to find three sets of coefficients c for A 1 ! /! Similarly, using (Equation 10), the three coefficient pairs c, c, c are found in the A456 region. This is done using RANSAC, for example, the evaluation value e va
  • FIG. 15 is a view for explaining the process of panoramic image synthesis according to the present embodiment.
  • the extended image I is extended to area 1 using overlap area A. Similarly, using overlap area A
  • the top three sets of linear coefficients to be calculated are retained, and the combination of linear coefficients with the highest final evaluation value is selected.
  • the luminance error (the difference value of the luminance value is 2 or less) with the image I used for the composite image 1 1 ⁇ composition in the A region is minimized.
  • FIG. 16 is a panoramic image synthesized by the method described with reference to FIG. FIG. 16 (a) is an extended image I, and FIG. 16 (b) is a panoramic image I generated by this embodiment.
  • FIG. 16 is a panoramic image synthesized by the method described with reference to FIG. FIG. 16 (a) is an extended image I, and FIG. 16 (b) is a panoramic image I generated by this embodiment.
  • FIG. 16 is a panoramic image synthesized by the method described with reference to FIG. FIG. 16 (a) is an extended image I
  • FIG. 16 (b) is a panoramic image I generated by this embodiment.
  • FIG. 17 shows a comparison result between the first embodiment and this embodiment.
  • FIG. 17 shows the mean square error of the luminance and the variance of the error when the correct image is used as a reference for the panoramic image synthesized in each embodiment. From FIG. 17, it can be seen that the panorama image generated by the present embodiment has less error and less error variance than the panorama image generated by the first embodiment. This shows the effectiveness of the panoramic image synthesis method according to the third embodiment.
  • the evaluation value e-val holds a plurality of high power coefficient pairs in each A region, and the combination of coefficient sets having the highest evaluation value e in the combination of those coefficient sets is the optimal linear relationship.
  • the evaluation value e-val instead of calculating and holding multiple linear coefficient pairs in each A area, for example, instead of calculating and holding multiple linear coefficient sets, Perform selection to calculate the linear coefficient ⁇ Evaluate the calculated linear coefficient using (Equation 8), and repeat the process multiple times to obtain the highest evaluation value e-val and the combination of coefficients You may choose.
  • the pixel value calculated using the linear coefficient calculated in each region of (Equation 4) and (Equation 6), and the original target value are used.
  • the linear coefficient may be obtained so that the square error with the pixel value of the extended image is minimized.
  • the initial value of the linear coefficient the highest evaluation linear coefficient obtained in each A region is used, and the gradient method is used to minimize the error function E shown in (Equation 12).
  • This square error function is shown in (Equation 13).
  • i b is the kth pixel position in image I
  • m, n indicate the number of pixels in each A area.
  • step S31 for determining presence or absence is slightly different from the flow in FIG.
  • Figure 19 shows the image power with the same light source environment as the extended image I.
  • the image I is different from the extended image I.
  • step S41 one arbitrary image I is selected from the images stored in the image storage unit 103.
  • step S61 an image of the same light source environment as image I selected in step S41 is displayed.
  • Detect image I As a specific detection method, for example, it does not matter if a measurement object is placed in the measurement object region and its change is examined. For example, it may be possible to place an object of barium sulfate or Spectralon that does not cause specular reflection by causing complete diffuse reflection.
  • the light source environment is considered to change with time. Even if it is judged that the optical environment has changed, it will not help. This is particularly effective in an environment where sunlight enters through, for example, a window.
  • a light source state may be imaged using a specular sphere, and the change may be detected. Of course, it does not matter to shoot the light source state with the wide-angle camera facing the ceiling.
  • the position of the pixel with the highest luminance in the imaging region may be recognized, and when the position moves, it may be determined that the light source environment has changed. This is because the brightness is the highest and the pixel is considered to cause specular reflection! /, So the change in the light source position is detected by detecting the movement of this position.
  • step S42 it is determined whether all images stored in the image storage unit 103 in step S41 have been selected. As a result of the determination, if all the images have already been selected (Yes in S42), it is determined that there is no evaluation image group (S50).
  • step S62 (Yes in step S62), 0 is substituted for k in step S44.
  • step S45 one set of image groups (A, B) is selected from the image group determined in step S62, and at least one set is further included in the B region of the selected image group.
  • step S45 If it is determined that does not exist (No in S45), the process returns to step S41 to reselect the image.
  • step S63 B k + 1 k + 1
  • Step S49 Whether or not the threshold value is too small (Yes in S48), increment k (Step S49), and return to Step S45 to repeat the process. On the other hand, if k is not smaller than the threshold beam (No in S48), return to step S41 and reselect image I. Do.
  • the presence or absence of can be determined.
  • the step S31 for determining whether or not an evaluation image group exists and the step S32 for calculating a linear coefficient with a small error when the evaluation image group exists include Since linear coefficients can be calculated to minimize the accumulation of errors due to repetitive calculations during image composition, panoramic image composition with fewer luminance errors can be performed, and the accuracy of object detection can be improved. improves.
  • a panoramic image having a constant light source environment can be synthesized, and by using a plurality of the V-Rama images, an image force captured in an arbitrary light source environment can be detected, so that for example, It is useful for detecting intruders in surveillance systems in places where the light environment changes frequently, such as outdoors.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

明 細 書
パノラマ画像合成方法および物体検出方法、パノラマ画像合成装置、撮 像装置、物体検出装置、並びにパノラマ画像合成プログラム
技術分野
[0001] 本発明は、いわゆるノ Vラマ画像を合成する技術、およびパノラマ画像を用いて画 像力 物体を検出する技術に関する。
背景技術
[0002] パンチルト (PT)カメラ等を用いて物体検出を行う方法としては、撮像された複数枚 の画角の異なる画像から 1枚の大きなパノラマ画像を合成し、合成されたパノラマ画 像を用いて背景差分等の画像処理を行う方法が有効である。
[0003] このようなパノラマ画像合成に関する従来技術として、例えば特許文献 1では、カメ ラの位置、姿勢、および入力画像対カゝら画像解析によって動きベクトルを求め、その 動きベクトルに基づいてカメラパラメータを算出し、算出したカメラパラメータに従って 画像を貼り合せてパノラマ画像合成を行う方法が開示されている。この方法により、 各画像間での正確な位置合わせを行うことができ、位置歪の少な!ヽパノラマ画像を 合成することができる。
特許文献 1:特開 2002—150264号公報
発明の開示
発明が解決しょうとする課題
[0004] し力しながら、上述の従来技術では、ノ Vラマ画像合成に用いる画像を撮像して ヽ る間に光源の位置、方向、強さ、個数などの光源環境に変化が生じた場合、生成さ れるパノラマ画像は、部分ごとに光源状態が異なる、すなわち光源環境が同一でな V、パノラマ画像となる。このような光源環境が同一でな 、パノラマ画像を用いて背景 差分を行った場合、物体以外の背景領域も物体として検出されてしまい、物体検出 の精度は大きく低下する。
[0005] また、ノ Vラマ画像を合成した後に光源環境に変化が生じた場合も、物体検出を行 う画像とパノラマ画像とで光源環境が大きく異なるので、物体以外の背景領域も物体 として検出されてしまい、背景差分による物体検出の精度は大きく低下する。
[0006] このような光源環境の変化に起因する問題は、例えば屋外での物体検出を行う場 合には特に顕著となり、実際のシステムとして適用するためには、この問題を解消す る必要がある。
[0007] 前記の問題に鑑み、本発明は、光源環境に変化が生じた場合においても物体検 出を可能にすべぐ画像全体にわたって光源環境が同一のパノラマ画像を、合成可 能にすることを課題とする。
課題を解決するための手段
[0008] 前記の課題を解決するために、本発明は、ノ Vラマ画像合成方法として、第 1の重 複領域を共通に持ち、かつ、第 1の重複領域以外の第 2の重複領域を持つ N (Nは 3 以上の整数)枚の画像と第 2の重複領域を持たな ヽ被拡張画像とからなる重複画像 群を、取得し、被拡張画像の線形係数を、第 1の重複領域における重複画像群の画 像それぞれの画素値を用いて算出し、算出した線形係数と、第 2の重複領域におけ る N枚の画像それぞれの画素値とを用いて、被拡張画像のサイズを第 2の重複領域 まで拡張し、このサイズが拡張された被拡張画像を基にして、パノラマ画像を合成す るものである。
[0009] この発明によると、第 1の重複領域の各画像から求めた線形係数を用いることによ つて、被拡張画像を、第 2の重複領域まで拡張することができる。すなわち、任意に 選択した被拡張画像と同一の光源環境における画像を、「被拡張画像 +第 2の重複 領域」まで、拡張することができる。したがって、画像全体にわたって光源環境が同一 のパノラマ画像を容易に生成することができる。
[0010] なお、本願明細書でいうところの「光源環境が同一のノ Vラマ画像」とは、そのパノラ マ画像の各部分において、推定される光源の位置、方向、強さおよび個数が、実質 的にほぼ同一であるもの、のことをいう。理論上は、光源環境を完全に同一にするこ とは可能であるが、実際には、線形係数の算出誤差等に起因して、光源環境が完全 には同一にはならない場合もあり得る。本願発明は、そのような場合も、含むものであ る。
[0011] また、本発明は、画像から物体を検出する方法として、前記本発明のノ Vラマ画像 合成方法によって、検出対象画像の撮影範囲を含む複数のパノラマ画像を生成し、 検出対象画像と複数のパノラマ画像とを基にして、検出対象画像と光源環境が同一 の予測背景画像を生成し、これを検出対象画像と対比することによって、物体検出を 行うものである。
[0012] この発明によると、検出対象画像について、画像全体にわたって光源環境が同一 のノ Vラマ画像を複数枚用いることによって、光源環境が同一の予測背景画像が生 成される。これにより、ノ Vラマ画像と光源環境が異なっている画像についても、精度 良ぐ物体検出を行うことができる。
発明の効果
[0013] 本発明によると、画像の線形ィ匕を利用することによって、光源環境が同一のノ Vラ マ画像を合成することができる。また、このパノラマ画像を複数枚用いることによって、 任意の光源環境にぉ ヽて撮影した画像から、物体検出を行うことができる。
図面の簡単な説明
[0014] [図 1]図 1は本発明の第 1の実施形態に係る物体検出装置の構成図である。
[図 2]図 2はカメラの位置 ·姿勢を定義する座標系を示す図である。
[図 3]図 3はパノラマ投影面座標系への座標変換方法を示す図である。
[図 4]図 4は図 1のノ Vラマ画像合成部の動作であり、本発明の第 1の実施形態に係 るノ Vラマ画像合成方法を示すフローチャートである。
[図 5]図 5は選択された重複画像群の一例を示す模式図である。
[図 6]図 6は線形化係数の算出方法を説明するための図である。
[図 7]図 7はパノラマ画像を用いた物体検出を示す図である。
[図 8]図 8は本発明の第 2の実施形態に係るパノラマ画像合成方法を示すフローチヤ ートである。
[図 9]図 9は本発明の第 1の実施形態に係るパノラマ画像合成方法を用いて合成した ノ Vラマ画像の一例を示す図である。
[図 10]図 10は評価画像群の例を示す図である。
[図 11]図 11は図 10を模式的に表した図である。
[図 12]図 12は本発明の第 3の実施形態に係るパノラマ画像合成方法を示すフローチ ヤートである。
[図 13]図 13は評価画像群の一例の模式図である。
[図 14]図 14は評価画像群の判定処理を示すフローチャートである。
[図 15]図 15はパノラマ画像合成の過程を説明する図である。
[図 16]図 16はパノラマ画像の例である。
[図 17]図 17は第 1の実施形態と第 3の実施形態との比較結果である。
[図 18]図 18は評価画像群の一例の模式図である。
[図 19]図 19は評価画像群の判定処理を示すフローチャートである。
符号の説明
[0015] 11 A領域 (第 1の領域)
12 B領域 (第 2の領域)
23 空き缶 (物体)
101 撮像部
102 撮像画像補正部
103 画像記憶部
104 パノラマ画像合成部
105 物体検出部
106 検出物体表示部
発明を実施するための最良の形態
[0016] 本発明の第 1態様では、パノラマ画像合成方法として、第 1の重複領域を共通に持 ち、かつ、前記第 1の重複領域以外の第 2の重複領域を持つ N (Nは 3以上の整数) 枚の画像と前記第 2の重複領域を持たな 、被拡張画像とからなる重複画像群を、取 得するステップと、前記被拡張画像の線形係数を、前記第 1の重複領域における前 記重複画像群の画像それぞれの画素値を用いて、算出するステップと、前記線形係 数と、前記第 2の重複領域における前記 N枚の画像それぞれの画素値を用いて、前 記被拡張画像のサイズを前記第 2の重複領域まで拡張するステップとを備え、サイズ が拡張された前記被拡張画像を基にしてパノラマ画像を合成するものを提供する。
[0017] 本発明の第 2態様では、前記 N枚の画像として、光源環境が互いに異なっている画 像を取得する第 1態様のパノラマ画像合成方法を提供する。
[0018] 本発明の第 3態様では、算出した前記被拡張画像の線形係数の信頼性を判定す るステップを備え、信頼性が低いと判定したとき、重複画像群の再取得を行う第 1態 様のパノラマ画像合成方法を提供する。
[0019] 本発明の第 4態様では、前記取得ステップは、画像記憶部に記憶された画像の中 から重複画像群を選択するものであり、前記画像記憶部に新たな画像が入力された とき、重複画像群の再選択を行い、この新重複画像群と旧重複画像群とで画像合成 の好適性を比較し、この比較結果を基にしてパノラマ画像を更新する力否かを判定 する第 1態様のパノラマ画像合成方法を提供する。
[0020] 本発明の第 5態様では、画像合成の好適性を拡散反射画素の個数を用いて判断 するものであり、新重複画像群の方が拡散反射画素の個数が多いとき、ノ Vラマ画像 の更新を行う第 4態様のパノラマ画像合成方法を提供する。
[0021] 本発明の第 6態様では、画像合成の好適性を画像間の独立性を用いて判断するも のであり、新重複画像群の方が画像間の独立性が高いとき、ノ Vラマ画像の更新を 行う第 4態様のパノラマ画像合成方法を提供する。
[0022] 本発明の第 7態様では、第 1態様のパノラマ画像合成方法によって、検出対象画像 の撮影範囲を含む複数のパノラマ画像を生成するステップと、前記検出対象画像と 前記複数のパノラマ画像とを基にして、前記検出対象画像と光源環境が同一の予測 背景画像を生成するステップと、前記検出対象画像と前記予測背景画像とを対比し 、物体検出を行うステップとを備えた物体検出方法を提供する。
[0023] 本発明の第 8態様では、前記複数のパノラマ画像は少なくとも 3枚である第 7態様の 物体検出方法を提供する。
[0024] 本発明の第 9態様では、前記取得ステップにおいて、同一の前記第 1の重複領域 を持つ前記重複画像群が複数個あるとき、各重複画像群について、算出される線形 係数の信頼性を評価し、信頼性が最も高 ヽものを選択する第 1態様のパノラマ画像 合成方法を提供する。
[0025] 本発明の第 10態様では、被拡張画像に対して、評価画像群が存在するか否かを 判定するステップを備え、評価画像群が存在するとき、この評価画像群を用いて、前 記被拡張画像の線形係数を算出する第 1態様のパノラマ画像合成方法を提供する。
[0026] 本発明の第 11態様では、前記評価画像群が複数個存在するとき、当該評価画像 群に含まれた前記第 2の重複領域における画像の独立性が最も高いものを選択する 第 10態様のパノラマ画像合成方法を提供する。
[0027] 本発明の第 12態様では、前記評価画像群が複数個、存在するとき、当該評価画 像群が占める画像領域における画素数が最も多いものを選択する第 10態様のパノ ラマ画像合成方法を提供する。
[0028] 本発明の第 13態様では、第 1の重複領域を共通に持ち、かつ、前記第 1の重複領 域以外の第 2の重複領域を持つ N (Nは 3以上の整数)枚の画像と、前記第 2の重複 領域を持たな!ヽ被拡張画像とからなる重複画像群を取得する手段と、前記被拡張画 像の線形係数を、前記第 1の重複領域における前記重複画像群の画像それぞれの 画素値を用いて、算出する手段と、前記線形係数と、前記第 2の重複領域における 前記 N枚の画像それぞれの画素値を用いて、前記被拡張画像のサイズを、前記第 2 の重複領域まで拡張する手段とを備え、サイズが拡張された前記被拡張画像を基に して、ノ Vラマ画像を合成するパノラマ画像合成装置を提供する。
[0029] 本発明の第 14態様では、撮像部と、前記撮像部によって撮像された画像に対して 、幾何学的補正および光学的補正を行う撮像画像補正部と、前記撮像画像補正部 によって補正された画像を記憶する画像記憶部と、前記画像記憶部に記憶された画 像を入力とする第 13態様のパノラマ画像合成装置とを備え、前記パノラマ画像合成 装置は、前記重複画像群を、前記画像記憶部に記憶された画像の中から取得する 撮像装置を提供する。
[0030] 本発明の第 15態様では、第 14態様の撮像装置と、前記撮像装置が備えた前記パ ノラマ画像合成装置によって合成されたパノラマ画像を用いて、物体検出を行う物体 検出部と、前記物体検出部によって検出された物体の領域を表示する検出物体表 示部とを備えた物体検出装置を提供する。
[0031] 本発明の第 16態様では、コンピュータにパノラマ画像合成を実行させるプログラム として、第 1の重複領域を共通に持ち、かつ、前記第 1の重複領域以外の第 2の重複 領域を持つ N (Nは 3以上の整数)枚の画像と、前記第 2の重複領域を持たな 、被拡 張画像とからなる重複画像群を取得するステップと、前記被拡張画像の線形係数を
、前記第 1の重複領域における前記重複画像群の画像それぞれの画素値を用いて 算出するステップと、前記線形係数と、前記第 2の重複領域における前記 N枚の画像 それぞれの画素値を用いて、前記被拡張画像のサイズを、前記第 2の重複領域まで 拡張するステップと、サイズが拡張された前記被拡張画像を基にして、ノ Vラマ画像 を合成するステップとをコンピュータに実行させるものを提供する。
[0032] 本発明の第 17態様では、互いに一部の画像領域が重複し、かつ、光源環境が異 なる複数の部分画像を入力とし、前記入力した部分画像に基づいて、前記各部分画 像よりも広い領域にわたり、光源環境が同一のノ Vラマ画像を生成し、出力するパノ ラマ画像合成装置を提供する。
[0033] 以下、本発明の実施の形態について、図面を参照しつつ、説明する。
[0034] (第 1の実施形態)
図 1は本発明の第 1の実施形態に係るパノラマ画像合成方法を用いた物体検出装 置の構成図である。図 1において、 101は静止画または動画を撮像する撮像部、 10 2は撮像部 101によって撮像された画像に対して補正を行う撮像画像補正部、 103 は撮像画像補正部 102を用いて補正された画像を記憶する画像記憶部、 104は画 像記憶部 103に記憶された画像からパノラマ画像を合成するパノラマ画像合成装置 としてのパノラマ画像合成部、 105は撮像部 101によって撮像された画像およびパノ ラマ画像合成部 104によって合成されたパノラマ画像を用いて物体検出を行う物体 検出部、 106は物体検出部 105によって検出された物体領域を表示する検出物体 表示部である。撮像部 101、撮像画像補正部 102、画像記憶部 103およびパノラマ 画像合成部 104によって、本発明の撮像装置が構成されている。
[0035] 以下、図 1の物体検出装置について、撮像方向の異なる複数枚の画像からパノラ マ画像を合成し、合成されたパノラマ画像を用いて物体検出を行う場合の動作を説 明する。ここで述べる物体検出とは、光源環境の異なる少なくとも 3枚のパノラマ画像 の合成を行い、これを背景として、その後撮像された画像の中から背景以外に映り込 むものを検出することを指す。
[0036] なお、説明の簡単のため、環境条件として、光源は平行光源であり、物体の表面は 完全拡散反射面であるものと仮定する。
[0037] 撮像部 101は撮像方向の異なる画像の撮像を行う。具体的には例えば、パンチル
HPT)動作可能なビデオカメラやデジタルスチルカメラ、または、 ρτ動作可能な雲 台に固定されたビデオカメラやデジタルスチルカメラによって、撮影が実行される。こ こでは、 PT動作可能なビデオカメラを用いるものとする。
[0038] また撮像部 101は撮像した画像とともに、カメラの位置 ·姿勢情報を撮像画像補正 部 102〖こ送る。カメラの位置'姿勢情報とは、図 2に示す (Xw, Yw, Zw, θ , φ )の 5 つのパラメータをいう。 Xw, Yw, Zwは世界座標系におけるカメラの位置座標(点 o) を示し、 θ , φはそれぞれカメラ座標系における Y軸、 X軸の正方向に対して左回り に回転させる角度 (パン角,チルト角)を示す。カメラの位置 ·姿勢の検出は、例えば GPS等の位置検出装置、ジャイロスコープ等の姿勢検出装置を用いればよい。また 、予め計画された撮影プラン力 カメラの位置 ·姿勢を算出してもよい。予め計画され た撮影プランとは例えば、カメラを始点 (X , Y , Z , θ , φ )から φの正方向に角速
0 0 0 0 0
度 0. l 7u [radZsec]の等速運動に従って動かす、等といったものである。
[0039] 撮像画像補正部 102は撮像部 101によって撮像された画像に対し、幾何学的補正 、光学的補正、および撮像画像座標系からパノラマ投影面座標系への座標変換を 行う。撮像画像の幾何学的補正としては、レンズ歪の補正を行う。例えば、「コンビュ ータビジョン技術評論と将来展望, pp. 42-44,新技術コミュニケーション, 1998」に 示された Wengらによるレンズ歪補正方法を用いればよい。また、撮像画像の光学的 補正としては、周辺減光の補正を行う。例えば「平成 12年度ナチュラルビジョンの研 究開発プロジェクト (次世代映像表示 ·伝送システム)研究開発報告書, pp. 51-53 ,通信'放送機構, 2001」に示された、輝度の時間変動の無い 1つの点光源を被写 体とし、その点光源が所望の位置に来るようにカメラの首を振り、観測された各位置 での輝度値の逆数を用いて周辺減光の補正係数を算出する方法を、用いればょ 、
[0040] また、ノ Vラマ投影面座標系への座標変換方法としては、例えば図 3に示すとおり、 撮像画像座標系 (i, j)カゝら円筒座標系に投影を行ったパノラマ投影面座標系 (u, V) への変換を行う関数を fとすると、 fは撮像部 101から送られたカメラの位置 ·姿勢情報 を用いて次式によって表される。
(u, V) = f (i, j , Xw, Yw, Zw, θ , φ ) (式 1)
なお、撮像画像座標系(i, j)からパノラマ投影面座標系(u, V)への変換は球面座標 系を用いた投影を行ってもよい。また、パン'チルト角が小さい場合は平面座標系を 用いた投影を行ってもよい。
[0041] なお、上述の撮像画像補正部 102で用いる各補正パラメータは、本装置で物体検 出を行う以前に予め求めておく。
[0042] 画像記憶部 103は撮像画像補正部 102によって補正を行った画像とカメラの位置' 姿勢情報を、記憶媒体に記憶する。記憶媒体とは、例えばメモリゃノ、ードディスク、フ イルム等によって実現される。
[0043] <パノラマ画像合成 >
ノ Vラマ画像合成部 104は画像記憶部 103に記憶された複数枚の画像から、パノ ラマ画像を生成する。以下、ノ Vラマ画像合成部 104の動作を図 4のフローチャート を用いて説明する。
[0044] まず、ステップ S11において、画像記憶部 103に記憶された画像の中から、第 1の 重複領域 (A領域)を共通に持つ重複画像群であって、かつ、 A領域以外の第 2の重 複領域 (B領域)を持つ N (Nは 3以上の整数)枚の画像と、 B領域を持たな 、被拡張 画像としての画像とからなる重複画像群を、選択する(Sl l)。ここでは、 Nは 3として いる。図 5は選択された重複画像群の例を示す模式図である。図 5において、 1 , 1 , 1
1 2
, Iは画像記憶部 103から選択された画像であり、これら 4枚の画像 I , I , I , Iは A
3 4 1 2 3 4 領域 11において重複している。また A領域 11以外の B領域 12において、 3枚の画像 1 , 1 , 1が重複しており、画像 I は B領域 12を含まない。なお、 A領域および B領域
1 2 3 4
における重複画像の枚数に関しては、後述する。
[0045] 各画像の重複領域の検出は、例えば、パノラマ投影面座標系(u, V)における各画 像の座標値を用いて行えばよい。また、ある画素位置に対する重複画像群が複数存 在するときは、例えば、 B領域を持つ 3枚の画像間の独立性が最も高いものを、選択 するようにしてもよい。この具体的な方法については、後述する。
[0046] 次に、ステップ S12において、ステップ S 11で選択した重複画像群を用いて、被拡 張画像の拡張に用いる線形係数を算出する。線形係数の算出は、 A領域における 重複画像群の各画像の画素値を用いて、 Shashuaの方法(「Shashua A., "Geometry and Photometry in 3D Visual Recognition , P.D. thesis, Dept. Brain and し ognitive Science, MIT, 1992」参照)に基づいて、行う。
[0047] 以下、 Shashuaの方法による線形係数の算出について、詳しく説明する。 Shashuaは 、平行光源と、被写体表面が全て完全拡散反射面であることとを仮定することによつ て、光源方向の異なる 3枚の画像の線形結合により任意の光源方向の画像を表現で きることを示している。すなわち、光源方向が異なる 3枚の画像をベクトル表現したも のを I , 1 , 1
1 2 3とすると、任意の光源方向の画像 I
4は、次式のように線形結合によって表 現できる。
I =c 'ΐ +c 2I +c 3I (式 2)
4 4 1 4 2 4 3
ここで、 c = [c 1 c 2 c 3]Tを画像 Iに対する線形係数として算出する。
4 4 4 4 4
[0048] 具体的には図 6に示すように、 4枚の画像 I , 1 , 1 , 1に対して、 3点の画素座標 P (
1 2 3 4 1
X , y ), P (X , y ), P (X , y )の選択を行い、選択された 3点 P , P , Pの各座標に
1 1 2 2 2 3 3 3 1 2 3 おける画素値 iを利用し、次の式を用いて線形化係数の算出を行う。
[数 1]
4(Wi )
2, 2 )
(式 3 )
ただし、
Figure imgf000012_0001
ここで、 i は入力画像 kにおける画素座標 (X, y)の画素値を表して!/、る。
k(x,y)
[0049] この(式 3)により、線形係数 c = [c 1 c 2 c 3]τの算出を行うことができる。これによ
4 4 4 4
り、任意の光源方向の画像 Iを I , I , I , c = [c 1 c 2 c 3]Τを用いて表現することが
4 1 2 3 4 4 4 4
できる。また、 D—1が算出できない場合は、 3点 Ρ (X , y ) , Ρ (X , y ) , Ρ (X , y )の
1 1 1 2 2 2 3 3 3 再選択を行う。 3点 P , P , Pの選択方法および線形係数の導出の詳細については
1 2 3
、例えば「光学現象の分類基準を利用した画像の線形化」(画像の認識'理解シンポ ジゥム (MIRU2002)論文集, vol.2, pp. 167-176, 2002)に記載されている。
[0050] このような Shashuaの方法を用い、選択された重複画像群の 4枚の画像の A領域に ついて、(式 3)の計算を行い、線形係数を求める。このとき、 B領域を持つ 3枚の画像 を I , I , Iとし、 B領域を持たない被拡張画像を Iとして、線形係数 c = [c 1 c 2 c 3]
1 2 3 4 4 4 4 4 τの算出を行う。
[0051] なお、ここで説明したように、光源が平行光源であり、物体表面が完全拡散反射面 であると仮定したとき、任意光源方向の画像は 4枚の画像を用いて合成することがで きるため、本実施形態では、重複画像群として、 Α領域を共通に持つ 4枚の画像を選 択すればよいことになる。
[0052] また、拡散反射画素とは、(式 2)の振る舞いをする画素のことを示す。
[0053] 次にステップ S13において、ステップ S 12で算出された線形係数に対する信頼性を 判定する。ここでの線形係数の信頼性判定とは、重複画像群の中の B領域を持つ 3 枚の画像間の独立性を判定することである。具体的な判定方法としては、例えば、ス テツプ S12で算出した行列 Dの条件数を用いる。すなわち、行列 Dの条件数を求め、 この条件数が所定の閾値よりも小さいときは、選択した B領域を持つ 3枚の画像は独 立であり、算出した線形係数は信頼性があると判定する。一方、所定の閾値よりも大 きいときは、算出した線形係数は信頼性が低いと判定し、ステップ S11に戻り、同じ A 領域を持ち、 V、まの重複画像群とは異なる重複画像群の再選択を行う。
[0054] ここで、信頼性が低いと判定される原因は、
〇 いずれかの画像において、選択した 3画素のうち 2個以上の法線方向が同じ 〇 少なくとも 2枚以上の画像について、光源状態が等しい
の何れかであり、このような信頼性の低 ヽ線形係数を用いてパノラマ画像を合成した 場合、輝度の誤差が大きいパノラマ画像が生成される。逆に、信頼性があると判定さ れた場合は、 B領域を持つ 3枚の画像は、各々光源方向が異なっており、かつ、被写 体表面の法線方向の異なる画素が 3画素以上存在する、という条件を満たすことにな る。このような信頼性の高い線形係数を用いてパノラマ画像を合成した場合は、輝度 の誤差が小さいパノラマ画像の生成が可能となる。上述した輝度の誤差とは、被拡張 画像と同一の光源環境で撮影された理想的なパノラマ画像と、生成されたパノラマ画 像との輝度誤差を示す。
[0055] なお、ステップ SI 1にお 、て重複画像群の選択を行う際に、同じ A領域に対する重 複画像群の候補が複数存在するとき、算出される線形係数の信頼性が最も高いもの を、選択するようにしてもよい。具体的には例えば、上述の条件数が最小となる候補 を、重複画像群として選択すればよい。これは、条件数が小さいほど、算出した線形 係数の信頼性が高い、または、選択した重複画像群に含まれた B画像を持つ 3枚の 画像の独立性が高い、といえるからである。
[0056] また、ステップ S11— S13の処理においては、(式 3)における D—1の有無と信頼性 の高い Dの条件数を基準にして、重複画像の選択と選択された画像中の 3点の選択 を行うことによって最適な線形係数を行う。よって、同じ基準を用いた処理であれば 他の手法であっても力まわない。例えば S12において D—1, Dの条件数の算出を同時 に行い、 S13では算出された D— Dの条件数の信頼性判定を行い、信頼性のない 場合には 3点 P (X , y ) , P (X , y ) , P (X , y )の再選択を行ってもよい。この場合
1 1 1 2 2 2 3 3 3
、 3点 P (X , y ) , P (X , y ) , P (X , y )の選択を所定回数繰り返しても信頼性のあ
1 1 1 2 2 2 3 3 3
る線形係数が算出されないときは、重複画像の再選択を行えばよい。
[0057] そして、線形係数が信頼性ありと判定されたとき(S 13で Yes)、ステップ S 14におい て、この線形係数と B領域を持つ 3枚の画像の画素値とを用いて被拡張画像のサイ ズを拡張する。ここでは、信頼性があると判定された線形係数 cおよび画像 I , 1 , 1
4 1 2 3 の B領域における画素値を、それぞれ (式 2)に代入することによって、被拡張画像 I
4 を「Iの画像領域 + B領域」まで拡張する。このように、(式 2)を用いて被拡張画像 I
4 4 の拡張を行うためには、 3枚の画像 I , 1 , 1が被拡張画像 Iの画像領域以外の領域
1 2 3 4
にお 、て、重複する領域 (すなわち B領域)を持つ必要がある。 [0058] このようにステップ Sl l— S14によって、重複画像群に含まれた被拡張画像を、「原 画像領域 + B領域」まで拡張することができる。したがって、このような処理を繰り返し 行うことによって、画像全体にわたって光源環境が同一であるノ Vラマ画像を容易に 生成することができる。
[0059] 次に、ステップ S 15において、画像が所望のパノラマ画像の全領域まで拡張された か否かを判定する。そして、まだ全領域まで拡張されていないと判定したときは(S 15 で No)、ステップ S14において拡張した画像を画像記憶部 103において記憶媒体に 格納し (S16)、ステップ S11に戻る。一方、全領域まで拡張されていると判定したとき は(S 15で Yes)、そのパノラマ画像を画像記憶部 103において記憶媒体に格納する (S17)。ステップ S15における判定方法としては、例えば、拡張された画像の画素数 が全領域分の画素数となったとき、全領域まで拡張されたと判定するようにすればよ い。また、ノ Vラマ画像を記憶する記憶媒体としては、例えばメモリゃノヽードディスク、 フィルム等を用いればよい。このように、ステップ S11— S16の処理を繰り返すことに よって、全領域まで拡張された光源環境が同一である 1枚のパノラマ画像が画像記 憶部 103に記憶される。ステップ S11— S16によって、本実施形態に係るパノラマ画 像合成方法が実現される。
[0060] 次に、終了判定を行う(S18)。本実施形態では、後述するように、物体検出を行う ために光源方向が異なる 3枚のノ Vラマ画像を生成する必要がある。このため、ここ では、画像記憶部 103に画像間の独立性のあるパノラマ画像が 3枚以上存在すると き(S18で Yes)処理を終了し、画像間の独立性のあるノ Vラマ画像が 3枚未満のとき は(S 18で No)ステップ S 11に戻り、新たなパノラマ画像の合成を行うものとする。
[0061] ここでの判定方法としては例えば、行列式の値を用いればょ 、。具体的には、画像 記憶部 103に記憶されたパノラマ画像の中から任意の 3枚のノ Vラマ画像 (I P, I P, I
1 2 3
Pとする)を選択し、選択したパノラマ画像 I P, I P, I Pにおける 3点 P (x , y ) , P (x , y
1 2 3 1 1 1 2 2
) , P (x , y )の画素値を (式 3)における行列 Dの形に置き、行列式 I D Iの算出を
2 3 3 3
行う。そして、この行列式 I D Iの値が 0でないとき、これら 3枚のパノラマ画像 I P, I P
1 2
, I
3 pは光源方向が異なるパノラマ画像と判定し、処理を終了する。
[0062] 一方、行列式 I D Iの値力^になるときは、選択した 3枚のパノラマ画像 I P, , が独立でな 、と判断できるので、画像記憶部 103に記憶された他の 3枚のノ Vラマ画 像の組み合わせを選択し、同様の処理を行う。画像記憶部 103に記憶されたパノラ マ画像のうちいずれの 3枚を選択しても、行列式の値が 0になるときは、ステップ S 11 に戻る。もちろん、ノ Vラマ画像が 2枚以下の場合も、ステップ S 11に戻る。
[0063] 以上のような処理を実行することによって、ノ Vラマ画像合成部 104において、画像 間の独立性のある 3枚のノ Vラマ画像が合成される。
[0064] 図 9は本実施形態に係るパノラマ画像合成方法によって合成したパノラマ画像の一 例である。図 9 (a)は画像サイズが拡張される被拡張画像 10と光源方向の異なる 3枚 の画像 I , 1 , 1を示す。図 9 (b)は上述した本実施形態の方法によって、図 9 (a)の 4
1 2 3
枚の画像 I , 1 , 1 , 1の重複領域を用いて、光源環境を画像 10に合わせるように合成
0 1 2 3
したパノラマ画像である。また、図 9 (c)は従来手法の 1つであるヒストグラム一致法( 詳細は「画像解析ノヽンドブック」、東京大学出版会、 pp. 463, 1991を参照)によって 、画像 I , I
0 1を用いて、光源環境を画像 I
0に合わせるように合成した画像である。
[0065] 図 9 (b)のノ Vラマ画像では、図 9 (c)の画像と対比すると分力るように、輝度誤差が 少なぐ画像のつなぎ目がない。すなわち、本実施形態に係るパノラマ画像合成方法 によると、光源方向の異なる画像が与えられても、輝度誤差の少ないパノラマ画像が 合成される。
[0066] なお、本実施形態に係る方法によって合成されたパノラマ画像は、拡散反射画素 のみによって構成されたパノラマ画像となる。このような画像をパノラマ基底画像と呼
[0067] <パノラマ画像を用いた物体検出 >
物体検出部 105は、撮像画像補正部 102から受けた画像について、ノ Vラマ画像 合成部 104から入力された 3枚のノ Vラマ画像を用いて、物体検出を行う。ここでの 物体検出は、例えば、背景差分を用いればよい。
[0068] 本実施形態における背景差分を用いた物体検出の例について、図 7を用いて説明 する。図 7では、冷蔵庫 21とテーブル 22が置かれた部屋において、テーブル 22を撮 影し、その画像から、テーブル 22に置かれた物体 (空き缶 23)を検出する場合を示し ている。 , , I Pはパノラマ画像合成部 104から入力されたパノラマ画像であり、背 景として床、冷蔵庫 21およびテーブル 22を撮している。これら 3枚のノ Vラマ画像 I P
1
, I p, I pは、物体検出を行う画像を撮す前に撮影された画像を用いて、すでに合成さ
2 3
れている。いま、 PTカメラ 25によって、画像 Iが撮されたとする。画像 Iでは、テープ
4 4
ル 22の上に空き缶 23が乗って!/、る。
[0069] ここで、各パノラマ画像 I P, I P, I Pから画像 Iの画像領域に対応する画像 I , I , Iを
1 2 3 4 1 2 3 切り出し、これらの画像 I , 1 , 1 , 1を用いて、(式 3)により線形係数 c = [c 1 c 2 c 3
1 2 3 4 4 4 4 4
]Tを算出する。画像 Iには背景以外の物(図 7の例では空き缶 23)が存在している。
4
このため、(式 3)を用いて線形係数 c = [c 1 c 2 c 3]τを算出する際に、 3点 PI, Ρ2
4 4 4 4
, Ρ3として背景以外の点が選択されてしまう(例えば、空き缶 23が映った領域に点 Ρ 1, Ρ2, Ρ3が選択される)場合があり得る。この場合には、線形係数の算出が正しく 行えない。ただし、例えば RANSAC (「MA.FischlerandR.C.Bolles, "Random sample consensus: a paradigm for model fitting with application to image analysis and automated cartography, Commun, Assoc, Comp, Mach,24, pp.381- 395, 1981」参照) を用いることによって、 3点 PI, P2, P3を 4枚の画像全ての背景成分上で選択するこ とができ、背景以外のものの影響を受けることなぐ線形係数を算出することが可能と なる (詳細は、「光学現象の分類基準を利用した画像の線形化」画像の認識'理解シ ンポジゥム (MIRU2002)論文集, vol.2, pp. 167—176, 2002を参照)。このように算出さ れた線形係数 cおよび画像 I , 1 , 1の画素値を (式 2)に代入することによって、現在
4 1 2 3
の照明条件下において撮像された画像 I
4に対する予測背景画像 I E
4を作成することが できる。そして、この予測背景画像 I Eと元の画像 Iとの画素値の差分が所定の閾値よ
4 4
りも大きい領域を、物体領域として検出する。
[0070] そして、検出物体表示部 106は、物体検出部 105によって検出された物体の領域 を例えばモニタなどの表示装置に表示する。
[0071] 以上のように本実施形態によると、線形ィ匕を用いた画像拡張によって、画像全体に わたって光源環境が一定のパノラマ画像を生成することができる。そして、このような ノ Vラマ画像を複数枚用いることによって、任意の光源環境において撮影した画像 から、背景差分による物体検出を行うことが可能になる。
[0072] なお、本実施形態では、(式 3)を用いて線形係数の算出を行うものとした力 (式 3) は選択した 3点 P , P , Pの画素が全て拡散反射であることを仮定した式である。実
1 2 3
環境においては、鏡面反射等の拡散反射以外の成分が画像に含まれるので、(式 3 )が必ずしも成り立たない可能性がある。ただし、尺長らの方法 (詳細は「光学現象の 分類基準を利用した画像の線形化」,画像の認識 ·理解シンポジウム (MIRU2002)論 文集, vol.2, pp. 167-176, 2002を参照)を用いることによって、これら拡散反射画素 以外の画素値の影響を受けずに、 3点 P , P , Pの画素が全て拡散反射画素となる
1 2 3
ような選択を行うことが可能になる。
[0073] また本実施形態では、光源を平行光源と仮定したため、パノラマ画像合成や物体 検出の際に 4枚の画像を用いることによって、正しい線形係数を算出することができ た。ところが、実環境下の光源には相互反射等の環境光が含まれるため、線形係数 の算出を 4枚の画像を用いて行った場合、実際の画像に対して誤差が大きい線形ィ匕 画像しか得られない可能性がある。ただし、このような環境光が含まれる光源条件下 であっても、 5枚よりも多くの画像を用いることによって、線形係数の算出を精度良く 行うことができ、本実施形態と同様に、画像の線形化を用いた画像拡張や物体検出 を行うことが可能となる。例えば、環境光が含まれる場合であっても、 4一 9枚の画像 を用いて、誤差の少ない線形ィ匕画像を作成できることが、すでに報告されている(詳 細は、「双方向反射分布関数の周波数特性に基づく反射成分の分離」,情報処理学 会研究報告, CVIM 2002-134-1, pp.1- 8,2002を参照)。
[0074] (第 2の実施形態)
上述したように、実環境で撮像される画像には拡散反射画素以外の画素が多く含 まれる。これらの画素は、画像合成処理においてノイズとなり、生成されるパノラマ画 像の輝度誤差が大きくなる原因となる。また、重複領域を持つ画像群の独立性が低 い場合にも、ノ Vラマ画像の輝度誤差が大きくなる原因となる。このため、例えば監視 システムのような、画像が逐次入力されるシステムでは、新たな入力画像を用いたとき に、すでに生成されて 、るノ Vラマ画像よりも輝度誤差が少な 、パノラマ画像を得る ことができる場合には、ノ Vラマ画像を更新することが好ましい。これにより、拡散反射 画素以外の画素によるノイズの影響を最小限に抑えることができる。
[0075] 本発明の第 2の実施形態では、第 1の実施形態の構成に加えて、パノラマ画像を適 宜更新するものである。本実施形態に係る物体検出装置の構成は、図 1と同様であ る力 ノ Vラマ画像合成部 104において、ノ Vラマ画像の更新を行う点が異なる。図 8 は本実施形態におけるノ Vラマ画像合成部 104の動作を示すフローチャートである。 図 8において、図 4と共通のステップには図 4と同一の符号を付しており、ここではそ の詳細な説明を省略する。第 1の実施形態と異なるのは、ノ Vラマ画像を更新するか 否かを判定するステップ S 21を備えている点である。
[0076] すなわち、ステップ S21において、画像記憶部 103に新たな画像が入力されたとき 、重複画像群の再選択を行い、同じ重複領域を持つ、新重複画像群と旧重複画像 群とで画像合成の好適性を比較する。そして、新重複画像群の方が、画像合成に好 適であると判断したときは、ノ Vラマ画像を更新すると判定し (S21で Yes)、ステップ S 11以降の処理に進む。一方、そうでないときは(S21で No)、パノラマ画像の更新 を行わない。
[0077] ここで、新重複画像群とは、画像記憶部 103に新たな画像が入力されたときの、新 たな入力画像とそれまでに記憶されている画像とを組み合わせた重複画像群を示す 。組み合わせ方法は、ステップ S11においてすでに説明したような条件および方法を 用いて、実現することができる。
[0078] 画像合成の好適性を判断する方法としては、例えば、新重複画像群および旧重複 画像群を用いて、それぞれ、ステップ S 12— S 14までの処理を行って合成画像を作 成し、作成された合成画像における拡散反射画素の個数を比較し、その個数が多い 方を好適性ありとすればよい。拡散反射画素の検出は、例えば、ある閾値以下の画 素値を持つ画素を陰影画素とし、また、ある閾値以上の画素値を持つ画素を鏡面反 射画素とし、これら陰影画素および鏡面反射画素を除いた画素の総和を、拡散反射 画素の個数とすればよい。
[0079] また、画像合成の好適性を判断する他の方法としては、例えば、各重複画像群の 拡散反射画素の総数を用いて画像合成の好適性を判断してもよ ヽ。ステップ S12に おいて線形係数を算出する際、算出に用いる画素に陰影画素や鏡面反射画素が選 択された場合、正しい線形係数を算出することができない。よって、用いる重複画像 の A領域において拡散反射画素の個数が多いほど、正しい線形係数の算出が期待 できる。すなわち、新重複画像群の A領域における各画像の拡散反射画素の総数が 旧重複画像群の A領域における各画像の拡散反射画素の総数よりも多いとき、パノ ラマ画像の更新を行うようにすればよい。
[0080] また、画像合成の好適性を判断する他の方法としては、例えば、画像間の独立性 を用いて、画像合成の好適性を判断してもよい。すなわち、旧重複画像群に対して 新重複画像群の方が、画像間の独立性が高いとき、パノラマ画像の更新を行うように すればよい。画像間の独立性の判定は、例えば、ステップ S13において説明した方 法 (条件数を算出し、条件数が小さいほど独立性が高いと判定)によって実現できる 。また、旧重複画像群で線形係数を算出する際に用いた 3点の座標位置と同じ座標 位置における輝度値を用いて新重複画像群の条件数の算出を行い、算出された新 重複画像群の条件数が旧重複画像群の条件数よりも小さいとき、パノラマ画像の更 新を行うようにしてもよい。
[0081] このように本実施形態によると、画像合成により好適な重複画像群が得られたときに ノ Vラマ画像が更新されるので、より輝度誤差の少な 、パノラマ画像を作成すること が可能となる。したがって、物体検出の精度もより向上させることができる。
[0082] (第 3の実施形態)
上述したパノラマ画像合成方法では、線形係数算出の計算を逐次的に繰り返すこ とによって、画像を拡張する。しかし、このような画像拡張では、輝度誤差の評価は各 々の A領域において逐次的にしカゝ行えないため、計算を繰り返して画像を拡張して いくと、画像中に含まれるノイズや量子化誤差などが蓄積されていく。これは、最終的 に合成されるパノラマ画像の輝度誤差が大きくなる原因になる。このため、所望の画 像サイズに拡張するまでに用いる画像の組み合わせが複数通り考えられる場合は、 このような繰り返し計算による誤差の蓄積を最小限に抑えるように、画像合成を行うこ とが好ましい。これにより、より輝度誤差の少ないパノラマ画像が得られ、物体検出の 精度も向上する。
[0083] 本発明の第 3の実施形態では、第 1の実施形態の構成に加えて、パノラマ画像合 成時における繰り返し演算による誤差を軽減するものである。本実施形態に係る物 体検出装置の構成は図 1と同様である力 画像記憶部 103に、いわゆる評価画像群 が存在する場合、パノラマ画像合成部 104は、第 1の実施形態とは異なる処理方法 によって、線形係数の算出を行う。
[0084] ここで「評価画像群」とは、「被拡張画像と重複画像群として連結された画像群にお V、て、被拡張画像と同一の光源環境を持つ画像が少なくとも 1枚存在する画像群」と 定義する。もう少し具体的に説明すると、ある被拡張画像 I
0と本発明の重複画像群を 構成する N枚の画像をまず特定し、次に、この N枚の画像の B領域を被拡張画像とし たときにこれと重複画像群を構成する N枚の画像を特定し、さらに、この N枚の画像 の B領域と重複画像群を構成する N枚の画像を特定する、というように、重複画像群 を構成する N枚の画像を、連結するように、順次特定していく。そして、最後に特定し た N枚の画像が、元の被拡張画像 Iと光源環境が同一である画像と重複したとき、そ
0
れまでに特定した複数組の N枚の画像と元の被拡張画像 Iとを、「評価画像群」とす
0
る。
[0085] この評価画像群を用いることによって、複数の A領域を併せて用いて輝度誤差の評 価を行うことが可能となり、各 A領域で逐次的に輝度誤差の評価を行 ヽつつ画像を 拡張した第 1の実施形態に比べて、輝度誤差の少ないパノラマ画像の合成が可能と なる。
[0086] なお、ここでは、元の被拡張画像と光源環境が同一の画像として、元の被拡張画像 自体を用いるものとする。元の被拡張画像とは別の画像を用いる例については、後 述する。
[0087] 図 10は具体的な評価画像群の例を示す。図 10は画像 Iに対して評価画像群 (I , I
0 4
, I ) (I , I , I )が存在している最も単純な例である。 (I , I , I ) (I , I , I )は同じ画
5 6 7 8 9 4 5 6 7 8 9
角を持つ画像群であり、これらを 1枚の画像として模式的に表したものを図 11に示す 。図 11において、 Iは 2個の重複画像群で連結されており(A i + B 1を持つ (I , I
0 456 456 4 5
, I )、および A J + B 456を持つ (I , I , I ) )、 A 1と A 1は同じ画像 Iに属している
6 789 789 7 8 9 456 789 0
ので、連結された画像群内に、被拡張画像と光源環境が同一である画像が存在して いるといえる(共に画像 I ) o ) (I , I , I )
0 よって、 I
0および (I , I , I
4 5 6 7 8 9 は画像 I
0に対する評 価画像群であるといえる。
[0088] 図 12は本実施形態におけるノ Vラマ画像合成部 104の動作を示すフローチャート である。図 12において、図 4と共通のステップには図 4と同一の符号を付しており、こ こではその詳細な説明を省略する。第 1の実施形態と異なるのは、評価画像群が存 在するか否かを判定するステップ S 31、および評価画像群が存在する場合に誤差の 少な 、線形係数を算出するステップ S32を備えて 、る点である。
[0089] すなわち、ステップ S31において、画像記憶部 103に記憶された画像の中から、評 価画像群の有無の判定を行う。そして、評価画像群があったときは(S31で Yes)、こ の評価画像群に属する画像を利用して誤差の少ない線形係数の算出を行う(S32) 。一方、そうでないときは(S31で No)、第 1の実施形態と同様に、ステップ S11以降 の処理を行う。
[0090] 評価画像群の有無の具体的な判定方法を図 13および図 14を用いて説明する。図 13は、画像 Iに対して I 力も I の n組で構成された評価画像群の一例である(光源
0 0G n-lG
環境が同一である画像が共に被拡張画像 I )。この I
0であるケース
kGは k番目の画像群
Iを表している。また、 k番目の A領域を A、 k番目の B領域を Bと表している(k = 0,l k k k
,· ··, n)。また、図 14は評価画像群判定ステップ S31の具体的な処理の流れを示す フローチャートである。以下、図 14を用いて S31の処理の流れを説明する。
[0091] まず、ステップ S41において、画像記憶部 103に記憶された画像の中から、任意の 1枚の画像 Iを選択する。
0
[0092] 次に、ステップ S42において、ステップ S41で画像記憶部 103に記憶された全ての 画像が選択されたカゝ否かの判定を行う。判定方法としては、ステップ S41で選択した 画像 Iの履歴をメモリに記憶しておき、画像記憶部 103に記憶された画像との参照を
0
行うことにより判定することができる。判定の結果、既に全ての画像の選択を行ってい たときは(S42で Yes)、評価画像群なしと判定する(S50)。
[0093] 全ての画像をまだ選択して!/、な 、と判定したとき(S42で No)、ステップ S43にお!/ヽ て、ステップ S41で選択した画像 Iに対して、 A+B領域を持つ画像群が少なくとも 2
0
組存在するか否かを判定する。ここでの判定は、第 1の実施形態で述べた重複領域 の検出方法を用いて実現できる。判定の結果、画像群が 2組以上存在しないときは( S43で No)、ステップ S41に戻り、画像 Iの再選択を行う。一方、画像群が少なくとも
0
2組存在するときは(S43で Yes)、ステップ S44において kに 0を代入する。 [0094] 次に、ステップ S45において、ステップ S43で判定された画像群のうちの 1組 (A , k
B )を選択し、選択した画像群の B領域内にさらに少なくとも 1組の A+B領域を持つ k k
画像群 (A , B )が存在するカゝ否かを判定する。ここでの判定も、第 1の実施形態 k+1 k+1
で述べた重複領域の検出方法を用いて実現できる。ここで、新たな画像群が存在し ないと判定されたときは(S45で No)、ステップ S41に戻り、画像の再選択を行う。
[0095] 新たな画像群 (A , B )が存在するとき(S45で Yes)、ステップ S46において、 B k+1 k+1
領域内に Aが存在するか否かを判定する。ここで、 Aとは、ステップ S43で検出さ k+1 n n
れた画像群のうち、ステップ S45で選択されな力つた画像群の A領域を指す。 B に k+1
Aが存在するときは(S46で Yes)、評価画像群ありと判定し、処理を終了する。
[0096] 一方、 B に Aが存在しなかったときは(S46で No)、 kが閾値 tよりも小さいか否か k+1 n
を判定し (ステップ S48)、 kが閾値はりも小さいときは(S48で Yes)、 kをインクリメント し (ステップ S49)、ステップ S45に戻って処理を繰り返す。一方、 kが閾値はりも小さ くないときは(S48で No)、ステップ S41にもどり、画像 Iの再選択を行う。
0
[0097] ここで、繰り返し回数の閾値 tは、例えば次のようにして決定すればよい。すなわち、 画像記憶部 103に記憶されている全撮像画像数が a枚とすると、 aを、重複画像群中 の B領域を持つ画像の数 N (各実施形態の説明では 3)で除したときの商の値を、閾 値 tとして用いればよい。
[0098] なお、画像 Iに対して評価画像群が複数個、存在するときは、その評価画像群に存
0
在する各 B領域における N枚の画像の独立性力 最も高いものを、選択してもよい。 例えば、各 B領域にお 、て第 1の実施形態で述べた行列 Dの条件数の計算を行 、、 この条件数の値が各 B領域において閾値以下であり、かつ、各 B領域における条件 数の値の総和が最も小さい評価画像群を、独立性が最も高いものとして、選択すれ ば良い。これにより、輝度誤差がより少ないパノラマ画像を合成することができる。
[0099] また、画像 Iに対して評価画像群が複数個、存在するとき、その評価画像群が占め
0
る画像領域における画素数が、最も多いものを、選択してもよい。これにより、最終的 なパノラマ画像を合成するまでの計算回数が少なくなり、パノラマ画像の輝度誤差を より少、なくすることができる。
[0100] 以上のように、ステップ S41— S50の処理を行うことによって、ステップ S31における 評価画像群の有無を判定することができる。
[0101] 次に、 S32において、 S31で選択された評価画像群を用いて、繰り返し計算による 誤差の蓄積が小さい線形係数の算出を行う。算出方法としては、例えば評価画像群 内の各 A領域にぉ 、て複数の線形係数組を算出しておき、それらの係数組の組み 合わせの中から最も輝度誤差が小さくなる係数組を選択すればよ!、。この処理の流 れを図 13を用いて説明する。
[0102] 図 13において、 C kを、 k-1番目の画像群と k番目の画像群との線形係数組を表 k-1
す記号として用いると、各画像間には以下の式が成り立つ。
I =C 'ΐ (式 4)
0 0 1G
I =C ¾ (式 5)
1G 1 2G
I =C "I (式 6)
(n-l)G n-1 nG
[0103] ここで、(式 4)一(式 6)にお 、て、複数個 (N個)の係数組 C kを求めておく。一方、 k-1
(式 4)一(式 6)より、
I =C JC 2- --C "I (式 7)
0 0 1 n-1 nG
が成り立つ。ここで、評価画像群が存在する場合には、(式 7)により求まった画像 I (I
0
^する)と現実の被拡張画像 Iとの画素値を、 A領域において直接比較できる。この
0 0 n
ため、(式 8)の評価式に従い、評価値 e—valが最も高くなる係数組を求めることによ り、ノ Vラマ画像合成を行う際の繰り返し計算による誤差の蓄積が最小となるような線 形係数の算出を行うことができる。評価関数 E (A )は、 k番目の A領域における Iと I k k k k
1 ^との画素値の差分が閾値以下の画素数の総和(e—val)を求めればよい。
[数 2] "I = Ec0 (A0 ) + Ecl {A, ) + Ec2 (A2 ) + - - + Ec cUc2_...xn(An ) (式 8 )
[0104] すなわち、(式 8)により、最も評価値 e—valが高くなる係数組 C kの組み合わせを 一 k-1
、各 A領域で算出した N個の係数組の組み合わせ力 選択すればょ 、。
[0105] 以上、 S32における最適な線形係数の算出方法について説明した。以下、具体的 な算出例を、図 11を用いて説明する。 [0106] 図 11において、 Iと(I , I , I )には、次の式が成り立つ。
[数 3]
(式 9 )
Figure imgf000025_0001
[0107] また、 (I , I , I )と(I , I , I )には、次の式が成り立つ。
[数 4]
(式 1 0 )
Figure imgf000025_0002
[0108] 一方、 Iと(I , I , I )には、 (式 9)、 (式 10)より次の式が成り立つ。
[数 5] 一 ― 一
-
(式 1 1 )
[0109] ここで、 iは Iにおける画素値を表して 、る。はじめに(式 9)を用いて A 1にお!/、て 3 通りの係数組 cを求める。同様に(式 10)を用いて A 456領域において 3通りの係数 組 c, c, cを求める。これは例えば RANSACを用いて(式 8)で示した評価値 e va 一
1の高 、上位 3組の係数組を求めればょ 、。これにより(式 9)から(式 11)では各々 3 組の c , c , c , cの係数組の組み合わせにより、全 81通りの I Lが算出される。次にこ の 81通りの中で (式 12)に示される評価値 e (各 A領域での e— valの総和)が最も高 V、係数組の組み合わせを選択する。
[数 6] e
Figure imgf000025_0003
)
(式 1 2 ) [0110] 図 15は本実施形態に係るパノラマ画像合成の過程を説明する図である。被拡張画 像 Iは、重複領域 Aを用いて領域 1まで拡張される。同様に、重複領域域 Aを用い
0 0 1 て領域 2まで拡張され、重複領域 Aを用いて領域 3まで拡張される。各領域を拡張す
2
るにあたり、算出する線形係数の上位 3組を保持し、最終的な評価値が最も高くなる 線形係数の組み合わせを選択する。ここでは、 A領域における合成画像 1 1 ^合成に k 用いた画像 Iとの輝度誤差 (輝度値の差分値が 2以下)が最も少なくなるようにした。
k
[0111] 図 16は図 15を用いて説明した方法で合成したパノラマ画像である。図 16 (a)は被 拡張画像 I、図 16 (b)は本実施形態によって生成されたパノラマ画像 Iである。図 16
0 P
(b)を見ると分力るように、輝度誤差の無い良好なパノラマ画像が得られている。
[0112] 図 17は第 1の実施形態と本実施形態との比較結果を示す。図 17は、各実施形態 で合成されたパノラマ画像について、正解画像を基準にしたときの、輝度の平均 2乗 誤差および誤差の分散を表している。図 17から、本実施形態によって生成されたパ ノラマ画像は第 1の実施形態によって生成されたパノラマ画像に比べ、誤差が少なく 、誤差の分散が小さいことが分かる。これは、第 3の実施形態に係るパノラマ画像合 成方法の有効性を示して 、る。
[0113] なお、 S32では、各 A領域で評価値 e— valが高 ヽ係数組を複数保持し、それらの 係数組の組合せにおいて最も評価値 eが高くなる係数組の組合せを最適な線形係 数として算出したが、他の最適な線形係数の算出方法としては、例えば、各 A領域で 複数の線形係数組を算出して保持する代わりに、全ての A領域で同時に 3点の画素 値の選択を行って線形係数の算出を行 \算出された線形係数を (式 8)を用いて評 価を行 、、これを複数回繰り返す中で最も評価値 e—valの高 、係数の組み合わせ を選択しても良い。
[0114] また、 S32における他の最適な線形係数の算出方法としては、例えば、(式 4)一 ( 式 6)の各領域で算出した線形係数を用いて算出した画素値と、元の被拡張画像の 画素値との 2乗誤差が最少となるように、線形係数を求めてもよい。具体的には、例 えば線形係数の初期値として、各 A領域で求めた最も評価の高 ヽ線形係数を用い、 勾配法を用いて (式 12)に示す誤差関数 Eを最少にする係数組を求めれば良い(詳 細は「Numerical Recipes in C 日本語版」 ,ρρ.292— 295,株式会社技術評論社, 199 3)。この 2乗誤差関数を (式 13)に示す。 i bは画像 Iにおける k番目の画素位置にお a a
ける画素値を示し、 1, m, nは各 A領域の画素数を示す。
[数 7]
Figure imgf000027_0001
(式 1 3 )
[0115] なお、ここまでは、評価画像群において、元の被拡張画像と光源環境が同一である 画像が、被拡張画像自体である場合を例にとって、説明を行った。ただし、一般的に は、図 18に示すように、評価画像群において、被拡張画像 Iと光源環境が同一であ
0
る画像は、画像 Iと異なる画像 Iであってもカゝまわない。この場合、評価画像群の存
0 η
在の有無を判定するステップ S31における処理の流れが、図 14のフローとは、若干 異なる。
[0116] 図 19は被拡張画像 Iと光源環境が同一である画像力 被拡張画像 Iと異なる画像 I
0 0
である場合のステップ S31の処理を示すフローチャートである。図 19において、図 1 4と共通のステップには図 14と同一の符号を付しており、ここではその詳細な説明を 省略する。図 14の処理と異なるのは、被拡張画像 Iと光源環境が同一である画像 I
0 η を検出する点である(検出対象画像には画像 Iも含まれるので、必ず 1枚以上は存在
0
する)
まず、ステップ S41において、画像記憶部 103に記憶された画像の中から、任意の 1枚の画像 Iを選択する。
0
[0117] 次に、ステップ S61では、ステップ S41で選択された画像 Iと同一の光源環境の画
0
像 Iの検出を行う。具体的な検出方法としては、例えば、測定対象領域に測定対象 物を設置し、その変化を調べるようにしても力まわない。これは、例えば完全拡散反 射を起し、鏡面反射を生じな 、硫酸バリウムゃスぺクトラロンの物体を置くようにしても かまわない。
[0118] また、時間変化によって光源環境は変化すると考えられるので、一定時間経過ごと に光学環境が変化したと判断しても力まわない。これは、例えば窓などにより太陽光 が入り込んでくる環境にぉ 、て特に有効である。
[0119] また、鏡面球を使って光源状態を撮像し、その変化を検出するようにしてもよい。も ちろん、広角カメラを天井方向に向けて光源状態を撮影しても力まわない。
[0120] また、撮像領域内において、最も輝度が高い画素の位置を認識し、その位置が動 いた際には光源環境が変化したと判断するようにしても構わない。これは、最も輝度 が高 、画素は鏡面反射を起して!/、ると考えられるため、この位置が動くことを検出す ることで光源位置の変化を検出するものである。
[0121] 次に、ステップ S42において、ステップ S41で画像記憶部 103に記憶された全ての 画像が選択されたカゝ否かの判定を行う。判定の結果、既に全ての画像の選択を行つ て 、たときは(S42で Yes)、評価画像群なしと判定する(S50)。
[0122] 全ての画像をまだ選択して!/、な 、と判定したとき(S42で No)、ステップ S62にお!/ヽ て、ステップ S41で選択した画像 Iに対して、 A+B領域を持つ画像群が少なくとも 1
0
組存在するかを判定する。判定の結果、画像群が 1組も存在しないときは(S62で No )、ステップ S41に戻り、画像 Iの再選択を行う。一方、画像群が少なくとも 1組存在す
0
るときは (ステップ S62で Yes)、ステップ S44において kに 0を代入する。
[0123] 次に、ステップ S45において、ステップ S62で判定された画像群の中から 1組の画 像群 (A , B )を選択し、選択した画像群の B領域内にさらに少なくとも 1組の A+B k k k
領域を持つ画像群 (A , B )が存在するか否かを判定する。ここで、新たな画像群 k+1 k+1
が存在しないと判定されたときは(S45で No)、ステップ S41に戻り、画像の再選択を 行う。
[0124] 新たな画像群 (A , B )が存在するとき(S45で Yes)、ステップ S63において、 B k+1 k+1
領域内に画像 Iとの重複領域 (A )が存在するか否かを判定する。存在するときは ( k+1 n n
S63で Yes)、評価画像群ありと判定し、処理を終了する。
[0125] 一方、 B に画像 Iとの重複領域が存在しな力つたときは(S63で No)、 kが閾値は k+1 n
りも小さいか否かを判定し (ステップ S48)、 kが閾値はりも小さいときは(S48で Yes) 、 kをインクリメントし (ステップ S49)、ステップ S45に戻って処理を繰り返す。一方、 k が閾値はりも小さくないときは(S48で No)、ステップ S41にもどり、画像 Iの再選択を 行う。
[0126] このように、評価画像群において、被拡張画像 Iと光源環境が同一である画像が被
0
拡張画像 Iと異なる画像であった場合でも、図 19に示す処理によって、評価画像群
0
の有無を判定することができる。
[0127] このように本実施形態によると、評価画像群が存在するか否かを判定するステップ S31、および評価画像群が存在する場合に誤差の少ない線形係数を算出するステ ップ S32により、画像合成を行う際の繰り返し計算による誤差の蓄積を最小限に抑え るような線形係数の算出を行うことができるので、より輝度誤差の少ないパノラマ画像 合成を行うことができ、物体検出の精度も向上する。
産業上の利用可能性
[0128] 本発明では、光源環境が一定のパノラマ画像を合成でき、このノ Vラマ画像を複数 枚用いることによって、任意の光源環境において撮影した画像力も物体検出を行うこ とができるので、例えば、屋外等の光環境が頻繁に変化するような場所の、監視シス テムにおける侵入者検出等に有用である。

Claims

請求の範囲
[1] 第 1の重複領域を共通に持ち、かつ、前記第 1の重複領域以外の第 2の重複領域 を持つ N (Nは 3以上の整数)枚の画像と、前記第 2の重複領域を持たな 、被拡張画 像とからなる重複画像群を、取得するステップと、
前記被拡張画像の線形係数を、前記第 1の重複領域における前記重複画像群の 画像それぞれの画素値を用いて、算出するステップと、
前記線形係数と、前記第 2の重複領域における前記 N枚の画像それぞれの画素値 を用いて、前記被拡張画像のサイズを、前記第 2の重複領域まで拡張するステップと を備え、
サイズが拡張された前記被拡張画像を基にして、パノラマ画像を合成する ことを特徴とするパノラマ画像合成方法。
[2] 請求項 1において、
前記 N枚の画像として、光源環境が互いに異なっている画像を、取得する ことを特徴とするパノラマ画像合成方法。
[3] 請求項 1において、
算出した前記被拡張画像の線形係数の信頼性を判定するステップを備え、 信頼性が低 ヽと判定したとき、重複画像群の再取得を行う
ことを特徴とするパノラマ画像合成方法。
[4] 請求項 1において、
前記取得ステップは、画像記憶部に記憶された画像の中から、重複画像群を選択 するものであり、
前記画像記憶部に新たな画像が入力されたとき、重複画像群の再選択を行い、こ の新重複画像群と旧重複画像群とで画像合成の好適性を比較し、この比較結果を 基にして、ノ Vラマ画像を更新する力否かを判定する
ことを特徴とするパノラマ画像合成方法。
[5] 請求項 4において、
画像合成の好適性を、拡散反射画素の個数を用いて、判断するものであり、 新重複画像群の方が、拡散反射画素の個数が多いとき、パノラマ画像の更新を行 5
ことを特徴とするパノラマ画像合成方法。
[6] 請求項 4において、
画像合成の好適性を、画像間の独立性を用いて、判断するものであり、 新重複画像群の方が、画像間の独立性が高いとき、パノラマ画像の更新を行う ことを特徴とするとするパノラマ画像合成方法。
[7] 請求項 1のパノラマ画像合成方法によって、検出対象画像の撮影範囲を含む複数 のパノラマ画像を生成するステップと、
前記検出対象画像と前記複数のパノラマ画像とを基にして、前記検出対象画像と 光源環境が同一の予測背景画像を生成するステップと、
前記検出対象画像と前記予測背景画像とを対比し、物体検出を行うステップとを備 えた
ことを特徴とする物体検出方法。
[8] 請求項 7において、
前記複数のパノラマ画像は、少なくとも 3枚である
ことを特徴とする物体検出方法。
[9] 請求項 1において、
前記取得ステップにお 、て、同一の前記第 1の重複領域を持つ前記重複画像群が 、複数個あるとき、各重複画像群について、算出される線形係数の信頼性を評価し、 信頼性が最も高 ヽものを選択する
ことを特徴とするパノラマ画像合成方法。
[10] 請求項 1において、
被拡張画像に対して、評価画像群が存在するか否かを、判定するステップを備え、 評価画像群が存在するとき、この評価画像群を用いて、前記被拡張画像の線形係 数を算出する
ことを特徴とするパノラマ画像合成方法。
[11] 請求項 10において、
前記評価画像群が複数個、存在するとき、当該評価画像群に含まれた前記第 2の 重複領域における画像の独立性が、最も高いものを、選択する
ことを特徴とするパノラマ画像合成方法。
[12] 請求項 10において、
前記評価画像群が複数個、存在するとき、当該評価画像群が占める画像領域にお ける画素数が、最も多いものを、選択する
ことを特徴とするパノラマ画像合成方法。
[13] 第 1の重複領域を共通に持ち、かつ、前記第 1の重複領域以外の第 2の重複領域 を持つ N (Nは 3以上の整数)枚の画像と、前記第 2の重複領域を持たな 、被拡張画 像とからなる重複画像群を、取得する手段と、
前記被拡張画像の線形係数を、前記第 1の重複領域における前記重複画像群の 画像それぞれの画素値を用いて、算出する手段と、
前記線形係数と、前記第 2の重複領域における前記 N枚の画像それぞれの画素値 を用いて、前記被拡張画像のサイズを、前記第 2の重複領域まで拡張する手段とを 備え、
サイズが拡張された前記被拡張画像を基にして、パノラマ画像を合成する ことを特徴とするパノラマ画像合成装置。
[14] 撮像部と、
前記撮像部によって撮像された画像に対して、幾何学的補正および光学的補正を 行う撮像画像補正部と、
前記撮像画像補正部によって補正された画像を記憶する画像記憶部と、 前記画像記憶部に記憶された画像を入力とする請求項 13のパノラマ画像合成装 置とを備え、
前記パノラマ画像合成装置は、前記重複画像群を、前記画像記憶部に記憶された 画像の中力 取得するものである
ことを特徴とする撮像装置。
[15] 請求項 14の撮像装置と、
前記撮像装置が備えた前記パノラマ画像合成装置によって合成されたパノラマ画 像を用いて、物体検出を行う物体検出部と、 前記物体検出部によって検出された物体の領域を表示する検出物体表示部とを備 えた
ことを特徴とする物体検出装置。
[16] コンピュータに、ノ Vラマ画像合成を実行させるプログラムであって、
第 1の重複領域を共通に持ち、かつ、前記第 1の重複領域以外の第 2の重複領域 を持つ N (Nは 3以上の整数)枚の画像と、前記第 2の重複領域を持たな 、被拡張画 像とからなる重複画像群を、取得するステップと、
前記被拡張画像の線形係数を、前記第 1の重複領域における前記重複画像群の 画像それぞれの画素値を用いて、算出するステップと、
前記線形係数と、前記第 2の重複領域における前記 N枚の画像それぞれの画素値 を用いて、前記被拡張画像のサイズを、前記第 2の重複領域まで拡張するステップと サイズが拡張された前記被拡張画像を基にして、ノ Vラマ画像を合成するステップ とを、
コンピュータに実行させるパノラマ画像合成プログラム。
[17] 互いに一部の画像領域が重複し、かつ、光源環境が異なる複数の部分画像を入 力とし、
前記入力した部分画像に基づいて、前記各部分画像よりも広い領域にわたり、光 源環境が同一のパノラマ画像を生成し、出力する
パノラマ画像合成装置。
PCT/JP2005/001829 2004-07-28 2005-02-08 パノラマ画像合成方法および物体検出方法、パノラマ画像合成装置、撮像装置、物体検出装置、並びにパノラマ画像合成プログラム WO2006011255A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006528343A JP3971783B2 (ja) 2004-07-28 2005-02-08 パノラマ画像合成方法および物体検出方法、パノラマ画像合成装置、撮像装置、物体検出装置、並びにパノラマ画像合成プログラム
US11/132,654 US7535499B2 (en) 2004-07-28 2005-05-19 Panorama image synthesis method, object detection method, panorama image synthesis system, image shooting apparatus, and panorama image synthesis program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004220719 2004-07-28
JP2004-220719 2004-07-28

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/132,654 Continuation US7535499B2 (en) 2004-07-28 2005-05-19 Panorama image synthesis method, object detection method, panorama image synthesis system, image shooting apparatus, and panorama image synthesis program

Publications (1)

Publication Number Publication Date
WO2006011255A1 true WO2006011255A1 (ja) 2006-02-02

Family

ID=35731677

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/001829 WO2006011255A1 (ja) 2004-07-28 2005-02-08 パノラマ画像合成方法および物体検出方法、パノラマ画像合成装置、撮像装置、物体検出装置、並びにパノラマ画像合成プログラム

Country Status (3)

Country Link
US (1) US7535499B2 (ja)
JP (1) JP3971783B2 (ja)
WO (1) WO2006011255A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017059233A (ja) * 2015-09-15 2017-03-23 株式会社リコー 画像合成方法及び装置
CN107492084A (zh) * 2017-07-06 2017-12-19 哈尔滨理工大学 基于随机性的典型成团细胞核图像合成方法

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9805301B1 (en) * 2005-03-04 2017-10-31 Hrl Laboratories, Llc Dynamic background estimation for video analysis using evolutionary optimization
US20070047834A1 (en) * 2005-08-31 2007-03-01 International Business Machines Corporation Method and apparatus for visual background subtraction with one or more preprocessing modules
JP4671430B2 (ja) * 2006-06-02 2011-04-20 キヤノン株式会社 撮像装置、撮像装置の制御方法、プログラム及び記録媒体
KR100866230B1 (ko) * 2007-04-12 2008-10-30 삼성전자주식회사 파노라마 사진 촬영 방법
WO2009040871A1 (ja) * 2007-09-25 2009-04-02 Fujitsu Limited 画像合成装置及び方法
US8934008B2 (en) 2009-12-07 2015-01-13 Cognitech, Inc. System and method for determining geo-location(s) in images
EP2533188A1 (en) * 2010-02-01 2012-12-12 Nec Corporation Portable terminal, action history depiction method, and action history depiction system
KR20110131949A (ko) * 2010-06-01 2011-12-07 삼성전자주식회사 영상 처리 장치 및 방법
CN101872113B (zh) * 2010-06-07 2014-03-19 中兴通讯股份有限公司 一种全景照片的拍摄方法及设备
US8861890B2 (en) 2010-11-24 2014-10-14 Douglas Alan Lefler System and method for assembling and displaying individual images as a continuous image
KR101784176B1 (ko) 2011-05-25 2017-10-12 삼성전자주식회사 영상 촬영 장치 및 그 제어방법
WO2013106346A1 (en) * 2012-01-09 2013-07-18 Qualcomm Incorporated Ocr cache update
TWI578271B (zh) 2012-10-23 2017-04-11 義晶科技股份有限公司 動態影像處理方法以及動態影像處理系統
KR101776706B1 (ko) * 2012-11-30 2017-09-08 한화테크윈 주식회사 복수의 카메라 기반 사람계수장치 및 방법
US9639987B2 (en) * 2013-06-27 2017-05-02 Canon Information And Imaging Solutions, Inc. Devices, systems, and methods for generating proxy models for an enhanced scene
US10521100B2 (en) 2015-08-28 2019-12-31 Facebook, Inc. Systems and methods for providing interactivity for panoramic media content
US10521099B2 (en) * 2015-08-28 2019-12-31 Facebook, Inc. Systems and methods for providing interactivity for panoramic media content
CN112449113B (zh) * 2017-05-09 2022-04-15 浙江凡后科技有限公司 一种物体位置捕捉系统及物体运动轨迹捕捉方法
US20220141384A1 (en) * 2020-10-30 2022-05-05 Flir Surveillance, Inc. Situational awareness-based image annotation systems and methods

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07193746A (ja) * 1993-10-20 1995-07-28 Philips Electron Nv 画像処理システム
JPH0993430A (ja) * 1995-09-26 1997-04-04 Canon Inc 画像合成方法及び画像合成装置
JPH11242373A (ja) * 1998-02-26 1999-09-07 Minolta Co Ltd 荷電装置
JP2004139219A (ja) * 2002-10-16 2004-05-13 Seiko Instruments Inc 画像処理方法および画像処理装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5550641A (en) * 1991-05-15 1996-08-27 Gentech Corporation System and method for rendering images
US5598515A (en) * 1994-01-10 1997-01-28 Gen Tech Corp. System and method for reconstructing surface elements of solid objects in a three-dimensional scene from a plurality of two dimensional images of the scene
US6549681B1 (en) * 1995-09-26 2003-04-15 Canon Kabushiki Kaisha Image synthesization method
US5748194A (en) * 1996-05-08 1998-05-05 Live Picture, Inc. Rendering perspective views of a scene using a scanline-coherent look-up table
JPH09321972A (ja) 1996-05-28 1997-12-12 Canon Inc 画像合成装置及び方法
IL119831A (en) * 1996-12-15 2002-12-01 Cognitens Ltd A device and method for three-dimensional reconstruction of the surface geometry of an object
US6552744B2 (en) * 1997-09-26 2003-04-22 Roxio, Inc. Virtual reality camera
JPH11242737A (ja) 1998-02-26 1999-09-07 Ricoh Co Ltd 画像処理方法及び装置並びに情報記録媒体
US6278466B1 (en) * 1998-06-11 2001-08-21 Presenter.Com, Inc. Creating animation from a video
WO1999067949A1 (fr) * 1998-06-22 1999-12-29 Fuji Photo Film Co., Ltd. Imageur et procede
JP3849385B2 (ja) * 2000-02-03 2006-11-22 コニカミノルタホールディングス株式会社 画像処理装置、画像処理方法および画像処理プログラムを記録したコンピュータ読取可能な記録媒体
US6978051B2 (en) * 2000-03-06 2005-12-20 Sony Corporation System and method for capturing adjacent images by utilizing a panorama mode
JP2002150264A (ja) 2000-11-07 2002-05-24 Nippon Telegr & Teleph Corp <Ntt> モザイク画像合成方法及びモザイク画像合成装置並びにモザイク画像合成プログラムを記録した記録媒体
JP4551018B2 (ja) * 2001-04-05 2010-09-22 富士通株式会社 画像結合装置
US20030002735A1 (en) * 2001-06-29 2003-01-02 Hideaki Yamamoto Image processing method and image processing apparatus
US7224387B2 (en) * 2002-01-09 2007-05-29 Hewlett-Packard Development Company, L.P. Method and apparatus for correcting camera tilt distortion in panoramic images
JP3940690B2 (ja) 2002-03-25 2007-07-04 株式会社東芝 画像処理装置及びその方法
WO2006011261A1 (ja) * 2004-07-26 2006-02-02 Matsushita Electric Industrial Co., Ltd. 画像処理方法、画像処理装置および画像処理プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07193746A (ja) * 1993-10-20 1995-07-28 Philips Electron Nv 画像処理システム
JPH0993430A (ja) * 1995-09-26 1997-04-04 Canon Inc 画像合成方法及び画像合成装置
JPH11242373A (ja) * 1998-02-26 1999-09-07 Minolta Co Ltd 荷電装置
JP2004139219A (ja) * 2002-10-16 2004-05-13 Seiko Instruments Inc 画像処理方法および画像処理装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017059233A (ja) * 2015-09-15 2017-03-23 株式会社リコー 画像合成方法及び装置
CN107492084A (zh) * 2017-07-06 2017-12-19 哈尔滨理工大学 基于随机性的典型成团细胞核图像合成方法
CN107492084B (zh) * 2017-07-06 2021-06-25 哈尔滨理工大学 基于随机性的典型成团细胞核图像合成方法

Also Published As

Publication number Publication date
US7535499B2 (en) 2009-05-19
JP3971783B2 (ja) 2007-09-05
JPWO2006011255A1 (ja) 2008-05-01
US20060023090A1 (en) 2006-02-02

Similar Documents

Publication Publication Date Title
WO2006011255A1 (ja) パノラマ画像合成方法および物体検出方法、パノラマ画像合成装置、撮像装置、物体検出装置、並びにパノラマ画像合成プログラム
US7860343B2 (en) Constructing image panorama using frame selection
JP4435865B2 (ja) 画像処理装置、画像分割プログラムおよび画像合成方法
JP3882005B2 (ja) 画像生成方法、物体検出方法、物体検出装置および画像生成プログラム
US9766057B1 (en) Characterization of a scene with structured light
US20100316127A1 (en) Image processing device and image processing method
KR100790887B1 (ko) 영상 처리장치 및 방법
JP2010071782A (ja) 3次元計測装置およびその方法
WO1999058927A1 (en) Image generating device and method
WO2005084017A1 (ja) マルチプロジェクションシステム
JP2001227914A (ja) 物体監視装置
WO2019193859A1 (ja) カメラ較正方法、カメラ較正装置、カメラ較正システムおよびカメラ較正プログラム
KR100596976B1 (ko) 왜곡 영상 보정 장치 및 방법 및 이를 이용하는 영상디스플레이 시스템
JP4860431B2 (ja) 画像生成装置
JP5151922B2 (ja) 画素位置対応関係特定システム、画素位置対応関係特定方法および画素位置対応関係特定プログラム
EP1372341A2 (en) Information display system and portable information terminal
JP6099281B2 (ja) 書籍読み取りシステム及び書籍読み取り方法
JPH10320558A (ja) キャリブレーション方法並びに対応点探索方法及び装置並びに焦点距離検出方法及び装置並びに3次元位置情報検出方法及び装置並びに記録媒体
JP2005141655A (ja) 3次元モデリング装置及び3次元モデリング方法
WO2022044807A1 (ja) 情報処理装置および方法
JP2005031044A (ja) 三次元誤差測定装置
KR20190127543A (ko) 비디오 시퀀스에서 모션을 감지하기 위한 방법
JP4902564B2 (ja) マーカ検出識別装置およびそのプログラム
JP4776983B2 (ja) 画像合成装置及び画像合成方法
JP2006323139A (ja) プロジェクタ・カメラサーバ、及び画像投影方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 11132654

Country of ref document: US

AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

WWP Wipo information: published in national office

Ref document number: 11132654

Country of ref document: US

DPEN Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed from 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006528343

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 05709881

Country of ref document: EP

Kind code of ref document: A1

点击 这是indexloc提供的php浏览器服务,不要输入任何密码和下载