WO1997000575A1 - Object recognizing device and image pick-up device - Google Patents
Object recognizing device and image pick-up device Download PDFInfo
- Publication number
- WO1997000575A1 WO1997000575A1 PCT/JP1996/001700 JP9601700W WO9700575A1 WO 1997000575 A1 WO1997000575 A1 WO 1997000575A1 JP 9601700 W JP9601700 W JP 9601700W WO 9700575 A1 WO9700575 A1 WO 9700575A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- evaluation value
- circuit
- signal
- value
- window
- Prior art date
Links
- 238000011156 evaluation Methods 0.000 claims description 376
- 238000003384 imaging method Methods 0.000 claims description 65
- 238000012545 processing Methods 0.000 claims description 47
- 238000001514 detection method Methods 0.000 claims description 16
- 230000015654 memory Effects 0.000 abstract description 18
- 238000000034 method Methods 0.000 description 45
- 230000008569 process Effects 0.000 description 40
- 239000013598 vector Substances 0.000 description 26
- 230000014509 gene expression Effects 0.000 description 15
- 230000010354 integration Effects 0.000 description 13
- 230000008859 change Effects 0.000 description 12
- 230000007246 mechanism Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 7
- 239000013256 coordination polymer Substances 0.000 description 4
- 230000007423 decrease Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 241000255925 Diptera Species 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 101100328519 Caenorhabditis elegans cnt-2 gene Proteins 0.000 description 1
- 101100328887 Caenorhabditis elegans col-34 gene Proteins 0.000 description 1
- 241000282994 Cervidae Species 0.000 description 1
- 241001137251 Corvidae Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 206010036790 Productive cough Diseases 0.000 description 1
- 238000001069 Raman spectroscopy Methods 0.000 description 1
- 241000700159 Rattus Species 0.000 description 1
- 101000711211 Solanum tuberosum Probable serine protease inhibitor 6 Proteins 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 210000003802 sputum Anatomy 0.000 description 1
- 208000024794 sputum Diseases 0.000 description 1
- 125000004079 stearyl group Chemical group [H]C([*])([H])C([H])([H])C([H])([H])C([H])([H])C([H])([H])C([H])([H])C([H])([H])C([H])([H])C([H])([H])C([H])([H])C([H])([H])C([H])([H])C([H])([H])C([H])([H])C([H])([H])C([H])([H])C([H])([H])C([H])([H])[H] 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S3/00—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
- G01S3/78—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
- G01S3/782—Systems for determining direction or deviation from predetermined direction
- G01S3/785—Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
- G01S3/786—Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
- G01S3/7864—T.V. type tracking systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/673—Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
Definitions
- the present invention relates to a subject recognition device for automatically recognizing the position of a subject photographed by a video camera or the like, and to automatically track a subject by using the image recognition device, and to focus on the subject.
- the present invention relates to an image pickup apparatus that adjusts the focus. Background art
- the focus is high when the contrast is high, and the focus is off when the contrast is low.
- This integrated data is data indicating how many high-frequency components exist in the setting error, and this data is generally called an evaluation value. Therefore, the autofocus can be realized by driving the focus lens such that the evaluation value is maximized (that is, the contrast is maximized).
- the evaluation value extracted in this way is not an accurate evaluation value that represents the contrast of the subject. There are several possible reasons for this.
- One of the factors is to detect the evaluation value Must be set for the target subject, but when the target subject is moving, etc., there is a problem that the evaluation window cannot be set accurately for the subject. Was. For this reason, accurate evaluation values could not be obtained, and it took a very long time to adjust the focus force.
- a photographed video may be transmitted to a home through live broadcasting. If it is not possible to obtain an accurate evaluation value as described above during such live broadcasting, the autofocus operation takes a long time. As a result, the blurred image signal is transmitted to the home. Therefore, video cameras used for broadcasting stations and business use do not require any simple, inexpensive, or compact autofocus devices, such as consumer video cameras, and have high precision. Focus control and high-speed focus control are required.
- an imaging apparatus having a function of automatically following a specific subject photographed by a video camera that is, a so-called automatic tracking function
- these conventional imaging concealment methods first, the color components of the subject to be automatically tracked are stored, and the imaging data obtained for each field or each frame is analyzed, and the subject to be dynamically tracked is analyzed. Searches for the position of the color in the screen where the image was captured. At this time, it is necessary to analyze all the imaged pixel data in order to find out where in the imaged screen the color of the subject to be automatically tracked exists.
- An object of the present invention is to accurately and real-time grasp the position of a target subject and obtain an evaluation value corresponding to the position of the subject. Disclosure of the invention
- a feature of the present invention is that in an object recognizing device for recognizing the position of a target object, an image pickup means for outputting an electric image pickup signal, and a plurality of image pickup images constituted by the image pickup signal from the image pickup means.
- Area searching means for selecting an area in which pixel data having the same color component as the target object exists from the divided areas, and the imaging means Storage means for storing pixel data corresponding to the imaging signal from the apparatus; and pixel data corresponding to the area selected by the subject-to-be-searched search means are read from the storage means, and the read pixel data is stored in the storage means.
- a processing means for calculating the position of the target object based on the object recognition device.
- a further feature of the present invention is that, in an imaging apparatus for imaging a target object, an imaging device that outputs an electrical imaging signal, and an imaging screen that is configured from the imaging signal obtained from the imaging device.
- an imaging device that outputs an electrical imaging signal
- an imaging screen that is configured from the imaging signal obtained from the imaging device.
- To set the detection window detect the evaluation value of the imaging signal in the set detection window, and control the focus based on the evaluation value.
- Storage means for storing all pixel data corresponding to the imaging signal from the imaging means, and calculating the position of the target subject based on the pixel data read from the storage means.
- An imaging device including processing means for controlling a force control means such that the position of the detection window coincides with the calculated position of the target object.
- FIG. 1 is a drawing showing a full rest configuration of an image pickup apparatus composed of a video camera.
- FIG. 2 is a drawing showing a specific configuration of the auto-force control circuit 4. '
- FIG. 3 is a drawing showing a specific configuration of the horizontal direction evaluation value generation circuit 62.
- FIG. 4 is a diagram showing a specific configuration of the vertical direction evaluation value generation circuit 63.
- FIG. 5 shows a filter count and a window size set in each of the horizontal direction evaluation value generation circuit 62 and the vertical direction evaluation value generation circuit 63.
- FIG. 6 is a drawing for explaining each window size.
- FIG. 7 is a drawing for showing weight data W set for each evaluation value E, respectively.
- FIG. 8 is a drawing showing a divided area divided by the area search circuit 38.
- FIG. 9 is a drawing showing a specific circuit configuration of the area search circuit 38.
- FIG. 10 to FIG. 5 are drawings for explaining the processing operation for focusing.
- FIG. 16 is a diagram for explaining a processing operation for determining a target subject.
- FIG. 17 is a drawing for showing the movement of the lens when determining the direction in which the lens is moved to adjust the focus.
- FIG. 18A and FIG. 18B are drawings showing a state when a non-target object enters the window.
- FIG. 19 is a diagram for illustrating a change in the evaluation value stored in the RAM 66 when the moving direction of the lens is determined.
- FIG. 20 is a diagram showing data stored in the RAM 66 during an autofocus operation.
- FIG. 21 is a drawing for showing changes in the evaluation value obtained by the autofocus operation.
- FIG. 22 is a drawing for showing an imaging state of an object B and an object B having the same color as the target object.
- FIG. 23 is a diagram showing an object information table.
- FIG. 24 is a diagram showing a target object history table. Best mode for carrying out the invention
- the video camera device has a lens block 1 for optically condensing the incident light on the front of the imaging device, and an imaging device for converting the incident light from the lens block into an RGB electrical imaging signal.
- Block 2 a signal processing block 3 for performing a predetermined ⁇ processing 1 on the imaging signal, a lens block 1, an imaging block 2 and a ⁇ processing block.
- CP IJ 4 is provided.
- Lens block 1 can be attached to and detached from the video camera Is provided.
- This lens block 1 is an optical element that moves along the optical axis to continuously change the focal length without changing the position of the image point, thereby zooming the image of the subject.
- the lens block 1 further includes a position detection sensor 11a for detecting the lens position of the zoom lens 11 in the optical axis direction, and a drive for moving the zoom lens 11 in the optical axis direction. Detects the position of the zoom lens drive circuit 11 for providing a drive control signal to the motor 11 and the drive motor 11 b, and the lens position of the focus lens 12 in the optical axis direction.
- the detection signals of the position detection sensors 11a, 12a and 13a are always
- the control signal from the CPU 4 is supplied to the zoom lens drive circuit 1] (;, the focus lens drive circuit 12 c, and the iris mechanism drive circuit 13 c, while being sent to the CPU 4. It is electrically connected so that
- Lens block 1 contains the focal length data and aperture ratio data of zoom lens 1] and the focal length data and aperture ratio data of focus lens 12. It has an EEROM 15 for storing the manufacturer's name and the number of the lens. Each data stored in the PROM 15 is connected to the CPU 4 so as to be read based on a read command from the CPU 4.
- the direction of the optical axis of the lens is controlled by a pan-Z tilt drive mechanism 16.
- the control signal from CPU 4 is
- the pan-tilt driving mechanism 16 is not limited to the one provided in the lens block as described above, but may be provided as a mechanism for driving the entire bidet talent camera. o
- the imaging block 2 is a color separation premix for separating the incident light of the lens block into three primary colors of red (R), green (G) and blue (B).
- the light of the R component, the G component, and the B component separated by the color separation mechanism 21 is imaged on the imaging surface, and the imaging light of each of the formed color components is Image sensors 22 I, 22 G, and 22 B that convert and output the image signals (R), (G), and (B) respectively.
- the imaging devices 22 R, 22 G, and 22 C i C C D (C a r g e C ⁇ 1 ed D e vi r, o j force).
- the image pickup block 21 amplifies the levels of the image pickup signals (R), (G), and (B) output from the image pickup elements 221, 220.22B, respectively, and resets them by Preamplifier for performing censoring to remove set noise 2 3 I? , 23 G, and 23 B.
- the imaging block 2 uses the reference clock from the internally provided reference clock generation circuit to control each of the components in the video camera.
- Timing signal generation circuit 24 for generating VD signal, HD signal, and CLK signal, which are basic clocks when the circuit operates, and VD signal, HD supplied from timing signal generation circuit
- a CCD drive circuit 25 for giving a drive clock to the image sensor 22 R, the image sensor 22 G, and the image sensor 22 B based on the signal and the CLK signal is provided.
- the VD signal is a clock signal representing one vertical period
- the HD signal is a clock signal representing one horizontal period
- the CLK signal is a clock signal representing one pixel clock.
- a timing clock composed of the VD signal, the HD signal, and the CLK signal is supplied to each circuit of the video camera device via the CPU 4, though not shown, although not shown. .
- the signal processing block 3 is provided inside the main unit of the video camera, and is a predetermined signal for the imaging signals (R), (G), and (B) supplied from the imaging block 2. Block for processing.
- the signal processing block 3 converts the imaging signals (R), (G), and (B) from analog to digital video signals (R), (G), and (B), respectively.
- R, 31G, 31B and a gain control signal for controlling the gain of the digital video signals (R), (G), and (B) based on the gain control signal from the CPU 4.
- the signal processing circuits 33 R, 33 G, 33 B are, for example, two circuits for compressing a video signal at a certain level or more, and a circuit 33 1 R, 33 G, 33 1 B, Compensation circuit that compensates the level according to the set curve. 3 3 2 R, 3 3
- This signal processing circuit 33R, 33G, 33B may include a known black ⁇ correction circuit, contour enhancement circuit, linear matrix circuit, and the like, in addition to the knee circuit, the correction circuit, and the circuit BZW clip circuit.
- the signal processing puck 3 receives the video signals (R), (G), and (B) output from the signal processing circuits 33R, 33G, and 33B, and outputs the video signals (R), (G). ), (B), an encoder 37 for generating a luminance signal (Y) and a color difference signal (R-Y) (B-Y).
- the signal processing block 3 further receives the video signals (R), (G), and (B) output from the gain control circuits 32R, 32G, and 32B, and outputs the video signals.
- a force control circuit 34 for generating evaluation data E and direction data Dr for controlling force based on the signals (R), (G) and (B), and signal processing; Receives video signals (R), (G), and (B) output from circuits 33R, 33G, and 33B, and based on the signal levels, image sensors 22R, 22G
- Iris control circuit 3 that controls the iris so that the amount of light incident on the 2B and B light is appropriate, and the output from the processing II circuit 3 3R, 3G, and 3B.
- a white balancer for receiving a video signal (K), (G), and (B), and performing white balance control based on the signal level; and a balance control circuit 3 (;).
- the iris control circuit 35 includes an N ⁇ M circuit for selecting a signal having the highest signal level among the supplied video signals (K), (G), and (B), and By dissecting the error in both areas of the signal, the video and ⁇ in each area are fully integrated.
- the iris control circuit 35 determines all lighting conditions, such as backlighting, normal lighting, flat lighting, spot lighting, etc., of the subject based on the integrated data for each area. Judgment is made, an iris control signal for controlling the iris is generated, and this iris control signal is sent to the CPU 4.
- C The PU 4 sends a control signal to the iris drive circuit 13c based on the iris control signal.
- the CPU 4 supplies a gain control signal to the gain control circuits 32R, 32G, and 32B based on the white balance control signal.
- the signal processing block 3 includes an error search circuit 38 and a frame memory 33 ( ).
- the relay search circuit 38 removes the luminance signal (Y) from the encoder 37 and the chrominance signals (R-Y) and (B-Y), and based on the luminance signal and the chrominance signal, This is a circuit for selecting, from among the areas set for the entire screen, an area having pixel data that matches the color of the subject specified as the target object. Details will be described later.
- the frame memory 39 receives the luminance signal (Y) and the chrominance signals (R-Y) and (B-Y) from the encoder 37, and temporarily stores the luminance signal and the chrominance signal.
- the luminance signal and color signal stored in each frame memory are read out based on the door address data supplied from the CPU 4, and the read luminance signal and color signal are read out by the CPU 4. Supplied to
- the focus control circuit 34 includes a luminance signal generation circuit ⁇ , a horizontal direction evaluation value generation circuit 62, a vertical direction evaluation value generation circuit 63, and a microcomputer. It consists of a black computer 64.
- the luminance signal generation circuit 61 is a circuit that generates a luminance signal from the supplied video signals R, G, and B. In order to determine whether the force is correct or not, it is necessary to determine whether the contrast is high or low. Therefore, since the change in contrast is irrelevant to the change in the level of the color signal, by detecting only the change in the level of the luminance signal, whether the contrast is high or low can be determined. You can judge.
- the luminance signal generation circuit 61 converts the supplied video signals R, G, B into
- the luminance signal Y can be generated.
- the horizontal direction evaluation value generation circuit G2 is a circuit for generating a horizontal direction evaluation value.
- the evaluation value in the horizontal direction is data indicating how much the level of the luminance signal changes when the luminance signal is sampled in the horizontal direction, in other words, how much the horizontal direction This data indicates whether there is trust.
- Horizontal evaluation value generating circuit 6 2 generates a first horizontal evaluation value generating circuit 6 2 a for generating a horizontal evaluation value E, the ⁇ , the second horizontal evaluation value E 2 A second horizontal evaluation value generation circuit 62 for generating a third horizontal evaluation value E 3 and a fourth horizontal evaluation value circuit for generating a third horizontal evaluation value E 3 A fourth horizontal evaluation value generation circuit 62d for generating E4, a fifth horizontal evaluation value generation circuit 62e for generating a fifth horizontal evaluation value E5, A sixth horizontal evaluation value generating circuit 6 2 f for generating a sixth horizontal evaluation value E 6 and a seventh horizontal evaluation value generating circuit for generating a seventh horizontal evaluation i E 7 6 2 g and the second Eighth horizontal evaluation value generation circuit 6 2 for generating eight horizontal evaluation values E 8 and ninth horizontal evaluation value generation circuit 6 for generating a ninth horizontal evaluation value E 3 2 i and the 10th horizontal evaluation value E,.
- the horizontal direction evaluation value generation circuit 62a of the horizontal direction evaluation value generation circuit 62, 1 has a high-pass filter 621, which extracts high frequency components of the luminance signal, and an absolute value of the extracted high frequency component. Therefore, the absolute value conversion circuit 622 which makes data all have a positive value, and the data of the high frequency component in the horizontal direction are cumulatively added by integrating the absolute value data in the horizontal direction.
- the filter 62 1 filters the high-frequency component of the luminance signal in response to one sample clock CLK from the path 62, which is a 2 pulse generator. It is composed of dance filters. This highpass filter ⁇ 2 1
- the window pulse generating circuit 625 includes a plurality of clocks operating based on VD representing one vertical period, HD representing one horizontal period, and CLK representing one sample clock supplied from the CPU 4.
- VD representing one vertical period
- HD representing one horizontal period
- CLK representing one sample clock supplied from the CPU 4.
- the window pulse generation circuit G 25 supplies an enable signal to the horizontal integration circuit 62 3 every one sample clock CLK based on the count value of the counter.
- the enable signal is supplied to the vertical integration circuit 6 2 4 in one horizontal period.
- the counter size is set so that the size of the window becomes 92 pixels ⁇ 60 pixels.
- Initial counter 3 ⁇ 4 is set. Therefore, the horizontal direction evaluation value E, output from the horizontal direction evaluation value generation circuit 62, is the data obtained by integrating all the high-frequency components existing in the window of 192-pixel X 60-pixel. It shows that.
- the counter is connected so that an offset value is supplied from the CPU 4. In the initial count i, a count value is set so that the center of the window coincides with the center of the imaging screen.
- the OH Fuse' bets value supplied from the CP to 1 4 it is meant mosquito window down bets ⁇ to be added to the initial Ca window down bets value. Therefore, when the offset value is supplied from the CPU 4, the counter value of the counter is changed, and accordingly, the center position of the window is changed.
- the other second horizontal evaluation value generation circuits 6 2 b to 12 th horizontal evaluation value generation circuits 62 1 h are similar to the above-described ⁇ 1 horizontal evaluation value generation circuit 62 a, and are high pass filters.
- the first horizontal evaluation value generation circuit 62 a to the 12th horizontal evaluation value generation circuit 62 1 determine what value of the filter coefficient and the window size are set. The reason why such different filter coefficients are set is described below.
- a hi-no filter with a high cut-off frequency is very suitable near just focus (meaning that the focus is on). This is because the evaluation value has a large change rate with respect to the movement of the lens near the just focus. Also, even if the lens is moved where the focus is greatly deviated, the rate of change of the evaluation value is small, so a high-pass filter with a high cut-off frequency has a low focus. It is not suitable where there is a large gap.
- a high-pass filter with a low cut-off frequency is suitable where the power is significantly shifted. This is because when the lens is moved where the focus is largely shifted, the rate of change of the evaluation value is large. Even if the lens is moved in the vicinity of the just-force, the change rate of the evaluation value is small, so that the high-pass filter with a low cut-off frequency is not close to the just-focus. However, it is not suitable. In other words, both high-pass filters with a high cut-off frequency and high-pass filters with a high cut-off frequency have advantages and disadvantages, and which filter is the most suitable. Cannot be said in one word.
- window W1 is a 192-pixel X60-pixel window
- window W2 is a 13-pixel X60-pixel window
- window W3 is a 384-pixel
- window W4 is a window of 2G4 pixels X120 pixels
- window W5 is 768 pixels of X120 pixels.
- window W6 is
- the second horizontal evaluation value generation circuit ⁇ 2 a By setting a plurality of windows in this way, different evaluation values corresponding to the respective windows can be generated. Therefore, regardless of the size of the subject whose focus is to be adjusted, the second horizontal evaluation value generation circuit ⁇ 2 a
- An appropriate evaluation value can be obtained from any one of the horizontal evaluation value generation circuits 6 2 1.
- the vertical direction evaluation value generation circuit 63 is a circuit for generating a vertical direction evaluation value.
- the evaluation value in the vertical direction is data indicating how much the level of the luminance signal changes when the luminance signal is sampled in the vertical direction, in other words, how much the vertical control value is. This data indicates whether there is trust.
- First 1 vertical evaluation value generating circuit for generating a vertical evaluation value generating circuit 6 3 j of the first 60, the first 1 in the vertical direction evaluation value E 2 3 for generating the value E 2 2 and 6 3 k, and the first and second vertical evaluation value E 2 4 and a vertical evaluation value generating circuit 6 3 1 of the first 2 to generate.
- the first vertical evaluation value generation circuit 63 a of the vertical evaluation value generation circuit 63 is a horizontal average value generation circuit 631 that generates -average value data of the level of the horizontal luminance signal, A high-pass filter 632 for extracting the high-frequency component of the average value data of the luminance signal, and an absolute value conversion circuit for converting the extracted high-frequency component to an absolute value, so that all the data have a stop value.
- 6 3 3 a vertical integration circuit 6 3 4 that integrates the absolute value data in the vertical direction to accumulate and add high frequency component data in the vertical direction, and a horizontal average value generation circuit 6 3 1
- a window pulse generation circuit (] 35) for sending an enable signal enabling integration operation to the vertical integration circuit 63 A.
- the high-pass filter 32 is a window pulse regeneration circuit G 25 It consists of a one-dimensional finite impulse response filter that filters the high-frequency component of the luminance signal in response to one horizontal period signal HD from.
- This high-pass filter 632 has the same cutoff frequency as the high-pass filter 62 1 of the first horizontal direction evaluation value generation circuit 62a.
- the window pulse generation circuit 635 operates based on the VD signal supplied from the CPU 4 representing one vertical period, HD representing one horizontal period, and CLK representing one sample clock. It has multiple counters. This Windo ,.
- the zero generation fi35 is one sample clock for the horizontal average value generation circuit 631, based on the count value of the count value.
- a signal is supplied, and an enable signal is supplied to the vertical integration circuit 634 every one horizontal period.
- the window pulse generating circuit 63 5 has the initial power of the printer so that the size of the window is 120 pixels x 80 pixels. ⁇ 3 ⁇ 4: is set.
- the evaluation value E, 3 output from the vertical evaluation value generation path f indicates the data obtained by integrating the high frequency component in the vertical ifi direction in the window of 120 pixels X 80 pixels. Will be.
- This counter is connected so that the offset 4 is supplied from the CPU 4.
- the initial count value is set so that the center of the window coincides with the center of both sides of the imaging.
- the offset value supplied from the CPU 4 neglected the count 3 ⁇ 4: added to the initial count value. Therefore, C
- the other second vertical evaluation value generation circuits 63 b to the 12th vertical evaluation value generation circuits 63 3 h are similar to the first vertical evaluation value generation circuits 63 a described above.
- a horizontal average value generation circuit 631, a high-pass filter 632, an absolute value conversion circuit 633, a vertical integration circuit 634, and a window pulse generation circuit 6353. have. What is different in each circuit is that, as in the horizontal direction evaluation value generation circuit 62, the combination of the filter coefficient and window size set in each circuit is different. Has become.
- E 12 The values of E 12 will have different values.
- Window W7 has a window of 120 pixels X 80 pixels
- window W8 has a window of 120 pixels X 60 pixels
- window W9 has 24 windows.
- window W 10 is a window of 240 pixels X 120 pixels
- window W 1 1 is 480 pixels X 3
- window W12 has a window of 480 pixels X 240 pixels.
- Microphone loco computer 6 4 E generated in the horizontal direction evaluation value generating circuit 6 2 ⁇ beauty vertical evaluation value generating circuit 6 3, both receive 2 four evaluation values of ⁇ E 2 4, the 2 4 Based on the evaluation values, the direction in which the lens moves and the lens position where the evaluation value is maximum
- the micro computer 64 has R 0 065 storing a program for calculating 24 evaluation values according to a predetermined flow. As shown in FIG. 7, this R ⁇ 65 is output from each of the 24 evaluation value generation circuits (62a to 62) and 63a to 63 3, respectively. Twenty-four weight data W i are stored so as to correspond to the twenty-four evaluation values E i (i-1, 2, 2,..., 24).
- the weight data w; is data for giving a priority to the 24 evaluations E; The higher the value of the weight data W i, the higher the priority of the corresponding evaluation value E; This means that there is high quality. Note that the weight data W i is a fixed value set in advance at the time of factory shipment.
- E i 1, 2,..., 24
- the evaluation values ⁇ , (X,) to E 24 (X,) generated when the lens is at X are stored in the RAM 66.
- Et al is, when the lenses are moved to the position of X 2 from X, the position, the generated evaluated values when the lenses are moved in the X 2 E, is (X 2) ⁇ ⁇ 24 ( X 2) R It is stored in AM66.
- the error search circuit 38 divides the image capturing area into 12 areas, and the pixel data having the same color as the object set as the target object is output to which division error. It is a circuit to search for existence
- a determination process is performed by a logic circuit in the area detection circuit 38 on all pixel data supplied from the encoder. Specifically, as shown in Fig. 8, if one G) area is defined to be 481 elements X 30 ⁇ i elements, it is divided into 16 elements in the horizontal direction, and 3 ⁇ 4 Since it is divided into eight in the ifi direction, 128 areas are eventually determined. As shown in FIG. 8, these 128 areas are defined in the application with the area numbers ⁇ n (,. To A, 27 . First, a specific configuration of the error search circuit 38 will be described with reference to FIG.
- the luminance signal Y, the color signal i R — ⁇ I and the color signal IB — YI are supplied from the encoder 37 to the error search circuit 38 for each pixel data. Also, the upper search signal IY from the CPU 4 is sent to the relay search circuit 38. And the lower limit luminance signal i Y
- the upper limit luminance signal 1 Y supplied from the CPU 4. And the lower limit luminance signal I ⁇ . And the upper color signal IR D — Y. iu and the lower color signal IR o — ⁇ . And the upper limit color signal I ⁇ . ⁇ »and the lower limit color signal I ⁇ .
- One Y. IL and will be described.
- One Y D I is a signal subject force main Raman has set aimed object is obtained on the basis of the luminance signal and color signals ⁇ . Therefore, once the target object is set, this value will not be changed.
- the luminance signal of a certain pixel data is an upper luminance signal i Y U and a lower luminance signal IY. If the value is between I and., The upper limit luminance signal 3 ⁇ 4 ⁇ 0 I ⁇ and the lower limit luminance signal IY. It is set so as to have a value close to the luminance signal II of the object rest, and similarly, the color signal IR-YI of a certain pixel data is the upper limit color signal IR. Lower limit color signal IR-Y. If the Ri of I is ⁇ , the color signal IR of a certain pixel data- ⁇ I is almost the same level as the color signals IR0 to ⁇ 0I of the set target object as can be determined that the upper limit Iroshin ⁇ IR.
- the color signal IB-Yi of a certain pixel data is a value between the upper limit color signal IBo-Yi ⁇ and the lower limit color signal I ⁇ YIL, the color signal iB-YI of the certain pixel data becomes The upper limit color signal IBY Q I u and the lower limit color signal i BYI are the second color signal i ⁇ ⁇ i of the target object so that it can be determined that the color signal i BY i of the target object is at substantially the same level as the color signal i BY i. It is set to have a value close to.
- the multiplier search circuit 38 includes a multiplication circuit 71 a for multiplying the luminance signal Y supplied from the encoder 37 by a multiplication coefficient ⁇ : 4 , and a multiplication coefficient “ 3 ” for the luminance signal Y.
- a multiplication circuit 7 1 multiplies the luminance signal Y by a multiplication coefficient ⁇ : s
- a multiplication circuit 7 1 (: and a multiplication circuit multiplies the luminance signal Y by a multiplication coefficient 5 7 1 d and the in and.
- Sui tree et re ⁇ search circuit 3 for selecting one of the multiplication circuit 7 1 th power calculating force from a and upper color signal IR ⁇ ⁇ I u a latch circuit 7 2 a, multiplication output from the multiplier circuit 7 1 b and lower color signal IR 0 -. Y 0 I, a switch circuit 7 2 b for selecting either of the multiplication circuit 7 1 c Multiplied output and upper limit color signal i B.-Switch circuit 7 2 c for selecting one of YI ⁇ and multiplied output from multiplier circuit 7 1 d and switch circuit for selecting one of lower limit color signal IBY u !
- the error detection circuit 38 includes a comparator 73a supplied with the luminance signal Y and the upper limit luminance signal IY, a comparator 73a supplied with Iu, and a luminance signal Y with the lower limit.
- the area search circuit 38 includes a gate circuit 74 a to which the output of the comparator 73 a and the output of the comparator 73 b are supplied, a con- A gate circuit 74b supplied with the output of c and the output of the comparator and the ⁇ 3 d, and a gate circuit supplied with the output of the comparator 73e and the output of the comparator 73f. And a gate circuit 75 to which the output of the gate circuit 74a, the output of the gate circuit 74b, and the output of the gate circuit 7c are supplied.
- the area search circuit 38 has a flag signal generation circuit 76 'composed of 128 chip circuits.
- 1 2 8 Chi-up circuit, Figure 8 lambda D 0 shown in, from lambda, of 2 7: is provided so as to correspond to the 1 2 8 E Li ⁇ .
- the output of the gate circuit 75, the pixel clock CLK, and the chip select CS are supplied to each of the chip circuits.
- the pixel clock CL # and the chip select CS are supplied from the CPU 4 so as to correspond to the luminance signal and the color signal supplied from the encoder 37 to the pixel data ⁇ .
- the pixel clock CL ⁇ is a clock corresponding to the processing timing of each pixel data, and is used for processing pixel data and pixel data processed by the preceding logic circuit. If they match, a “Low” signal is provided to the chip circuit, and at other times
- the “Low” signal is supplied only to the selected chip circuit out of the 128 chip circuits, and the “High” signal is supplied to the other unselected chip circuits. .
- Each chip 0 path provided in the flag signal generation circuit 7G has a gate circuit 76a and a counter 6b, respectively. Therefore, the flag signal generation circuit 76 has 128 gate circuits 7 (; a and 128 counters 76 b.
- This gate circuit 76 a Supply The gate circuit 75 outputs “Low” only when all of the output of the gate circuit 75, the pixel clock CLK and the chip select CS are “Low”.
- the counter 76b is a counter that counts up only when “Low” is supplied from the gate circuit 76a in response to the clock timing of the pixel clock CLK.
- a flag signal is generated when the count value exceeds a predetermined number (5 or more in this embodiment). The generated flag signal is supplied to a multiplexer 77.
- the multiplexer 77 receives the flag signal output from each chip circuit of the flag generation circuit ⁇ G, and supplies the signal to the CPU 4. At this time, the multiplexer 77 sends to the CPU 4 a signal of the chip circuit from which the flag signal has been output.
- the CPU 4 can select an area in which pixel data having the same color component as the target object exists based on the examination.
- the switch circuits 72a, 72b.72c and 7c provided in the area search circuit 38 before the area search processing is performed. Since the 2d switching operation must be performed, this switching operation will be described.
- the switch circuits 72a, 72b,? In order to switch 2c and 72d, the luminance signal I Y of the object set by Cameraman as the target object. I, color number I R «-Y n! And signal IB. — Y. It is necessary to select the subject mode based on I. In this subject mode, four modes are set, and mode 0 to mode 3 will be sequentially described below.
- Mode 0 is the mode selected when the subject set as an EHl object has some color information. That is, i R representing the color component of the object. -Y n I ⁇ ⁇ and I Y Y. I ⁇ ⁇ means that 0 is above a certain level. Then, when the color of the selected target object is strong u
- the CPU 4 sets the luminance signal IY of the set object rest. I, color signal i R. One ⁇ . I and color signal i B.
- the relationship of one Y n I is ⁇ 3 XIY 0 R 0-Y x Y
- -Mode 0 is selected when the condition indicated by (70) is included.
- the CPU supplies a control signal to the switch circuits 72a, 72b, 72c and 72d.
- the switching states of the switch circuits 72a, 72b, 72c and 72d are "1JP", "UP”, “UP” and “UP”, respectively. Once switched, this switching state does not change until the subject mode is changed.
- Mode 1 is a mode selected when the color component of the subject set as the zero-like object has a red component equal to or higher than a predetermined level but does not have a color component equal to or higher than the predetermined level.
- IR that represents the color component of the subject.
- One Y. ⁇ ⁇ is above a certain level, but I ⁇ .
- the relationship of one Y D I is
- Mode 1 is selected when the conditions shown in (71) are included.
- the CPU 4 When the mode 1 is selected as the subject mode, the CPU 4 supplies a control signal to the switch circuits 72a, 72b, 72c and ⁇ 2d, and The switching states of the circuits 72a, 72b, 72c and 72d are "UP”, “UP-
- Mode 2 is a mode selected when the blue component of the color component of the subject set as the target object is higher than the predetermined level but the red component is not higher than the predetermined level.
- IB that represents the color component of the subject.
- One Y. IXYO is above a certain level, but i R. One ⁇ .
- the relationship of the color signal IB o-Y o I is
- Mode 2 is selected when the conditions shown by are included.
- CPU 4 supplies a control signal to switch circuits 72a, 72b, 72c and 72d.
- the switching states of the switch circuits 72a, 72b. 72c and ⁇ 2d are set to "DOWN”, “D ⁇ WN”, "UP” and "UP”, respectively.
- Mode 3 is a mode selected when both the red component and the blue component of the color component of the subject set as the target object do not exceed a predetermined level.
- IR that represents the color component of the subject.
- One Y. Mode 3 is selected when the relation of I does not apply to the above equations (70), (71) and (72).
- the CPU 4 supplies a control signal to the switch circuits 72a, 72b, 72c and 72d, and
- the switching states of the switch circuits ⁇ 2 a, 72 b. 72 c and 72 d are referred to as “D OWN”, “D ⁇ WN”, “D OWN” and “D OWN”, respectively.
- the area search circuit 38 performs an object search processing operation. Next, this search processing operation will be described in order so as to correspond to each subject mode with reference to FIG.
- the comparator 73a outputs the upper limit luminance signal IY.
- the gate circuit 74a is When the output signal from the comparator 73 a and the comparator ⁇ 3 b is received, and both the output signals from the comparators 73 a and 73 b are “High”, “Lo” wj is output to the subsequent gate circuit 75.
- the operations performed by the comparators 73a and 73b and the gate circuit 74a are as follows.
- the switching states of the switch circuits # 2a and # 72b are "UP” and "UP", respectively.
- the comparator 7 3 c is supplied with YX 4 and i R—Y i, and the comparator 7 3 d receives YX " 3 and IK-Y
- the luminance signal Y and the color signal IR-YI are data supplied from the encoder 37.
- Comparator 73c compares YX " 4 with IK-YI,
- the gate circuit 74b receives the output signals from the comparator 73c and the comparator 73d, and When the output signals from the comparators 73c and 73d are both "High”, “L0w” is output to the gate circuit 75 at the subsequent stage.
- the switching states of 2c and 72d are "UP” and "UP”, respectively.
- YX " G and IB-YI are supplied to the comparator 73e, and YX” 5 and IB-YI are supplied to the comparator 73I ". Note that the luminance signal Y and the color signal I — ⁇ I
- the gate circuit 74c receives the output signals from the comparator ⁇ 3e and the comparator ⁇ 3f, and outputs the signals HHig If “h”, “Low” is output to the gate circuit 75 at the subsequent stage.
- the gate circuit 75 receives the output signals from the gates 74a, 74b, and 74c, and outputs all the signals from the gates 74a, 74b, and 74c. Only when “High”, “L 0 w” is supplied to each chip circuit of the flag generation circuit 76.
- the mode 0 is selected as the subject mode when the conditions of the equations (70a), (70b) and (70c) are satisfied.
- the fact that the condition of the equation (700) is satisfied means that the luminance signal 3 ⁇ 4Y and the color signal II of the pixel data supplied from the encoder 37? I ⁇ I and the color signal i ⁇ — ⁇ I are the brightness of the subject set as the target object Signal Y. , Color signal IR. One Y. I & color signal IR. ⁇ It means that it almost matches YDI. Then, only when the color of the target object and the color of the pixel data match, “L 0 w” is output from the gate circuit 75.
- mode 1 When mode 1 is selected, the operation is exactly the same as when mode 0 is selected, so a detailed description is omitted.
- comparators 73a to 73f and gate circuit 74a ⁇ 74c and the operation performed by the gate circuit 75 are
- the fact that the condition of this (701) expression is satisfied means that the pixel data supplied from the encoder 37 is satisfied.
- the luminance signal Y, the color signal IR-YI and the color signal IB-Yi are the luminance signal Y of the subject set as the target object.
- color signal i R. - ⁇ It means that it almost matches I.
- the gate circuit 75 outputs “Low” only when the color of the target object and the color of the pixel data match.
- Mode 2 When Mode 2 is selected, Mode 0 and Mode Since the operation is the same as when node 1 is selected, detailed description is omitted.
- the comparators 73 a to 73 f and the gate circuit 74 a To 74 c and the operation performed by the gate circuit 75 are:
- the fact that the condition of the expression (702) is satisfied means that the luminance signal Y, the color signal IR— ⁇ I, and the color signal IR of the pixel data supplied from the encoder 37 are satisfied.
- Color signal i B — YI force Brightness signal Y of the subject set as the target object.
- "Low" is output from the gate circuit 75.
- mode 3 is selected is exactly the same as the operation when mode ⁇ , mode 1 and mode 2 are selected, and a detailed description thereof will be omitted.
- the fact that the condition of the expression (703) is satisfied means that the luminance signal Y, the color signal IR— ⁇ I, and the luminance signal Y of the pixel data supplied from the encoder 37 are satisfied.
- Color signal I ⁇ The luminance signal ⁇ ⁇ ⁇ of the subject whose I is set as the target object. , Color signal IR. One ⁇ . I and color signal IR. One ⁇ . It means that it almost matches I. Then, as in the case of the mode 0, the gate circuit 75 outputs “Low” only when the color of the target object and the color of the pixel data match.
- mode 0 is selected as the subject mode, and a plurality of elementary data having the same color as the object rest are displayed.
- e Li Ryo lambda 3 , Oh, an example in which only the Gaotti, describing the overall ⁇ of e re a search circuit 3 8.
- a luminance signal ⁇ , a chrominance signal IR- ⁇ I, and a chrominance signal I ⁇ —Yi are sequentially supplied from the encoder 37 to the encoder search circuit 38 so as to correspond to the raster scan. .
- all pixel data from the encoder 37 is supplied to the relay search circuit 38, and it is determined whether or not each pixel data is included in the condition of the equation (700). Done. Note that all pixel data is supplied to the area search circuit 38, but the determination as to whether or not the data is included in the condition defined by the equation (700) is performed by the switch circuit.
- the gate circuit 75 outputs "I igh".
- the gate circuit 75 first outputs “L 0 w
- the chip select CS supplies “Lowj” only to the 36th chip circuit corresponding to the area No. 03, and supplies “Highg to the other chip circuits.
- the pixel clock supplies “Low” to the chip circuit at a timing at which pixel data having the same color as the S-like object is supplied. Therefore, the gate circuit 76'a in the 36th chip circuit. 3-5, gate circuit 7 Five et gamma L ow "is supplied, as a pixel click locked CLK is supplied" L 0 w ", and the chip select is supplied" L ow " Only at this time, the gate circuit 76a. 3 5 sets “Low” to the counter 7
- the multiplexer 77 outputs the plug signal output from each chip circuit to the CPU 4 so as to correspond to the end of the plug signal. In this case, it supplies the flag signal is output from the 3 sixth chip circuit corresponding to the e Li A AD 3 5 to CPU 4.
- the operation of the end search circuit 38 composed of hardware in this way allows the CPU 4 to determine in which of the pixels the pixel having the same color as the set target pixel exists. Can be recognized in real time.
- the operation of the video camera device will be described with reference to the flowchart of FIG. 10 to FIG.
- the transition from manual focus to auto focus can be performed by pressing the auto focus button provided on the operation unit 5 by the cameraman.
- the focus mode is set.
- Autofocus mode is a continuous mode that, once pressed, continues in autofocus mode until commanded to switch to manual focus.
- the auto-focus mode is stopped when the focus is adjusted, and the non-continuous mode in which ⁇ automatically shifts to the manual mode.
- the following description of the flowchart is for the continuous mode.
- steps S100 to S131 a process for determining in which direction the focusing lens is to be moved is performed.
- steps S201 to S221 Processing is performed to determine the lens position at which the evaluation value is maximized.
- the focus lens is moved to the lens initial position X ( , At a distance of D / 2 in the Far direction Go to position X, that, X, from the N ear direction moves to position X 2 at a distance and D, i.e. the position from chi 2 to the distance DZ 2 in F ar direction, the lens initial position X D Perform a return operation.
- the Near direction means a direction approaching the image sensor
- the Far direction means a direction away from the image sensor.
- D represents the depth of focus.
- Microcomputer 64 has lens position X.
- Depth of focus is data that indicates the range where the focus is at the center of focus. Therefore, even if the focus lens is moved within the depth of focus, the shift of the focus cannot be recognized by human eyes.
- the lenses X when moving to a pressurized et X 2, is moved over the focal depth, off O over mosquito scan of deviation that will appear in the image pickup signal by the mobile. In other words, by setting the maximum movement of the lens within the depth of focus, the displacement of the force cannot be recognized.
- Step S 1 0 microphones ⁇ co down computer 6 '4, horizontal direction toward evaluation value generating circuit 6 2 and the evaluation value generated in the vertical direction evaluation value generating circuit 6 ⁇ , ( ⁇ 0) ⁇ evaluation value ⁇ stores 24 (chi 0), the.
- the microphone ⁇ -computer G 4 instructs the CPU 4 to move the focus lens by a distance of DZ 2 in the Far direction.
- step S101 the CPU 4 outputs a command to the focus lens motor drive circuit 12c, and outputs the focus lens. Move in the Far direction by a distance of D2.
- step S 102 the micro computer 64 receives the evaluation values ⁇ , (,) newly generated in the horizontal evaluation value generation circuit 62 and the vertical evaluation value generation circuit 63.
- X,) to the evaluation value ⁇ 24 (X,) are stored in RAM 66.
- the micro computer 64 issues a command to the CPU 4 to move the focus lens by the distance D in the Near direction.
- step S103 the CP IJ 4 outputs a command to the focus lens motor drive circuit 12c to move the focus lens by the distance D in the Near direction. Move to
- step S104 the microphone ⁇ computer 64 outputs the evaluation values E, (), which are newly generated in the horizontal evaluation value generation circuit 62 and the vertical evaluation value generation circuit 63.
- X 2 ) to evaluation value E 24 (X 2 ) are stored in RAM 66.
- the microphone ⁇ computer 64 instructs the CPU 4 to move the focus lens by a distance of D / 2 in the Far direction.
- step S104 the lens position X is stored in the RAM 66 of the micro computer 64.
- Steps S105 to S115 are tips for selecting an inappropriate evaluation value from the 24 evaluation values.
- step S105 to step S115 will be described in a comprehensive manner.
- FIGS. 18A and 18B show an image of a target object A whose window force is to be adjusted within window W2, which is outside window W2.
- target object A This shows a state in which the non-target object B having a high contrast existing in front of the object is being imaged.
- the first horizontal direction evaluation value generation circuit 62 a in which the value of the window W 1 is set is obtained.
- the generated evaluation value E is combined with the high-frequency component of the object B, and is not appropriate as the evaluation value of the object A.
- the value of the evaluation value E is considerably larger than the value of the evaluation value E 2 generated by the second horizontal evaluation furnace generation circuit G 2 b in which the value of the window W 2 is set. Let's get together. Similarly, the seventh horizontal evaluation value generating circuit 6 evaluation value E 7 generated by 2 g of the value of c fin dough W 1 is set, the object
- the evaluation value E 7 is rather considerably larger than the value of the evaluation value E 8 the value of the windowing W 2 is generated by the eighth horizontal evaluation value generating circuit 6 2 h of which is set Natsute I will.
- FIG. 18B shows a case where the lens is moved so that the force is adjusted to the object ⁇ .
- the more the focus is adjusted for the vacation A the more the focus for the object B is shifted. If the focus of the object B is largely displaced, the image of the object B is largely blurred, and the blurred image enters the window W2. Therefore, in the case of the states of FIGS.
- the evaluation TE 2 generated by the second horizontal evaluation value generation circuit 62b in which the value of the window W2 is set is set. 3 ⁇ 4 is by no means appropriate.
- the value of the eighth horizontal evaluation t generator 6 2 evaluation value generated by h E 8 the value of the windowing W 2 is set can not be said to be in any way appropriate.
- steps S105 to S5 will be specifically described with reference to FIGS. 10 and 11 in consideration of the above-described basic idea.
- step S105 the lens position is X. ⁇ ⁇ obtained at the time of
- Evaluation value E,, E 2, E 7 and E 8 is, if the (1 0 5) than a value that applies to expression evaluation value E,, E 2, E 7 and E 8 are the appropriate values It proceeds to step S117. Conversely, if the evaluation values ⁇ , ⁇ 2, ⁇ 7, and ⁇ 8 are values that do not apply to this (1 0 5) equation, at least the evaluation values ⁇ ,, ⁇ 2 , ⁇ 7 and E 8 proceeds to stearyl-up S 1 eta 6 it is determined that the inappropriate value.
- Step S 1 0 6 thus evaluation value calculation result in step S 1 0 5 E, and E 2, the evaluation value E 7 and E 8 is determined to be inappropriate, following windowing W 1
- the evaluation values ⁇ 3 and ⁇ 3 obtained based on the larger window W 3 are used, and the evaluation values ⁇ 4 and 4 obtained based on the next larger window W after the window W 2 are used. ⁇ ,.
- step S106 the lens position is X as in step S105. Using ⁇ , (X 0) E 24 (X.) obtained at the time of
- evaluation value E 3 E 4. E s and E,. But if it's the value that applies to the (1 0 G) expression evaluation value E 3, E 4, E n and E,. Is determined to be an appropriate value, and the process proceeds to step S107. Conversely, the evaluation value E 3, E 4, E 3 and E l 0 is, if the (1 0 6) of a applies should not be a value in the expression, at a minimum, the evaluation value E 3, E 4, E 3 and E,. Is determined to be an inappropriate value, and the flow advances to step S108.
- the reason why the larger windows W3 and W4 are used will be described.
- the evaluation value E, and E 2 the evaluation value E 7 and E 8 are improper, the target object A or the non-target and off O carcass It cannot match any of the objects B.
- the larger windows W3 and W4 are used for the windows W1 and W2, the non-target rest B may enter the window W4. You could think so. If completely when the non-target object B ever fall within the ⁇ Lee down dough W 4, the difference is with small Kunar between evaluation values E 4 and the evaluation value E 3, the evaluation value E 3 E,. The difference between is smaller. In other words, the evaluation values E 3 , E 4 , E 3 and E, 0
- the auto focus control circuit 34 repeats the control loop many times, and keeps moving the focus lens for a long time. Therefore, the problem that the loop is repeated and the blurred imaging signal must be continuously output. However, by focusing on the non-target object rest B, the control loop is repeated for a long time to prevent the output of the blurred imaging signal from being continued. Can be.
- step S107 the evaluation value determined in step S10 E,, E 2 , E 7, and E 8 are inappropriate values, and the evaluation values E 3 , E 4, E a, and E 10 determined in step S 106 are appropriate values.
- the process proceeds to step S117.
- I 1 the unused number in Step S 1 0 7 This, 2, 7, because it was 8 Gajo defined, at step S 1 0 7 subsequent step, the evaluation value E,, E 2, E 7 and it is not the E 8 is used.
- step S 108 the evaluation values E 3 and E 4 , the evaluation values E 3 and E, based on the calculation result in step S 106.
- the evaluation values E 5 and E, obtained based on the next largest window W 5 after the window W 3 were used, and the window W 4 then use a large Huy down de W evaluation value E 6 was obtained based on the 6 and E, 2.
- step S108 the lens position is X as in step S106.
- step S 110 If the values satisfy the expression, it is determined that the evaluation values E, f;, EI 1 and E, 2 are appropriate values, and the flow advances to step S 109. Conversely, if the evaluation values E 5 , E G , E,, and E 12 are values that do not apply to the expression (108), at least the evaluation values E 5 , E 6, E,, And E and 2 are determined to be inappropriate values, and the process proceeds to step S110.
- Step S 1 0 8 Step S 1 0
- evaluation value calculation results at 6 E 3 and E 4 the evaluation value E: 3 and E, because ⁇ is determined to be inappropriate, Huy down dough W 3 evaluation value obtained based on the large Ui down dough W 5 next £ 5 and with using the E, evaluation value obtained based on a large windowing W 6 in the following Ui down de W 4 E 6 and to use the ⁇ 12.
- step S11 the lens position is X, as in step S11.
- (1 1 0) is determined. If the evaluation values ⁇ , 3 , ⁇ 14 , ⁇ 13, and ⁇ 20 are values that apply to this (1 110) equation, the evaluation values ⁇ 13 , ⁇ , 4 ,, 9, and ⁇ 20 are appropriate. The value is determined to be a value, and the process proceeds to step S111. Conversely, the evaluation value E l 3, E l 4, E l 3 , and E 20 is, in this (1 1 0) Formula If it's a true no value, at a minimum, the evaluation value E l 3, E l 4, E, 3 , and E 2. Judge to be an inappropriate value and proceed to step S112? _ 0
- step S112 the lens position is X as in step S110. Using E, (X.) to (X.) obtained at the time of
- step S 1 1 3 evaluation value E, it is determined at step S 1 0 5, the result of E 2, E 7 and E 8 are improper values, it is determined by the scan Tetsupu S 1 0 6
- the evaluation values E 3 , E 4, E 9, and E ⁇ are inappropriate values, and the evaluation values E s , E 6, E,, and E 12 determined in step S 108 are incorrect.
- step S114 the lens position is X as in step S110. Using E, (X.) to E 24 (X.) obtained at the time of
- step S 1 ⁇ 5 If the a value applicable to the expression evaluation value ⁇ , 7, ⁇ 1 ⁇ , ⁇ 23 and E 24 are determined to be a suitable value the process proceeds to step S 1 ⁇ 5. Conversely, if the evaluation values E
- step S115 the evaluation value determined in step S105
- the step S 1 0 evaluation value is determined in the 8 E 5, E 6, E and E 12 are improper values, determined in step S 1 1 0 evaluation value E l3, E l 4, E , 3 , and
- E 20 is a result of an unsuitable value, a result that would have Step S 1 1 2 in the determined evaluation value E, 5, E 16, E 21 and E 22 is an inappropriate value, stearyl Tsu
- Steps S ⁇ 17 to S1331 shown in FIGS. 12 and 13 are specific operation steps ⁇ - for determining the lens moving direction. Steps SI 17 to S 13] are steps performed by the micro-computer 64.
- step S117 i is set to 1 and the up force value Ucnt, the downcount value Dcnt, and the flat count value Fcnt are reset.
- step S118 i is defined as an unused number It is determined whether it is a number. If i is not defined as a non-use waiver, go to step S120. If i is a number defined as an unused ban, i is incremented in step S119 to proceed to the next i number.
- E i ( X 0) is, rather than the value of the same extent as E i (X 2), has a value greater than a certain degree E i (X 2), one ⁇ , E
- This is a judgment when i (X,) has a value that is not the same as Ei (X.) but is somewhat larger than Ei (Xo).
- the evaluation value becomes E, (X 2 ), E i (X 0 ), E i (X,).
- the fact that the condition of the expression (120) is met means that the focal lens is ⁇ 2 , ⁇ . , X, and the like, means that the valuation increases in order, and the process proceeds to the next step S122. If the condition of the equation (120) is not satisfied, the weight data Wi is added to the upcount value Ucnt in step S122 in step S122, and the value in step S126 is calculated. move on.
- E i (X 0) is not the same value as E i (X,), but has a value that is somewhat larger than E i (X,).
- i (X 2 ) is not the same value as E i (X o), This is the case when the value has a value larger than the degree E i (X.). Further understanding easily explained, off O carcass lenses, X 2, X 0
- step S123 the weight data Wi is added to the downcount value Dcnt, and the process proceeds to step S126.
- step S 124 E i (X.) does not have the same value as E i (X,), but has a depression that is somewhat larger than E i (X,).
- i (chi 0) is, rather than the value of the same extent as E i (X 2), which is determined when it has a value greater than a certain degree E i () 2). Further understanding easily explained, off O over mosquito scan lens, X 2, X 0
- the peak of the evaluation value is at E i (X o).
- step S125 the weight data Wi is added to the flat count value Fcnt, and the process proceeds to step S26.
- step S 1 i is incremented and step S 1
- step S127 since two evaluation values E are generated in the horizontal evaluation value generation circuit 62 and the vertical evaluation value generation circuit 63, it is determined whether i is 24. If the power is 24, it is determined that the calculation for all the evaluations has been completed, and the process proceeds to step S128. If i is not 24, the loop composed of steps S118 to S127 is repeated until i becomes 24.
- step S1208 the upcount value Ucn, the downforce value Dcnt, and the flatcount value Fcnt are compared to determine which It is determined whether the default value is the largest value. If the upcount value Ucnt is the largest value, the process proceeds to step S129, and if the downcount value Dent is the largest value, the process proceeds to step S129.
- step S30 if the flat count value Fcnt is the largest value, proceed to step S131.
- step S129 the micro computer 64 determines that the direction of X, is the hill-climbing direction of the evaluation value, that is, the direction in which the focus is in conformity. And then follow the direction of Far. .
- Step S 1 3 microphones b Computer 6 4, chi 2 hill-climbing direction of the direction evaluation value, ie, in the direction of full Okasu fit Judgment is made, and the CPU 4 specifies the lens movement direction as the Near direction.
- step S131 the microcomputer 64 is X.
- the position is determined to be the position where the focus is adjusted, and the process proceeds to step S2188.
- FIG. 7 is a diagram showing, as an example, a transition of changes in evaluation values E i (X 2 ), E i (X 0 ), and E i (X,) in (,, ().
- step S118 it is determined whether or not i is an unused ⁇ number.
- i is an unused ⁇ number.
- step S122 the operation of Ucnt-0-W, is performed.
- step S 120 Since E 2 (X 2 ) and E 2 (X o) ⁇ E 2 (X,), the condition of step S 120 is met, and the process proceeds to step S 12 ⁇ .
- Step S 1 2 1 - W the operation of the -I- W 2 is carried out.
- next third, fourth, and fifth loops the same operations as in the first and second loops described above are performed, and in step S12 of the 50th loop,
- step S 124 a determination is made on ⁇ 2, Since E 2 (X 2 ) ⁇ E 2 (X o)> E 2 (X,), the condition of step S 124 is met, and the flow proceeds to step S 125.
- step S1208 the upcount value Ucnt has the largest value, and in the example shown in FIG. 9, the process proceeds to step S129. Therefore, the force direction is determined to be the X, direction.
- steps S200 to S222 are steps for determining the lens position at which the evaluation value is maximized.
- This operation flow is an operation flow executed by the microphone computer 64. Steps S200 to S221 are performed, and FIG. 3 to FIG. 15 are referred to. I will explain in detail.
- the distance indicated by ⁇ X is the distance that the focal lens moves between one field. Is defined. Therefore, ⁇ separation ⁇ ⁇ represents the distance the lens travels in one field period.
- the distance ⁇ X not only represents the distance the lens travels in one field period no, but also is based on the lens movement direction obtained from step S100 to step S13 ⁇ .
- the polarity of ⁇ X is determined. For example, if the lens movement direction is the Far direction, ⁇ ⁇ is set to have a positive polarity, and if the lens movement direction is the Near direction, ⁇ X is the negative polarity. Is set to have
- step S 2 0 Mai Croc Npyu Ichita G 4 are instructs to move the lens to the position of the X k to the CPU.
- the lens position X k is given by the following equation (2 0 0).
- step S202 the microcomputer 64 receives the evaluation values E, (X ⁇ ) to be newly generated in the horizontal evaluation value generation circuit 62 and the vertical evaluation value generation circuit 63.
- the evaluation value E 24 (X ⁇ ) is stored in the RAM 66.
- the 24 evaluation values E i are stored in a table as shown in FIG.
- step S204 it is determined whether or not i is a ban which is defined as an unused number. If i is not defined as an unused number, go to step S206. If i is a number defined as an unused number, step S 2
- step S209 It is determined by performing the operation of (206).
- the fact that the condition of the equation ( 206 ) is met indicates that the evaluation value E i (X k ) is more than the evaluation value E i (X,) to some extent. In this case, the next step S 2 0 7 Proceed to. When the condition of the equation (206) is not satisfied, the process proceeds to step S209.
- step S207 the evaluation value E i (X k ) force ⁇ Since the evaluation value E i (X k —,) has been increased to some extent or more, the UZ D information (up Z down information) is used. Then, the 2-bit data “01” indicating that the data is up is stored in the RAM 66 in association with the evaluation value E i (X,).
- step S 208 similarly to step S 122, weight data W i is added to up force event value U cnt, and the flow advances to step S 214.
- step S 2 ⁇ 9 the evaluation value E i (X k ) obtained when the focus lens moves from X k —, to the position indicated by X becomes the evaluation value E i ( ⁇ ,- A judgment is made as to whether or not,) is down to some extent.
- step S210 since the evaluation value E i (X k ) is down to a certain extent with respect to the evaluation value E i (X k- >), the IJZ I) information (up / down information) Then, 2-bit data “10” indicating down is stored in R ⁇ 66 together with the evaluation value E i (X k ).
- step S211 as in step S123, the down-force value Dcnt! ! Step S2 1 4 Proceed to.
- step S212 means that the focus lens is represented by X k —, to X k , considering the conditions of the step S 206 and the conditions of the step S 209. It means that the evaluation value E i (X k ) obtained when moving to the position where the evaluation value E i (X k _,) has not changed by more than a certain degree .
- step S212 2-bit data “00” indicating a flat is used as UZD information (up-Z down information) as an evaluation value E i (X k ). Relate and store it in R 6 66.
- step S213 similarly to step S125, the weight data W i is added to the flat count value Fcnt, and the process proceeds to step S2J4.
- step S2114 i is incremented, and the process proceeds to step S215.
- step S215 it is determined whether or not the i force is 24. If i is 24, it is determined that the calculations for all the evaluation values have been completed, and the flow proceeds to step S216. When i is not 2/1, the loop composed of steps S204 to S21 ⁇ ) is repeated until i becomes 24.
- Step S216 is a step for determining whether or not the downcount value Dcnt has the largest value.
- FIG. 20 is a diagram showing a storage state of each evaluation data and each up-Z down information at R ⁇ 66.
- the micro computer (; 4) associates each evaluation i with each up / down information so as to correspond to the moved lens position ⁇ ⁇ . 6 to memorize.
- step S 2 0 4 crows Tetsupu S 2 1 5 loops are repeated, Appuka window down preparative value U cnt, Dow linker window down preparative value Dent and off rats
- the count value F cnt is as follows.
- step S216 is a step for judging whether or not comprehensive evaluation ⁇ is down. Can be expressed as
- step S216 the process proceeds to step S217.
- step S217 j is incremented, and the process proceeds to step S218.
- This j is a value indicating how many times the judgment result in step S216 has become YES, that is, a value indicating how many times the total evaluation has been reduced.
- step S 218 let ⁇ ⁇ + ⁇ be the first lens position of the lens position at which the comprehensive evaluation value starts to be continuously reduced.
- X ⁇ Judge whether the moving distance of the lens from (X ⁇ + j is greater than DXn. The formula for making the actual judgment is
- step S218 will be described with reference to FIG.
- the axis of ⁇ in FIG. 21 represents the position X of the lens, and the axis of ordinate represents the evaluation value E (X) for the position of the lens.
- the overall evaluation value is the lens position when the first down was performed. Therefore, the right side ( ⁇ XX j) of the equation (2 18) is the lens position ⁇ ⁇ ⁇ + at which the overall evaluation value first starts to decrease from the lens position XK before the overall evaluation value starts to decrease. Represents the distance between and. However, as can be seen from FIG. 21, the judgment result in step S218 is 8 ⁇ .
- step S218 Represents twice lenses position distance X K 4 2 began to down continuously. However, as can be seen from FIG. 21, the judgment result of step S218 is ⁇ 0.
- step S218 is NO.
- step S216 the downcount value Dcnt is If it is determined that the total evaluation value does not have the largest value, it is determined that the overall evaluation value has not decreased, and the process proceeds to step S219.
- the reason why j is reset is that j is a value indicating how many times the overall evaluation value has been reduced. More specifically, reaching step S219 means that the overall evaluation value was determined to be not down in the determination result of step S216 ' Therefore, in the determination in step S216, the continuous down of the total evaluation value is stopped. Therefore, j is reset in this step S219.
- j When the continuous down of the total evaluation value is interrupted, j is reset.
- a certain evaluation value E (X ⁇ ) is a local maximum value due to mere noise. Even if this is the case, j is reset in the operation loop of the evaluation value E ( ⁇ + ,) or ⁇ (X ⁇ .2) or ⁇ (X ⁇ , 3), so that the evaluation value E (X ⁇ ) is not recognized as the maximum.
- step S220 k is incremented in order to further move the focus lens, and the process returns to step S221.
- step S2 When the determination result of step S2 18 becomes Y E S, step S2
- step S22 it means that the total evaluation has been continuously downed from the lens position X ⁇ for a predetermined number of times (j times). Therefore, the micro computer 64 receives the lens position X ⁇ . Is determined to be the lens position X g at which the evaluation value is maximized.
- the overall evaluation value and the up-down state near the lens position X ⁇ and the up-down of Ei stored in the RAM 66 Select the i that matches the Just do it. Assuming that the selected weight i has the highest weight data Wi is W g , the maximum evaluation value is defined as E g ( ⁇ ⁇ )
- the corresponding lower limit evaluation value is defined as E g ( ⁇ ⁇ + ,).
- the maximum evaluation value ⁇ 9 ( ⁇ ⁇ ) is updated every field even after focusing has been achieved by fixing the lens to ⁇ ⁇ wide, but the lower limit evaluation value is E g (X ⁇ + .) is fixed.
- the overall evaluation value is increased based on the judgment of step S 2 16, and when the lens position is X ⁇ + , step S 2] 6 Based on this judgment, the overall evaluation value is down. Therefore, huh.
- step S223 it is determined whether or not the CPU 4 has received a command to follow the subject.
- the subject tracking command is used to control the tilt and pan movements of the video camera so as to follow the movement of the subject, and to adjust the position of the evaluation value detection window of the video camera's unique focus. This is a command to make it variable.
- the following command is supplied to the CPU 4 when the camera man presses a following command button provided on the operation unit 5. If the following command has been supplied from the operation unit 5, the process proceeds to step S300. If there is no following command, the process proceeds to step S224.
- step S224 it is determined whether or not an autofocus stop command has been issued. If the autofocus mode has been released by the operation of the camera, the flow advances to step S225 to shift to the manual focus mode.
- step S224 If there is no instruction to stop the autofocus mode in step S224, the process proceeds to step S226, where the maximum evaluation value E g (X ⁇ ) and the lower limit evaluation A comparison of the values E g ( ⁇ ⁇ + ,) is made. If the value of the maximum evaluation value E g (X ⁇ ) decreases due to a change in the subject and becomes lower than the lower limit evaluation value ⁇ 9 ( ⁇ ⁇ + 1 ), the process proceeds to step S 2 27. Restart the to focus operation. Talent
- step S300 shows the processing operation performed by the CPU 4. Further, in order to more specifically I3 1 solution the description of this flow, at the same time, also the reference example shown in the second 2 FIG.
- FIG. 22 shows a state in which a round object ⁇ and a square object ⁇ are being imaged.
- the color of the object ⁇ and the color of the object rest match the color set as the target object.
- the origin is the raster scan start point (upper left in the imaging screen), and the horizontal scanning direction is defined as the X-axis direction, and the vertical scanning direction is defined as the Y-axis direction. Therefore, on the imaging screen, the coordinates of the raster scan start point are (0, 0), and the coordinates of the raster scan end point are (768, 240). The center of (3
- step S223 the CPU 4 receives the motion tracking instruction of the subject from the operation unit 5, and receives the command from the operation unit 5 in step S3 shown in FIG. 0 Move to 0.
- step S300 the camera man operates the operation unit 5 to determine whether or not a subject as a target object has been set.
- a method of setting a subject as a target object will be described.
- Cameraman first captures a desired subject as a target object so that it is located at the center of the imaging screen.
- the target object rest determination button provided on the operation unit 5
- the CPU 4 causes the object located at the center of the imaging screen to move. Is recognized as the desired target object of the force camera, and the color information of this object is loaded into the RAM 4a.
- the setting of the target object is not limited to this method
- an object having a preset color may be set as a target object.
- the flow shifts to step S301.
- step S301 CP IJ4 determines the object set in step S300 from the four object modes (modes 0, 1, 2, and 3) described in. Select the most suitable subject mode for the object.
- the CPU 4 controls the switching of the switch circuits 72a.72b.72c and 72d according to the selected subject mode.
- the search circuit 38 searches for an area in which rain element data that matches the color component of the subject set as the target object exists. This search processing is not the processing performed by the CPU 4, but an area search circuit provided as a hardware circuit.
- the process 38 is performed.
- the area detection circuit 38 as a hardware circuit in this way, all pixel data from the encoder 37 can be processed. This means that condition judgment processing can be performed in real time. ⁇
- the operation of the relay search circuit 38 has already been described with reference to FIG.
- step S302 the CPU 4 determines which area has the pixel data of the same color as the target object based on the chip circuit number supplied from the end search circuit 38. recognize. Thus, the CPU 4 can select only an area having the same color as the subject set as the target object. In the example shown in the second 2 figure as a d re A present the same color as the object object, lambda 0 6 8 ⁇ A 0 6 9, A 0 8 4, A 0 8 5 ⁇ A 0 8 6 , A 0 ⁇ 7 ⁇ ⁇ 10 2 and A 10 3 will be selected.
- step S303 the CPU 4 reads out all pixel data present in the area selected in step S302 from the frame memory 39 in the last scan order.
- the pixel data existing in the area not selected in step S302 is not read at all.
- the pixel data is read out into the pixel data composed of ⁇ data, R- ⁇ data and ⁇ - ⁇ data.
- CPU 4 has eight areas A 0 fi 8 , A 0 6 9 A 0 8 4 A 0 8 5 A 0 8 6 ⁇ ⁇ 0 B 7 ⁇ ⁇ ] 0 2 and ⁇ ⁇ 0 3 ⁇ Only the existing pixel data is read from the frame memory 39.
- the CPU 4 determines the area from which the pixel data is read from the frame memory 39 based on the result searched by the area search circuit 38. The number of pixel data that! Can receive from the frame memory 39 can be reduced. Therefore, CPU 4 is in real time, and the entire image supplied from frame memory 39 is Processing can be performed on raw data.
- step S304 the CPU 4 first selects the mode 0 as the subject mode based on the read pixel data including the Y data, the R-Y data, and the B-Y data. If so, the condition is determined based on the equation (700). Mode as subject mode
- a program for performing the case judgment based on the equation (702) or the equation (703) is described in advance in RA A4a of CP1J4.
- condition determination processing is performed on all pixel data stored in the frame memory 39, the number of processing becomes too large, and this condition is determined in real time. Judgment processing cannot be performed. However, in the present embodiment, since the above-described condition determination is performed only on the pixel data existing in the selected area, the CPU 4 can perform this condition determination processing in real time.
- the CPU 4 is defined by the formula (700), (701), (7 () 2) or (7 ⁇ 3) for each of the ginseng data in the selected area.
- the result of the determination as to whether the condition is met is obtained.
- the fact that this pixel data power matches the condition defined by this equation (700), (701), (702) or (703) means that Picture This means that the color of the raw data matches and matches the color set as the target object.
- step S304 the CPU 4 creates an object information table, which will be described later, in parallel with the condition determination processing, and stores it in a predetermined area of the RAM 4a.
- the coordinate of the object which is set as the target object, indicates which line from which pixel position to which pixel position exists, and matches the color of the target object.
- an object identification number indicating the number of the object having the desired color.
- the line position indicates the number of the line on which an object having the same color as the target object exists by the Y coordinate
- the start pixel position indicates the line indicated by this line position.
- the coordinate position of the first pixel data of the holiday that has the same color as the target holiday is indicated by the X coordinate
- the end pixel location is defined as 1 ⁇ 1 in the line indicated by this line location.
- the X-coordinate indicates the coordinate position of the last pixel data of the object having the same color as the target object
- the object identification IJ number is the number of objects recognized as objects having the same color as the target object. A number indicating whether the object is an eye.
- the object information table contains the information ⁇ ⁇ as shown in FIG. Then, “16 1” is stored as the line identification, “2 45” is stored as the start pixel position, and “2 4 6” is stored as the end pixel position. Further, “1” is stored as the object identification number indicating the object ⁇ . The same applies to the following 162-line to 190-line, and a description thereof will be omitted.
- the object A exists between 221 pixels and 258 pixels
- object B exists between 318 pixels and 319 pixels.
- a minimum window including an object having the same color as the target object is set.
- the minimum window containing the object ⁇ is defined as a window defined in the range of 2 16 ⁇ X ⁇ 27 3, 16 1 ⁇ Y ⁇ 20 2 Do W A is set, and as the smallest window that includes vacation B, 3 09 ⁇ X ⁇
- a window W B defined in the range of 3 5 8, 1 9 1 Y ⁇ 2 3 1 is set.
- step S306 m is initialized to the minimum object identification number stored in the physical information table.
- m is a mere variable and has a value from the smallest object identification number stored in the object information table to the largest object identification number.
- step S307 the m-th pin set in step S305 based on the window center vector stored in the target object history table described later. It is determined whether or not the expected position coordinates described later exist in the do. This is to determine which of the object ⁇ and the object B is the target object-C.
- Fig. 24 shows an example of the target object history table FIG.
- the target object history table stores information on the coordinate position of the object determined to be the target object in each field.
- the field number is a temporary number that is reset every 30 fields, and is a sequential number that is sequentially assigned to each field.
- the window X coordinate is the
- the window range set for the target object is 3 1 2 X ⁇ 3 62 and 1 86 ⁇ Y ⁇ 2 28 It also indicates that the center position of the window is displaced from the center position of the imaging screen in the direction and distance indicated by the window center vector (147 + 87). .
- each of the field center 17 and the field number 18 and the field number 19 are respectively stored in the window center vectors stored at the respective time points. Looking at the data, there is no significant change in the values of the data representing these three window center vectors. This is not because the target object is not moving, but this window center vector This is because the torque indicates the movement vector of the target object from the previous field.
- the CPU 4 controls the pan-Z tilt drive mechanism 16 so that the center position of the window indicating the moved target object is positioned at the center of the imaging screen every field. Is controlling. Therefore, by setting the window center vector as a vector indicating the direction and distance of deviation from the center of the imaging screen, the window center vector is shifted from the front field. It represents the movement vector of the target object.
- Step S307 will be described again with reference to the target object history table described above.
- the predicted position coordinates are position coordinates obtained from the window center vector one field before, stored in the target object history table described above. For example, full I one field number is set at the time of ⁇ 9 the windowing central base-vector ( ⁇ ) (, 3 delta Y 13) so is a base-vector (one 4 9 + 8 9), off Even if we look at the window center vector obtained at field number 20, we can expect it to be a vector near the vector (1 49 + 89) .
- the window center vector stored in the target object history table indicates the amount and direction of the coordinate deviation from the imaging center coordinates (384, 120), the window center vector is displayed.
- the window center position target set for the target object at the time of field No. 20 can be considered to be (335, 209).
- the center position coordinate of this window is the expected position coordinate.
- step S307 the smallest window including the object A is 2 16 ⁇ X ⁇ 27 3 and
- step S308 m is incremented, and the process returns to step S307 again.
- step S307 as the smallest window including the object B, the range of 309 ⁇ X ⁇ 358 and 19.1 ⁇ Y ⁇ 2 3 1
- the expected position ⁇ coordinates (3 3 5 2 0 9) determines whether there. Oite to this stearyl-up, in the windowing W B, the expected position anonymous coordinates (3 3 5, 2 0 9
- CPU 4 determines that the object B is the set target object, and proceeds to step S309.
- step S309 the CPU 4 converts the coordinates of the window WB defined in the range of 3109 ⁇ X ⁇ 358 and 191 ⁇ Y ⁇ 231 into the target object of the RAM 4a.
- the window X coordinate and the ⁇ ⁇ window Y coordinate are stored in the area indicated by 0. Also, the CPU 4 calculates the center coordinates of the window W B from the coordinates of the window W B , and uses the center coordinates of the window as the window center vector in the RAM 4 a.
- the center vector of the window is a solid
- step S310 the CPU 4 moves the center of the window W2 to the center of the imaging screen based on the window center vector newly stored in step S309.
- the tilt Z pan drive mechanism 16 is controlled so as to match. Specifically, the CPU 4 outputs a control signal to the motor drive circuit 16b based on the window center vector.
- step S311 CPU 4 is the window center vector
- the offset value is supplied to the evaluation value generation circuit 62 of the force control circuit 34 on the basis of the value.
- the offset value is an offset value supplied to each counter provided in the window pulse generation circuits 625 and 635 shown in FIGS. 3 and 4.
- each window The center coordinates of W1 to W11 coincide with the coordinates of the center of the imaging screen.
- this offset value is supplied from the CPU 4 to the respective window counters of the window pulse generation circuits 625 and 6335, the counter value of each counter is based on this offset value. Changed. Therefore, the center coordinates of each window W1 to W11 are changed based on this offset value.
- the offset value is supplied to the focus control circuit 34 in step S311, the process returns to step S100.
- the present invention has the following effects.
- the area search circuit 3 selects an area in which pixel data of the same color as the target object exists, and performs a condition determination process only on the pixel data existing in the selected area.
- the position of the target object can be grasped in real time without placing a processing burden on the CPU 4.
- the object mode is set according to the set color of the target object, and the condition judgment calculation by the area detection circuit 38 and the condition judgment by the CPU 4 are performed according to the set object mode. Since the calculation is variable, the subject can be accurately recognized regardless of the color of the set subject rest.
- condition determination processing performed in the area search circuit 38 is determined by the hardware circuit, all the pixel data supplied from the encoder 37 are processed in real time. Condition determination can be performed.
- an object information table having position information on each object and a target object history table having information on a movement history of the target object are provided. Since the target object is created, the target object can be accurately recognized.
- the center deer of each window W 1 to W 11 is used. Changed to correspond to the object. Therefore, even if the target object moves, each window can be set accurately for the moved target object, and an accurate evaluation value can be obtained for the moved target object. Therefore, automatic focus control can be performed.
- a plurality of evaluation values can be obtained by combining a plurality of filter coefficients with windows of a plurality of sizes, so that various types of subjects can be handled.
- weight data is added to the evaluation / generation circuit, and a total evaluation value is obtained based on a plurality of evaluation values and ffi data corresponding to the evaluation values.
- accuracy of the finally obtained evaluation value is improved.
- the evaluation value curve draws a clear parabola in the vicinity of the force point, so that the maximum point of the evaluation value can be determined quickly. Therefore, the operation of the auto-force becomes faster.
- an evaluation value determined to be inappropriate when calculating the overall evaluation ⁇ is selected from a plurality of evaluation values and is not used, the accuracy of the evaluation value is further improved. For example, if a small window does not provide a good rating, use the rating corresponding to a larger window than the smaller window to combine the focus. Since it is made to focus, at least it is possible to focus on some kind of subject, and it is possible to prevent the auto-focus operation from continuing for a long time.
- a majority decision method using weight data is used for changes in a plurality of evaluation values, so that a small number of sample points and Small movements within the focal depth of the lens can judge right in the force direction.
- the lens When determining whether or not the maximum point of the evaluation value is the maximum point, the lens is moved from the maximum point to a distance of a predetermined multiple of the depth of focus, so that, for example, the peak of the evaluation value is flat. If so, it can be determined whether the lens is at its maximum when it moves a certain distance. Therefore, there is an effect that the focus point can be determined at high speed. For example, in order to determine whether the maximum point is the maximum point, it is necessary to prevent the focus from burning and the image signal to be large and fuzzy, thereby preventing an unnatural image from being output. it can.
- the evaluation state ⁇ matches the gap state of the overall evaluation value and the gap Z information stored in the R ⁇ GG, and the weight data Since the highest evaluation value of is selected as the maximum evaluation value, there is an effect that the value of the maximum evaluation value can be obtained accurately.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Color Television Image Signal Generators (AREA)
Abstract
An area detecting circuit (38) receives all picture element data about image pick-up signals from an encoder (37) and selects the area in which the picture element data coincident with the color of a preset target object exist, from among (128) divided areas. A CPU (4) receives the picture element data existing in the selected area from a frame memory (39) and prepares an object information table showing the coordinate position of the object having the picture element data of the color coincident with that of the object. Then the CPU (4) determines the present coordinate position of the object based on the data related to the preceding field stored in a target object history table. The CPU (4) supplies to a focus control circuit (34) an offset value used for changing the center position of a window for detecting an evaluated value from the data representing the coordinate position of the object. The circuit (34) calculates a plurality of evaluated values from a newly set window and generates a control signal used for controlling focus.
Description
明 細 書 Specification
発明の名称 被写体認識装置及び撮像装置 技術分野 Title of the Invention Subject Recognition Device and Imaging Device
この発明は、 ビデオカメ ラ等によって撮影される被写体の位置 を自動的に認識する被写体認識装置、 及び、 その画像認識装置を 利用して、 被写体の自動追尾を行うと共に、 被写体び対してフ ォ 一カ スを合わせる撮像装置に関するものである。 背景技術 The present invention relates to a subject recognition device for automatically recognizing the position of a subject photographed by a video camera or the like, and to automatically track a subject by using the image recognition device, and to focus on the subject. The present invention relates to an image pickup apparatus that adjusts the focus. Background art
従来、 民生用のビデオカメ ラにおいては、 被写体に対してフ ォ 一カ スを 動的に合わせるォー ト フ オーカスが用いられている。 Conventionally, in consumer video cameras, an auto focus that dynamically adjusts the focus to the subject has been used.
--般的に、 フ ォーカスが合っているか否かを検出するためには 、 撮像信号のコ ン ト ラ ス トが高いか低いかを判断すれば良いこと は良く知られている。 言い換えると、 コ ン ト ラス トが高いとフォ —カスが合っており、 コ ン ト ラス トが低いとフ ォーカスがずれて いるという ことである。 撮像信号の高周波成分を取り出して、 所 定の設定ェ リ ァ内に存在するこの高周波成分を積分したデータを 生成し、 この積分したデータを利用することによって、 コ ン ト ラ ス ト が高いか低いかを判断できる。 この積分されたデータは、 そ の設定ェ リァ内にどれだけ高周波成分が存在するかを示すデータ であって、 一般的に、 このデータを評価値と呼んでいる。 従って 、 評価値が最大となるように (つまり、 コ ン ト ラ ス トが最大とな るように) フ ォ ーカ ス レンズを駆動することによって、 オー ト フ オーカスが実現できる。 In general, it is well known that in order to detect whether or not the focus is correct, it is only necessary to determine whether the contrast of the imaging signal is high or low. In other words, the focus is high when the contrast is high, and the focus is off when the contrast is low. By extracting the high frequency components of the image signal, generating data that integrates the high frequency components present in the specified setting error, and using this integrated data, is the contrast high? We can judge whether it is low. This integrated data is data indicating how many high-frequency components exist in the setting error, and this data is generally called an evaluation value. Therefore, the autofocus can be realized by driving the focus lens such that the evaluation value is maximized (that is, the contrast is maximized).
このような方法で抽出された評価値は、 決して被写体のコ ン ト ラ ス トを表す正確な評価値ではない。 その理由と しては、 複数の 要因が考えられる。 その 1つの要因と しては、 評価値を検出する
ためのウイ ン ドウを目的被写体に対して設定する必要があるが、 目的被写体が移動しているとき等の場合には、 被写体に対して評 価値ゥィ ンドウを正確に設定できないという問題があった。 この ため、 精度の良い評価値を得ることができず、 従って、 フ ォ ー力 スを合わせるために非常に時間を要していた。 The evaluation value extracted in this way is not an accurate evaluation value that represents the contrast of the subject. There are several possible reasons for this. One of the factors is to detect the evaluation value Must be set for the target subject, but when the target subject is moving, etc., there is a problem that the evaluation window cannot be set accurately for the subject. Was. For this reason, accurate evaluation values could not be obtained, and it took a very long time to adjust the focus force.
例えば、 放送局や業務用に使用されるビデオカメ ラ装置におい ては、 撮影された映像をラィ ブ中継で家庭に伝送することがある 。 もし、 このようなライブ中継を行っている時に、 上述のように 精度の良い評価値を得ることが出来ない場合には、 オー ト フ ォ ー カ ス動作に時間がかかってしまう。 その結果、 ぼやけた撮像信号 を家庭に伝送してしまう ことになる。 従-つて、 放送局や業務用に 使用されるビデオカメ ラには、 民生用のビデオカメ ラのような簡 易型や廉価や小型のォ一 ト フ オーカス装置は全く必要ではなく、 高精度のフ オーカス制御及び高速なフ オーカス制御が要求されて いる。 For example, in a video camera device used for a broadcasting station or a business, a photographed video may be transmitted to a home through live broadcasting. If it is not possible to obtain an accurate evaluation value as described above during such live broadcasting, the autofocus operation takes a long time. As a result, the blurred image signal is transmitted to the home. Therefore, video cameras used for broadcasting stations and business use do not require any simple, inexpensive, or compact autofocus devices, such as consumer video cameras, and have high precision. Focus control and high-speed focus control are required.
一方、 従来技術と して、 ビデオカメ ラによって撮影されるある 特定の被写体に自動的に追従する機能、 いわゆる Θ動追尾機能を 有した撮像装置が提案されている。 これらの従来の撮像装匿は、 まず、 自動追尾する被写体の色成分を記憶し、 各フ ィ ール ド毎又 は各フ レーム毎に得られた撮像データを解析して、 動追尾する 被写体の色が、 撮像された画面内のどの位置の存在するのかを検 索する。 この時、 自動追尾する被写体の色が撮像された画面内の どの位置の存在するのかを検索するためには、 撮像された全画素 データを解析する必要がある。 しかし、 撮像された全画素データ に対して 1 画素毎に解析処理を行おうとすると、 演算性能が超高 速である特別なマイ ク口コ ン ピュータを使用しない限りは、 汎用 のマイ ク ロ コ ン ピュータを使用して撮像データをリ アルタイ ムで 処理することができなかった。 マイ クロコ ンピュータによって、
リ アルタイムに処理を行うためには、 得られたソース画像データ を、 水平方向及び垂直方向にデシメ ーショ ン処理して画像データ の量を減らし、 これによつてマイ ク ロコ ン ピュ ー夕での処理負担 を軽減させることが従来行われていた。 しかし、 画像データをデ シメ ーショ ン処理すると、 マイ クロコ ン ピュータによつて演算処 理される画素数がおおき く減少するので、 自動追尾させる被写体 力 撮像画面においてどの位置に存在するのかを正確に把握する ことが困難であった。 On the other hand, as a conventional technique, an imaging apparatus having a function of automatically following a specific subject photographed by a video camera, that is, a so-called automatic tracking function, has been proposed. In these conventional imaging concealment methods, first, the color components of the subject to be automatically tracked are stored, and the imaging data obtained for each field or each frame is analyzed, and the subject to be dynamically tracked is analyzed. Searches for the position of the color in the screen where the image was captured. At this time, it is necessary to analyze all the imaged pixel data in order to find out where in the imaged screen the color of the subject to be automatically tracked exists. However, if an attempt is made to perform an analysis process for each pixel of all captured pixel data, a general-purpose micro computer is used unless a special micro computer with extremely high computational performance is used. Image data could not be processed in real time using a computer. With a micro computer, In order to perform the processing in real time, the obtained source image data is decimated in the horizontal and vertical directions to reduce the amount of image data. Conventionally, the processing load on the system has been reduced. However, when decimation processing is performed on image data, the number of pixels that are processed by the micro computer is greatly reduced, so that the position of the subject to be automatically tracked can be accurately determined on the imaging screen. It was difficult to grasp.
本発明は、 目的被写体の位置を正確に且つリアルタイ ムに把握 することと、 被写体の位置に対応した評価値を得ることを目的と するものである。 発明の開示 An object of the present invention is to accurately and real-time grasp the position of a target subject and obtain an evaluation value corresponding to the position of the subject. Disclosure of the invention
本発明の特徴は、 目的被写体の位置を認識する被写体認識装置 において、 電気的な撮像信号を出力する撮像手段と、 上記撮像手 段からの撮像信号によつて構成される撮像画而を複数のェ リ ァに 分割し、 上記分割ざれたエ リ アの中から、 上記目的被写体と同じ 色成分を有した画素データが存在するェ リ ァを選択するェ リ ァ検 索手段と、 上記撮像手段からの撮像信 ·に対応する企画素データ を記憶する記憶手段と、 上記被写休検索手段によって選択された エ リ アに対応する画素データを上記記憶手段から読出し、 読出さ れた画素データに基づいて、 目的被写体の位置を演算するプロセ ッ シ ング手段とを備えた被写体認識装置にある。 A feature of the present invention is that in an object recognizing device for recognizing the position of a target object, an image pickup means for outputting an electric image pickup signal, and a plurality of image pickup images constituted by the image pickup signal from the image pickup means. Area searching means for selecting an area in which pixel data having the same color component as the target object exists from the divided areas, and the imaging means Storage means for storing pixel data corresponding to the imaging signal from the apparatus; and pixel data corresponding to the area selected by the subject-to-be-searched search means are read from the storage means, and the read pixel data is stored in the storage means. And a processing means for calculating the position of the target object based on the object recognition device.
さ らなる本発明の特徴は、 目的被写体を撮像する撮像装置にお いて、 電気的な撮像信号を出力する撮像手段と、 上記撮像手段か ら得られた撮像信号から構成される撮像画面に対して検出ウ ィ ン ドゥを設定し、 上記設定された検出ウ ィ ン ドゥ内の撮像信号の評 価値を検出し、 評価値に基づいてフ オーカスを制御するフ ォ ー力
ス制御手段と、 上記撮像手段からの撮像信号に対応する全画素デ ータを記憶する記憶手段と、 上記記憶手段から読出された画素デ —タに基づいて、 目的被写体の位置を演算し、 演算された目的被 写体の位置に、 上記検出ウィ ン ドウの位置が一致するようにフ ォ —力ス制御手段を制御するプロセ ッ シング手段とを備えた撮像装A further feature of the present invention is that, in an imaging apparatus for imaging a target object, an imaging device that outputs an electrical imaging signal, and an imaging screen that is configured from the imaging signal obtained from the imaging device. To set the detection window, detect the evaluation value of the imaging signal in the set detection window, and control the focus based on the evaluation value. Storage means for storing all pixel data corresponding to the imaging signal from the imaging means, and calculating the position of the target subject based on the pixel data read from the storage means. An imaging device including processing means for controlling a force control means such that the position of the detection window coincides with the calculated position of the target object.
¾にある。 図面の簡単な説明 ¾ BRIEF DESCRIPTION OF THE FIGURES
第 1 図は、 ビデオ力メ ラから構成される撮像装置の全休構成を 示す図面である。 FIG. 1 is a drawing showing a full rest configuration of an image pickup apparatus composed of a video camera.
第 2図は、 オー ト フ ォ ー力ス制御回路 4の具体的な構成と し めすための図面である。 ' FIG. 2 is a drawing showing a specific configuration of the auto-force control circuit 4. '
第 3図は、 水平方向評価値生成回路 6 2の具体的な構成を示す ための図面である。 FIG. 3 is a drawing showing a specific configuration of the horizontal direction evaluation value generation circuit 62.
第 4図は、 垂直方向評価値生成回路 6 3の具体的な構成を示す ための図面である。 FIG. 4 is a diagram showing a specific configuration of the vertical direction evaluation value generation circuit 63.
第 5図は、 水平方向評価値生成回路 6 2及び垂直方向評価値生 成回路 6 3の各回路に設定されるフ ィ ルタ計数"及びゥィ ン ドゥ サイ ズを示している。 FIG. 5 shows a filter count and a window size set in each of the horizontal direction evaluation value generation circuit 62 and the vertical direction evaluation value generation circuit 63.
第 6図は、 各ウィ ン ドウサイズを説明するための図面である。 第 7図は、 各評価値 Eに対して夫々設定された重みデータ Wを 示すための図面である。 FIG. 6 is a drawing for explaining each window size. FIG. 7 is a drawing for showing weight data W set for each evaluation value E, respectively.
第 8図は、 エ リア検索回路 3 8によつて分割される分割ェ リ ァ を示すための図面である。 FIG. 8 is a drawing showing a divided area divided by the area search circuit 38.
第 9図は、 エ リ ア検索回路 3 8の具体的な回路構成を示すため の図面である。 FIG. 9 is a drawing showing a specific circuit configuration of the area search circuit 38.
第 1 0図から第〗 5図は、 フ ォ ーカ スに閲する処理動作を説明 するための図面である。
第 1 6図は、 目的被写体を決定するための処理動作を説明する ための図面である。 FIG. 10 to FIG. 5 are drawings for explaining the processing operation for focusing. FIG. 16 is a diagram for explaining a processing operation for determining a target subject.
第 1 7図は、 フ ォ ーカスを合わせるためにレ ンズを移動させる 方向を決定する時に、 レ ンズの移動を示すための図面である。 第 1 8 A及び第 1 8 B図は、 ウ ィ ン ドウ内に非ターゲッ ト物体 が入ってきたときの状態を示す図面である。 FIG. 17 is a drawing for showing the movement of the lens when determining the direction in which the lens is moved to adjust the focus. FIG. 18A and FIG. 18B are drawings showing a state when a non-target object enters the window.
第 1 9図は、 レンズの移動方向を決定する際に、 R A M 6 6に 記憶した評価値の変動を示すための図面である。 FIG. 19 is a diagram for illustrating a change in the evaluation value stored in the RAM 66 when the moving direction of the lens is determined.
第 2 0図は、 オー ト フ ォ ーカス動作中に、 R A M 6 6 に記憶さ れるデータを示すための図面である。 FIG. 20 is a diagram showing data stored in the RAM 66 during an autofocus operation.
第 2 1図は、 ォ一 ト フォ 一カ ス動作によって得られた評価値の 変化を示すための図面である。 FIG. 21 is a drawing for showing changes in the evaluation value obtained by the autofocus operation.
第 2 2図は、 目的物体と同じ色を有した物体 Λと物体 Bの撮像 状態を示すための図面である。 FIG. 22 is a drawing for showing an imaging state of an object B and an object B having the same color as the target object.
第 2 3図は、 物体情報テーブルを示すための図而である。 FIG. 23 is a diagram showing an object information table.
第 2 4図は、 目的物体履歴テーブルを示すための図而である。 発明を実施するための最 J¾の形態 FIG. 24 is a diagram showing a target object history table. Best mode for carrying out the invention
以下、 本発明の実施例について第 1図から笫 2 4図を参照して 説明する。 Hereinafter, embodiments of the present invention will be described with reference to FIGS. 1 to 24.
まず、 図 1 を参照しながら、 本発明のビデオカ メ ラ装置の全体 構成を説明する。 ビデオカ メ ラ装置は、 入射光を光学的に撮像素 子の前面に集光するためのレ ンズブロ ッ ク 1 と、 レ ンズブロ ッ ク からの入射光を R G Bの電気的な撮像信 に変換する撮像プロ ッ ク 2 と、 撮像信号に対して所定の β 処 1¾を行う信号処 ¾ブ ^ ッ ク 3 と、 レ ンズブロ ッ ク 1 と撮像ブ" ッ ク 2 と^号処理プロ ッ ク を制御する C P IJ 4 とを備えている。 First, the overall configuration of the video camera device of the present invention will be described with reference to FIG. The video camera device has a lens block 1 for optically condensing the incident light on the front of the imaging device, and an imaging device for converting the incident light from the lens block into an RGB electrical imaging signal. Block 2, a signal processing block 3 for performing a predetermined β processing 1 on the imaging signal, a lens block 1, an imaging block 2 and a ^ processing block. CP IJ 4 is provided.
レンズブ π ッ ク 1 は、 ビデオカメ ラ装置本体に対して着脱可能
に設けられる。 このレンズブロ ッ ク 1 は、 光学的な要素と して、 光軸に沿って移動させることによって、 結像点の位置を可変する こと無く焦点距離を連続的に可変させ、 被写体の像をズーミ ング するためのズーム レ ンズ 1 1 と、 被写体に対してフ ォ ーカスを合 わせるためのフ ォ ーカ ス レ ンズ 1 2 と、 開口量を可変することに よって撮像素子の前面に入射する光量を調整するアイ リ ス機構 1 3 とを有している。 Lens block 1 can be attached to and detached from the video camera Is provided. This lens block 1 is an optical element that moves along the optical axis to continuously change the focal length without changing the position of the image point, thereby zooming the image of the subject. Zoom lens 11 for focusing, a focus lens 12 for focusing on the subject, and the amount of light incident on the front of the image sensor by varying the aperture And an iris mechanism 13 for adjusting the pressure.
レ ンズブ ϋ ッ ク 1 は、 さらに、 ズーム レ ンズ 1 1 の光軸方向の レ ンズ位置を検出する位置検出セ ンサ 1 1 a と、 ズーム レ ンズ 1 1 を光軸方向に移動させるための駆動モータ 1 1 わと、 駆動モー タ 1 1 bに駆動制御信号を与えるためのズーム レ ンズ駆動回路 1 1 じ と、 フ ォ ーカ ス レ ンズ 1 2の光軸方向のレンズ位置を検出す る位置検出セ ンサ 1 2 aと、 フ ォ ーカス レンズ 1 2を光軸方向に 移動させるための駆動モータ 1 2 bと、 駆動モータ 1 2 bに駆動 制御信号を与えるためのフ ォ 一カ ス レ ンズ駆動回路と 1 2 c と、 アイ リス機構の 1 3の開口位置を検出する位置検出セ ンサ 1 3 a と、 アイ リ ス機構 1 3を開口及び閉口させるための駆動モータ 1 3 bと、 駆動モータ 1 3 bに駆動制御信^を与えるためのアイ リ ス機構駆動回路 1 3 c とを備えている。 The lens block 1 further includes a position detection sensor 11a for detecting the lens position of the zoom lens 11 in the optical axis direction, and a drive for moving the zoom lens 11 in the optical axis direction. Detects the position of the zoom lens drive circuit 11 for providing a drive control signal to the motor 11 and the drive motor 11 b, and the lens position of the focus lens 12 in the optical axis direction. A position detection sensor 12a, a drive motor 12b for moving the focus lens 12 in the optical axis direction, and a focus lens for supplying a drive control signal to the drive motor 12b Lens drive circuit, 12 c, a position detection sensor 13 a for detecting the opening position of the iris mechanism 13, a drive motor 13 b for opening and closing the iris mechanism 13, An iris mechanism drive circuit 13c for providing a drive control signal to the drive motor 13b is provided. I have.
尚、 位置検出セ ンサ 1 1 a、 1 2 a . 1 3 a の検出信号は常時 The detection signals of the position detection sensors 11a, 12a and 13a are always
C P U 4 に送られるとともに、 ズーム レ ンズ駆動回路 1 ] (; 、 フ オ ーカ ス レ ンズ駆動回路と 1 2 c、 ァイ リス機構駆動回路 1 3 c は、 C P U 4からの制御信号が供給されるように電気的に接続さ れている。 The control signal from the CPU 4 is supplied to the zoom lens drive circuit 1] (;, the focus lens drive circuit 12 c, and the iris mechanism drive circuit 13 c, while being sent to the CPU 4. It is electrically connected so that
また、 レ ンズブロ ッ ク 1 は、 ズ一ム レ ンズ 1 】 の焦点距離デ一- タと口径比データと、 フ ォ 一カ ス レ ンズ 1 2 の焦点距離デ一夕と 口柽比データと、 レ ンズブ" ッ ク ] の製造メ 一力名及びシル了ル ナンバを記憶するための E E R O M 1 5を有している。 この E E
P R OM 1 5 に記憶されている各データは、 C P U 4からの読出 しコマ ン ドに基づいて読み出されるように C P U 4 と接続されて いる。 Lens block 1 contains the focal length data and aperture ratio data of zoom lens 1] and the focal length data and aperture ratio data of focus lens 12. It has an EEROM 15 for storing the manufacturer's name and the number of the lens. Each data stored in the PROM 15 is connected to the CPU 4 so as to be read based on a read command from the CPU 4.
また、 レ ンズブ1 ック 1 は、 パン Zチル ト駆動機構 1 6によつ てレンズの光軸方向が制御される。 C P U 4からの制御信号がモIn the lens book 1, the direction of the optical axis of the lens is controlled by a pan-Z tilt drive mechanism 16. The control signal from CPU 4 is
―タ駆動回路 1 6 bに供給されると、 モータ駆動回路 1 6 bは、 C P U 4からの制御信号に応じたパルスを駆動モータ 1 6 aに供 給する。 これによつて、 C P U 4からの指令によって自由に先軸 方向を可変制御する こ とができ る。 尚、 このパン Zチル ト駆動機 構 1 6は、 このよ う に レンズブロ ッ ク ] に設けられるものに限ら ず、 ビデ才力メ ラ装置全体を駆動する機構と して設けられても良 い o When supplied to the motor drive circuit 16b, the motor drive circuit 16b supplies a pulse corresponding to the control signal from the CPU 4 to the drive motor 16a. Thus, the direction of the front axis can be variably controlled by a command from the CPU 4. The pan-tilt driving mechanism 16 is not limited to the one provided in the lens block as described above, but may be provided as a mechanism for driving the entire bidet talent camera. o
撮像ブロ ッ ク 2 は、 レンズブ n ッ ク 】 力、らの入射光をレッ ド ( R ) 、 グリ ー ン (G ) 及びブルー ( B) の 3原色光に色分解する た の色分解プ リ ズム 2 1 と、 この色分解プ リ ズム 2 1 で分離さ れた R成分、 G成分、 B成分の光が撮像而上に結像され、 結像さ れた各色成分の撮像光を、 電気的な撮像信 ¾ ( R ) 、 ( G ) 及び (B ) に夫々変換して出力する撮像素子 2 2 I 、 2 2 G、 2 2 B とを— ίίしている。 例えば、 この撮像素子 2 2 R , 2 2 G , 2 2 Β i C C D (C h a r g e C υ 1 e d D e v i r, o j 力、ら 成る。 The imaging block 2 is a color separation premix for separating the incident light of the lens block into three primary colors of red (R), green (G) and blue (B). The light of the R component, the G component, and the B component separated by the color separation mechanism 21 is imaged on the imaging surface, and the imaging light of each of the formed color components is Image sensors 22 I, 22 G, and 22 B that convert and output the image signals (R), (G), and (B) respectively. For example, the imaging devices 22 R, 22 G, and 22 C i C C D (C a r g e C υ 1 ed D e vi r, o j force).
撮像ブロ ッ ク 2 1 は、 撮像素子 2 2 1 、 2 2 0. 2 2 Bから夫 々出力された撮像信号 (R ) 、 (G) 、 ( B) のレベルを増幅す ると共に、 によってリ セッ ト雑音を除去するための相閲ニ ¾サ ン プ リ ングを行うためのプリ ア ンプ 2 3 I?, 2 3 G, 2 3 Bを冇し ている。 The image pickup block 21 amplifies the levels of the image pickup signals (R), (G), and (B) output from the image pickup elements 221, 220.22B, respectively, and resets them by Preamplifier for performing censoring to remove set noise 2 3 I? , 23 G, and 23 B.
さ らに、 撮像プロ ッ ク 2 は、 内部に設けられた基準ク " ッ ク発 生回路からの基準クロ ッ クに基づいて、 ビデオ力メ ラ装置内の各
回路が動作する際の基本クロ ッ クとなる V D信号、 H D信号及び C L K信号を発生するためのタイ ミ ング信号発生回路 2 4 と、 タ イ ミ ング信号発生回路から供給された V D信号、 H D信号、 C L K信号に基づいて、 撮像素子 2 2 R、 撮像素子 2 2 G、 撮像素子 2 2 Bに対して駆動クロ ッ クを与えるための C C D駆動回路 2 5 とを備えている。 尚、 V D信号は、 1 垂直期間を表すク π ッ ク信 号であり、 H D信号は、 1水平期間を表すクロ ッ ク信号であり、 C L K信号は、 1画素ク ロ ッ クを表すクロ ッ ク信号であり、 これ らの V D信号、 H D信号及び C L K信号からなるタイ ミ ングク ロ ッ クは、 図示はしていないが、 C P U 4を介してビデオカメ ラ装 置の各回路に供給される。 In addition, the imaging block 2 uses the reference clock from the internally provided reference clock generation circuit to control each of the components in the video camera. Timing signal generation circuit 24 for generating VD signal, HD signal, and CLK signal, which are basic clocks when the circuit operates, and VD signal, HD supplied from timing signal generation circuit A CCD drive circuit 25 for giving a drive clock to the image sensor 22 R, the image sensor 22 G, and the image sensor 22 B based on the signal and the CLK signal is provided. The VD signal is a clock signal representing one vertical period, the HD signal is a clock signal representing one horizontal period, and the CLK signal is a clock signal representing one pixel clock. A timing clock composed of the VD signal, the HD signal, and the CLK signal is supplied to each circuit of the video camera device via the CPU 4, though not shown, although not shown. .
信号処理プロ ッ ク 3は、 ビデオ力メ ラ装置本休の内部に設けら れ、 撮像プロ ッ ク 2から供給される撮像信号 (R ) 、 (G) 、 ( B) に対して所定の信号処理を施すためのブロ ッ クである。 信号 処理ブロ ッ ク 3は、 撮像信号 (R) 、 (G) 、 (B) をアナログ からディ ジタルのビデオ信号 ( R ) 、 ( G ) 、 ( B ) に夫々変換 する A ZD変換回路 3 i R、 3 1 G、 3 1 Bと、 C P U 4からの ゲイ ン制御信号に基づいて、 ディ ジタルビデオ信号 ( R ) 、 ( G ) 、 ( B ) のゲイ ンをコ ン ト ロールするためのゲイ ン制御 0路 3 2 R、 3 2 G、 3 2 Bと、 ディ ジタルビデオ信号 ( R ) 、 ( G ) The signal processing block 3 is provided inside the main unit of the video camera, and is a predetermined signal for the imaging signals (R), (G), and (B) supplied from the imaging block 2. Block for processing. The signal processing block 3 converts the imaging signals (R), (G), and (B) from analog to digital video signals (R), (G), and (B), respectively. R, 31G, 31B and a gain control signal for controlling the gain of the digital video signals (R), (G), and (B) based on the gain control signal from the CPU 4. Channel 0 32 R, 32 G, 32 B, digital video signals (R), (G)
、 ( B) に対して所定の信号処理を行う信号処理回路 3 3 R、 3 3 G、 3 3 Bとを備えている。 この信号処理回路 3 3 R、 3 3 G 、 3 3 Bは、 例えば、 ビデオ信号のあるレベル以上を圧縮する二 —回路 3 3 1 R、 3 3 1 G、 3 3 1 Bと、 ビデオ信号のレベルを 設定されたアカーブに従って補正する 補正回路 3 3 2 R、 3 3, (B) are provided with signal processing circuits 33 R, 33 G, and 33 B for performing predetermined signal processing. The signal processing circuits 33 R, 33 G, 33 B are, for example, two circuits for compressing a video signal at a certain level or more, and a circuit 33 1 R, 33 G, 33 1 B, Compensation circuit that compensates the level according to the set curve. 3 3 2 R, 3 3
2 G、 3 3 2 Bと、 所定以下の黒レベル及び予定レベル^上の白 レベルをク リ ップする B Z Wク リ ッブ回路 3 3 3 R、 3 3 3 G、2 G, 33 2 B, and black level below predetermined level and white level above expected level ^ B Z W Clip circuit 3 3 3 R, 3 3 3 G,
3 3 3 Bを有している。 尚、 この信号処理回路 3 3 R、 3 3 G、
3 3 Bは、 ニ ー回路、 補正回、 路 BZWク リ ップ回路の他に、 公知のブラ ッ ク τ補正回路、 輪郭強調回路及びリニアマ ト リ ッ ク ス回路等を備えても良い。 It has 3 3 3 B. This signal processing circuit 33R, 33G, 33B may include a known black τ correction circuit, contour enhancement circuit, linear matrix circuit, and the like, in addition to the knee circuit, the correction circuit, and the circuit BZW clip circuit.
信号処理プ ッ ク 3は、 信号処理回路 3 3 R、 3 3 G、 3 3 B から出力されたビデオ信号 (R ) 、 (G) 、 ( B ) を受け取り、 ビデオ信号 (R ) 、 (G) 、 (B) から、 輝度信号 (Y) と、 色 差信号 (R— Y) ( B— Y) を生成するためのェンコーダ 3 7 と を備えている。 The signal processing puck 3 receives the video signals (R), (G), and (B) output from the signal processing circuits 33R, 33G, and 33B, and outputs the video signals (R), (G). ), (B), an encoder 37 for generating a luminance signal (Y) and a color difference signal (R-Y) (B-Y).
信号処理プロ ッ ク 3は、 さ らに、 ゲイ ン制御回路 3 2 R、 3 2 G、 3 2 Bから出力されたビデオ信号 ( R ) 、 (G ) 、 ( B ) を 受け取って、 そのビデオ信号 (R ) 、 ( G ) 、 ( B ) に基づいて 、 フ ォ ー力スを制御するための評価データ Eと方向データ D rを 生成するフ ォ ー力ス制御回路 3 4 と、 信号処理回路 3 3 R、 3 3 G、 3 3 Bから出力されたビデオ信号 (R ) 、 (G) 、 ( B) を 受け取り、 その信号レベルに基づいて、 撮像素子 2 2 R、 2 2 G The signal processing block 3 further receives the video signals (R), (G), and (B) output from the gain control circuits 32R, 32G, and 32B, and outputs the video signals. A force control circuit 34 for generating evaluation data E and direction data Dr for controlling force based on the signals (R), (G) and (B), and signal processing; Receives video signals (R), (G), and (B) output from circuits 33R, 33G, and 33B, and based on the signal levels, image sensors 22R, 22G
、 2 2 Bに入射する光量が適切な光 となるようにアイ リ スを制 御するアイ リス制御回路回路 3 と、 ^ 処 II回路 3 3 R、 3 3 G、 3 3 Bから出力されたビデオ信 ¾ ( K ) 、 ( G ) 、 ( B ) を 受け取り、 その信号レベルに菽づいてホワイ トバラ ンス制御を行 うためのホワイ トパ、ラ ンス制御回路 3 (; とを備えている。 Iris control circuit 3 that controls the iris so that the amount of light incident on the 2B and B light is appropriate, and the output from the processing II circuit 3 3R, 3G, and 3B. A white balancer for receiving a video signal (K), (G), and (B), and performing white balance control based on the signal level; and a balance control circuit 3 (;).
アイ リ ス制御回路 3 5 は、 供給されたビデオ信号 ( K ) 、 ( G ) 、 ( B ) の信号の中で最も信号レベルが最大である信号を選択 する N Λ M回路と、 選択された信 ¾の両而におけるェ リ ァを分剖 して、 各エ リ ア毎におけるビデオ · σを全積分する。 アイ リ ス制 御回路 3 5は、 この各エ リ ア毎の積分データに基づいて、 被写体 の逆光照明、 順光照明、 フ ラ ッ ト照明、 スポ ッ ト照明等のあらゆ る照明条件を判断して、 アイ リ スを制御するためのアイ リ ス制御 信号を生成し、 このアイ リ ス制御信号を C P U 4 に送出する。 C
P U 4は、 このアイ リ ス制御信号に基づいて、 アイ リ ス駆動回路 1 3 cに対して制御信号を送出する。 The iris control circuit 35 includes an NΛM circuit for selecting a signal having the highest signal level among the supplied video signals (K), (G), and (B), and By dissecting the error in both areas of the signal, the video and σ in each area are fully integrated. The iris control circuit 35 determines all lighting conditions, such as backlighting, normal lighting, flat lighting, spot lighting, etc., of the subject based on the integrated data for each area. Judgment is made, an iris control signal for controlling the iris is generated, and this iris control signal is sent to the CPU 4. C The PU 4 sends a control signal to the iris drive circuit 13c based on the iris control signal.
ホワイ トバラ ンス制御回路 3 6 は、 供給されたビデオ信号 (R ) 、 (G) 、 (B) から、 (R— Y) = 0、 (Β— Υ) = 0 とな るようにホワイ トバラ ンス制御信号を生成し、 このホワイ トバラ ンス制御信号を C P U 4に送出する。 C P U 4は、 このホワイ ト バラ ンス制御信号に基づいて、 ゲイ ン制御回路 3 2 R、 3 2 G、 3 2 Bに対して、 ゲイ ン制御信号を供給する。 The white balance control circuit 36 generates a white balance from the supplied video signals (R), (G), and (B) such that (R—Y) = 0 and (Β—Υ) = 0. A control signal is generated, and this white balance control signal is sent to the CPU 4. The CPU 4 supplies a gain control signal to the gain control circuits 32R, 32G, and 32B based on the white balance control signal.
さらに、 信号処理プロ ッ ク 3は、 ェ リ ァ検索回路 3 8とフ レー ムメ モ リ 3 3 ( とを備えている。 Further, the signal processing block 3 includes an error search circuit 38 and a frame memory 33 ( ).
ェ リ ァ検索回路 3 8は、 ェ ンコ 一ダ 3 7からの輝度信号 ( Y) と色信号 ( R - Y) 及び (B— Y) ^け取り、 この輝度信号及 び色信号に基づいて、 画面全体に設定されたエ リ アの中から、 目 的物体と して指定した被写体の色に一致する画素データが存在す るエ リ アを選択するための回路である。 詳しく は後述する。 The relay search circuit 38 removes the luminance signal (Y) from the encoder 37 and the chrominance signals (R-Y) and (B-Y), and based on the luminance signal and the chrominance signal, This is a circuit for selecting, from among the areas set for the entire screen, an area having pixel data that matches the color of the subject specified as the target object. Details will be described later.
フ レームメ モ リ 3 9 は、 ェ ンコ 一ダ 3 7からの輝度信号 ( Y ) と色信号 (R -- Y) 及び ( B— Y) を受け取り、 この輝度信号及 び色信号を一時的に記憶するためのメモ リであって、 輝度信^ ( Y ) 用のフ レームメ モ リ 、 色信号 ( R Y ) fflのフ レームメ モ リ 及び色信号 (B— Y) 用のフ レームメ モ リ の 3つのフ レームメ モ リから構成されている。 この各フ レームメ モ リ に記憶されている 輝度信号及び色信号は、 C P U 4からの供給される リ一 ドア ドレ スデータに基づいて読み出され、 その読み出された輝度信 及び 色信号は C P U 4に供給される。 The frame memory 39 receives the luminance signal (Y) and the chrominance signals (R-Y) and (B-Y) from the encoder 37, and temporarily stores the luminance signal and the chrominance signal. There are three types of memory for storing: a frame memory for a luminance signal (Y), a frame memory for a color signal (RY) ffl, and a frame memory for a color signal (B-Y). It consists of two frame memories. The luminance signal and color signal stored in each frame memory are read out based on the door address data supplied from the CPU 4, and the read luminance signal and color signal are read out by the CPU 4. Supplied to
次に、 第 2図を参照しながら、 フ ォ ーカ ス制御回路 3 4 に関し て詳しく説明する。 Next, the focus control circuit 34 will be described in detail with reference to FIG.
フ ォ ーカス制御回路 3 4 は、 輝度信号生成回路 Π 〗 と、 水平方 向評価値生成回路 6 2 と、 垂直方向評価値生成回路 6 3 と、 マイ
クロコ ン ピュータ 6 4 とから構成されている。 The focus control circuit 34 includes a luminance signal generation circuit Π〗, a horizontal direction evaluation value generation circuit 62, a vertical direction evaluation value generation circuit 63, and a microcomputer. It consists of a black computer 64.
輝度信号生成回路 6 1 は、 供給されたビデオ信号 R, G, Bか ら輝度信号を生成する回路である。 フ ォ ー力スが合っているかず れているかを判断するためには、 コ ン ト ラ ス トが高いか低いかを 判断すればよい。 従って、 コ ン ト ラ ス ト の変化は色信号のレベル 変化とは無閲係であるので、 輝度信号のレベルのみの変化を検出 することによって、 コ ン ト ラ ス 卜が高いか低いかを判断すること ができる。 The luminance signal generation circuit 61 is a circuit that generates a luminance signal from the supplied video signals R, G, and B. In order to determine whether the force is correct or not, it is necessary to determine whether the contrast is high or low. Therefore, since the change in contrast is irrelevant to the change in the level of the color signal, by detecting only the change in the level of the luminance signal, whether the contrast is high or low can be determined. You can judge.
輝度信号生成回路 6 1 は、 供給されたビデオ信号 R、 G、 Bに 対して、 The luminance signal generation circuit 61 converts the supplied video signals R, G, B into
Y = 0 . 3 R + 0 . 5 9 G + 0 . 1 1 B · · · · ( 1 ) に基づく公知の演算を行う ことによって、 輝度信号 Yを生成する ことができる。 By performing a known operation based on Y = 0.3R + 0.59G + 0.11B... (1), the luminance signal Y can be generated.
水平方向評価値生成回路 G 2は、 水平方向の評価値を生成する ための回路である。 こ こで、 水平方向の評価値とは、 輝度信号を 水平方向にサ ンプリ ングした時に、 輝度信号のレベルの変化がど れだけあるかを示すデータ、 言い換えれば、 どれだけ水平方向に コ ン ト ラス トがあるかを示すデ一タである。 The horizontal direction evaluation value generation circuit G2 is a circuit for generating a horizontal direction evaluation value. Here, the evaluation value in the horizontal direction is data indicating how much the level of the luminance signal changes when the luminance signal is sampled in the horizontal direction, in other words, how much the horizontal direction This data indicates whether there is trust.
水平方向評価値生成回路 6 2 は、 笫〗 の水平方向評価値 E, を 生成するための第 1の水平方向評価値生成回路 6 2 a と、 第 2の 水平方向評価値 E 2 を生成するための第 2の水平方向評価値生成 回路 6 2 わと、 第 3の水平方向評価値 E 3 を生成するための第 3 の水平方向評価値生成回路 6 2 と、 第 4 の水平方向評価値 E 4 を生成するための第 4の水平方向評価値生成回路 6 2 d と、 第 5 の水平方向評価値 E 5 を生成するための第 の水平方向評価値生 成回路 6 2 eと、 第 6の水平方向評価値 E 6 を生成するための第 6の水平方向評価値生成回路 6 2 f と、 第 7の水平方向評価 i E 7 を生成するための第 7の水平方向評価値生成回路 6 2 g と、 第
8の水平方向評価値 E 8 を生成するための第 8の水平方向評価値 生成回路 6 2 と、 第 9の水平方向評価値 E 3 を生成するための 第 9の水平方向評価値生成回路 6 2 i と、 第 1 0 の水平方向評価 値 E ,。を生成するための第 1 0の水平方向評価値生成回路 6 2 j と、 第 1 1の水平方向評価値 E を生成するための第 1 1 の水平 方向評価値生成回路 6 2 kと、 第 1 2の水平方向評価値 E 1 2を生 成するための第 1 2の水平方向評価値生成回路 6 2 1 とを有して いる。 Horizontal evaluation value generating circuit 6 2 generates a first horizontal evaluation value generating circuit 6 2 a for generating a horizontal evaluation value E, the笫〗, the second horizontal evaluation value E 2 A second horizontal evaluation value generation circuit 62 for generating a third horizontal evaluation value E 3 and a fourth horizontal evaluation value circuit for generating a third horizontal evaluation value E 3 A fourth horizontal evaluation value generation circuit 62d for generating E4, a fifth horizontal evaluation value generation circuit 62e for generating a fifth horizontal evaluation value E5, A sixth horizontal evaluation value generating circuit 6 2 f for generating a sixth horizontal evaluation value E 6 and a seventh horizontal evaluation value generating circuit for generating a seventh horizontal evaluation i E 7 6 2 g and the second Eighth horizontal evaluation value generation circuit 6 2 for generating eight horizontal evaluation values E 8 and ninth horizontal evaluation value generation circuit 6 for generating a ninth horizontal evaluation value E 3 2 i and the 10th horizontal evaluation value E,. A first horizontal direction evaluation value generating circuit 62 j for generating the first horizontal direction evaluation value E, a first horizontal direction evaluation value generating circuit 62 k for generating the first horizontal direction evaluation value E, And a second horizontal direction evaluation value generation circuit 6 21 for generating 12 horizontal direction evaluation values E 12 .
次に、 第 3図を参照しながら、 さ らに水平方向評価値生成回路 6 2 の詳しい構成を説明する。 Next, the detailed configuration of the horizontal direction evaluation value generation circuit 62 will be described with reference to FIG.
水平方向評価値生成回路 6 2 , 1 の水平方向評価値生成回路 6 2 aは、 輝度信号の高周波成分を取り出すためのハイパス フ ィ ルタ 6 2 1 と、 取り出した高周波成分を絶対値化す ことによつ て全て正の値を持ったデータとする絶対値化回路 6 2 2 と、 絶対 値化されたデータを水平方向に積分するこ と によ つて水平方向の 高周波成分のデータを累積加算する水 Ψ·方向稻分回路 6 2 3 と、 水平方向に積分されたデータを ¾ ΕΪ方向に積分する垂 方向積分 回路 6 2 と、 水平方向積分回路 6 2 3 と- 直方向 'i分回路に対 して積分動作を可能とするェナーブル信号を 出するウイ ン ドウ パルス発生回路 6 2 とを有している。 The horizontal direction evaluation value generation circuit 62a of the horizontal direction evaluation value generation circuit 62, 1 has a high-pass filter 621, which extracts high frequency components of the luminance signal, and an absolute value of the extracted high frequency component. Therefore, the absolute value conversion circuit 622 which makes data all have a positive value, and the data of the high frequency component in the horizontal direction are cumulatively added by integrating the absolute value data in the horizontal direction. The horizontal and vertical integration circuits 6 2 3, the vertical integration circuit 6 2 that integrates the data integrated in the horizontal direction in the vertical direction, the horizontal integration circuit 6 2 3, and the On the other hand, it has a window pulse generating circuit 62 for outputting an enable signal enabling integration operation.
スフ ィ ルタ 6 2 1 は、 ウ ィ ン ゥパルス発生 ^路 6 2 からの 1 サ ンプルク ロ ッ ク C L Kに応答して輝度信号の高周波成 分をフ ィ ルタ ングする ] 次元冇限ィ ンパルス · レスポ ンス · フ ィ ルタカ、ら構成される。 このハイパス フィ ルタ ΰ 2 1 は、 The filter 62 1 filters the high-frequency component of the luminance signal in response to one sample clock CLK from the path 62, which is a 2 pulse generator. It is composed of dance filters. This highpass filter ΰ 2 1
( 1 - Ζ - 1 ) / ( 1 - α Ζ - ' ) ( 2 ) で示されるカ ツ トオ フ周波数特性をも-している。 この^ 1 の水平 方向評価値生成回路 6 2 aでは、 《 0 . 5 とされ、 この "に応 じた周波数特性を示すようになつている。
ウィ ン ドゥパルス発生回路 6 2 5 は、 C P U 4から供給された 1垂直期間を表す V Dと、 1水平期間を表す H Dと、 1 サ ンプル クロ ッ クを表す C L Kとに基づいて動作する複数のカウ ンタを有 している。 このウ ィ ン ドウパルス発生回路 G 2 5 は、 カ ウ ンタの カ ウ ン ト値に基づいて、 水平方向積分回路 6 2 3に対しては 1 サ ンブルクロ ッ ク C L K毎にェナーブル信号を供給し、 垂直方向積 分回路 6 2 4 に対しては 1水平期問^にェナーブル信号を供給す る。 第 1 の水平方向評価値路 6 2 a のウ ィ ン ドゥパルス発生回路 6 2 5 においては、 ウイ ン ドウの大きさが、 1 9 2画素 X 6 0画 素となるように、 カ ウ ンタの初期カ ウ ンタ ¾が設定されている。 従って、 水平方向評価値生成回路 6 2から出力される第 ] の水平 方向評価値 E , は、 1 9 2画素 X 6 0画素のウ ィ ン ドウ内に存在 する全ての高周波成分を積分したデータを示していることになる 。 このカ ウ ンタ には、 C P U 4からオ フセ ッ ト値が供給されるよ うに、 接続されている。 尚、 初期カウ ン ト iには、 撮像画面の中 心に対してウイ ン ドゥの中心が一致するようにカウ ン ト値がセッ ト されている。 これに対して、 C P し1 4から供給されるオ フセッ ト値とは、 初期カ ウ ン ト値に加算されるカ ウ ン ト值を意味してい る。 従って、 C P U 4からオフセッ ト値が供給されると、 カウ ン タのカウ ン ト値が変更され、 それに伴って、 ウィ ン ドゥの中心位 置が変更される。 (1-Ζ- 1 ) / (1-α Ζ-') It also has the cutoff frequency characteristic shown by (2). In the horizontal direction evaluation value generation circuit 62a of ^ 1, << 0.5 is set, and a frequency characteristic corresponding to this "is shown. The window pulse generating circuit 625 includes a plurality of clocks operating based on VD representing one vertical period, HD representing one horizontal period, and CLK representing one sample clock supplied from the CPU 4. Have The window pulse generation circuit G 25 supplies an enable signal to the horizontal integration circuit 62 3 every one sample clock CLK based on the count value of the counter. The enable signal is supplied to the vertical integration circuit 6 2 4 in one horizontal period. In the window pulse generation circuit 62 of the first horizontal evaluation value path 62 a, the counter size is set so that the size of the window becomes 92 pixels × 60 pixels. Initial counter ¾ is set. Therefore, the horizontal direction evaluation value E, output from the horizontal direction evaluation value generation circuit 62, is the data obtained by integrating all the high-frequency components existing in the window of 192-pixel X 60-pixel. It shows that. The counter is connected so that an offset value is supplied from the CPU 4. In the initial count i, a count value is set so that the center of the window coincides with the center of the imaging screen. In contrast, the OH Fuse' bets value supplied from the CP to 1 4, it is meant mosquito window down bets值to be added to the initial Ca window down bets value. Therefore, when the offset value is supplied from the CPU 4, the counter value of the counter is changed, and accordingly, the center position of the window is changed.
その他の第 2の水平評価値生成回路 6 2 b〜第 1 2の水平評価 値生成回路 6 2 1 hは、 上述の^ 1 の水平評価値生成回路 6 2 a と同じように、 ハイパス フ ィ ルタ 6 2 1 と、 絶対値化回路 6 2 2 と、 水平方向積分回路 6 2 3 と、 垂 方向積分回路 6 2 4 と、 ゥ ィ ン ドウパルス発生回路 6 2 5 とを夫々有している。 どのような 点が夫々の回路において異なっているかというと、 各回路 ( 6 2 aから 6 2 1 ) に設定されているフ ィ ルタ係数"とウ ィ ン ドウサ
ィズの組み合わせが夫々異なつている。 The other second horizontal evaluation value generation circuits 6 2 b to 12 th horizontal evaluation value generation circuits 62 1 h are similar to the above-described ^ 1 horizontal evaluation value generation circuit 62 a, and are high pass filters. A horizontal integration circuit 623, a vertical integration circuit 624, and a window pulse generation circuit 625. What is different in each circuit is that the filter coefficients set in each circuit (62a to 621) and the window Combinations of sizes are different.
従って、 夫々の回路によって生成される 1 2個の評価値 E , 〜 E 1 2の値は夫々異なる値をもつことになる。 Therefore, the 12 evaluation values E 1 ,..., E 12 generated by the respective circuits have different values.
第 5 A図には、 第 1の水平評価値生成回路 6 2 a〜第 1 2の水 平評価値生成回路 6 2 1 が、 どのような値のフィルタ係数"とゥ イ ン ドウサイズが設定されているかを示している。 なぜ、 このよ うに異なったフィ ルタ係数を設定するかを以下に説明する。 In FIG. 5A, the first horizontal evaluation value generation circuit 62 a to the 12th horizontal evaluation value generation circuit 62 1 determine what value of the filter coefficient and the window size are set. The reason why such different filter coefficients are set is described below.
例えば、 カ ツ トオ フ周波数の高いハイノ スフ ィ ルタは、 ジャ ス ト フ ォ 一カ ス (フ ォ ーカ スが合っている こ とを言う) の近傍にお いて非常に適している。 なぜなら、 ジャ ス ト フ フ ォ ーカ ス近傍に おけるレ ンズの動きに対して、 評価値が変化割合が大きいからで ある。 また、 フ ォ 一カ スが大き くずれているところでレンズを移 動させたとしても、 評価値の変化割合が小さいので、 カ ツ トオ フ 周波数の高いハィ パスフ ィ ルタ は、 フ ォ ーカ スが大き くずれてい るところでは、 適しているとは言えない。 For example, a hi-no filter with a high cut-off frequency is very suitable near just focus (meaning that the focus is on). This is because the evaluation value has a large change rate with respect to the movement of the lens near the just focus. Also, even if the lens is moved where the focus is greatly deviated, the rate of change of the evaluation value is small, so a high-pass filter with a high cut-off frequency has a low focus. It is not suitable where there is a large gap.
一方、 カ ツ ト オ フ周波数の低いハイ パス フ ィ ルタ は、 フ ォ ー力 スが大きくずれているところにおいて、 適している。 なぜなら、 フ ォ ーカスが大き くずれているところでレンズを移動させると、 評価値の変化割合が大きいからである。 また、 ジャ ス ト フ ォ ー力 スの近傍においてレンズを移動させたと しても、 評価値の変化割 合が小さいので、 カ ツ トオ フ周波数の低いハイパス フ ィ ルタは、 ジャス トフオーカス近傍においては、 適しているとは言えない。 つまり、 カ ツ トオ フ周波数の高いハイパス フ ィ ルタ及び力 ッ ト オ フ周波数の高いハイ パスフ イ ルク のどちらにおいても、 良所及 び短所があり、 どちらのフ ィ ルタが最も適しているとは一言では 言えない。 よって、 複数のフ ィ ルタ係数のハイ パス フ ィ ルタを使 用して複数の評価値を生成し、 最も適切な評価値を選択するこが より望ま しい。
本実施例における水平方向評価値生成回路 6 3においては、 第 6 A図に示すような複数種類のウイ ン ドウが設定されている。 ゥ ン ドウパルス発生回路 6 2 5の内部のカ ウ ンタに対して、 C P U 4からオフセ ッ ト値が供給されていない場合は、 これらの複数の ウ ィ ン ドウの中心は、 撮像画面の中心と一致する。 ウ ィ ン ドウ WOn the other hand, a high-pass filter with a low cut-off frequency is suitable where the power is significantly shifted. This is because when the lens is moved where the focus is largely shifted, the rate of change of the evaluation value is large. Even if the lens is moved in the vicinity of the just-force, the change rate of the evaluation value is small, so that the high-pass filter with a low cut-off frequency is not close to the just-focus. However, it is not suitable. In other words, both high-pass filters with a high cut-off frequency and high-pass filters with a high cut-off frequency have advantages and disadvantages, and which filter is the most suitable. Cannot be said in one word. Therefore, it is more desirable to generate a plurality of evaluation values using a high-pass filter of a plurality of filter coefficients and select the most appropriate evaluation value. In the horizontal direction evaluation value generation circuit 63 in this embodiment, a plurality of types of windows are set as shown in FIG. 6A. If no offset value is supplied from the CPU 4 to the counter inside the window pulse generation circuit 6 25, the center of these multiple windows will be the center of the imaging screen. Matches. Window W
1 は 1 9 2画素 X 6 0画素のウ ィ ン ドウあって、 ウ ィ ン ドウ W 2 は 1 3 2画素 X 6 0画素のウィ ン ドウあって、 ウィ ン ドウ W 3は 3 8 4画素 X 1 2 0画素のウイ ン ドウあって、 ウイ ン ドウ W 4 は 2 G 4画素 X 1 2 0画素のウイ ン ドウあって、 ウイ ン ドウ W 5 は 7 6 8画素 X 1 2 0画素のウ ィ ン ドウあって、 ウ ィ ン ド ウ W 6 は1 is a 192-pixel X60-pixel window, window W2 is a 13-pixel X60-pixel window, and window W3 is a 384-pixel There is a window of X120 pixels, window W4 is a window of 2G4 pixels X120 pixels, and window W5 is 768 pixels of X120 pixels. There is a window, window W6 is
5 4 8画素 X 〗 2 0画素 d クィ ン ドゥぁる„ 5 4 8 pixels X〗 20 pixels d queen
このように複数のウィ ン ドウを設定することによって、 各ウイ ン ドゥに対応した夫々異なる評価値を夫々生成することができる 。 従って、 フ ォ ーカスを合わせようとする被写体がどのような大 きさであろうとも、 第〗 の水平方向評価値生成回路 β 2 aから第 By setting a plurality of windows in this way, different evaluation values corresponding to the respective windows can be generated. Therefore, regardless of the size of the subject whose focus is to be adjusted, the second horizontal evaluation value generation circuit β 2 a
1 2の水平方向評価値生成回路 6 2 1 のうちのいづれかより、 適 切な評価値を得ることができる。 An appropriate evaluation value can be obtained from any one of the horizontal evaluation value generation circuits 6 2 1.
次に、 垂直方向評価生成回路 6 3の構成に関して、 第 2図及び 第 4図を参照して説明する。 Next, the configuration of the vertical direction evaluation generation circuit 63 will be described with reference to FIG. 2 and FIG.
垂直方向評価値生成回路 6 3は、 垂直方向の評価値を生成する ための回路である。 こ こで、 垂直方向の評価値とは、 輝度信号を 垂直方向にサ ンプリ ングした時に、 輝度信号のレベルの変化がど れだけあるかを示すデータ、 言い換えれば、 どれだけ垂直方向の コ ン ト ラ ス トがあるかを示すデータである。 The vertical direction evaluation value generation circuit 63 is a circuit for generating a vertical direction evaluation value. Here, the evaluation value in the vertical direction is data indicating how much the level of the luminance signal changes when the luminance signal is sampled in the vertical direction, in other words, how much the vertical control value is. This data indicates whether there is trust.
垂直方向評価値生成回路 6 3は、 第 1 の垂 ΪΙ 方向評価値 E , 3を 生成するための第 1 の垂直方向評価値生成回路 6 3 a と、 第 2の 垂直方向評価値 E,4を生成するための第 2の! 6直方向評価値生成 回路 6 3 bと、 第 3の垂直方向評価値 E , >を生成するための第 3
の垂直方向評価値生成回路 6 3 c と、 第 4の垂^方向評価値 E l c を生成するための第 4の垂直方向評価値生成回路 6 3 dと、 第 5 の垂直方向評価値 E , 7を生成するための第 5の垂直方向評価値生 成回路 6 3 eと、 第 6の垂直方向評価値 E,βを生成するための第 6の垂直方向評価値生成回路 6 3 f と、 第 7の垂直方向評価値 EThe vertical evaluation value generating circuit 6 3, a first vertical evaluation value generating circuit 6 3 a for generating a first vertical ΪΙ direction evaluation value E, 3, a second vertical evaluation value E, 4 The second to produce! 6 A vertical direction evaluation value generation circuit 6 3 b and a third vertical direction evaluation value E,> A vertical evaluation value generation circuit 63d , a fourth vertical evaluation value generation circuit 63d for generating a fourth vertical evaluation value Elc, and a fifth vertical evaluation value E, A fifth vertical evaluation value generating circuit 63 e for generating the seventh vertical evaluation value E 6 and a sixth vertical evaluation value generating circuit 63 f for generating the sixth vertical evaluation values E and β ; Seventh vertical evaluation value E
1 3を生成するための第 Ίの垂直方向評価値生成回路 6 3 gと、 第 8の垂直方向評価値 E 2。を生成するための第 8の垂直方向評価値 生成回路 6 3 hと、 第 9の垂直方向評価値 E 2 ,を生成するための 第 9 の垂直方向評価値生成回路 6 3 i と、 第 1 0 の垂直方向評価 1 3 and vertical evaluation value generating circuit 6 3 g of a Ί for generating a vertical evaluation value of the 8 E 2. And a ninth vertical evaluation value generating circuit 63 i for generating an ninth vertical evaluation value E 2 , and an eighth vertical evaluation value generating circuit 63 h for generating Vertical evaluation of 0
J 1 J 1
値 E 2 2を生成するための第 1 60の垂直方向評価値生成回路 6 3 j と、 第 1 1の垂直方向評価値 E 2 3を生成するための第 1 1 の垂直 方向評価値生成回路 6 3 k と、 第 1 2の垂直方向評価値 E 2 4を生 成するための第 1 2の垂直方向評価値生成回路 6 3 1 とを有して いる。 First 1 vertical evaluation value generating circuit for generating a vertical evaluation value generating circuit 6 3 j of the first 60, the first 1 in the vertical direction evaluation value E 2 3 for generating the value E 2 2 and 6 3 k, and the first and second vertical evaluation value E 2 4 and a vertical evaluation value generating circuit 6 3 1 of the first 2 to generate.
次に、 第 4図を参照しながら、 さ らに垂直方向評価値生成回路 Next, referring to FIG. 4, a vertical evaluation value generation circuit
6 3の詳しい構成を説明する。 6 Detailed configuration of 3 will be described.
垂直方向評価値生成回路 6 3の第 1 の垂直方向評価値生成回路 6 3 a は、 水平方向の輝度信号のレベルの-平均値データを生成す る水平方向平均値生成回路 6 3 1 と、 輝度信 の平均値データの 高周波成分を取り出すためのハィパス フ ィ ルタ 6 3 2 と、 取り出 した高周波成分を絶対値化することによつて全て止の値を持った データとする絶対値化回路 6 3 3 と、 絶対値化されたデータを垂 直方向に積分することによって高周波成分のデータを垂直方向に 累積加算する垂直方向積分回路 6 3 4 と、 水平方向平均値生成回 路 6 3 1及び垂直方向積分回路 6 3 A に対して積分動作を可能と するェナーブル信号を送出するウイ ン ドウパルス発生回路(] 3 5 とを有している„ The first vertical evaluation value generation circuit 63 a of the vertical evaluation value generation circuit 63 is a horizontal average value generation circuit 631 that generates -average value data of the level of the horizontal luminance signal, A high-pass filter 632 for extracting the high-frequency component of the average value data of the luminance signal, and an absolute value conversion circuit for converting the extracted high-frequency component to an absolute value, so that all the data have a stop value. 6 3 3, a vertical integration circuit 6 3 4 that integrates the absolute value data in the vertical direction to accumulate and add high frequency component data in the vertical direction, and a horizontal average value generation circuit 6 3 1 And a window pulse generation circuit (] 35) for sending an enable signal enabling integration operation to the vertical integration circuit 63 A.
ハイ パス フ ィ ルタ 3 2 は、 ウ ィ ン ドウパルス ¾生回路 G 2 5
からの 1水平期間信号 H Dに応答して、 輝度信号の高周波成分を フ ィ ルタ リ ングする 1次元有限ィ ンパルス · レスポ ンス · フ ィ ル タから構成される。 このハイパスフ ィ ルタ 6 3 2は、 第 1 の水平 方向評価値生成回路 6 2 a のハイパス フ ィ ルタ 6 2 1 と同じカ ツ ト 才 フ周波数を有している。 この第 1の垂直方向評価値生成回路The high-pass filter 32 is a window pulse regeneration circuit G 25 It consists of a one-dimensional finite impulse response filter that filters the high-frequency component of the luminance signal in response to one horizontal period signal HD from. This high-pass filter 632 has the same cutoff frequency as the high-pass filter 62 1 of the first horizontal direction evaluation value generation circuit 62a. This first vertical evaluation value generation circuit
6 3 aでは、 " = 0 . 5 とされ、 この"に応じた周波数特性を示 すようになっている。 In 6 3a, "= 0.5 is set, and the frequency characteristic according to this is shown.
ウ ィ ン ドゥパルス発生回路 6 3 5は、 C P U 4から供給された 1垂直期間を表す V D信号と、 1水平期問を表す H Dと、 1 サ ン プルク ロ ッ クを表す C L Kとに基づいて動作する複数のカウ ンタ を有している。 このウ ィ ン ドウノ、。ルス発生 0路 fi 3 5 は、 カ ウ ン 夕のカ ウ ン ト値に基づいて、 水平方向平均値生成回路 6 3 1 に対 しては 1 サンプルク ロ ッ ク C L K侮にェナ―ブル信号を供給し、 垂直方向積分回路 6 3 4 に対しては 1 水平期間毎にェナーブル信 号を供給する。 第 1 の垂直方向評価値路 6 3 aのウイ ン ドウパル ス発生回路 6 3 5においては、 ゥ ィ ン ドゥの大きさが 1 2 0画素 X 8 0画素となるように力 ンタの初朋力 ゥ ンタ!¾:が設定されてい る。 従って、 垂直方向評価値 成冋路 f; から出力される評価値 E , 3は、 1 2 0画素 X 8 0画素のウイ ン ドウ内の垂 ifi方向の高周 波成分を積分したデータを示していることになる。 このカ ウ ンタ には、 C P U 4からオ フセッ ト愤が供給されるように、 接続され ている。 尚、 初期カウ ン ト値には、 撮像両面の中心に対してウイ ン ドゥの中心が一致するようにカウ ン ト がセッ ト されている。 これに対して、 C P U 4から供給されるオ フセ ッ 卜値とは、 初期 カウ ン ト値に加算されるカウ ン ト ¾:を怠味している。 従つて、 CThe window pulse generation circuit 635 operates based on the VD signal supplied from the CPU 4 representing one vertical period, HD representing one horizontal period, and CLK representing one sample clock. It has multiple counters. This Windo ,. The zero generation fi35 is one sample clock for the horizontal average value generation circuit 631, based on the count value of the count value. A signal is supplied, and an enable signal is supplied to the vertical integration circuit 634 every one horizontal period. In the first vertical direction evaluation value path 63 a, the window pulse generating circuit 63 5 has the initial power of the printer so that the size of the window is 120 pixels x 80 pixels.ゥ¾: is set. Therefore, the evaluation value E, 3 output from the vertical evaluation value generation path f; indicates the data obtained by integrating the high frequency component in the vertical ifi direction in the window of 120 pixels X 80 pixels. Will be. This counter is connected so that the offset 4 is supplied from the CPU 4. The initial count value is set so that the center of the window coincides with the center of both sides of the imaging. On the other hand, the offset value supplied from the CPU 4 neglected the count ¾: added to the initial count value. Therefore, C
P U 4からォフセッ ト彼が供給されると、 ウ ィ ン ドゥパルス発生 回路 6 3 5のカウ ンタのカウ ン ト俯が変更され、 それに i†-つて、 ウ ィ ン ドゥの中心位置が夫々変更される。
その他の第 2の垂直方向評価値生成回路 6 3 b〜第 1 2の垂直 方向評価値生成回路 6 3 】 hは、 上述の第 1 の垂直方向評価値生 成回路 6 3 a と同じように、 水平方向平均値生成回路 6 3 1 と、 ハイパス フ ィ ルタ 6 3 2 と、 絶对値化回路 6 3 3と、 垂直方向積 分回路 6 3 4 と、 ウィ ン ドウパルス発生回路 6 3 5 とを有してい る。 どのような点が夫々の回路において異なつているかというと 、 水平方向評価値生成回路 6 2 と同じように、 各回路に設定され ているフ ィ ルタ係数 "とウィ ン ドゥサィ ズの組み合わせが夫々異 なっている。 When the offset is supplied from PU 4, the count down of the counter of the window pulse generating circuit 635 is changed, and the center position of the window is changed accordingly. You. The other second vertical evaluation value generation circuits 63 b to the 12th vertical evaluation value generation circuits 63 3 h are similar to the first vertical evaluation value generation circuits 63 a described above. A horizontal average value generation circuit 631, a high-pass filter 632, an absolute value conversion circuit 633, a vertical integration circuit 634, and a window pulse generation circuit 6353. have. What is different in each circuit is that, as in the horizontal direction evaluation value generation circuit 62, the combination of the filter coefficient and window size set in each circuit is different. Has become.
従って、 夫々の回路によって生成される 〗 2個の評価値 E , 〜 Therefore, 評 価 two evaluation values E, to be generated by each circuit
E 1 2の値は夫々異なる値をもつことになる。 The values of E 12 will have different values.
第 5 β図には、 第 1 の垂直評価做生成回路 G 2 a〜第 1 2の水 平評価値生成回路 6 2 1 に対して、 どのような値のフィルタ係数 "とウイ ンドウサイズが設定されているかを示している。 In Figure 5β, what value of filter coefficient and window size are set for the first vertical evaluation generation circuit G2a to the 12th horizontal evaluation value generation circuit 6 21 Is shown.
本実施例における垂直方向評価値生成回路 6 3においては、 第 In the vertical direction evaluation value generation circuit 63 in the present embodiment,
6 B図に示すような複数種類のウィ ン ドゥが設定されている。 ゥ ン ドゥパルス発生回路 6 2 5の内部の力ゥ ンタに対して、 C P U 4からオフセ ッ ト値が供給されていない場合は、 これらの複数の ウィ ン ドウの中心は、 撮像画面の中心と一致する。 ウィ ン ドウ W 7 は 1 2 0画素 X 8 0画素のウィ ン ドウあって、 ウィ ン ドウ W 8 は 1 2 0画素 X 6 0画素のウィ ン ドウあって、 ウィ ン ドウ W 9 は 2 4 0画素 X 1 6 0画素のウイ ン ドウあって、 ウイ ン ドウ W 1 0 は 2 4 0画素 X 1 2 0画素のウィ ン ドウあって、 ウィ ン ドウ W 1 1 は 4 8 0画素 X 3 2 0画素のウィ ン ドウあって、 ウィ ン ドウ W 1 2は 4 8 0画素 X 2 4 0画素のウィ ン ドウある。 6 Several types of windows are set as shown in Fig. B. When the offset value is not supplied from the CPU 4 to the power counter inside the window pulse generating circuit 6 25, the centers of these multiple windows coincide with the center of the imaging screen. I do. Window W7 has a window of 120 pixels X 80 pixels, window W8 has a window of 120 pixels X 60 pixels, and window W9 has 24 windows. There is a window of 0 pixel X 16 0 pixels, window W 10 is a window of 240 pixels X 120 pixels, and window W 1 1 is 480 pixels X 3 There is a window of 20 pixels, and window W12 has a window of 480 pixels X 240 pixels.
このように、 複数のフィルタ特性及び複数のゥィ ン ドゥを設定 した回路を夫々設けることによって、 各フィルタ係数及び各ゥィ ンドウの組み合わせに対応した夫々異なる評価値を生成すること
ができる。 従って、 フォーカスを合わせようとする被写体がどの ような撮影状態であろうとも、 複数の評価値から総合的な評価値 を生成するようにしているので、 どれか 1つの評価値が不適切で あつたと しても、 正確な総合評価値を得ることができる。 As described above, by providing a circuit in which a plurality of filter characteristics and a plurality of windows are set, respectively, it is possible to generate different evaluation values corresponding to each combination of each filter coefficient and each window. Can be. Therefore, regardless of the shooting condition of the subject to be focused, a comprehensive evaluation value is generated from multiple evaluation values, and any one of the evaluation values is inappropriate. Even so, an accurate overall evaluation value can be obtained.
よって、 本実施例では、 1 2種類のウィ ン ドウサイズと 2種類 のフ ィ ルタ係数の組み合わせた 2 4個の評価値生成回路を有して いるので、 複数種類の評価値を得ることができ、 さ らに、 その各 評価値に基づいて総合的な評価値を求めるようにしているので、 評価値の精度を向上させることができる。 Therefore, in the present embodiment, since there are 24 evaluation value generation circuits in which 12 types of window sizes and 2 types of filter coefficients are combined, a plurality of types of evaluation values can be obtained. Further, since an overall evaluation value is obtained based on each evaluation value, the accuracy of the evaluation value can be improved.
1 1
次に、 第 2図及び第 Ί図を参 9 照して、 マイ クロコ ンピュータ 6 Next, referring to FIGS. 2 and 9, 9
4に関して説明する。 4 will be described.
マイ ク ロコ ンピュータ 6 4 は、 水平方向評価値生成回路 6 2及 び垂直方向評価値生成回路 6 3において生成された E , ~ E 2 4の 2 4個の評価値を受け取るともに、 この 2 4個の評価値に基づい て、 レンズを移動する方向及び、 評価値が最大となるレンズ位置Microphone loco computer 6 4, E generated in the horizontal direction evaluation value generating circuit 6 2及beauty vertical evaluation value generating circuit 6 3, both receive 2 four evaluation values of ~ E 2 4, the 2 4 Based on the evaluation values, the direction in which the lens moves and the lens position where the evaluation value is maximum
、 即ち、 フォーカスが合っているレンズ位置を求めるための回路 こ'、める。 That is, a circuit for determining the in-focus lens position.
マイ クロコ ンピュータ 6 4 は、 2 4個の評価値を所定のフ ― に従って溃算するためのプ ϋグラムを記憶した R 0 Μ 6 5を有し ている。 また、 この R〇Μ 6 5は、 第 7図に示すように、 2 4個 の評価値生成回路 ( 6 2 a〜 6 2 】 , 6 3 a〜 6 3 〗 ) の各回路 から夫々出力された 2 4個の評価値 E i ( i - 1 , 2 , · ♦ · · 2 4 ) に対応するように、 2 4個の重みデータ W i が記憶されて いる。 この重みデータ w; は、 2 4個の評価 E; に対してプラ ィ オ リティを付けるためのデータであって、 重みデータ W i の値 が高いほど、 それに対応する評価値 E; のプライ オ リティが高い こという ことになる。 尚、 この重みデータ W i は、 ェ場出荷時に 予め設定される固定値である。
また、 マイ ク ロ コ ン ピュ ータ 6 4は、 2 4個の評価値生成回路 ( 6 2 a〜 6 2 し 6 3 a〜 6 3 1 ) の各回路から夫々供給され た 2 4個の評価値 E i ( i = 1 , 2 , · ♦ · ·, 2 4 ) を、 フ ォ —カ ス レンズの位置と対応付けて記憶するための R AM 6 6を有 している。 こ こで、 レンズが X , の位置にいる時の評価値を、The micro computer 64 has R 0 065 storing a program for calculating 24 evaluation values according to a predetermined flow. As shown in FIG. 7, this R〇Μ65 is output from each of the 24 evaluation value generation circuits (62a to 62) and 63a to 63 3, respectively. Twenty-four weight data W i are stored so as to correspond to the twenty-four evaluation values E i (i-1, 2, 2,..., 24). The weight data w; is data for giving a priority to the 24 evaluations E; The higher the value of the weight data W i, the higher the priority of the corresponding evaluation value E; This means that there is high quality. Note that the weight data W i is a fixed value set in advance at the time of factory shipment. The microcomputer 64 has 24 evaluation value generation circuits (62 a to 62 and 63 a to 631) each supplied with 24 power supply circuits. There is a RAM 66 for storing the evaluation value E i (i = 1, 2,..., 24) in association with the position of the focus lens. Here, the evaluation value when the lens is at the position of X,
E , (X , ) 〜E 24 ( X 1 ) と表すとする。 まず、 レンズが X , にいるときに生成された評価値 Ε , (X , ) 〜E 24 ( X , ) が、 R A M 6 6に記憶される。 さ らに、 レ ンズが X , の位置から X 2 の位置に移動すると、 レ ンズが X 2 の移動したときに生成された 評価値 Ε , ( X 2 ) 〜 Ε 24 ( X 2 ) が R AM 6 6 に記憶される。 Let E, (X,) to E 24 (X 1 ). First, the evaluation values Ε, (X,) to E 24 (X,) generated when the lens is at X, are stored in the RAM 66. Et al is, when the lenses are moved to the position of X 2 from X, the position, the generated evaluated values when the lenses are moved in the X 2 E, is (X 2) ~ Ε 24 ( X 2) R It is stored in AM66.
R A M 6 6は、 リ ングバッ フ ァ方式でデ一タが記憶されるので、 記憶データがいっぱいにならない限りは、 先に記憶された評価値 E , ( X , ) 〜 E 24 ( X , ) は消去されることはない。 また、 こ れらの評価値 E i は、 マイ クロコ ン ピュータ G 4 によるポイ ンタ の指定によって、 R A M 6 4に記憶されるようになつている。 次に、 第 8図から第 1 0図を参照して、 工 リ ァ検索回路 3 8に 関して説明する。 RAM 6 6, since de one data is stored in the re-Nguba' off § method, as long as the stored data is not filled, the previously stored evaluation value E, (X,) ~ E 24 (X,) is It will not be erased. Further, these evaluation values E i are stored in the RAM 64 by specifying a pointer by the micro computer G 4. Next, the engineering search circuit 38 will be described with reference to FIGS. 8 to 10.
ェ リ ァ検索回路 3 8は、 撮像両而を 1 2 個の工 リ ァに分割し 、 目的物体と して設定された被写体と Rじ色を有した画素データ が、 どの分割ェ リ了に存在するのかを検索するための回路である The error search circuit 38 divides the image capturing area into 12 areas, and the pixel data having the same color as the object set as the target object is output to which division error. It is a circuit to search for existence
。 このエ リ ア検索回路 3 8においては、 エ ンコーダから供給され る全ての画素データについて、 ェ リ ァ検出回路 3 8内の論理回路 によって判断処理が行われる。 具体的には、 第 8図に示されるよ うに、 1つ G)エ リ アを 4 81 素 X 3 0丽 i素となるように規定する と、 水平方向に 1 6個に分割され、 ¾ ifi方向に 8個に分割される ので、 結果的には、 1 2 8個のエ リ アが定羲される。 第 8図に示 されるように、 この 1 2 8個のエ リ アは、 Λ n (,。 から A , 27 のェ リ ァ番号で願に定義される。
まず、 第 9図を参照して、 ェ リ ァ検索回路 3 8の具体的な構成 に関して説明する。 まず、 ェ リ ァ検索回路 3 8には、 ェンコーダ 3 7から、 画素データ毎に、 輝度信号 Y、 色信号 i R — Υ I び 色信号 I B— Y I が供給される。 また、 ヱ リ ァ検索回路 3 8には 、 C P U 4から、 上限輝度信号 I Y。 と、 下限輝度信号 i Y. In the area search circuit 38, a determination process is performed by a logic circuit in the area detection circuit 38 on all pixel data supplied from the encoder. Specifically, as shown in Fig. 8, if one G) area is defined to be 481 elements X 30 丽 i elements, it is divided into 16 elements in the horizontal direction, and ¾ Since it is divided into eight in the ifi direction, 128 areas are eventually determined. As shown in FIG. 8, these 128 areas are defined in the application with the area numbers Λ n (,. To A, 27 . First, a specific configuration of the error search circuit 38 will be described with reference to FIG. First, the luminance signal Y, the color signal i R — ΥI and the color signal IB — YI are supplied from the encoder 37 to the error search circuit 38 for each pixel data. Also, the upper search signal IY from the CPU 4 is sent to the relay search circuit 38. And the lower limit luminance signal i Y
。 と、 上限色信号 i R 。 一 Y。 し と、 下限色信号 I R。 ― Y o と、 上限色信号 I Β 。 一 Υ。 と、 下限色信号 I B。 一 Y。 I L とが供給される。 さ らに、 エ ンコーダ 3 7から供給さ れた輝度信号 Yに対して乗算される乗算係数《 3 、 係数 4 、 係 数 " 5 、 係数《 6 が、 C P U 4から供給される。 . And the upper limit color signal i R. One Y. And the lower color signal IR. ― Yo and the upper limit color signal IΒ. One Υ. And the lower color signal IB. One Y. IL is supplied. Et al is, encoder 3 7 multiplication factor is multiplied to the supplied luminance signal Y from the "3, coefficient 4, the engagement number" 5, coefficient "6 is supplied from the CPU 4.
ここで、 C P U 4から供給される、 上限輝度信号 1 Y。 と 、 下限輝度信号 I Υ。 と、 上限色信号 I R D — Y。 i u と、 下限色信号 I R o — Υ。 と、 上限色信号 I Β。 一 Υ » と 、 下限色信号 I Β。 一 Y。 I L とについて説明する。 まず、 輝度 信号 Y D 、 色信号 I R 。 一 Υ。 し 色信号 I B 。 一 Y D I は、 力 メ ラマンが目的物体と して設定した被写体が冇する輝度信号及び 色信号の基づいて得られる信号である。 従って、 目的物体が一 _ 設定されると、 この値は変更されることは無い。 ある画素データ の輝度信号が、 上限輝度信号 i Y U し と下限輝度信号 I Y。 I ,. の間の値であれば、 目的物体の輝度信 Y D と略同じレベルの 輝度信号であると判断できるように、 上限輝度信 ¾ ί γ 0 I „ 及 び下限輝度信号 I Y。 I L が、 目的物休の輝度信号 I I に対 して近い値を持つように設定される。 また、 同 ' ように、 ある画 素データの色信号 I R — Y I が、 上限色 号 I R 。 一 Y。 と 下限色信号 I R。 ― Y。 I の Riの ίι であれば、 ある画素データ の色信号 I R - Υ I は、 設定された Π的物体の色信 I R 0 ~ Υ 0 I と略同じレベルであると判断できるように、 上限色信 ^ I R 。 一 Υ。 及び下限色信号 I R 。 一 Υ π し. は、 目的物体の第
1の色信号 I R Y D I に対して近い値を持つように設定され る。 また、 ある画素データの色信号 I B — Y i が、 上限色信号 I B o — Y i υ と下限色信号 I Β Y I L の間の値であれば 、 ある画素データの色信号 i B— Y I は、 目的物休の色信号 i B Y i と略同じレベルであると判断できるように、 上限色信 号 I B Y Q I u 及び下限色信号 i B Y I は、 目的物 体の第 2の色信号 i Β Υ i に対して近い値を持つように設 定される。 Here, the upper limit luminance signal 1 Y supplied from the CPU 4. And the lower limit luminance signal I Υ. And the upper color signal IR D — Y. iu and the lower color signal IR o — Υ. And the upper limit color signal I Β. Υ »and the lower limit color signal I Β. One Y. IL and will be described. First, the luminance signal YD and the color signal IR. One Υ. Color signal IB. One Y D I is a signal subject force main Raman has set aimed object is obtained on the basis of the luminance signal and color signals冇. Therefore, once the target object is set, this value will not be changed. The luminance signal of a certain pixel data is an upper luminance signal i Y U and a lower luminance signal IY. If the value is between I and., The upper limit luminance signal ¾ γ 0 I 及 and the lower limit luminance signal IY. It is set so as to have a value close to the luminance signal II of the object rest, and similarly, the color signal IR-YI of a certain pixel data is the upper limit color signal IR. Lower limit color signal IR-Y. If the Ri of I is ίι, the color signal IR of a certain pixel data-ΥI is almost the same level as the color signals IR0 to Υ0I of the set target object as can be determined that the upper limit Iroshin ^ IR. one Upsilon. and lower color signal IR. one Upsilon [pi Mr., the first object object It is set to have a value close to the color signal IRYDI of 1. If the color signal IB-Yi of a certain pixel data is a value between the upper limit color signal IBo-Yiυ and the lower limit color signal IΒYIL, the color signal iB-YI of the certain pixel data becomes The upper limit color signal IBY Q I u and the lower limit color signal i BYI are the second color signal i Β Υ i of the target object so that it can be determined that the color signal i BY i of the target object is at substantially the same level as the color signal i BY i. It is set to have a value close to.
ェ リ ァ検索回路 3 8は、 ヱ ンコーダ 3 7から供給された輝度信 号 Yに対して乗算係数《: 4 を乗算する乗算回路 7 1 a と、 輝度信 号 Yに対して乗算係数" 3 を乗算する粟^回路 7 1 わと、 輝度信 号 Yに対して乗算係数《: s を乗算する乘算回路 7 1 (: と、 輝度信 号 Yに対して乗算係数 5 を乗算する乗算回路 7 1 d とを有して いる。 さ らに、 エ リ ァ検索回路 3 8は、 乗算回路 7 1 aからの乗 算出力と上限色信号 I R Υ π I u の何れかを選択するスイ ツ チ回路 7 2 a と、 乗算回路 7 1 bからの乗算出力と下限色信号 I R 0 - Y 0 I ,. の何れかを選択するスイ ッ チ回路 7 2 bと、 乗算 回路 7 1 cからの乗算出力と上限色信号 i B。 - Y I „ の何れ かを選択するスィ ッチ回路 7 2 c と、 乗算回路 7 1 dからの乗算 出力と下限色信号 I B Y u ! の何れかを選択するスィ ツ チ 回路 7 2 dとを有している。 また、 ェ リ ァ検出回路 3 8は、 輝度 信号 Yと上限輝度信号 I Y。 I u とが供給されるコ ンパレータ 7 3 a と、 輝度信号 Yと下限輝度信号 I Y 。 I L が供給されるコ ン レ一タ 7 3 bと、 スイ ツチ回路 7 2 aからの信号と色信号 | R 一 Y I とが供給されるコ ンパレータ 7 3 c と、 スィ ッ チ回路 7 2 bからの信号と色信号 I R — Y I とが供給されるコ ンパレータ 7 3 dと、 スィ ッ チ回路 7 2 cからの信号と色信号 I B — Y I とが 供給されるコ ンパレータ 7 3 cと、 スィ ツチ回路 7 2 dからの信
号と色信号 I B— Y I とが供給されるコ ンパレータ 7 3 f とを備 えている。 また、 エ リ ア検索回路 3 8は、 コ ンパレータ 7 3 aの 出力とコ ンパレ一タ 7 3 bの出力とが供給されるゲー ト回路 7 4 a と、 コ ンノ、° レ ータ 7 3 cの出力とコ ンノ、°レ一タ Ί 3 dの出力と が供給されるゲー ト回路 7 4 bと、 コ ンパレータ 7 3 eの出力と コ ンパレータ 7 3 f の出力とが供給されるゲー ト回路 7 4 じ と、 ゲー ト回路 7 4 aの出力とゲ一 ト回路 7 4 bの出力とゲ一 ト回路 7 cの出力が供給されるゲー ト回路 7 5を有している。 The multiplier search circuit 38 includes a multiplication circuit 71 a for multiplying the luminance signal Y supplied from the encoder 37 by a multiplication coefficient <<: 4 , and a multiplication coefficient “ 3 ” for the luminance signal Y. A multiplication circuit 7 1 multiplies the luminance signal Y by a multiplication coefficient <<: s A multiplication circuit 7 1 (: and a multiplication circuit multiplies the luminance signal Y by a multiplication coefficient 5 7 1 d and the in and. is found to have, Sui tree et re § search circuit 3 8, for selecting one of the multiplication circuit 7 1 th power calculating force from a and upper color signal IR Υ π I u a latch circuit 7 2 a, multiplication output from the multiplier circuit 7 1 b and lower color signal IR 0 -. Y 0 I, a switch circuit 7 2 b for selecting either of the multiplication circuit 7 1 c Multiplied output and upper limit color signal i B.-Switch circuit 7 2 c for selecting one of YI と and multiplied output from multiplier circuit 7 1 d and switch circuit for selecting one of lower limit color signal IBY u ! Switch times In addition, the error detection circuit 38 includes a comparator 73a supplied with the luminance signal Y and the upper limit luminance signal IY, a comparator 73a supplied with Iu, and a luminance signal Y with the lower limit. A switch 73 3c to which a luminance signal IY, IL is supplied, and a comparator 73 C to which a signal from the switch circuit 72A and a color signal | R-YI are supplied. A comparator 73d supplied with the signal from the circuit 72b and the color signal IR-YI, and a comparator 733 supplied with the signal from the switch circuit 72c and the color signal IB-YI c and the signal from the switch circuit 72 d. And a comparator 73 f to which signals and color signals IB-YI are supplied. Further, the area search circuit 38 includes a gate circuit 74 a to which the output of the comparator 73 a and the output of the comparator 73 b are supplied, a con- A gate circuit 74b supplied with the output of c and the output of the comparator and the レ 3 d, and a gate circuit supplied with the output of the comparator 73e and the output of the comparator 73f. And a gate circuit 75 to which the output of the gate circuit 74a, the output of the gate circuit 74b, and the output of the gate circuit 7c are supplied.
さ らに、 エ リ ア検索回路 3 8は、 1 2 8個のチップ回路から構 成されるのフラグ信号生成回路 7 6'を有している。 1 2 8個のチ ップ回路は、 第 8図において示される Λ D 0, から Λ , 2 7 の: 1 2 8 個のェ リ ァに対応するように設けられている。 各チップ回路'一は 、 ゲー ト回路 7 5の出力と、 画素ク π ッ ク C L Kと、 チップセ レ ク ト C Sとが夫々供給されている。 エンコーダ 3 7から画素デー タ ^に供給される輝度信号及び色信号に対応するように、 画素ク ロ ッ ク C L Κ及びチップセ レク ト C Sは、 C P U 4から供給され る。 この画素ク ッ ク C L Κは、 各画素データの処理タィ ミ ング に応じたクロ ッ クであつて、 前段の論理回路によつて処理された 画素デ一タカ 、 画素データの処理タイ ミ ングに一致しているので あれば、 「 L o w」 信号をチップ回路に供給し、 その他の時にはFurther, the area search circuit 38 has a flag signal generation circuit 76 'composed of 128 chip circuits. 1 2 8 Chi-up circuit, Figure 8 lambda D 0 shown in, from lambda, of 2 7: is provided so as to correspond to the 1 2 8 E Li §. The output of the gate circuit 75, the pixel clock CLK, and the chip select CS are supplied to each of the chip circuits. The pixel clock CL # and the chip select CS are supplied from the CPU 4 so as to correspond to the luminance signal and the color signal supplied from the encoder 37 to the pixel data ^. The pixel clock CLΚ is a clock corresponding to the processing timing of each pixel data, and is used for processing pixel data and pixel data processed by the preceding logic circuit. If they match, a “Low” signal is provided to the chip circuit, and at other times
「H i g h」 信号を供給する。 また、 チップセレク ト C Sは、 1 2 8個のチップ回路のうち選択されているチップ回路にのみ 「 L o w」 信号が供給され、 その他の選択されないチップ回路は 「 H i g h」 信号が供給される。 Provides a "High" signal. In the chip select CS, the “Low” signal is supplied only to the selected chip circuit out of the 128 chip circuits, and the “High” signal is supplied to the other unselected chip circuits. .
フラグ信号生成回路 7 Gに設けられた各チップ 0路は、 ゲー ト 回路 7 6 a とカウ ンタ Ί 6 bを夫々有している。 従って、 フラグ 信号生成回路 7 6は、 1 2 8個のゲー ト回路 7 (; a と、 1 2 8個 のカ ウ ンタ 7 6 bを有している。 このゲ一 ト回路 7 6 aは、 供給
されるゲー ト回路 7 5の出力、 画素クロ ック C L K及びチップセ レク ト C Sの全てが 「 L o w」 の時にのみ 「 L o w」 を出力する 。 このカウンタ 7 6 bは、 画素ク ロ ッ ク C L Kのクロ ッ クタイ ミ ングに応答して、 ゲー ト回路 7 6 aから 「 L o w」 が供給された ときにのみカウン トアップするカウンタであって、 カウン ト値が 所定数以上 (本実施例では 5カウ ン ト以上) になったときにフラ グ信号を発生する。 発生されたフラ グ信号は、 マルチプレクサ 7 7に供給される。 Each chip 0 path provided in the flag signal generation circuit 7G has a gate circuit 76a and a counter 6b, respectively. Therefore, the flag signal generation circuit 76 has 128 gate circuits 7 (; a and 128 counters 76 b. This gate circuit 76 a , Supply The gate circuit 75 outputs “Low” only when all of the output of the gate circuit 75, the pixel clock CLK and the chip select CS are “Low”. The counter 76b is a counter that counts up only when “Low” is supplied from the gate circuit 76a in response to the clock timing of the pixel clock CLK. A flag signal is generated when the count value exceeds a predetermined number (5 or more in this embodiment). The generated flag signal is supplied to a multiplexer 77.
マルチプレクサ 7 7は、 フラグ生成回路 Ί Gの各チップ回路か ら出力されるフラグ信号を受け取って、 C P U 4 に供給する。 こ の時、 マルチプレクサ 7 7 は、 フラグ信号が出力されたチップ回 路の審号を C P U 4に送出する。 C P U 4は、 この審号に基づい て、 目的物体と同じ意色成分を有した画素データが存在するェ リ ァを選択することができる。 The multiplexer 77 receives the flag signal output from each chip circuit of the flag generation circuit ΊG, and supplies the signal to the CPU 4. At this time, the multiplexer 77 sends to the CPU 4 a signal of the chip circuit from which the flag signal has been output. The CPU 4 can select an area in which pixel data having the same color component as the target object exists based on the examination.
まず、 エ リア検索回路 3 8において、 エ リ アの検索処理が行わ れる前に、 ェ リ ァ検索回路 3 8に設けられたスィ ッチ回路 7 2 a 、 7 2 b . 7 2 c及び 7 2 dのスイ ッチ ング動作を行わなければ いけないので、 このスィ ツチング動作に関して説明する。 First, in the area search circuit 38, the switch circuits 72a, 72b.72c and 7c provided in the area search circuit 38 before the area search processing is performed. Since the 2d switching operation must be performed, this switching operation will be described.
まず、 スイ ツチ回路 7 2 a、 7 2 b , ? 2 c及び 7 2 dをスィ ツチングするためには、 目的物体と してカメ ラマンが設定した被 写体が有する輝度信号 I Y。 I、 色 号 I R « - Y n ! 及び 信 号 I B。 — Y。 Iに基づいて、 被写体モー ドを選択する必¾があ る。 この被写体モー ドとは、 4つのモ一ドが設定されており、 以 下順次、 モー ド 0からモー ド 3について説叨する。 First, the switch circuits 72a, 72b,? In order to switch 2c and 72d, the luminance signal I Y of the object set by Cameraman as the target object. I, color number I R «-Y n! And signal IB. — Y. It is necessary to select the subject mode based on I. In this subject mode, four modes are set, and mode 0 to mode 3 will be sequentially described below.
モー ド 0 とは、 EHl勺物体と して設定された被写体が、 ある程度 色情報を有している場合に選択されるモー ドである。 つまり、 被 写体の色成分を表す i R。 - Y n I ΖΥ„ 及び I Β。 Y。 I Ζ Υ 0 が所定レベル以上であることを意味する。 また、 別の言い方
をすると、 選択された目的物体の色合いが強い時である u 従ってMode 0 is the mode selected when the subject set as an EHl object has some color information. That is, i R representing the color component of the object. -Y n I 及 び and I Y Y. I Ζ Υ means that 0 is above a certain level. Then, when the color of the selected target object is strong u
、 C P U 4は、 設定された目的物休が有する輝度信号 I Y。 I 、 色信号 i R。 一 Υ。 I及び色信号 i B。 一 Y n I の関係が、 α 3 X I Y 0 R 0 - Y x Y The CPU 4 sets the luminance signal IY of the set object rest. I, color signal i R. One Υ. I and color signal i B. The relationship of one Y n I is α 3 XIY 0 R 0-Y x Y
かつ And
a 5 X I Y。 ≤ | Β。 ― Y。 | ≤ " c x | Y。 | a 5 XIY. ≤ | Β. -Y. | ≤ " c x | Y. |
- ( 7 0 ) で示される条件に含まれる時に、 モー ド 0を選択する。 C P U 4 によって、 被写体モー ドと してモー ド ()が選択されると、 C P U は、 スィ ッチ回路 7 2 a、 7 2 b , 7 2 c及び 7 2 dに制御信 号を供給して、 スイ ツチ回路 7 2 a、 7 2 b、 7 2 c及び 7 2 d のスィ ッ チ ング状態を、 夫々、 「 1J P」 、 「 U P」 、 「 U P」 及 び 「 U P」 とする。 一旦、 ス イ ッ チ ングされると、 被写体モー ド が変更されるまでは、 このス ィ ッチ ング状態は変更されない。 -Mode 0 is selected when the condition indicated by (70) is included. When the mode () is selected as the subject mode by the CPU 4, the CPU supplies a control signal to the switch circuits 72a, 72b, 72c and 72d. The switching states of the switch circuits 72a, 72b, 72c and 72d are "1JP", "UP", "UP" and "UP", respectively. Once switched, this switching state does not change until the subject mode is changed.
モー ド 1 とは、 0的物体と して設定された被写体の色成分にお いて、 赤色成分が所定レベル以上あるが、 色成分が所定レベル 以上ない場合に選択されるモー ドである。 つまり、 被写体の色成 分を表す I R。 一 Y。 Ι ΖΥη が所定レベル以上あるが、 I Β。 一 Υ。 | ΖΥ。 が所定レベル以上無いこ とを; Sn未する。 従って、 C P U 4 は、 設定された目的物体が有する輝度信号 | Y Q I 、 色信号 I R。 一 Y D I の関係が、 Mode 1 is a mode selected when the color component of the subject set as the zero-like object has a red component equal to or higher than a predetermined level but does not have a color component equal to or higher than the predetermined level. In other words, IR that represents the color component of the subject. One Y. ΖΥ ΖΥη is above a certain level, but I Β. One Υ. | ΖΥ. Is not higher than a predetermined level; Therefore, the CPU 4 sets the luminance signal | Y Q I and the color signal IR of the set target object. The relationship of one Y D I is
« 3 x | Y。 i ≤ | R。 ― Y。 | α· 4 x I Y n I かつ « 3 x | Y. i ≤ | R. -Y. | α · 4 x IY n I and
I B。 一 Y。 i ≤ « 5 x | Y。 | IB. One Y. i ≤ « 5 x | Y. |
( 7 1 ) で示される条件に含まれる時に、 モー ド 1 を選択する。 C P U 4
によって、 被写体モー ドとしてモー ド 1が選択されると、 C P U 4は、 スィ ッチ回路 7 2 a、 7 2 b、 7 2 c及び Ί 2 dに制御信 号を供給して、 スィ ッチ回路 7 2 a、 7 2 b、 7 2 c及び 7 2 d のスイ ッチング状態を、 夫々、 「 U P」 、 「U P -| 、 「 D〇WN 」 及び 「 D〇WN」 とする。 Mode 1 is selected when the conditions shown in (71) are included. CPU 4 When the mode 1 is selected as the subject mode, the CPU 4 supplies a control signal to the switch circuits 72a, 72b, 72c and Ί2d, and The switching states of the circuits 72a, 72b, 72c and 72d are "UP", "UP- |", "D〇WN" and "D〇WN", respectively.
モー ド 2 とは、 目的物体と して設定された被写体の色成分にお いて、 青色成分が所定レベル以上あるが、 赤色成分が所定レベル 以上ない場合に選択されるモー ドである。 つまり、 被写体の色成 分を表す I B。 一 Y。 I X Y O が所定レベル以上あるが、 i R。 一 Υ。 | ΖΥ Π が所定レベル以上無いことを意味する。 従って、 C P U 4 は、 設定された目的物体が有する輝度信号 Y。 、 色信 I B o - Y o I の関係が、 Mode 2 is a mode selected when the blue component of the color component of the subject set as the target object is higher than the predetermined level but the red component is not higher than the predetermined level. In other words, IB that represents the color component of the subject. One Y. IXYO is above a certain level, but i R. One Υ. | It means that Π Π is not above the specified level. Therefore, the CPU 4 sets the luminance signal Y of the set target object. , The relationship of the color signal IB o-Y o I is
R Y x Υ 0 R Y x Υ 0
かつ And
x Υ 0 Β ο - Υ ο a χ I Υ π I x Υ 0 Β ο-Υ ο a χ I Υ π I
( 7 2 ) (72)
で示される条件に含まれる時に、 モー ド 2を選択する。 C P U 4 によって、 被写体モー ドと してモー ド 2が選択されると、 C P U 4 は、 ス ィ ッチ回路 7 2 a、 7 2 b、 7 2 c及び 7 2 dに制御信 号を供給して、 スィ ッチ回路 7 2 a、 7 2 b . 7 2 c及び Ί 2 d のスイ ッチング状態を、 夫々、 「 D OWN」 、 「 D〇WN」 、 「 U P」 及び 「U P」 とする。 Mode 2 is selected when the conditions shown by are included. When mode 2 is selected as the object mode by CPU 4, CPU 4 supplies a control signal to switch circuits 72a, 72b, 72c and 72d. The switching states of the switch circuits 72a, 72b. 72c and Ί2d are set to "DOWN", "D〇WN", "UP" and "UP", respectively.
モー ド 3 とは、 目的物体と して設定された被写体の色成分にお いて、 赤色成分及び青色成分が、 共に、 所定レベル以上ない場合 に選択されるモ一 ドである。 つまり、 被写体の色成分を表す I R 。 一 Y。 | 丫。 及び | 8。 —丫。 I Ζ Υ。 、 共に、 所定レベル 以上無いことを意味する。 もた、 別の言い方をすると、 この設定
された目的物体の色合いが無いという ことを意味している。 従つ て、 C P U 4 は、 設定された目的物体が有する輝度信号 Y D 、 色 信号 I R。 ― Y 0 I及び色信号 I B。 一 Y。 Iの関係が、 上述の 式 ( 7 0 ) 、 式 ( 7 1 ) 及び式 ( 7 2 ) に当てはま ら無い時に、 モー ド 3を選択する。 C P U 4によって、 被写体モー ドと してモ 一ド 3が選択されると、 C P U 4は、 スイ ツチ回路 7 2 a、 7 2 b、 7 2 c及び 7 2 dに制御信号を供給して、 スイ ツチ回路 Ί 2 a、 7 2 b . 7 2 c及び 7 2 dのス イ ッ チ ング状態を、 夫々、 「 D OWN」 、 「 D〇WN」 、 「 D OWN」 及び 「 D OWN」 とす る。 Mode 3 is a mode selected when both the red component and the blue component of the color component of the subject set as the target object do not exceed a predetermined level. In other words, IR that represents the color component of the subject. One Y. | 丫. And | — 丫. I Ζ Υ. , Both mean that there is no more than a predetermined level. In other words, this setting It means that the target object has no color. Therefore, the CPU 4 outputs the luminance signal Y D and the color signal IR of the set target object. ― Y 0 I and color signal IB. One Y. Mode 3 is selected when the relation of I does not apply to the above equations (70), (71) and (72). When the mode 3 is selected as the subject mode by the CPU 4, the CPU 4 supplies a control signal to the switch circuits 72a, 72b, 72c and 72d, and The switching states of the switch circuits Ί 2 a, 72 b. 72 c and 72 d are referred to as “D OWN”, “D〇WN”, “D OWN” and “D OWN”, respectively. You.
上述したスィ ッチング動作が終了すると、 エ リ ァ検索回路 3 8 は、 被写体の検索処理動作を行う。 次は、 この検索処理動作を、 第 9図を参照しながら、 各被写体モー ドに対応するように順に説 明する。 When the above-described switching operation is completed, the area search circuit 38 performs an object search processing operation. Next, this search processing operation will be described in order so as to correspond to each subject mode with reference to FIG.
1 ) モー ド 0が選択された場合 1) When mode 0 is selected
まず、 選択されているモー ドに関係無く、 コ ンパレータ 7 3 a は、 上限輝度信号 I Y。 I u とエ ンコーダ 3 7から供給される輝 度信号 Yの比较を行い、 First, regardless of the selected mode, the comparator 73a outputs the upper limit luminance signal IY. By comparing I u with the luminance signal Y supplied from the encoder 37,
Y ≤ i Y。 し Y ≤ i Y. I
の場合には 「H i g h」 を出力し、 In the case of, “H i g h” is output,
I Yo I u ≤ Y I Yo I u ≤ Y
の場合には 「 L o w」 を出力する。 また、 コ ンパレータ 7 3 bはIn the case of, “Low” is output. Also, the comparator 73 b is
、 下限輝度信号 I Y。 I L とエ ンコーダから供給される輝度信号, Lower luminance signal I Y. I L and the luminance signal supplied from the encoder
Υの比較を行い、 Υ comparison,
I Υ。 ≤ Υ I Υ. ≤ Υ
の場合には 「II i g h」 を出力し、 In the case of, "II i g h" is output, and
Y ≤ I Y。 Y ≤ I Y.
の場合には 「 L o w」 を出力する。 ゲー ト回路 7 4 a は、 コ ンパ
レ一タ 7 3 aとコ ンパレ一タ Ί 3 bからの出力信号を受け取り、 このコ ンパレータ 7 3 a、 7 3 bからの出力信号が共に 「 H i g h」 である場合には、 「 L o wj を後段のゲー ト回路 7 5に出力 する。 In the case of, “Low” is output. The gate circuit 74a is When the output signal from the comparator 73 a and the comparator Ί 3 b is received, and both the output signals from the comparators 73 a and 73 b are “High”, “Lo” wj is output to the subsequent gate circuit 75.
つまり、 このコ ンパレータ 7 3 a、 7 3 b及びゲー ト回路 7 4 aによつて行われる演算は、 That is, the operations performed by the comparators 73a and 73b and the gate circuit 74a are as follows.
I Yo I L ≤ Υ ≤ 卜 Υ。 ( 7 4 ) によって定義される。 つまり、 ヱ ンコーダから供給された輝度信 号 Υが、 この ( 7 4 ) 式で定義される条件に含まれるのであれば 、 ゲー ト回路 7 4 aから 「 L o w」 が出力されるという ことであ る。 I Yo I L ≤ Υ ≤ 卜. (74). In other words, if the luminance signal か ら supplied from the encoder is included in the condition defined by the equation (74), “Low” is output from the gate circuit 74a. is there.
次に、 モー ド 0が選択されている場合には、 スイ ツチ回路 Ί 2 a、 7 2 bののス ィ ッチング状態は、 夫々、 .「 U P」 、 「 U P」 となっているので、 コ ンパレータ 7 3 cには、 Y X 4 と i R— Y iが供給され、 コ ンパレータ 7 3 d には、 Y X " 3 と I K一 YNext, when mode 0 is selected, the switching states of the switch circuits # 2a and # 72b are "UP" and "UP", respectively. The comparator 7 3 c is supplied with YX 4 and i R—Y i, and the comparator 7 3 d receives YX " 3 and IK-Y
Iが供給される。 尚、 この輝度信号 Y及び色信号 I R— Y I は、 エンコーダ 3 7から供給されるデ一タである。 コ ンパレータ 7 3 c は、 Y X " 4 と I K— Y I との比較を行い、 I will be supplied. The luminance signal Y and the color signal IR-YI are data supplied from the encoder 37. Comparator 73c compares YX " 4 with IK-YI,
I R - Y ' ≤ Y X a 4 IR-Y '≤ YX a 4
の場合には 「ト I i g h」 を出力し、 In the case of, "g I i g h" is output,
Y X 4 ≤ I R - Y I YX 4 ≤ IR-YI
の場合には 「 L 0 w」 を出力する。 また、 コ ンパレータ 7 3 d は 、 Y x " 3 と I K一 Y I との比較を行い、 In the case of, “L 0 w” is output. Further, the comparator 73d compares Yx " 3 with IK-YI,
Y X α 3 ≤ I R - Υ I Y X α 3 ≤ I R-Υ I
の場合には 「 il i g h」 を出力し、 In the case of, "il i g h" is output, and
I R - Y : ≤ Y X a IR-Y: ≤ YX a
の場合には 「 L 0 w」 を出力する。 ゲー ト回路 7 4 bは、 コ ンパ レ一タ 7 3 c とコ ンパレータ 7 3 dからの出力信号を受け取り、
このコ ンパレータ 7 3 c、 7 3 dからの出力信号が共に 「H i g h」 である場合には、 「 L 0 w」 を後段のゲ一 ト回路 7 5に出力 する。 In the case of, “L 0 w” is output. The gate circuit 74b receives the output signals from the comparator 73c and the comparator 73d, and When the output signals from the comparators 73c and 73d are both "High", "L0w" is output to the gate circuit 75 at the subsequent stage.
つまり、 このコ ンパレータ 7 3 c、 7 3 d及びゲー ト回路 7 4 bによって行われる演算は、 That is, the operation performed by the comparators 73c and 73d and the gate circuit 74b is
Y X α 3 ≤ I R - Υ I ≤ Υ X a . . . . ( 7 5 ) によって定義される。 つまり、 エ ンコーダから供給された色信号 Y X α 3 ≤ I R-Υ I ≤ Υ X a... (75) That is, the color signal supplied from the encoder
1 R— Υ Iが、 この ( 7 5 ) 式で定義される条件に含まれるので あれば、 ゲー ト回路 7 4 bから 「 L o w」 が出力されるという こ とである。 If 1R—ΥI is included in the condition defined by this equation (75), “Low” is output from the gate circuit 74b.
さ らに、 モー ド 0が選択されている場合には、 スィ ツチ回路 7 If mode 0 is selected, the switch circuit 7
2 c、 7 2 dののスイ ッチ ング状態は、 夫々、 「 U P」 、 「 U P 」 となっているので、 コ ンノ、。レータ 7 3 eには、 Y X " G と I B - Y Iが供給され、 コ ンパレータ 7 3 I " には、 Y X " 5 と I B— Y Iが供給される。 尚、 この輝度信 ¾Y及び色信号 I Β— Υ I はThe switching states of 2c and 72d are "UP" and "UP", respectively. YX " G and IB-YI are supplied to the comparator 73e, and YX" 5 and IB-YI are supplied to the comparator 73I ". Note that the luminance signal Y and the color signal I — Υ I
、 エ ンコーダ 3 7から供給されるデ一タである。 コ ンパレータ ΊAnd data supplied from the encoder 37. Comparator Ί
3 eは、 Y X α' 6 と I Β— Υ | との比校を行い、 3 e performs the comparison between YX α ' 6 and I Β— Υ |
I Β - Υ I ≤ Υ X α β I Β-Υ I ≤ Υ X α β
の場合には 「II 〗 g h」 を出力し、 In the case of, "II〗 g h" is output, and
Ύ X r, ≤ | Β - Υ | Ύ X r , ≤ | Β-Υ |
の場合には 「 L o w」 を出力する。 また、 コ ンパレータ 7 3 f はIn the case of, “Low” is output. Also, the comparator 73 f is
、 Y x "5 と i B_Y I との比較を行い、 , Y x " 5 and i B_Y I
Ύ X 5 ≤ I B - Y I Ύ X 5 ≤ IB-YI
の場合には 「H i g h」 を出力し、 In the case of, “H i g h” is output,
I B - Y i ≤ Y x a r, I B-Y i ≤ Y x a r,
の場合には 「 L o w」 を出力する。 ゲー ト回路 7 4 cは、 コ ンパ レータ Ί 3 eとコ ンパレータ Ί 3 f からの出力信号を受け取り、 このコ ンパレータ 7 3 e、 7 3 f からの出力信 ¾が共に 「H i g
h」 である場合には、 「 L o w」 を後段のゲ一 ト回路 7 5に出力 する。 In the case of, “Low” is output. The gate circuit 74c receives the output signals from the comparator Ί3e and the comparator Ί3f, and outputs the signals HHig If “h”, “Low” is output to the gate circuit 75 at the subsequent stage.
つまり、 このコ ンパレータ 7 3 e、 7 3 f 及びゲー ト回路 7 4 cによって行われる演算は、 That is, the operations performed by the comparators 73e and 73f and the gate circuit 74c are as follows.
Y X α 5 ≤ I Β - Υ I ≤ Ύ X a e - - · · ( 7 6 ) によって定義される。 つまり、 エ ンコーダから供給された色信号 i B Y Iが、 この ( 7 6 ) 式で定義される条件に含まれるので あれば、 ゲ一 ト回路 7 4 cから 「 L o w」 が出力されるという こ とである。 Y X α 5 ≤ I Β-Υ I ≤ Ύ X a e--· · (7 6) In other words, if the color signal i BYI supplied from the encoder is included in the condition defined by the equation (76), “Low” is output from the gate circuit 74c. And
ゲー ト回路 7 5は、 ゲー ト 7 4 a、 7 4 b及び 7 4 cからの出 力信号を受け取つて、 ゲー ト 7 4 a、 7 4 b及び 7 4 cからの出 力信号が全て 「 H i g h」 のときだけ、 「 L 0 w」 をフラグ生成 回路 7 6の各チップ回路に供給する。 The gate circuit 75 receives the output signals from the gates 74a, 74b, and 74c, and outputs all the signals from the gates 74a, 74b, and 74c. Only when “High”, “L 0 w” is supplied to each chip circuit of the flag generation circuit 76.
即ち、 被写体モー ドと してモー ド 0が選択されているときは、 ( 7 0 a ) 式、 ( 7 0 b ) 式及び ( 7 0 c ) 式の条件がみたされ ているときであるので、 コ ンノ、°レータ 7 3 a〜 7 3 ί、 ゲー ト回 路 7 4 a〜 7 4 c及びゲー ト回路 7 5 によつて行われる ¾算は、 That is, the mode 0 is selected as the subject mode when the conditions of the equations (70a), (70b) and (70c) are satisfied. The calculations performed by the gate circuit 74a-73c, the gate circuit 74a-73c, the gate circuit 74a, and the gate circuit 75
I Y o I L Υ Υ IY o I L Υ Υ
かつ And
Y X a 3 ≤ R Υ ≤ Ύ X a YX a 3 ≤ R Υ ≤ Ύ X a
かつ And
Y X α 5 ≤ Β— Υ Ύ X a Y X α 5 ≤ Β— Υ Ύ X a
( 7 0 0 ) で定義することができる。 モー ド 0が選択されている時に、 この ( 7 0 0 ) 式の条件を満たしているという ことは、 エ ンコーダ 3 7から供給された画素データの輝度信 ¾Y、 色信号 I I? 一 Υ I及 び色信号 i Β— Υ Iが、 目的物体と して設定された被写体の輝度
信号 Y。 、 色信号 I R 。 一 Y。 I 及び色信号 I R。 ― Y D I に略 一致するといことを意味している。 そして、 このように目的物体 の色と画素データの色とがー致した時のみ、 ゲ一 ト回路 7 5から 「 L 0 w」 が出力される。 (700). When the mode 0 is selected, the fact that the condition of the equation (700) is satisfied means that the luminance signal ¾Y and the color signal II of the pixel data supplied from the encoder 37? I 色 I and the color signal i Β— Υ I are the brightness of the subject set as the target object Signal Y. , Color signal IR. One Y. I & color signal IR. ― It means that it almost matches YDI. Then, only when the color of the target object and the color of the pixel data match, “L 0 w” is output from the gate circuit 75.
2 ) モー ド 1 が選択された場合 2) When mode 1 is selected
モー ド 1 が選択された場合に関しては、 全くモー ド 0が選択さ れた時 Iこ動作と同様であるので、 詳しい説明( 略する。 When mode 1 is selected, the operation is exactly the same as when mode 0 is selected, so a detailed description is omitted.
モー ド 0が選択されている時の動作と同様であるので、 被写体 モー ドと してモー ド 1が選択されているときは、 コ ンパレータ 7 3 a 〜 7 3 f 、 ゲー ト回路 7 4 a 〜 7 4 c及びゲー ト回路 7 5に よつて行われる演算は、 Since the operation is the same as that when mode 0 is selected, when mode 1 is selected as the subject mode, comparators 73a to 73f and gate circuit 74a ~ 74c and the operation performed by the gate circuit 75 are
I Y。 Y Y 0 I Y. Y Y 0
かつ And
Ύ X R Y ≤ Ύ X a 4 Ύ XRY ≤ Ύ X a 4
かつ And
! B 0 Y。 I L ≤ I B - Y I ≤ ! B 0 Y。 ! B 0 Y. I L ≤ I B-Y I ≤! B 0 Y.
• … ( 7 0 1 ) で定義することができる モー ド 1 が選択されている時に、 この ( 7 0 1 ) 式の条件を満たしているという ことは、 エ ンコーダ 3 7から供給された画素データの輝度信号 Y、 色信号 I R — Y I 及 び色信号 I B— Y i が、 目的物体と して設定された被写体の輝度 信号 Y。 、 色信号 I R 。 一 Y。 し及び色信号 i R。 ― Υ。 I に略 一致するといことを意味している。 そして、 モー ド 0の時と同様 に、 目的物体の色と画素データの色とがー致した時のみ、 ゲー ト 回路 7 5から 「 L o w」 が出力される。 •… When mode 1 that can be defined by (701) is selected, the fact that the condition of this (701) expression is satisfied means that the pixel data supplied from the encoder 37 is satisfied. The luminance signal Y, the color signal IR-YI and the color signal IB-Yi are the luminance signal Y of the subject set as the target object. , Color signal IR. One Y. And color signal i R. -Υ. It means that it almost matches I. Then, as in the case of the mode 0, the gate circuit 75 outputs “Low” only when the color of the target object and the color of the pixel data match.
3 ) モー ド 2が選択された場合 3) When mode 2 is selected
モー ド 2が選択された場合に関しては、 全くモ一 ド 0及びモー
ド 1 が選択された時に動作と同様であるので、 詳しい説明は省略 する。 When Mode 2 is selected, Mode 0 and Mode Since the operation is the same as when node 1 is selected, detailed description is omitted.
モー ド 0が選択されている時の動作と同様であるので、 被写体 モー ドと してモー ド 2が選択されているときは、 コ ンパレータ 7 3 a ~ 7 3 f 、 ゲー ト回路 7 4 a 〜 7 4 c及びゲー ト回路 7 5 に よつて行われる演算は、 Since the operation is the same as when mode 0 is selected, when mode 2 is selected as the subject mode, the comparators 73 a to 73 f and the gate circuit 74 a To 74 c and the operation performed by the gate circuit 75 are:
I Y。 Y Y 0 I Y. Y Y 0
かつ And
I R 0 - Y 0 R— Y R n - Y 0 I R 0-Y 0 R— Y R n-Y 0
かつ And
Y X or 5 ≤ B - Y ≤ Ύ a B YX or 5 ≤ B-Y ≤ Ύ a B
· · · · ( 7 0 2 ) で定義することができる。 モー ド 2が選択されている時に、 この ( 7 0 2 ) 式の条件を満たしているということは、 エ ンコーダ 3 7から供給された画素データの輝度信号 Y、 色信号 I R— Υ I 及 び色信号 i B— Y I 力 目的物体と して設定された被写体の輝度 信号 Y。 、 色信号 i R 。 一 Y。 I 及び色信号 I R 。 一 Y。 I に略 一致するといことを意味している。 そして、 モー ド 0の時と同様 に、 目的物体の色と画素データの色とがー致した 11きのみ、 ゲー ト 回路 7 5から 「 L o w」 が出力される。 · · · · (702) When the mode 2 is selected, the fact that the condition of the expression (702) is satisfied means that the luminance signal Y, the color signal IR—ΥI, and the color signal IR of the pixel data supplied from the encoder 37 are satisfied. Color signal i B — YI force Brightness signal Y of the subject set as the target object. , The color signal i R. One Y. I and color signal IR. One Y. It means that it almost matches I. As in the case of the mode 0, only when the color of the target object and the color of the pixel data match, "Low" is output from the gate circuit 75.
4 ) モー ド 3が選択された場合 4) When mode 3 is selected
モー ド 3が選択された場合に関しては、 全くモー ド ϋ及びモー ド 1及びモー ド 2が選択された時に動作と同様であるので、 詳し い説明は省略する。 The operation when mode 3 is selected is exactly the same as the operation when mode ϋ, mode 1 and mode 2 are selected, and a detailed description thereof will be omitted.
モー ド 0が選択されている時の動作と同様であるので、 被 休 モ一 ドと してモー ド 3が選択されているときは、 コ ンパレ一タ 7 3 a 〜 7 3 f 、 ゲー ト回路 7 4 a 〜 7 4 c及びゲー ト回路 7 5 に
よって行われる演算は、 Since the operation is the same as when mode 0 is selected, when mode 3 is selected as the abort mode, comparators 73a to 73f, gate Circuits 74a-74c and gate circuit 75 The operation performed is
I Y。 Υ Υ 0 I Y. Υ Υ 0
かつ And
Y X α 3 ≤ I R - Υ Υ X α 4 Y X α 3 ≤ I R-Υ Υ X α 4
かつ And
Υ X α 5 ≤ I Β - Y I ≤ Ύ x a Υ X α 5 ≤ I Β-Y I ≤ Ύ x a
( 7 0 3 ) で定義することができる。 モー ド 3が選択されている時に、 この ( 7 0 3 ) 式の条件を満たしているという ことは、 エ ンコーダ 3 7から供給された画素データの輝度信 Y、 色信号 I R— Υ I 及 び色信号 I Β— Υ I が、 目的物体と して設定された被写体の輝度 信号 Υ。 、 色信号 I R 。 一 Υ。 I 及び色信号 I R 。 一 Υ。 I に略 一致するといことを意味している。 そして、 モー ド 0の時と同様 に、 目的物体の色と画素データの色とがー致した時のみ、 ゲー ト 回路 7 5から 「 L o w」 が出力される。 (703). When the mode 3 is selected, the fact that the condition of the expression (703) is satisfied means that the luminance signal Y, the color signal IR—ΥI, and the luminance signal Y of the pixel data supplied from the encoder 37 are satisfied. Color signal I Β— The luminance signal 被 写 体 of the subject whose I is set as the target object. , Color signal IR. One Υ. I and color signal IR. One Υ. It means that it almost matches I. Then, as in the case of the mode 0, the gate circuit 75 outputs “Low” only when the color of the target object and the color of the pixel data match.
さ らに、 第 9図を参照して、 被写体モー ドと してモー ド 0が選 択され、 目的物休と同じ色を有した複数の両素データ力 第 8図 において示される 3 6番目のェ リ 了 Λ 3:、 にのみ存在する例をあ げて、 エ リ ア検索回路 3 8の全体的な勁作を説明する。 Further, referring to FIG. 9, mode 0 is selected as the subject mode, and a plurality of elementary data having the same color as the object rest are displayed. of e Li Ryo lambda 3:, Oh, an example in which only the Gaité, describing the overall勁作of e re a search circuit 3 8.
まず、 ェ リ ァ検索回路 3 8には、 エ ンコーダ 3 7からラスタス キャ ンに対応するように輝度信号 Υ、 色信 ¾ I R - Υ I 及び色信 号 I Β — Y i が順に供給される。 つまり、 —丁— リ ァ検索回路 3 8に は、 エ ンコーダ 3 7からの全画素デ -タ供給され、 画素データ毎 に、 式 ( 7 0 0 ) の条件に含まれるか否かの判断が行われる。 尚、 このエ リ ア検索回路 3 8には、 全画素データが供給される が、 式 ( 7 0 0 ) で定義される条件に含まれるか否かの判断は、 全て、 ス ィ ッ チ回路 7 2 a 〜 7 2 d 、 コ ンノ、°レ一タ 7 3 a 〜 7 3 f 及びゲー ト回路 7 4 a 〜 7 4 c等のハー ドウェア回路によって
行っているので、 C P U 4に処理負担をかけること無しに、 リア ルタイムに判断処理が行える。 First, a luminance signal Υ, a chrominance signal IR-ΥI, and a chrominance signal IΒ—Yi are sequentially supplied from the encoder 37 to the encoder search circuit 38 so as to correspond to the raster scan. . In other words, all pixel data from the encoder 37 is supplied to the relay search circuit 38, and it is determined whether or not each pixel data is included in the condition of the equation (700). Done. Note that all pixel data is supplied to the area search circuit 38, but the determination as to whether or not the data is included in the condition defined by the equation (700) is performed by the switch circuit. Depending on the hardware circuits such as 72 a to 72 d, cono, ° recorder 73 a to 73 f, and gate circuit 74 a to 74 c Since the processing is performed, the judgment processing can be performed in real time without putting a processing load on the CPU 4.
この例において、 エ リア A 0 3 5 以外には、 設定された目的物体 と同じ色を有した画素データが存在しないので、 エ リ ア Λ。3 5 以 外のェ リァに存在するどの画素データがェ リ ァ検索回路 3 8に供 給されたとしても、 ゲー ト回路 7 5 は 「ト I i g h」 を出力する。 エ リ ア A 0 3 5 内の目的物体と同じ色を有した画素データがェ リ ァ 検索回路 3 8に供給されると、 ゲー ト回路 7 5 は始めて 「 L 0 wIn this example, the addition et rear A 0 3 5, since there is no pixel data having the same color as the set purpose objects, et Li A lambda. Even if any pixel data existing in the area other than the area 35 is supplied to the area search circuit 38, the gate circuit 75 outputs "I igh". When pixel data having the same color as the target object in the area A 0 35 is supplied to the area search circuit 38, the gate circuit 75 first outputs “L 0 w
J を出力する。 この時、 チップセレク ト C Sは、 エ リ ア Λ 0 3 に 対応する 3 6番 Ξのチップ回路にのみ 「 L o w j を供給し、 その 他のチップ回路には 「 H i g h j を供給する。 また、 画素ク " ッ クは、 この S的物体と同じ色を有した画素データが供給されるタ イ ミ ングで 「 L o w」 をチップ回路に供給する。 従って、 3 6蕃 目のチップ回路内のゲー ト回路 7 6' a。3 5 は、 ゲー ト回路 7 5か ら Γ L o w」 が供給され、 画素ク ロ ッ ク C L Kと して 「 L 0 w」 が供給され、 チップセレク ト と して 「 L o w」 が供給され、 、 こ の時にのみ、 ゲー ト回路 7 6 a 。 3 5 は、 「 L o w」 をカウ ンタ 7Output J. At this time, the chip select CS supplies “Lowj” only to the 36th chip circuit corresponding to the area No. 03, and supplies “Highg to the other chip circuits. The pixel clock supplies “Low” to the chip circuit at a timing at which pixel data having the same color as the S-like object is supplied. Therefore, the gate circuit 76'a in the 36th chip circuit. 3-5, gate circuit 7 Five et gamma L ow "is supplied, as a pixel click locked CLK is supplied" L 0 w ", and the chip select is supplied" L ow " Only at this time, the gate circuit 76a. 3 5 sets “Low” to the counter 7
6 b o a r, に供給する。 カウ ンタ 7 6 b。3 5 は、 ゲー ト回路 7 G a 0 3 5 から 「 L o w」 が供給されるとカ ウ ン ト アップし、 このカウ ン ト値が 5カウ ン ト以上になると、 フラグ信号をマルチプレクサ6 boar, supplied to Counter 76 b. 3 5 counts up when “Low” is supplied from the gate circuit 7 G a 0 3 5. When this count value becomes 5 counts or more, the flag signal is multiplexed.
7 7に出力する。 この動作は何を意味しているかというと、 エ リ ァ A。3 5 には、 1 4 4 0個の画素データが存在し、 そのうち、 設 定された目的物体の色と一致する画素データが 5画素以上あるの であれば、 フラグ信号が、 エ リ ア Λ。3 5 に対応するチップ回路か ら出力されるということである。 従って、 この例においてが、 ェ リア Λ 0 3 5 に対応するチップ回路の力ゥンタ 7 fi b。3 5 のみから フラグ信号が出力され、 エ リア Λ 0 3 5 以外のエ リ ア A Π 3 5 に対応 するチップ回路の力ゥ ンタ 7 6 bからはフラグ信号は出力されな
い。 7 Output to 7. What does this mean? In 35, there are 144 0 pixel data, and if there are 5 or more pixel data that match the color of the set target object, the flag signal is output to the area 5. . 3 5 is that the output chip circuit or et corresponds to. Therefore, in this example, the power of the chip circuit corresponding to the area 0 35 is 7 fib. 3 to 5 only outputs the flag signal, Do flag signal from Chikarau printer 7 6 b of the chip circuit corresponding to the d rear lambda 0 3 5 non-e re A A [pi 3 5 is outputted No.
マルチプレク サ 7 7は、 各チップ回路から出力されたプラグ信 号をェ リ了と対応するように C P U 4 に出力する。 この場合には 、 エ リ ア A D 3 5 に対応する 3 6番目のチップ回路からからフラグ 信号が出力されたことを C P U 4 に供給する。 The multiplexer 77 outputs the plug signal output from each chip circuit to the CPU 4 so as to correspond to the end of the plug signal. In this case, it supplies the flag signal is output from the 3 sixth chip circuit corresponding to the e Li A AD 3 5 to CPU 4.
ハ一 ドウェアから構成されるェ リ 了検索回路 3 8がこのよ うに 動作することによって、 C P U 4 は、 設定した目的画素の色と同 じ色を街した画素がどのェ リ ァに存在するのかをリアルタ イ ムに 認識することができる。 次に、 ビデオカ メ ラ装置の動作を、 第 1 0図〜第 1 6図のフ u 一チ ャ ー トを参照して説明する。 The operation of the end search circuit 38 composed of hardware in this way allows the CPU 4 to determine in which of the pixels the pixel having the same color as the set target pixel exists. Can be recognized in real time. Next, the operation of the video camera device will be described with reference to the flowchart of FIG. 10 to FIG.
まずは、 フ ォ ー力ス制御動作に関して説明する。 First, the force control operation will be described.
マニュ アルフ ォ ーカ スからォ ー ト フ ォ 一カ スへの移行は、 カ メ ラ マ ンが操作部 5 に設けられたォ一 ト フ オ ーカ スボタ ンを押すこ とによって、 オー ト フ ォ ーカ スモー ドとなる。 オー ト フ ォ ーカ ス モ一 ドは、 1度押すとマニュ アルフ ォ ー力スへの移行が指令され るまで、 そのォ一 ト フ ォ ーカ スモー ドを縱続し続ける連続モ一 ド と、 フ ォ ーカ スが合うとオ ー ト フ ォ ーカ スモー ドを停止して、 β 動的にマ二ユアルモ一 ドに移行する非速続モ― ドとを Τしている 。 以下のフ ロ ーチ ャー トの説明は、 連続モー ドについての説明で ある。 尚、 ステップ S 1 0 0〜ステップ S 1 3 1 では、 フ ォ ー力 スレンズをどちらの方向に移動させるかを判定するための処理が 行われ、 ステップ S 2 0 1 〜ステップ S 2 2 1では、 評価値が最 大となるレ ンズ位置を求めるための処理が行われる。 The transition from manual focus to auto focus can be performed by pressing the auto focus button provided on the operation unit 5 by the cameraman. The focus mode is set. Autofocus mode is a continuous mode that, once pressed, continues in autofocus mode until commanded to switch to manual focus. The auto-focus mode is stopped when the focus is adjusted, and the non-continuous mode in which β automatically shifts to the manual mode. The following description of the flowchart is for the continuous mode. In steps S100 to S131, a process for determining in which direction the focusing lens is to be moved is performed. In steps S201 to S221, Processing is performed to determine the lens position at which the evaluation value is maximized.
まず、 ステップ S 1 0 0〜ステップ S 1 0 4 においては、 図 1 7 に示すよ う に、 フ ォ ーカ ス レ ンズは、 C P U 4からの指令に甚 づいて、 レ ンズ初期位置 X (, から F a r方向に D / 2の距離にあ
る位置 X , に移動し、 X , から N e a r方向に Dの距離にある位 置 X 2 に移動し、 Χ 2 から F a r方向に DZ 2の距離にある位置 つまり、 レンズ初期位置 X D に戻る動作を行う。 尚、 N e a r方 向とは、 撮像素子側に近づく方向を意味し、 F a r方向とは、 撮 像素子から離れる方向を意味する。 また、 Dは焦点深度を表して いる。 マイ クロコ ン ピュータ 6 4は、 レンズ位置 X。 、 X , 、 X 2 において、 水平方向評価値生成回路 6 2及び垂直方向評価値生 成回路 6 3において生成された、 評価値 E i ( X。)、 評価 ifiE i ( X 評価値 E i ( X 2)を、 R AM 6 ΰに記憶する。 First, in steps S100 to S104, as shown in FIG. 17, the focus lens is moved to the lens initial position X ( , At a distance of D / 2 in the Far direction Go to position X, that, X, from the N ear direction moves to position X 2 at a distance and D, i.e. the position from chi 2 to the distance DZ 2 in F ar direction, the lens initial position X D Perform a return operation. The Near direction means a direction approaching the image sensor, and the Far direction means a direction away from the image sensor. D represents the depth of focus. Microcomputer 64 has lens position X. , X,, X 2, the evaluation value E i (X.), the evaluation ifiE i (X evaluation value E i () generated by the horizontal evaluation value generation circuit 62 and the vertical evaluation value generation circuit 63. X 2) is stored in RAM 6.
こ こで、 フ ォ ーカス レンズをなぜ X Q から DZ 2以上移動させ ないかを説明する。 焦点深度とは、 焦点を中心と してフ ォ ーカ ス が合っている範囲を示すデータである。 従って、 焦点深度内でフ ォ 一カ ス レンズを移動させたと しても、 それによつてフ ォ ーカ ス のずれは人間の目によって認識できない。 逆に、 レ ンズを X , か ら X 2 へ移動させる時に、 焦点深度以上移動させると、 その移動 によってフ ォ ーカ スのずれが撮像信号に現れてく る。 つまり、 レ ンズの最大移動を焦点深度以内とするこ とによ つて、 フ ォ ー力ス のずれを認識しることがない。 In here, to explain the internal medicine move DZ 2 more than a full O carcass lens Why from X Q. Depth of focus is data that indicates the range where the focus is at the center of focus. Therefore, even if the focus lens is moved within the depth of focus, the shift of the focus cannot be recognized by human eyes. Conversely, the lenses X, when moving to a pressurized et X 2, is moved over the focal depth, off O over mosquito scan of deviation that will appear in the image pickup signal by the mobile. In other words, by setting the maximum movement of the lens within the depth of focus, the displacement of the force cannot be recognized.
次にステ ッ プ S 1 0 0〜ステ ッ プ S 1 0 4の各ステ ッ プに Hし て第 1 7図を参照しながら詳しく説明する。 Next, each of the steps S100 to S104 will be described with reference to FIG. 17 for details.
ステップ S 1 0 0では、 マイ ク πコ ン ピュータ 6' 4 は、 水平方 向評価値生成回路 6 2及び垂直方向評価値生成回路 6 において 生成された評価値 Ε , (Χ 0)〜評価値 Ε 24( Χ 0)を、 に 記憶する。 記憶し終えると、 マイ ク πコ ン ピュータ G 4は、 C P U 4 に対してフ ォ ーカ ス レ ンズを DZ 2の距離だけ F a r方向に 移動するように指令を出す。 In Step S 1 0 0, microphones π co down computer 6 '4, horizontal direction toward evaluation value generating circuit 6 2 and the evaluation value generated in the vertical direction evaluation value generating circuit 6 Ε, (Χ 0) ~ evaluation value Ε stores 24 (chi 0), the. When the storage is completed, the microphone π-computer G 4 instructs the CPU 4 to move the focus lens by a distance of DZ 2 in the Far direction.
ステ ッ プ S 1 0 1 では、 C P U 4は、 フ ォ ーカ ス レ ンズモータ 駆動回路 1 2 cに対してコ マ ン ドを出力し、 フ ォ ーカ ス レ ンズを
D 2の距離だけ F a r方向に移動させる。 In step S101, the CPU 4 outputs a command to the focus lens motor drive circuit 12c, and outputs the focus lens. Move in the Far direction by a distance of D2.
ステ ッ プ S 1 0 2では、 マイ ク ロ コ ン ピュ ータ 6 4は、 水平方 向評価値生成回路 6 2及び垂直方向評価値生成回路 6 3において 新たに生成された評価値 Ε , (X ,)〜評価値 Ε 24( X ,)を、 R AM 6 6 に記憶する。 評価値を記憶し終えると、 マイ ク ロ コ ン ピュ ー タ 6 4は、 C P U 4に対してフ ォ ーカ ス レ ンズを Dの距離だけ N e a r方向に移動するように指令を出す。 In step S 102, the micro computer 64 receives the evaluation values Ε, (,) newly generated in the horizontal evaluation value generation circuit 62 and the vertical evaluation value generation circuit 63. X,) to the evaluation value Ε 24 (X,) are stored in RAM 66. After storing the evaluation value, the micro computer 64 issues a command to the CPU 4 to move the focus lens by the distance D in the Near direction.
ステ ッ プ S 1 0 3では、 C P IJ 4 は、 フ ォ ーカ ス レ ンズモータ 駆動回路 1 2 c に対してコマン ドを出力し、 フ ォ ーカ ス レ ンズを Dの距離だけ N e a r方向に移動させる。 In step S103, the CP IJ 4 outputs a command to the focus lens motor drive circuit 12c to move the focus lens by the distance D in the Near direction. Move to
ステ ッ プ S 1 0 4では、 マイ ク πコ ン ピュ ータ 6 4 は、 水平方 向評価値生成回路 6 2及び垂直方向評価値生成回路 6 3において 新たに生成された評価値 E , (X 2)〜評価値 E 24 ( X 2)を、 R AM 6 6に記憶する。 記憶し終えると、 マイ ク πコ ンピュータ 6 4は 、 C P U 4 に対してフォ一カス レンズを D/ 2の距離だけ F a r 方向に移動するように指令を出す。 In step S104, the microphone π computer 64 outputs the evaluation values E, (), which are newly generated in the horizontal evaluation value generation circuit 62 and the vertical evaluation value generation circuit 63. X 2 ) to evaluation value E 24 (X 2 ) are stored in RAM 66. When the storage is completed, the microphone π computer 64 instructs the CPU 4 to move the focus lens by a distance of D / 2 in the Far direction.
従づて、 ステ ッ プ S 1 0 4を終了する と、 マイ ク ロ コ ン ピュ ー タ 6 4の R A M 6 6 には、 レ ンズ位置 X。 における評価値 E , ( X 0)〜E 24( X。)と、 レ ンズ位置 X, における評価値 E , (X ,)〜E 2 ( Χ ,)と、 レ ンズ位置 X。 における評価値 Ε , (Χ 2)〜Ε 24( XTherefore, when step S104 is completed, the lens position X is stored in the RAM 66 of the micro computer 64. The evaluation values E, (X 0 ) to E 24 (X.) at, the lens position X, and the evaluation values E, (X) to E 2 (Χ) at lens position X.評 価, (Χ 2 ) to Ε 24 (X
2)とが記録されていることになる。 2) is recorded.
ステ ッ プ S 1 0 5〜ステ ッ プ S 1 1 5は、 2 4個の評価値の中 から不適切な評価値を選択するためのフ口一である。 Steps S105 to S115 are tips for selecting an inappropriate evaluation value from the 24 evaluation values.
まず、 第 1 8 A図及び第 1 8 B図を参照して、 ステ ッ プ S 1 0 5〜ステ ッ プ S 1 1 5の動作を甚木的な考え方を説明する。 First, with reference to FIG. 18A and FIG. 18B, the operation of step S105 to step S115 will be described in a comprehensive manner.
第 1 8 A図及び第 1 8 B図は、 ウィ ン ドウ W 2の中にフ ァ ー力 スを合わせようとするターゲッ ト物体 Aが撮像され、 ウ ィ ン ドゥ W 2の外であってウィ ン ドウ W 1の内部に、 ターゲッ ト物体 Aよ
り手前に存在するコ ン ト ラ ス トの高い非ターゲッ ト物体 Bが撮像 されている状態を示している。 このとき、 この物体 Bがウィ ン ド ゥ W 1 の枠内に存在しているので、 ウィ ン ドウ W 1 の値が設定さ れた第 1の水平方向評価値生成回路 6 2 aによつて生成された評 価値 E , には、 物体 Bの高周波成分が合まれてしまい、 物体 Aの 評価値としては適切でない。 よって、 評価値 E , の値は、 ウ ィ ン ドウ W 2の値が設定された第 2の水平方向評価爐生成回路 G 2 b によつて生成された評価値 E 2 の値より もかなり大き く なつてし まう。 同様に、 ウ ィ ン ドウ W 1 の値が設定された第 7の水平方向 評価値生成回路 6 2 gによって生成された評価値 E 7 には、 物体FIGS. 18A and 18B show an image of a target object A whose window force is to be adjusted within window W2, which is outside window W2. Inside window W1, target object A This shows a state in which the non-target object B having a high contrast existing in front of the object is being imaged. At this time, since the object B exists in the frame of the window ゥ W 1, the first horizontal direction evaluation value generation circuit 62 a in which the value of the window W 1 is set is obtained. The generated evaluation value E, is combined with the high-frequency component of the object B, and is not appropriate as the evaluation value of the object A. Therefore, the value of the evaluation value E, is considerably larger than the value of the evaluation value E 2 generated by the second horizontal evaluation furnace generation circuit G 2 b in which the value of the window W 2 is set. Let's get together. Similarly, the seventh horizontal evaluation value generating circuit 6 evaluation value E 7 generated by 2 g of the value of c fin dough W 1 is set, the object
Bの高周波成分が含まれてしまい、 物体 Λの評価値と しては適切 でない。 よって、 評価値 E 7 の値は、 ウィ ン ドウ W 2の値が設定 された第 8の水平方向評価値生成回路 6 2 hによって生成された 評価値 E 8 の値より もかなり大き く なつてしまう。 Since the high frequency component of B is included, it is not appropriate as the evaluation value of the object Λ. Therefore, the evaluation value E 7 is rather considerably larger than the value of the evaluation value E 8 the value of the windowing W 2 is generated by the eighth horizontal evaluation value generating circuit 6 2 h of which is set Natsute I will.
また、 ウ ィ ン ドウ W 2の中には非ターゲッ ト物体 Bが存在しな いので、 評価値 E 2 又は評価値 E 8 の値が適切か否かというと、 決して適切ではないと言える。 その理由を第 1 8 B図を参照して 説明する。 図 1 8 Bは、 フ ォ一力スを物体 Αに合わせるようにレ ンズを移動させた埸合を示している。 物休 Aに対してフ ォ ーカ ス を合わせれば合わせるほど、 物体 Bに対するフ ォ ーカスが大き く ずれるということになる。 物体 Bのフ ォ ーカスが大き くずれると 、 物体 Bの映像が大き くぼやけてしまい、 そのぼやけた映像がゥ イ ンドウ W 2 に入ってく る。 従って、 第〗 8 A図及び第 1 8 B図 の状態の場合は、 ウィ ン ドゥ W 2の値が設定された第 2の水平方 向評価値生成回路 6 2 bによって生成された評価 T E 2 の ¾は決 して適切であるとは言えない。 同様に、 ウィ ン ドウ W 2の値が設 定された第 8の水平方向評価 t生成回路 6 2 hによって生成され た評価値 E 8 の値は決して適切であるとは言えない。
このように、 ウィ ン ドウ W 1 によって得られた評価値 E , 及び Ε 7 、 ウィ ンドウ W 2によつて得られた評価 Ε 2 及び Ε 8 が適切 か否かを判断するためには、 Also, some window fin dough W 2 in INO such exist NonTarget object B, and the evaluation value E 2 or the evaluation value E 8 is say whether it is appropriate, it can be said that no means appropriate. The reason is explained with reference to Fig. 18B. FIG. 18B shows a case where the lens is moved so that the force is adjusted to the object Α. The more the focus is adjusted for the vacation A, the more the focus for the object B is shifted. If the focus of the object B is largely displaced, the image of the object B is largely blurred, and the blurred image enters the window W2. Therefore, in the case of the states of FIGS. 8A and 18B, the evaluation TE 2 generated by the second horizontal evaluation value generation circuit 62b in which the value of the window W2 is set is set. ¾ is by no means appropriate. Similarly, the value of the eighth horizontal evaluation t generator 6 2 evaluation value generated by h E 8 the value of the windowing W 2 is set can not be said to be in any way appropriate. Thus, for windowing W 1 by the obtained evaluation value E, and E 7, window W 2 Niyotsu evaluation obtained Te E 2 and E 8 determines whether it is appropriate, the
I Ε , - Ε 2 I ≤ E , x ;9 I,,-Ε 2 I ≤ E, x; 9
かつ ♦ · · · ( 3 ) And ♦ · · · (3)
I Ε 7 - Ε 8 I ≤ Ε 7 /5 I Ε 7-Ε 8 I ≤ Ε 7/5
を判断すればよい。 尚、 は予め実験的な結果によって設定され た係数であって、 ここでは例えば、 β = 0 . 0 1 とされているが 、 (Ε , X β ) 及び (Ε 7 X β ) を ( 3 ) 式に使用せずに、 Should be determined. Note that a coefficient set in advance by experimental results, here, for example, β = 0. 0 1 but there is a, (E, X beta) and (E 7 X beta) and (3) Without using it in the formula,
(Ε , X β ) 及び (Ε 7 X β ) の代わりに実験的に得られた所定 値を ( 3 ) 式に使用しても結果は同じである。 (E, X beta) and (E 7 X beta) the results using a predetermined value experimentally obtained in (3) in place of the same.
この ( 3 ) 式の演算結果に基づく判断は、 | Ε , — Ε 2 I及び I Ε 7 - Ε 8 Iの値が所定値以下であれば、 評価値 Ε , と Ε 2 の 問の差はほとんど無いと判断でき、 且つ、 評価値 Ε 7 と Ε 8 の ίΙΟ の差はほとんど無いと判断できる。 従って、 第 1 8 Λ図で示され るような非タ一ゲッ ト物休 Bは無いと判断する。 I E , - - E 2 I 及び I E 7 — E 8 i の値が所定値以上であれば、 評価値 E , と E 2 の間の差が大きいと判断でき、 且つ、 評価 ¾Ε 7 と Ε δ の問の 差が大きいと判断できる。 従って、 第 ] 8 Λ図で示されるような 非ターゲッ ト物体 Βが存在すると判断する。 つまり、 ( 3 ) 式を 演算し、 この ( 3 ) 式に当てはまるのであれば、 評価値 Ε , 及び Ε 2 、 評価値 Ε 7 及び Ε 8 は適切であり、 この ( 3 ) 式に当ては まらいのであれば、 評価値 Ε , 及び Ε 2 、 評価値 F 及び Ε 8 は 不適切であるという ことになる。 The (3) of the result in based determination, | Ε, - Ε 2 I and I E 7 - if the value of E 8 I is less than the predetermined value, the evaluation value E, the difference between E 2 question is it can be determined that little, and the difference in ίΙΟ evaluation value E 7 and E 8 it can be determined that little. Therefore, it is determined that there is no non-target rest B as shown in Fig. 18Λ. If the values of IE,--E 2 I and IE 7 — E 8 i are equal to or greater than a predetermined value, it can be determined that the difference between the evaluation values E, and E 2 is large, and the evaluation ¾Ε 7 and Ε δ It can be determined that the difference is large. Therefore, it is determined that there is a non-target object as shown in Fig. 8 {Fig. That is, (3) calculates the equation, if the fit this equation (3), the evaluation value E, and E 2, the evaluation value E 7 and E 8 are proper, against this equation (3) or If so, the evaluation values 評 価 and Ε 2 and the evaluation values F and Ε 8 are inappropriate.
次に、 上述の基本的な考えたを考慮して、 第 1 0図及び第 1 1 図を参照しながら、 ステップ S 1 0 5〜ステップ S 〗 〗 5を具体 的に説明する。 Next, steps S105 to S5 will be specifically described with reference to FIGS. 10 and 11 in consideration of the above-described basic idea.
ステップ S 1 0 5では、 レンズ位置が X。 の時に得られた Ε , In step S105, the lens position is X.時 に obtained at the time of
3 8
(X 0 ) - E 24 (X。 ) を使用して、 3 8 (X 0)-Using E 24 (X.)
I E , (X o ) - E 2 (X o ) I ≤ E, (X。 ) x , かつ I E, (X o)-E 2 (X o) I ≤ E, (X.) x, and
I E 7 (X。 ) 一 E 8 (X o ) ≤ E (X o ) x β 1 IE 7 (X.) 1 E 8 (X o) ≤ E (X o) x β 1
( 1 0 5 ) を判断する。 評価値 Ε , 、 Ε 2 、 Ε 7 及び Ε 8 が、 この ( 1 0 5 ) 式に当てはまる値であるのであれば、 評価値 Ε , 、 Ε 2 、 Ε 7 及び Ε 8 は適切な値であると判断してステ ッ プ S 1 1 7 に進む。 逆に、 評価値 Ε , 、 Ε 2 、 Ε 7 及び Ε 8 が、 この ( 1 0 5 ) 式に 当てはま らない値であるのあれば、 少なく とも、 評価値 Ε , 、 Ε 2 、 Ε 7 及び Ε 8 は不適切な値であると判断してステ ッ プ S 1 η 6に進む。 (105) is determined. Evaluation value E,, E 2, E 7 and E 8 is, if the (1 0 5) than a value that applies to expression evaluation value E,, E 2, E 7 and E 8 are the appropriate values It proceeds to step S117. Conversely, if the evaluation values Ε, Ε 2, Ε 7, and で8 are values that do not apply to this (1 0 5) equation, at least the evaluation values Ε,, Ε 2 , Ε 7 and E 8 proceeds to stearyl-up S 1 eta 6 it is determined that the inappropriate value.
ステップ S 1 0 6では、 ステップ S 1 0 5における演算結果に よって評価値 Ε , 及び Ε 2 、 評価値 Ε 7 及び Ε 8 が不適切である と判断されたので、 ウィ ン ドウ W 1 の次に大きなウイ ン ドゥ W 3 に基づいて得られた評価値 Ε 3 及び Ε 3 を使用すると共に、 ウイ ン ドウ W 2の次に大きなウイ ン ドゥ W に菽づいて得られた評価 値 Ε 4 及び Ε ,。を使用する。 In Step S 1 0 6, thus evaluation value calculation result in step S 1 0 5 E, and E 2, the evaluation value E 7 and E 8 is determined to be inappropriate, following windowing W 1 The evaluation values Ε 3 and Ε 3 obtained based on the larger window W 3 are used, and the evaluation values Ε 4 and 4 obtained based on the next larger window W after the window W 2 are used. Ε,. Use
ステップ S 1 0 6では、 ステップ S 1 0 5 と同様に、 レ ンズ位 置が X。 の時に得られた Ε , (X 0 ) E 24 (X。 ) を使用し て、 In step S106, the lens position is X as in step S105. Using Ε, (X 0) E 24 (X.) obtained at the time of
I E 3 (Χ。 ) 一 E 4 (X o ) I ≤ E (X o ) x β かつ IE 3 (Χ.) I E 4 (X o) I ≤ E (X o) x β and
I E 9 (X。 ) 一 E ,。 (X。 ) ≤ E n (X o ) x β t IE 9 (X.) One E,. (X.) ≤ En (X o) x β t
( 1 0 6 ) を判断する。 評価値 E 3 、 E 4 . E s 及び E ,。が、 この ( 1 0 G ) 式に当てはまる値であるのであれば、 評価値 E 3 、 E 4 、 E n 及び E ,。は適切な値であると判断してステ ッ プ S 1 0 7 に進む。
逆に、 評価値 E 3 、 E 4 、 E 3 及び E l 0が、 この ( 1 0 6 ) 式に 当てはま らない値であるのあれば、 少なく とも、 評価値 E 3 、 E 4 、 E 3 及び E ,。は不適切な値であると判断してステップ S 1 0 8に進む。 (106) is determined. Evaluation value E 3, E 4. E s and E,. But if it's the value that applies to the (1 0 G) expression evaluation value E 3, E 4, E n and E,. Is determined to be an appropriate value, and the process proceeds to step S107. Conversely, the evaluation value E 3, E 4, E 3 and E l 0 is, if the (1 0 6) of a applies should not be a value in the expression, at a minimum, the evaluation value E 3, E 4, E 3 and E,. Is determined to be an inappropriate value, and the flow advances to step S108.
ここで、 なぜ、 さ らに大きなウィ ン ドウ W 3及び W 4を使用す るのかを説明する。 上述したように、 第 1 8 Λ図で示される状態 では、 評価値 E , 及び E 2 、 評価値 E 7 及び E 8 が不適切である ので、 フ ォ ーカスをターゲッ ト物体 A又は非ターゲッ ト物体 Bの 何れにも合わせることができない。 しかし、 ウィ ン ドウ W 1及び W 2に対して、 さらに大きなウィ ン ドウ W 3及び W 4を使用する と、 非タ一ゲッ ト物休 Bがウィ ン ドウ W 4の内に入ってしまうこ とが考えられる。 もし、 完全に非ターゲッ ト物体 Bがゥイ ン ドウ W 4の内に入ってしまった場合は、 評価値 E 3 と評価値 E 4 の間 の差が小さ くなると共に、 評価値 E 3 と E ,。の間の差が小さ く な る。 つまり、 評価値 E 3 、 E 4 、 E 3 及び E , 0が、 この U 0 6Here, the reason why the larger windows W3 and W4 are used will be described. As described above, in the state indicated by the 1 8 lambda diagram, the evaluation value E, and E 2, the evaluation value E 7 and E 8 are improper, the target object A or the non-target and off O carcass It cannot match any of the objects B. However, if the larger windows W3 and W4 are used for the windows W1 and W2, the non-target rest B may enter the window W4. You could think so. If completely when the non-target object B ever fall within the © Lee down dough W 4, the difference is with small Kunar between evaluation values E 4 and the evaluation value E 3, the evaluation value E 3 E,. The difference between is smaller. In other words, the evaluation values E 3 , E 4 , E 3 and E, 0
) 式に当てはまる値であることになる。 その結果、 評価値 E 3 、 E 4 、 E 9 及び E , 0は適切な値となっているので、 フ ォーカスが 非ターゲッ ト物体 Bに合う ことになる。 本来であれば、 ターゲッ ト物体 Aにフ ォ ーカ スを合わせるべきであるが、 物休 Λにフ ォ ー カ スを合わせようとすると、 適切な評価値が得られていないので) Will be the value that applies to the expression. As a result, since the evaluation values E 3 , E 4, E 9, and E, 0 are appropriate values, the focus matches the non-target object B. Originally, the focus should be adjusted to the target object A, but if you try to adjust the focus to a vacation, an appropriate evaluation value cannot be obtained.
、 オー ト フ ォ ーカ ス制御回路 3 4が何度も制御ループを繰り返し て、 長時間、 フ ォ ーカ ス レンズを移動させ続けることになる。 従 つて、 ループが繰り返されている問、 ぼやけた撮像信号を出力し 続けなければいけなく なる。 しかし、 非ターゲッ ト物休 Bにフ ォ —カ スを合わせてしまう ことによって、 長時 ΠΠ、 制御ループが繰 り返えされ、 ぼやけた撮像信号を出力し続けることを防 d:するこ とができる。 Then, the auto focus control circuit 34 repeats the control loop many times, and keeps moving the focus lens for a long time. Therefore, the problem that the loop is repeated and the blurred imaging signal must be continuously output. However, by focusing on the non-target object rest B, the control loop is repeated for a long time to prevent the output of the blurred imaging signal from being continued. Can be.
ステップ S 1 0 7では、 ステップ S 1 0 で判断された評価値
E , 、 E2 、 E 7 及び E8 は不適切な値であるという結果と、 ス テツプ S 1 0 6で判断された評価値 E 3 、 E 4 、 E a 及び E 10は 適切な値であるという結果に基づいて、 i = l, 2 , 7 , 8の番 号のみを不使用番号と して定義し、 ステップ S 1 1 7に進む。 こ のステップ S 1 0 7で不使用番号として i = 1, 2, 7 , 8が定 義されたので、 このステップ S 1 0 7以降のステップにおいて、 評価値 E , 、 E2 、 E7 及び E8 が使用されることは無い。 In step S107, the evaluation value determined in step S10 E,, E 2 , E 7, and E 8 are inappropriate values, and the evaluation values E 3 , E 4, E a, and E 10 determined in step S 106 are appropriate values. Based on the result, there are defined only the numbers i = 1, 2, 7, and 8 as unused numbers, and the process proceeds to step S117. I = 1 the unused number in Step S 1 0 7 This, 2, 7, because it was 8 Gajo defined, at step S 1 0 7 subsequent step, the evaluation value E,, E 2, E 7 and it is not the E 8 is used.
ステップ S 1 0 8では、 ステップ S 1 0 6における演算結果に よって評価値 E3 及び E4 、 評価値 E3 及び E ,。が不適切である と判断されたので、 ウイ ン ドウ W 3の次に大きなウイ ン ドウ W 5 に基づいて得られた評価値 E 5 及び E , ,を使用すると共に、 ウイ ン ドウ W 4の次に大きなウイ ン ドゥ W 6に基づいて得られた評価 値 E 6 及び E ,2を使用する。 In step S 108, the evaluation values E 3 and E 4 , the evaluation values E 3 and E, based on the calculation result in step S 106. Was determined to be inappropriate, the evaluation values E 5 and E,, obtained based on the next largest window W 5 after the window W 3 were used, and the window W 4 then use a large Huy down de W evaluation value E 6 was obtained based on the 6 and E, 2.
ステップ S 1 0 8では、 ステップ S 1 0 6と同様に、 レンズ位 置が X。 の時に得られた E (X E 2 4 (X o ) を使用し て、 In step S108, the lens position is X as in step S106. Using E (X E 24 (X o) obtained at the time of
I E 5 (X。 ) 一 E6 ( X o ) E r, ( X 0 ) X ^ , かつ IE 5 (X.) One E 6 (X o) E r, (X 0) X ^, and
I E (X E , 2 (Xo ) E , , ( X„ ) X , I E (X E, 2 (Xo) E,, (X „) X,
( 1 0 8 ) を判断する。 評価値 E E E,,及び E ,2が、 この ( 1 0 8(10 8) is determined. The evaluation values EEE, and E, 2 are
) 式に当てはまる値であるのであれば、 評価値 E 、 f; 、 E I 1 及び E , 2は適切な値であると判断してステップ S 1 0 9に進む。 逆に、 評価値 E 5 、 E G 、 E , ,及び E 12が、 この ( 1 0 8 ) 式に 当てはまらない値であるのあれば、 少なく とも、 評価値 E 5 、 E 6 、 E , ,及び E ,2は不適切な値であると判断してステップ S 1 1 0に進む。
ステップ S 1 0 9では、 ステップ S 1 0 5で判断された評価値 E , 、 E 2 、 E 7 及び E 8 は不適切な値であるという結果と、 ス テツプ S 1 0 6で判断された評価値 E 3 、 E 4 、 E 9 及び E 10は 不適切な値であるという結果と、 ステップ S 1 0 8で判断された 評価値 E 5 、 E 6 、 E 及び E 12は適切な値であるという結果に 基づいて、 i = l, 2 , 3, 4 , 7 , 8 , 9, 1 0の番号のみを 不使用審号として定義し、 ステップ S 1 1 7 に進む。 このステツ プ S 1 0 9で不使用審号と して i = 1, 2 , 3, 4 , 7 , 8 , 9 , 1 0が定義されたので、 このステップ S 1 0 9以降のステップ において、 評価値 E , 、 E 2 、 E 3 、 E 4 、 E 7 、 E 8 、 E 9 及 び E l 0は、 使用されることは無い。 ) If the values satisfy the expression, it is determined that the evaluation values E, f;, EI 1 and E, 2 are appropriate values, and the flow advances to step S 109. Conversely, if the evaluation values E 5 , E G , E,, and E 12 are values that do not apply to the expression (108), at least the evaluation values E 5 , E 6, E,, And E and 2 are determined to be inappropriate values, and the process proceeds to step S110. In Step S 1 0 9, the evaluation value E, it is determined at step S 1 0 5, the result of E 2, E 7 and E 8 are improper values, it is determined by the scan Tetsupu S 1 0 6 evaluation value E 3, E 4, E 9 and E 10 is a result of an unsuitable value, step S 1 0 8 evaluation value is determined by E 5, E 6, E and E 12 is a proper value Based on the result, only the numbers i = l, 2, 3, 4, 7, 8, 9, and 10 are defined as nonuse signs, and the process proceeds to step S117. In this step S109, i = 1, 2, 3, 4, 7, 8, 9, 9 and 10 were defined as non-use cases, so in the steps after this step S109, evaluation value E,, E 2, E 3 , E 4, E 7, E 8, E 9及beauty E l 0 is never used.
ステップ S 1 0 8では、 ステップ S 1 0 6 における演算結果に よって評価値 E 3 及び E 4 、 評価値 E: 3 及び Ε , ηが不適切である と判断されたので、 ウイ ン ドウ W 3の次に大きなウイ ン ドウ W 5 に基づいて得られた評価値£ 5 及び Ε を使用すると共に、 ウイ ン ドゥ W 4の次に大きなウィ ン ドウ W 6 に基づいて得られた評価 値 Ε 6 及び Ε 12を使用する。 In Step S 1 0 8, Step S 1 0 Thus evaluation value calculation results at 6 E 3 and E 4, the evaluation value E: 3 and E, because η is determined to be inappropriate, Huy down dough W 3 evaluation value obtained based on the large Ui down dough W 5 next £ 5 and with using the E, evaluation value obtained based on a large windowing W 6 in the following Ui down de W 4 E 6 and to use the Ε 12.
ステップ S 1 1 ϋでは、 ステップ S 1 ϋ 8 と同様に、 レンズ位 置が X。 の時に得られた Ε , (Χ。 ) 〜 Ε 24 (Χ η ) を使用し て、 In step S11, the lens position is X, as in step S11. Using Ε, (Χ.) ~ Ε 24 (Χ η ) obtained at
| Ε Ι 3 (Χ。 ) 一 Ε , 4 (Χ。 ) Ε (X。 ) x β 2 かつ | Ε Ι 3 (Χ.) Ε, 4 (Χ.) Ε (X.) x β 2 and
1 Ε 13 (Χ。 ) 一 Ε 2。 (Χ。 ) Ε (X 0 ) X β 2 1 Ε 13 (Χ.) One E 2. (Χ.) Ε (X 0) X β 2
( 1 1 0 ) を判断する。 評価値 Ε ,3、 Ε 14、 Ε 13及び Ε 20が、 この ( 1 1 0 ) 式に当てはまる値であるのであれば、 評価値 Ε 13、 Ε ,4、 Ε , 9 及び Ε 20は適切な値であると判断してステップ S 1 1 1 に進む。 逆に、 評価値 E l 3、 E l 4、 E l 3及び E 20が、 この ( 1 1 0 ) 式に
当てはまらない値であるのあれば、 少なく とも、 評価値 E l 3、 E l 4、 E ,3及び E 2。は不適切な値であると判断してステップ S 1 1 2に進? _ 0 (1 1 0) is determined. If the evaluation values Ε, 3 , Ε 14 , Ε 13, and Ε 20 are values that apply to this (1 110) equation, the evaluation values Ε 13 , Ε, 4 ,, 9, and Ε 20 are appropriate. The value is determined to be a value, and the process proceeds to step S111. Conversely, the evaluation value E l 3, E l 4, E l 3 , and E 20 is, in this (1 1 0) Formula If it's a true no value, at a minimum, the evaluation value E l 3, E l 4, E, 3 , and E 2. Judge to be an inappropriate value and proceed to step S112? _ 0
ステップ S 1 1 1では、 ステップ S 1 0 5で判断された評価値 E, 、 E 2 、 E 7 及び E 8 は不適切な値であるという結果と、 ス テツプ S 1 0 6で判断された評俪値 E 3 、 E 4 、 E 9 及び E ,。は 不適切な値であるという結果と、 ステ ップ S 1 0 8で判断された 評価値 E 5 、 E 6 、 E , ,及び E 12は不適切な値であるという結果 と、 ステップ S 1 1 0で判断された評価値 E l 3、 E ,4、 E 13及び E 20は適切な値であるという結果とに基づいて、 i = 1〜 1 2の 番号のみを不使用番号と して定義し、 ステップ S 1 1 7 に進む。 このステップ S 1 1 1で不使用番号と して i == 1〜 1 2が定義さ れたので、 このステップ S 1 1 1以降のステップにおいて、 評価 値 E , 〜 Ej2は使用されることは無い。 In step S 1 1 1, evaluation values E, it is determined at step S 1 0 5, the result of E 2, E 7 and E 8 are improper values, it is determined by the scan Tetsupu S 1 0 6 Evaluation values E 3 , E 4 , E 9 and E,. Is an inappropriate value, and the evaluation values E 5 , E 6 , E,, and E 12 determined in step S 108 are inappropriate values, and 1 evaluation value is determined in the 0 E l 3, E, 4 , E 13 and E 20 is based on the result that a suitable value, only the i =. 1 to 1 2 number as a non-use number Define and go to step S 1 17. Since i ==. 1 to 1 2 is defined as non-use numbers in this step S 1 1 1, in step S 1 1 1 subsequent step, the evaluation value E, ~ Ej 2 is to be used There is no.
ステップ S 1 1 2では、 ステ ップ S 1 1 0 と同様に、 レンズ位 置が X。 の時に得られた E , (X。 ) 〜 (X。 ) を使用し て、 In step S112, the lens position is X as in step S110. Using E, (X.) to (X.) obtained at the time of
I E , 5 (Χ θ ) - E , 6 (X o ) E , 5 (X o ) x β I E, 5 (Χ θ)-E, 6 (X o) E, 5 (X o) x β
かつ And
1 iiv 2 1 ( X 0 ) - li 22 ( X 0 ) I ≤ E 21 (X o ) x ^ 2 1 iiv 2 1 (X 0)-li 22 (X 0) I ≤ E 21 (X o) x ^ 2
( 1 1 2 ) を判断する。 評価値 E ,5、 E 16、 E 21及び E 22が、 この ( 1 1 2 ) 式に当てはまる値であるのであれば、 評価値 Ε , 、 E l 6、 Ε 2 , 及び Ε 22は適切な値であると判断してステップ S 1 1 3に進む π 逆に、 評価値 Ε 15、 Ε ,6、 Ε 2 Ι及び Ε 22が、 この ( 1 1 2 ) 式に 当てはま らない iであるのあれば、 少なく とも、 評価値 E ,^ E I G、 E 21及び E 22は不適切な値であると判断してステップ S 1 1 に進む。
ステップ S 1 1 3では、 ステップ S 1 0 5で判断された評価値 E , 、 E2 、 E 7 及び E8 は不適切な値であるという結果と、 ス テツプ S 1 0 6で判断された評価値 E 3 、 E 4 、 E 9 及び E ι ηは 不適切な値であるという結果と、 ステップ S 1 0 8で判断された 評価値 Es 、 E 6 、 E , ,及び E 12は不適切な値であるという結果 と、 ステップ S 1 1 0で判断された評価値 E l 3、 E l 4、 E ,3及び E 20は不適切な値であるという結果と、 ステップ S 1 1 2で钊断 された評価値 E l 5、 E ,6、 E 21及び E 22は適切な値であるという 結果とに基づいて、 i = l〜 1 4, 1 9, 2 0の審号のみを不使 用番号と して定義し、 ステップ S I 1 7に進む。 このステップ S 1 1 3で不使用番号と して i = 1〜 : L 2, 1 9 , 2 0が定義され たので、 このステップ S 1 1 3以降のステップにおいて、 評価値 E , 〜E ,4、 E 13、 E 20は使用されることは無い。 Judge (1 1 2). Evaluation value E, 5, E 16, E 21 and E 22 are, if the (1 1 2) than the value applicable to the expression evaluation value E,, E l 6, E 2, and E 22 are proper π Conversely proceeds to step S 1 1 3 it is determined that the value, the evaluation value E 15, E, 6, E 2 iota and E 22 are, in this (1 1 2) applies should not be in the expression i if located in, at a minimum, the evaluation value E, ^ E IG, the process proceeds to step S 1 1 determines that the E 21 and E 22 are improper values. In step S 1 1 3, evaluation value E, it is determined at step S 1 0 5, the result of E 2, E 7 and E 8 are improper values, it is determined by the scan Tetsupu S 1 0 6 The evaluation values E 3 , E 4, E 9, and E η are inappropriate values, and the evaluation values E s , E 6, E,, and E 12 determined in step S 108 are incorrect. a result that is an appropriate value, a result that is inappropriate value is determined evaluation value E l 3, E l 4, E, 3 , and E 20 at step S 1 1 0, step S 1 1 2 in钊断evaluation value E l 5, E, 6, E 21 and E 22 based on the result that it is an appropriate value, i = l~ 1 4, 1 9, 2 0 of respondent No. only Define as an unused number and go to step SI17. Since i = 1 to L2, 19, and 20 are defined as unused numbers in step S113, the evaluation values E, to E, 4, E 13, E 20 is never used.
ステップ S 1 1 4では、 ステ ップ S 1 1 0と同様に、 レンズ位 置が X。 の時に得られた E , (X。 ) 〜 E24 (X。 ) を使用し て、 In step S114, the lens position is X as in step S110. Using E, (X.) to E 24 (X.) obtained at the time of
| E ,7 (X o ) -E 18 (Xo ) E , 7 ( X ο ) β 2 かつ | E, 7 (X o) -E 18 (Xo) E, 7 (X o) β 2 and
| Ε23 (Χ。 ) 一 Ε24 (Χ。 ) Ε 23 ( X ο ) X β 2 | Ε 23 (Χ.) Ε 24 (Χ.) Ε 23 (X ο) X β 2
( 1 1 4 ) を判断する。 評価値 Ε 17、 Ε Ι 8、 Ε 23及び Ε 2 が、 この ( 1 1 4Judge (1 1 4). The evaluation values Ε 17 , Ι Ι 8 , Ε 23 and Ε 2 are (1 1 4
) 式に当てはまる値であるのであれば、 評価値 Ε , 7、 Ε 1Β、 Ε 23 及び Ε 24は適切な値であると判断してステップ S 1 〗 5に進む。 逆に、 評価値 E |7、 E l 8、 E23及び E24が、 この ( 1 1 4 ) 式に 当てはま らない値であるのあれば、 少なく とも、 評価値 E l 7、 E l 8、 E 23及び E 24は不適切な値であると判断してステ ップ S 1 1 6に進む。 ) If the a value applicable to the expression evaluation value Ε, 7, Ε 1Β, Ε 23 and E 24 are determined to be a suitable value the process proceeds to step S 1〗 5. Conversely, if the evaluation values E | 7 , E l8 , E 23, and E 24 are values that do not apply to the equation (114), at least the evaluation values E l 7 , E l 8, E 23 and E 24 are determined to be an unsuitable value proceeds to stearyl-up S 1 1 6.
ステップ S 1 1 5では、 ステ ップ S 1 0 5で判断された評価値
E , 、 E2 、 E 7 及び E8 は不適切な値であるという結果と、 ス テツプ S 1 0 6で判断された評価値 E 3 、 E 4 、 E 9 及び E ,。は 不適切な値であるという結果と、 ステップ S 1 0 8で判断された 評価値 E5 、 E 6 、 E 及び E 12は不適切な値であるという結果 と、 ステップ S 1 1 0で判断された評価値 E l3、 E l 4、 E,3及びIn step S115, the evaluation value determined in step S105 The results that E,, E 2 , E 7, and E 8 are inappropriate values, and the evaluation values E 3 , E 4, E 9, and E, determined in step S 106. And results because the result of an inappropriate value, the step S 1 0 evaluation value is determined in the 8 E 5, E 6, E and E 12 are improper values, determined in step S 1 1 0 evaluation value E l3, E l 4, E , 3 , and
E 20は不適切な値であるという結果と、 ステップ S 1 1 2で判断 された評価値 E , 5、 E 16、 E 21及び E 22は不適切な値であるとい う結果と、 ステ ップ S 1 1 4で判断された評価値 E l 7、 E ,8、 E 23及び E 24は適切な値であるという結果とに基づいて、 i = 1〜 1 6 , 1 9〜 2 2の番号のみを不使用蕃号として定義し、 ステツ プ S 1 1 7に進む。 このステップ S 1 1 5で不使用番号と して i = 1〜 1 6, 1 9〜 2 2が定義されたので、 このステ ップ S 1 1 5以降のステップにおいて、 評価値 E , 〜E ,G、 E I 3〜E22は使 用されることは無い。 E 20 is a result of an unsuitable value, a result that would have Step S 1 1 2 in the determined evaluation value E, 5, E 16, E 21 and E 22 is an inappropriate value, stearyl Tsu Based on the results that the evaluation values E l 7 , E, 8 , E 23 and E 24 determined in step S 1 14 are appropriate values, i = 1 to 16, 19 to 22 Define only the number as an unused ban, and go to step S117. Since i = 1 to 16 and 19 to 22 are defined as non-use numbers in step S115, the evaluation values E, to E in step S115 and subsequent steps are defined. , G, never E I 3 to E 22 is used.
ステップ S 1 1 6に至るということは、 全ての評価値 E , 〜E Reaching step S 1 16 means that all evaluation values E, to E
24が不適切であるという ことであるので、 ォ一 ト フ オーカス動作 は不可能と判断して、 マニュ アルフ ォ ーカ スモー ドに移行して、 終了する。 Since 24 is inappropriate, auto focus operation is determined to be impossible, and the mode shifts to manual focus mode, and the processing ends.
以上で、 2 4個の評価値の中から不適切な評価値を選択するた めのステップを終了する。 This concludes the steps for selecting an inappropriate evaluation value from the 24 evaluation values.
第 1 2図及び第 1 3図に示される、 ステップ S 〗 1 7〜ステツ プ S 1 3 1は、 レンズ移動方向を決定する具体的な動作フ π—で ある。 ステップ S I 1 7〜ステップ S 1 3 ] は、 マイ ク ロ コ ンビ ュ一タ 6 4によって行われるステップである。 Steps S〗 17 to S1331 shown in FIGS. 12 and 13 are specific operation steps π- for determining the lens moving direction. Steps SI 17 to S 13] are steps performed by the micro-computer 64.
ステップ S 1 1 7では、 i = 1 にセッ トすると共に、 アップ力 ゥ ン ト値 U cnt , ダウ ンカウ ン ト値 D cnt , フ ラ ッ トカ ウ ン ト値 F cnt をリセッ トする。 In step S117, i is set to 1 and the up force value Ucnt, the downcount value Dcnt, and the flat count value Fcnt are reset.
ステップ S 1 1 8では、 iが不使用番号と して定義されている
番号であるか否かを判断する。 iが不使用審号と して定義されて いないのであれば、 ステップ S 1 2 0に進む。 もし、 i が不使用 蕃号として定義されている番号であるのであれば、 ステップ S 1 1 9において、 i をイ ンク リ メ ン ト して次の i の番号に進む。 ステップ S 1 2 0では、 E i ( X 0)が、 E i ( X 2)と同程度で の値ではなくて、 ある程度 E i ( X2)より も大きい値を有し、 且 つ、 E i ( X,)が、 E i ( X。)と同程度での値ではなくて、 ある 程度 E i ( Xo)より も大きい値を有している場合の判断である。 さ らに分かり易く説明すると、 フ ォ ーカ ス レ ンズが、 X 2 、 X 0 、 X , というように F a r方向に移動すると、 評価値が E , ( X 2)、 E i ( X0)、 E i ( X ,)の順にアップしているか否かという 判断である。 具体的には、 In step S118, i is defined as an unused number It is determined whether it is a number. If i is not defined as a non-use waiver, go to step S120. If i is a number defined as an unused ban, i is incremented in step S119 to proceed to the next i number. In Step S 1 2 0, E i ( X 0) is, rather than the value of the same extent as E i (X 2), has a value greater than a certain degree E i (X 2), one且, E This is a judgment when i (X,) has a value that is not the same as Ei (X.) but is somewhat larger than Ei (Xo). To explain more clearly, when the focus lens moves in the Far direction such as X 2 , X 0, X, the evaluation value becomes E, (X 2 ), E i (X 0 ), E i (X,). In particular,
Ei ( Χ2) x β く Ε i ( X ο) Ei (Χ 2 ) x β Ε Ε i (X ο)
かつ And
( 1 2 0 ) の演算を行う ことによって判断される。 ここで、 β 3 は実験的に 求められる係数であって、 本実施例においては、 /53 = 1. 0 3 とされている。 式 ( 1 2 0 ) の条件に一致するという ことは、 フ ォ 一カス レ ンズが、 Χ2 、 Χ。 、 X , というように移動すると評 価値が順にァップすることを意味し、 次のステップ S 1 2 1に進 む。 式 ( 1 2 0 ) の条件からはずれる時は、 ステ ッ プ S 1 2 2に ステップ S 1 2 1では、 アップカウ ン ト値 U cnt に重みデータ Wi を加算してステ ッ プ S 1 2 6の進む。 Judgment is made by performing the operation of (120). Here, β 3 is a coefficient obtained experimentally, and is set to / 5 3 = 1.0 3 in the present embodiment. The fact that the condition of the expression (120) is met means that the focal lens is Χ 2 , Χ. , X, and the like, means that the valuation increases in order, and the process proceeds to the next step S122. If the condition of the equation (120) is not satisfied, the weight data Wi is added to the upcount value Ucnt in step S122 in step S122, and the value in step S126 is calculated. move on.
ステップ S 1 2 2では、 E i ( X 0 )が、 E i ( X ,)と同程度で の値ではなくて、 ある程度 E i ( X ,)より も大きい値を有し、 且 つ、 E i ( X2)が、 E i ( X o)と同程度での値ではなくて、 ある
程度 E i ( X。)よりも大きい値を有している場合の判断である。 さらに分かり易く説明すると、 フ ォ ーカス レンズが、 X 2 、 X 0In step S 122, E i (X 0) is not the same value as E i (X,), but has a value that is somewhat larger than E i (X,). i (X 2 ) is not the same value as E i (X o), This is the case when the value has a value larger than the degree E i (X.). Further understanding easily explained, off O carcass lenses, X 2, X 0
、 X , というように F a r方向に移動すると、 評価値が E i ( X 2)、 E i ( Χ 0)、 E i ( X ,)の順にダウ ンしているか否かという 判断である。 具体的には、 , X, when moved in the F ar direction so on, evaluation value E i (X 2), E i (Χ 0), it is determined that whether or not down to the order of E i (X,). In particular,
E i ( X ,) x β < E i ( Xo) E i (X,) x β <E i (Xo)
かつ And
E i ( Xo) X β < E i ( X 2) E i (Xo) X β <E i (X 2 )
( 1 2 2 ) の演算を行うことによって判断される。 式 ( 1 2 0 ) の条件に一 致するという ことは、 フ ォ 一カス レンズが、 X 2 、 X。 、 X , と いうように移動すると評価値が順にダウ ンすることを意味し、 次 のステ ッ プ S 1 2 3に進む。 式 ( 1 2 0 ) の条件からはずれる時 は、 ステ ッ プ S 1 2 4に進む。 It is determined by performing the operation of (1 2 2). The fact that the condition of equation (120) is met means that the focus lens is X 2 , X. , X, which means that the evaluation values are sequentially reduced, and the process proceeds to the next step S123. If the condition of the equation (120) is not satisfied, the process proceeds to step S124.
ステップ S 1 2 3では、 ダウ ンカウ ン ト値 D cnt に重みデータ W i を加算してステ ッ プ S 1 2 6の進む。 In step S123, the weight data Wi is added to the downcount value Dcnt, and the process proceeds to step S126.
ステップ S 1 2 4では、 E i ( X。)が、 E i ( X ,)と同程度で の値ではなくて、 ある程度 E i ( X ,)よりも大きい俯を有し、 且 つ、 E i ( Χ0)が、 E i ( X 2)と同程度での値ではなくて、 ある 程度 E i ( ) 2)より も大きい値を有している場合の判断である。 さらに分かり易く説明すると、 フ ォ ーカ ス レンズが、 X 2 、 X 0In step S 124, E i (X.) does not have the same value as E i (X,), but has a depression that is somewhat larger than E i (X,). i (chi 0) is, rather than the value of the same extent as E i (X 2), which is determined when it has a value greater than a certain degree E i () 2). Further understanding easily explained, off O over mosquito scan lens, X 2, X 0
、 X , というように F a r方向に移動すると、 評価値のピークが E i ( X o) にあるという ことである。 具休的には、 , X, and so on, the peak of the evaluation value is at E i (X o). As a rest,
E i ( X ,) X β 3 < E i ( X o) E i (X,) X β 3 <E i (X o)
かつ And
E i ( X 2) x β 3 < E i ( X o) E i (X 2 ) x β 3 <E i (X o)
( 1 2 4 ) の演算を行う ことによって判断される。 式 ( 1 2 4 ) の条件に一
致するという ことは、 フォーカス レンズが、 X 2 、 X。 、 X , と いうように移動すると評価値のピークが E i ( X o) にあるとい うことを意味し、 次のステップ S 1 2 5 に進む。 式 ( 1 2 0 ) の 条件からはずれる時は、 ステップ S 1 2 6に進む。 It is determined by performing the operation of (1 2 4). When the condition of equation (1 2 4) is satisfied, That matches the focus lens, X 2, X. , X, means that the peak of the evaluation value is at E i (X o), and the flow advances to the next step S 125. When the condition of the equation (120) is not satisfied, the process proceeds to step S126.
ステップ S 1 2 5では、 フ ラ ッ ト カ ウ ン ト値 F cn t に重みデ一 タ W i を加算してステップ S 】 2 6の進む。 In step S125, the weight data Wi is added to the flat count value Fcnt, and the process proceeds to step S26.
ステップ S 1 2 6では、 i をイ ンク リ メ ン ト してステ ップ S 1 In step S 1 26, i is incremented and step S 1
2 7に進む。 Proceed to 2 7.
ステップ S 1 2 7では、 水平方向評価値生成回路 6 2及び垂直 方向評価値生成回路 6 3において評価値 Eは 2 個生成されるの で、 i が 2 4であるかを判断する。 i 力 2 4であれば、 全ての評 価値に対する演算が 了したと判断して、 ステ ップ S 1 2 8に進 む。 i が 2 4でない時は、 i が 2 4 になるまで、 ステップ S 1 1 8からステップ S 1 2 7 によって構成されるル一プが繰り返され る。 In step S127, since two evaluation values E are generated in the horizontal evaluation value generation circuit 62 and the vertical evaluation value generation circuit 63, it is determined whether i is 24. If the power is 24, it is determined that the calculation for all the evaluations has been completed, and the process proceeds to step S128. If i is not 24, the loop composed of steps S118 to S127 is repeated until i becomes 24.
ステップ S 1 2 8では、 アップカウ ン ト値 U cn と、 ダウ ン力 ゥ ン ト値 D cn t と、 フ ラ ッ ト カ ウ ン ト値 F cn t とを比蛟して、 ど のカウ ン ト値が最も大きい値であるかを判断する。 ァップカ ウ ン ト値 U cn t が最も大きい値であれば、 ステップ S 1 2 9 に進み、 ダウ ンカ ウ ン ト値 D en t が最も大きい値であれば、 ステップ S 1 In step S128, the upcount value Ucn, the downforce value Dcnt, and the flatcount value Fcnt are compared to determine which It is determined whether the default value is the largest value. If the upcount value Ucnt is the largest value, the process proceeds to step S129, and if the downcount value Dent is the largest value, the process proceeds to step S129.
3 0に進み、 フラ ッ トカウ ン ト値 F cn t が最も大きい値であれば 、 ステ ップ S 1 3 1 に進む。 Proceed to step S30, and if the flat count value Fcnt is the largest value, proceed to step S131.
ステップ S 1 2 9では、 マイ ク ロコ ンピュータ 6 4 は、 X 、 の 方向が、 評価値の山登り方向、 即ち、 フ ォーカスが合う方向であ ると判断し、 C P U 4に対してレンズ移動方向と して F a r方向 を ί日疋す。。 In step S129, the micro computer 64 determines that the direction of X, is the hill-climbing direction of the evaluation value, that is, the direction in which the focus is in conformity. And then follow the direction of Far. .
ステップ S 1 3 0では、 マイ ク ロ コ ンピュータ 6 4 は、 Χ 2 の 方向が評価値の山登り方向、 即ち、 フ ォーカスが合う方向である
と判断し、 C P U 4 に対してレ ンズ移動方向と して N e a r方向 を指定する。 In Step S 1 3 0, microphones b Computer 6 4, chi 2 hill-climbing direction of the direction evaluation value, ie, in the direction of full Okasu fit Judgment is made, and the CPU 4 specifies the lens movement direction as the Near direction.
ステ ップ S 1 3 1 では、 マイ ク ロコ ンピュータ 6 4 は、 X。 の 位置がフ ォ ーカスが合う位置と判断して、 ステ ップ S 2 1 8に進 む。 At step S131, the microcomputer 64 is X. The position is determined to be the position where the focus is adjusted, and the process proceeds to step S2188.
上述したステップ S 1 1 8〜ステ ップ S 1 3 1 の動作を、 第 1 9図に示される例を参照しながら、 分かり易く説明する。 第 1 9 図は、 レンズ位置 X 2 、 X。 、 )( , における評価値 E i ( X 2)、 E i ( X0)、 E i ( X ,) の変化の推移を、 ある一例と して示し た図である。 The operation of the above-described steps S118 to S131 will be described in an easy-to-understand manner with reference to the example shown in FIG. The first 9 figures lens position X 2, X. FIG. 7 is a diagram showing, as an example, a transition of changes in evaluation values E i (X 2 ), E i (X 0 ), and E i (X,) in (,, ().
まず、 ステップ S 1 1 8において、 i が不使用 Φ号であるか否 かを判断するが、 ここでは、 全ての i を使用可能であるとする。 First, in step S118, it is determined whether or not i is an unused Φ number. Here, it is assumed that all i can be used.
まず 1回目のループでは、 E , に閲する判定が行われ、 First, in the first loop, a decision is made to check for E,
E , ( X 2) く E , ( X o) < E , ( X ,) であるので、 ス テツプ S 1 0の条件に一致し、 ステップ S 1 2 i に進む。 E, (X 2) Ku E, (X o) <E , because it is (X,), consistent with the scan Tetsupu S 1 0 of the conditions, the process proceeds to step S 1 2 i.
従って、 ステ ップ S 1 2 1 において U cnt - 0 -卜 W , の 演算が行われる。 Therefore, in step S122, the operation of Ucnt-0-W, is performed.
2回目のループでは、 E2 に閿する判定が行われ、 In the second loop, a determination is made that閿to E 2,
E 2 ( X 2) く E 2 ( X o) < E 2 ( X ,)であるので、 ステ ップ S 1 2 0の条件に一致し、 ステップ S 1 2 〗 に進む。 Since E 2 (X 2 ) and E 2 (X o) <E 2 (X,), the condition of step S 120 is met, and the process proceeds to step S 12〗.
従って、 ステップ S 1 2 1 において Ucnt - W , -I- W 2 の 演算が行われる。 Accordingly, Ucnt in Step S 1 2 1 - W, the operation of the -I- W 2 is carried out.
次の 3回目、 4回目及び 5回 Θのループでは、 上述の 1 回目及 び 2回目のループと同じょうな演算が行われ、 50目のループの ステ ップ S 1 2 〗 において、 In the next third, fourth, and fifth loops, the same operations as in the first and second loops described above are performed, and in step S12 of the 50th loop,
Ucnt 二 W , W2 + Wn 4 W, + W Γ, の演算が行わ れる。 Ucnt two W, W 2 + Wn 4 W , + W Γ, operation is performed.
6回目のループでは、 Ε 2 に関する判定が行われ、
E 2 ( X 2) < E 2 ( X o) > E 2 ( X ,)であるので、 ステ ップ S 1 2 4の条件に一致し、 ステ ッ プ S 1 2 5 に進む。 In the sixth loop, a determination is made on Ε 2, Since E 2 (X 2 ) <E 2 (X o)> E 2 (X,), the condition of step S 124 is met, and the flow proceeds to step S 125.
従って、 ステップ S 1 2 5 において F cnt = 0 + W s の 演算が行われる。 Accordingly, in step S125, the calculation of Fcnt = 0 + Ws is performed.
このようにして 2 4回のループを繰り返すと、 最終的には、 After repeating the loop 24 times in this way, eventually,
U cnt - W, + W2 + w3 + W4 + W5 + W7 + U cnt-W, + W 2 + w 3 + W 4 + W 5 + W 7 +
F cnt = w6 + W. 2 + W , 9 F cnt = w 6 + W. 2 + W, 9
で示される演算を行う ことになる。 よって、 このアップカウ ン ト 値 Ucnt 、 ダウ ンカウ ン ト値 Dent 及びフラ ッ トカウ ン ト値 Fen t に対して、 第 7図に一例と して示される重みデータ W i の値を 代入すると、 The calculation indicated by is performed. Therefore, when the values of the weight data W i shown as an example in FIG. 7 are substituted for the up-count value Ucnt, the down-count value Dent, and the flat-count value Fent,
U cnt = 1 2 4 U cnt = 1 2 4
D cnt = 1 3 D cnt = 1 3
F cnt = 1 8 F cnt = 1 8
という結果になる。 Is the result.
従って、 ステップ S 1 2 8の判断において、 ァップカウ ン ト値 Ucnt が最も大きい値を有するので、 9図で示される例にお いては、 ステップ S 1 2 9 に進むことになる。 従って、 フ ォ ー力 ス方向は、 X , 方向と判定される。 Accordingly, in the determination in step S128, the upcount value Ucnt has the largest value, and in the example shown in FIG. 9, the process proceeds to step S129. Therefore, the force direction is determined to be the X, direction.
次のステップ S 2 0 0からステップ S 2 2 〗 は、 評価値が最大 となるレンズ位置を決定するためのフ ロ 一である。 この動作フ " —は、 マイ ク コ ン ピュータ 6 4 によって処现される動作フ ロ ー である。 ステップ S 2 0 0からステップ S 2 2 1 を、 第 ] 3図〜 第 1 5図を参照しながら具体的に説叨する。 The following steps S200 to S222 are steps for determining the lens position at which the evaluation value is maximized. This operation flow is an operation flow executed by the microphone computer 64. Steps S200 to S221 are performed, and FIG. 3 to FIG. 15 are referred to. I will explain in detail.
ここで、 以下のステップ S 2 0 0以降の説明をより明確にする
ために、 Here, the following step S200 and the following explanations will be clarified. for,
X ! X o + Δ X X! X o + Δ X
X 2 X 0 + 2 X Δ X X 2 X 0 + 2 X Δ X
X 3 X 0 + 3 X Δ X X 3 X 0 + 3 X Δ X
X κ = X 0 + k X A X X κ = X 0 + k X A X
X k + I - X o + ( k + 1 ) x Δ X X k + I -X o + (k + 1) x Δ X
X k + j = X ο + ( k -f j ) x Δ X X k + j = X ο + (k -fj) x Δ X
( 2 0 0 ) と: ¾1 ¾する。 (2 0 0) and: {1}.
尚、 本実施例では、 1 フ ィ ール ド ¾に評価値をサンプリ ングし ているので、 この Δ Xで示される距離を、 1 フ ィ ールド間にフォ —カ ス レ ンズが移動する距離と定 する。 従って、 δΐί離 Δ χは、 1 フ ィ ール ド期問でレ ンズが進む距離を表している。 また、 この 距離△ Xは、 1 フィ ールド期 noでレンズが進む距離を表している だけでは無くて、 ステップ S 1 0 0からステップ S 1 3 ϋによつ て求められたレンズ移動方向に基づいて、 Δ Xの極性が決定され る。 例えば、 レ ンズの移動方向が F a r方向であれば、 Δ Χは正 の極性を持つようにセ ッ 卜 され、 レ ンズの移動方向が N e a r方 向であれば、 △ Xは負の極性を持つようにセ ッ ト される。 In this embodiment, since the evaluation value is sampled in one field ¾, the distance indicated by ΔX is the distance that the focal lens moves between one field. Is defined. Therefore, δΐί separation Δ を represents the distance the lens travels in one field period. The distance △ X not only represents the distance the lens travels in one field period no, but also is based on the lens movement direction obtained from step S100 to step S13ϋ. Thus, the polarity of ΔX is determined. For example, if the lens movement direction is the Far direction, Δ Δ is set to have a positive polarity, and if the lens movement direction is the Near direction, △ X is the negative polarity. Is set to have
まず、 ステップ S 2 0 0では、 k = 1 にセッ トする。 First, in step S200, k = 1 is set.
ステップ S 2 0 1 では、 マイ クロコ ンピュ一タ G 4は、 C P U に対してレンズを X k の位置に移動させるように指令を出す。
ここで、 レンズ位置 X k は、 式 ( 2 0 0 ) に基づいて、 In step S 2 0 1, Mai Croc Npyu Ichita G 4 are instructs to move the lens to the position of the X k to the CPU. Here, the lens position X k is given by the following equation (2 0 0).
X k = X 0 + k X Δ X X k = X 0 + k X Δ X
^疋我 れる。 I will go to the beach.
ステ ップ S 2 0 2では、 マイ ク ロコ ンピュータ 6 4は、 水平方 向評価値生成回路 6 2及び垂直方向評価値生成回路 6 3において 新たに生成された評価値 E , (X κ ) 〜評価値 E 24 ( X κ ) を R A M 6 6に記憶する。 尚、 2 4個の評価値 E i は、 第】 6図に示さ れるようにテーブル状に記憶される。 In step S202, the microcomputer 64 receives the evaluation values E, (Xκ) to be newly generated in the horizontal evaluation value generation circuit 62 and the vertical evaluation value generation circuit 63. The evaluation value E 24 (Xκ) is stored in the RAM 66. The 24 evaluation values E i are stored in a table as shown in FIG.
ステ ップ S 2 0 3では、 i = 1, j = 1 にセ ッ トすると共に、 In step S203, set i = 1, j = 1, and
5 Five
アッ プカ ウ ン ト値 U cn t , ダウ ンカ ウ ン ト値 D cn t. , フ ラ ッ ト力 ゥ ン ト値 F cnt をリ セ ッ トする。 Reset the up count value U cn t, down count value D cn t., And flat force point value F cnt.
ステップ S 2 0 4では、 i が不使用番号と して定義されている 蕃号であるか否かを判断する。 i が不使用番号として定義されて いないのであれば、 ステップ S 2 0 6 に進む。 もし、 i が不使用 番号と して定義されている番号であるのであれば、 ステップ S 2 In step S204, it is determined whether or not i is a ban which is defined as an unused number. If i is not defined as an unused number, go to step S206. If i is a number defined as an unused number, step S 2
0 5 において、 i をィ ンク リ メ ン ト して再びステ ップ S 2 0 4 に 民 o In 0 5, i is incremented, and the people are returned to step S 204 again.
ステ ップ S 2 0 6では、 フ ォ ーカスレンズが、 X k , から X k で示される位置に移動したときに^られた評価値 E i ( X ) が 、 評価値 E i ( X k_ , ) に対してある程度以上アップしているか 否かという判断を行う。 具体的には、 In stearyl-up S 2 0 6, off O Kasurenzu is, X k, evaluation value ^ was when moved to the position indicated by X k from E i (X) is, the evaluation value E i (X k _, ) Is judged to be higher than a certain level. In particular,
E i ( X k_, ) x β 4 < E i ( X k ) E i (X k _,) x β 4 <E i (X k)
( 2 0 6 ) の演算を行うことによって判断される。 ここで、 β は実験的に 求められる係数であって、 本実施例においては、 4 = 1 . 0 5 としている。 式 ( 2 0 6 ) の条件に一致するという ことは、 評価 値 E i ( X k ) が、 評価値 E i ( X , ) に対してある程度以上 アップしていることを示す。 この場合は、 次のステップ S 2 0 7
に進む。 式 ( 2 0 6 ) の条件からはずれる時は、 ステップ S 2 0 9に進む。 It is determined by performing the operation of (206). Here, β is a coefficient obtained experimentally, and in this embodiment, 4 = 1.05. The fact that the condition of the equation ( 206 ) is met indicates that the evaluation value E i (X k ) is more than the evaluation value E i (X,) to some extent. In this case, the next step S 2 0 7 Proceed to. When the condition of the equation (206) is not satisfied, the process proceeds to step S209.
ステップ S 2 0 7では、 評価値 E i ( X k ) 力^ 評価値 E i ( X k— , ) に対してある程度以上アップしているので、 UZ D情報 (アップ Zダウ ン情報) と して、 アップしていることを示す 2 ビ ッ トのデータ 「 0 1 」 を、 評価値 E i ( X , ) と関連付けて、 R A M 6 6 に記憶する。 In step S207, the evaluation value E i (X k ) force ^ Since the evaluation value E i (X k —,) has been increased to some extent or more, the UZ D information (up Z down information) is used. Then, the 2-bit data “01” indicating that the data is up is stored in the RAM 66 in association with the evaluation value E i (X,).
ステップ S 2 0 8では、 ステップ S 1 2 1 と同様に、 アップ力 ゥ ン ト値 U cnt に重みデータ W i を加算して、 ステップ S 2 1 4 に進む。 In step S 208, similarly to step S 122, weight data W i is added to up force event value U cnt, and the flow advances to step S 214.
ステ ップ S 2 ϋ 9では、 フ ォーカス レンズが、 X k— , から X で示される位置に移動したときに得られた評価値 E i ( X k ) が 、 評価値 E i ( Χ ,- , ) に対してある程度以上ダウ ンしているか 否かという判断を行う。 具体的には、 In step S 2 ϋ9, the evaluation value E i (X k ) obtained when the focus lens moves from X k —, to the position indicated by X becomes the evaluation value E i (Χ,- A judgment is made as to whether or not,) is down to some extent. In particular,
E i ( X k ) x β 4 く E 4 ( X ,-, ) E i (X k ) x β 4 E E 4 (X,-,)
( 2 0 9 ) の演算を行う ことによって判断される。 式 ( 2 0 9 ) の条件に一 致するという ことは、 評価値 E i ( X k ) が、 評価 ( X k - , ) に対してある程度以上ダウ ンしていることを示す。 この場合 は、 次のステップ S 2 1 0に進む。 式 ( 2 0 9 ) の条件からはず れる時は、 ステップ S 2 1 2 に進む。 It is determined by performing the operation of (209). The fact that the condition of the expression (209) is met indicates that the evaluation value E i (X k ) is down to a certain extent with respect to the evaluation (X k −,). In this case, the process proceeds to the next step S210. When the condition of the equation (209) is not satisfied, the process proceeds to step S212.
ステップ S 2 1 0では、 評価値 E i ( X k ) が、 評価値 E i ( X k-> ) に対してある程度以上ダウ ンしているので、 IJZ I)情報 (アップ/ダウ ン情報) と して、 ダウ ンしていることを示す 2 ビ ッ トのデータ 「 1 0 」 を、 評価値 E i ( X k ) と 迚付けて、 R Λ 6 6に記憶する。 In step S210, since the evaluation value E i (X k ) is down to a certain extent with respect to the evaluation value E i (X k- >), the IJZ I) information (up / down information) Then, 2-bit data “10” indicating down is stored in RΛ66 together with the evaluation value E i (X k ).
ステップ S 2 1 1 では、 ステップ S 1 2 3 と同様に、 ダゥ ン力 ゥ ン ト値 D cnt に!!みデータ W i を加算して、 ステ ップ S 2 1 4
に進む。 In step S211, as in step S123, the down-force value Dcnt! ! Step S2 1 4 Proceed to.
ステップ S 2 1 2に至るという ことは、 ステップ S 2 0 6の条 件及びステップ S 2 0 9の条件から考慮すると、 フ ォ ーカ ス レ ン ズが、 X k— , から X k で示される位置に移動したときに得られた 評価値 E i ( X k ) が、 評価値 E i ( X k_, ) に対して、 ある程 度以上の変化が無かったということを意味している。 The fact that the step S212 is reached means that the focus lens is represented by X k —, to X k , considering the conditions of the step S 206 and the conditions of the step S 209. It means that the evaluation value E i (X k ) obtained when moving to the position where the evaluation value E i (X k _,) has not changed by more than a certain degree .
従って、 ステップ S 2 1 2では、 UZD情報 (アツプ Zダウン 情報) と して、 フ ラ ッ トであることを示す 2 ビッ ト のデータ 「 0 0 」 を、 評価値 E i ( X k ) と関連付けて、 R ΛΜ 6 6に記憶す る。 Therefore, in step S212, 2-bit data “00” indicating a flat is used as UZD information (up-Z down information) as an evaluation value E i (X k ). Relate and store it in R 6 66.
ステ ッ プ S 2 1 3では、 ステ ッ プ S 1 2 5 と同様に、 フ ラ ッ ト カウ ン ト値 F cnt に重みデータ W i を加算して、 ステップ S 2 J 4に進む。 At step S213, similarly to step S125, the weight data W i is added to the flat count value Fcnt, and the process proceeds to step S2J4.
ステ ッ プ S 2 1 4では、 i をイ ンク リ メ ン ト して、 ステ ッ プ S 2 1 5 に進む。 In step S2114, i is incremented, and the process proceeds to step S215.
ステップ S 2 1 5では、 i 力 2 4であるかを判断する。 i が 2 4であれば、 全ての評価値に対する演算が終了したと判断して、 ステップ S 2 1 6に進む。 i が 2 /1でない時は、 i が 2 4 になる まで、 ステップ S 2 0 4からステップ S 2 1 Γ) によつて構成され るループが繰り返される。 In step S215, it is determined whether or not the i force is 24. If i is 24, it is determined that the calculations for all the evaluation values have been completed, and the flow proceeds to step S216. When i is not 2/1, the loop composed of steps S204 to S21Γ) is repeated until i becomes 24.
ステップ S 2 1 6では、 ダゥ ンカウ ン ト値 D cnt が最も大きい 値を持つか否かを判断するためのステップである。 Step S216 is a step for determining whether or not the downcount value Dcnt has the largest value.
ここで、 第 2 0図を例にあげ、 このステッブ S 〗 6 に閲して 説明する。 この第 2 0図は、 各評価 ¾と各アップ Zダウ ン情報の R ΛΜ 6 6における記憶状態を示している図である。 第 2 0図に 示されるように、 マイ ク ロコ ンピュータ (; 4 は、 移動したレ ンズ 位置 Χ κ に対応するように、 各評価 iと各アップ/ダウ ン情報と を関連つけて R AM 6 6 に記憶するようにしている。
まず、 レンズ位置が Χ κ である時は、 ステップ S 2 0 4からス テツプ S 2 1 5のループが繰り返されると、 アップカ ウ ン ト値 U cnt 、 ダウ ンカ ウ ン ト値 Dent 及びフ ラ ッ トカ ウ ン ト値 F cnt は 以下のようになる。 Here, taking FIG. 20 as an example, this step S 閲 6 will be described. FIG. 20 is a diagram showing a storage state of each evaluation data and each up-Z down information at RΛΜ66. As shown in FIG. 20, the micro computer (; 4) associates each evaluation i with each up / down information so as to correspond to the moved lens position κ κ. 6 to memorize. First, when the lens position is chi kappa, when step S 2 0 4 crows Tetsupu S 2 1 5 loops are repeated, Appuka window down preparative value U cnt, Dow linker window down preparative value Dent and off rats The count value F cnt is as follows.
U cnt = W , + W2 + w, , -f W5 + W, 3 + W + w , ! 4 W. 4 + w , 1 5 + w , 6 + w , I 9 + W 2 3U cnt = W, + W 2 + w,, -f W 5 + W, 3 + W + w,! 4 W. 4 + w, 15 + w, 6 + w, I 9 + W 2 3
D cnt = W7 + W , 0 + w , I 7 + w , 8 + W: > 0 + w 2 I -ト
D cnt = W 7 + W, 0 + w, I 7 + w, 8 + W:> 0 + w 2 I-
F cnt = W3 w6 + Vv' , , 2 + w , 3 -ト W2 Ϊ 2 F cnt = W 3 w 6 + Vv ',, 2 + w, 3-W 2 Ϊ 2
このアップカ ウ ン ト値 U cnt 、 ダウ ン力 ゥ ン 卜値 D cnt 及びフ ラ ッ ト カ ウ ン ト値 F ciU に対して、 闵 7 に一例と して示される重 みデータ Wi の値を代入すると、 For this up-count value U cnt, down-force value D cnt and flat-count value F ciU, the value of the weight data Wi shown as an example in に 7 is Substitution gives
Ucnt = 9 5 Ucnt = 9 5
D cnt = 3 4 D cnt = 3 4
F cnt = 3 1 F cnt = 3 1
という結果になる。 つま り、 この結果から、 個々の評価 ft:におい ては、 ア ップ、 ダウ ン、 フ ラ ッ ト等のばらつきがあるが、 総合的 に兌ると評価値はァ ップしていると判断することができる。 Is the result. In other words, from these results, it can be said that the individual evaluations ft: vary in ups, downs, flats, etc., but the evaluation values increase if they are comprehensively compatible. You can judge.
以下、 このようにステ ップ S 2 1 6 において総 ί 的に判断した 評価値を 「総合的評価値」 と呼ぶことにする。 従って、 ステ ップ S 2 1 6を別の言葉で表現すると、 ステ ップ S 2 1 6は、 総合的 評価值がダウ ンしているか否かを判断するためのステ ップである というように表現できる。 Hereinafter, the evaluation value comprehensively determined in step S216 in this manner will be referred to as an “overall evaluation value”. Therefore, if step S216 is expressed in another word, step S216 is a step for judging whether or not comprehensive evaluation 值 is down. Can be expressed as
次に、 第 2 0図に示される、 レ ンズ位置が Χ « , の時の場合に ついて考えてみる。 レンズ位置が X K t l の時に、 ステ ップ S 2 0 4からステップ S 2 1 5のル一プが繰り返されると、 了 ップ力ゥ ン ト値 U cnt 、 ダウ ンカウ ン ト値 D cn t. 及びフ ラ ッ ト カ ウ ン ト値 Fcnt は以下のようになる。
Ucnt = W5 + W , , + W , 2 + W , 7 + W , 8+ W20 + W23 Next, consider the case where the lens position is Χ «, as shown in FIG. When the lens position is X K tl, the Le one flop of Step S 2 1 5 from stearyl-up S 2 0 4 is repeated, Ryo Ppuryokuu down preparative value U cnt, Dow Nkau down preparative value D cn t And the flat count value Fcnt are as follows. Ucnt = W 5 + W,, + W, 2 + W, 7 + W, 8 + W 20 + W 23
Dent = W, + W2 + W3 + W6 + W7 + W8 + Dent = W, + W 2 + W 3 + W 6 + W 7 + W 8 +
F cnt = W4 - W o F cnt = W 4 -W o
このアップカウ ン ト値 U cn t 、 ダウ ンカウ ン ト値 D r,n t 及びフ ラ ッ トカウ ン ト値 F cnt に対して、 図 7 に一例と して示される重 みデータ Wi の値を代入すると、 Substituting the value of the weight data Wi shown as an example in FIG. 7 into the upcount value Ucnt, the downcount value Dr, nt, and the flatcount value Fcnt. ,
5 Five
U cnt - 2 9 7 U cnt-2 9 7
Dent = 1 1 3 Dent = 1 1 3
F cnt = 1 8 F cnt = 1 8
という結果になる。 つまり、 この結果から、 総合的評価値はダウ ンしていると判断することができる。 このように、 ステップ S 2 1 6 において、 総合的評価値がダウ ンしていると判断した時には 、 ステップ S 2 1 7 に進む。 Is the result. In other words, from this result, it can be determined that the overall evaluation value is down. Thus, when it is determined in step S216 that the overall evaluation value is down, the process proceeds to step S217.
ステップ S 2 1 7では、 j をイ ンク リ メ ン ト して、 ステ ップ S 2 1 8へ進む。 この j は、 ステップ S 2 1 6の判断結 ¾が何回連 続して Y E Sとなつたかを示す値、 即ち、 何回連続して総合的評 価値がダウ ンしたかを示す値である。 In step S217, j is incremented, and the process proceeds to step S218. This j is a value indicating how many times the judgment result in step S216 has become YES, that is, a value indicating how many times the total evaluation has been reduced.
ステップ S 2 1 8では、 総合評価値が連続してダウ ンし始める レ ンズ位置の最初にダウ ンしたレ ンズ位置を Χ κ+ Ι とすると、 このステ ップ S 2 1 8では、 X κ からのレンズの移動距離 ( X κ + jが、 D X nより大きいか否かを判断する。 実際に判断を行うた めの式は、 In step S 218, let をκ + を be the first lens position of the lens position at which the comprehensive evaluation value starts to be continuously reduced. In this step S 218 , X κ Judge whether the moving distance of the lens from (Xκ + j is greater than DXn. The formula for making the actual judgment is
△ X X j ≥ D X n ( 2 1 8 ) で表される。 尚、 Dはフ ォ ーカ ス レ ンズの焦点深度を表し、 nは 予め設定されている係数を表す。 但し、 実験結果によると、 πを
、 1 ≤ n≤ 1 0の範囲に設定すると、 最適な速度でォー トフ ォ ー カス動作を実現できる。 Δ XX j ≥ DX n (2 18). Note that D represents the focal depth of the focus lens, and n represents a preset coefficient. However, according to the experimental results, When set in the range of 1 ≤ n ≤ 10, autofocus operation can be realized at an optimum speed.
こ こで、 第 2 1図を参照しながらステップ S 2 1 8の判断動作 に関して説明する。 この第 2 1図の橫軸は、 レ ンズの位置 Xを表 し、 縦軸はレ ンズの位置に対する評価値 E ( X ) を表している。 Here, the judgment operation of step S218 will be described with reference to FIG. The axis of 橫 in FIG. 21 represents the position X of the lens, and the axis of ordinate represents the evaluation value E (X) for the position of the lens.
j = 1の時は、 総合評価値が最初にダウ ンした時のレンズ位置 であるので、 j = 1 に対応するレンズ位置は X κ + , である。 よつ て、 式 ( 2 1 8 ) の右辺 (△ X X j ) は、 総合評価値がダウ ンし 始める前のレンズ位置 X K から、 総合評価値が最初にダウンし始 めたレンズ位置 Χ κ +, の距離を表す。 しかし、 第 2 1図からも判 るように、 ステップ S 2 1 8の判断結果は Ν◦である。 When j = 1, the lens position corresponding to j = 1 is X κ + , since the overall evaluation value is the lens position when the first down was performed. Therefore, the right side (△ XX j) of the equation (2 18) is the lens position 総 合κ + at which the overall evaluation value first starts to decrease from the lens position XK before the overall evaluation value starts to decrease. Represents the distance between and. However, as can be seen from FIG. 21, the judgment result in step S218 is 8◦.
j = 2の時は、 総合評価値が 2回連続でダウ ンした時のレンズ 位置であるので、 j = 2に対応するレンズ位置は X 2 である。 よつて第 2 1図から、 式 ( 2 1 8 ) の右辺 (Δ }( X j ) は、 総合 評価値がダウ ンし始める前のレ ンズ位置 X κ から、 総合評価値がWhen j = 2 is because it is the lens position when the comprehensive evaluation value goes down with two consecutive lens position corresponding to j = 2 is X 2. Therefore, from Fig. 21, the right side (Δ} (X j) of the equation (2 18) is calculated from the lens position X κ before the comprehensive evaluation value starts to go down.
2回連続でダウ ンし始めたレ ンズ位置 X K 4 2 の距離を表す。 しか し、 第 2 1図からも判るように、 ステ ッ プ S 2 1 8 の判断結果は Ν 0である。 Represents twice lenses position distance X K 4 2 began to down continuously. However, as can be seen from FIG. 21, the judgment result of step S218 is Ν0.
j - 3の時は、 .i 2の時と同様に、 ステップ S 2 1 8の判断 結果は N Oである。 In the case of j-3, as in the case of .i2, the judgment result in step S218 is NO.
j = 4の時は、 総合評価値が 4回連続でダウ ンした Π のレンズ 位置であるので、 j = 4 に対応するレ ンズ位置は X である。 よつて第 2 1 図から、 式 ( 2 1 8 ) の右辺 (△ X X j ) は、 総合 評価値がダウ ンし始める前のレ ンズ位置) κ から、 総^評価値が 2回連続でダウ ンし始めたレ ンズ位置 X K f 4 の距離を表す。 従つ て、 第 2 1 図からも判るように、 (△ X X j ) ≥ Γ) X n となって 、 ステ ッ プ S 2 1 8の判断結果は Y E Sとなる。 When j = 4, the lens position corresponding to j = 4 is X because the comprehensive evaluation value is the lens position of し た that has been down four times in a row. Therefore, from Fig. 21, the right side (辺 XX j) of the equation (2 18) is the lens position before the total evaluation value starts to decrease. It represents the distance of the lens position X K f 4 where the lens started to move. Therefore, as can be seen from FIG. 21, (△ XX j) ≥ Γ) X n, and the result of the determination in step S 218 is YES.
一方、 ステップ S 2 1 6において、 ダウ ンカウ ン ト値 D cn t が
最も大きい値を有していないと判断されたときは、 総合評価値が ダウンしていないと判断し、 ステップ S 2 1 9に進む。 On the other hand, in step S216, the downcount value Dcnt is If it is determined that the total evaluation value does not have the largest value, it is determined that the overall evaluation value has not decreased, and the process proceeds to step S219.
ステップ S 2 1 9では、 j = 0 とする。 これは j をリセッ トす るためのステップである。 なぜ j をリセッ 卜するかと言うと、 j は、 何回連続して総合評価値がダウ ンしたかを示す値であるから である。 さらに詳しく説明すると、 ステ ッ プ S 2 1 9 に至るとい うことは、 ステ ッ プ S 2 1 6'の判定結果で総合評価値はダウ ンし ていないと判断されたことを意味しているので、 このステップ S 2 1 6の判断において、 総合評価値の連続ダウ ンがス ト ップして いることになる。 したがって、 このステップ S 2 1 9 において、 j がリセッ ト される。 In step S219, j = 0 is set. This is the step to reset j. The reason why j is reset is that j is a value indicating how many times the overall evaluation value has been reduced. More specifically, reaching step S219 means that the overall evaluation value was determined to be not down in the determination result of step S216 ' Therefore, in the determination in step S216, the continuous down of the total evaluation value is stopped. Therefore, j is reset in this step S219.
総合評価値の連続ダゥ ンが途切れたときには、 j をリセッ トす るようにしているので、 例え、 第 2 】 図において、 ある評価値 E ( X κ ) が単なるノ イ ズによる極大値であつたと しても、 評価値 E ( Χ κ +, ) 又は Ε ( X Κ . 2 ) 又は Ε ( X κ , 3 ) の演算ループに おいて、 j がリセッ 卜 されるので、 その評価値 E ( X κ ) が最大 と認識されることはない。 When the continuous down of the total evaluation value is interrupted, j is reset. For example, in Fig. 2, a certain evaluation value E (Xκ) is a local maximum value due to mere noise. Even if this is the case, j is reset in the operation loop of the evaluation value E (Χκ + ,) or Ε (XΚ.2) or Ε (Xκ, 3), so that the evaluation value E (X κ) is not recognized as the maximum.
ステ ッ プ S 2 2 0では、 フ ォ ーカ ス レ ンズをさらに移動させる ために kをィ ンク リ メ ン ト して、 ステップ S 2 0 1 へ戻る。 In step S220, k is incremented in order to further move the focus lens, and the process returns to step S221.
ステップ S 2 1 8の判断結果が Y E Sとなると、 ステップ S 2 When the determination result of step S2 18 becomes Y E S, step S2
2 1 に進む。 ステップ S 2 2 ] では、 レ ンズ位置 X κ から総合評 価値が所定回数 ( j 回数) 連続してダウ ンしたことを意味するの で、 マイ ク ロ コ ン ピュータ 6 4は、 レンズ位置 X κ を、 評価値が 最大となるレンズ位置 X g と判断する。 2 Proceed to 1. In step S22], it means that the total evaluation has been continuously downed from the lens position Xκ for a predetermined number of times (j times). Therefore, the micro computer 64 receives the lens position Xκ. Is determined to be the lens position X g at which the evaluation value is maximized.
次に、 レンズ位置 Χ κ における評価値 E i ( X κ ) の中から、Next, from the evaluation values E i (X κ) at the lens position Χ κ ,
R Λ M 6 6のア ツプ Zダウ ン情報に基づいて、 レ ンズ位置 X κ の 近傍において、 総合評価値とアップ Zダウ ン状態と、 R A M 6 6 に記憶された E i のァップ Zダウ ン状態とがー致する i を選択す
ればよい。 選択した i の中で、 最も重みデータ Wi が高いものが Wg であるとすると、 最大評価値は、 E g (Χ κ ) と定義されるBased on the up-down information of R Λ M66, the overall evaluation value and the up-down state near the lens position X κ and the up-down of Ei stored in the RAM 66 Select the i that matches the Just do it. Assuming that the selected weight i has the highest weight data Wi is W g , the maximum evaluation value is defined as E g (Χ κ)
。 また、 最大評価値 E g (Χ Κ ) が定義されるとそれに対応する 下限評価値は、 E g (Χ κ+, ) と定義される。 最大評価値 Ε 9 ( Χ κ ) は、 レンズを Χ κ 广固定することによってフ ォーカスが合 つた後も、 1 フ ィ ール ド毎に更新されるが、 下限評価値は、 E g (X κ+. ) は固定である。 . When the maximum evaluation value E g (Χ Κ ) is defined, the corresponding lower limit evaluation value is defined as E g (Χ κ + ,). The maximum evaluation value Ε 9 (Χ κ ) is updated every field even after focusing has been achieved by fixing the lens to Χ κ wide, but the lower limit evaluation value is E g (X κ + .) is fixed.
これを、 第 2 0図に示される例で説叨する。 レンズ位置が Χ κ のときは、 ステップ S 2 1 6の判断に Sづいて、 総合評価値はァ ップしており、 レンズ位置が X κ + , のときは、 ステ ップ S 2 ] 6 の判断に基づいて、 総合評価値はダウ ンしている。 したがって、 ァッつ。/ダゥン情報が、 レンズ位置が X Κ のときにアップし、 レ ンズ位置が X κ+ , のときにダウ ンしているのは、 第 2 0図の例で は、 i = l , 2, 5, 8, 1 4, 1 5, 1 9である。 この中で、 最も重みデータ W i が高いのは、 第 7図のデータによると、 i =This is explained in the example shown in FIG. When the lens position is κ κ , the overall evaluation value is increased based on the judgment of step S 2 16, and when the lens position is X κ + , step S 2] 6 Based on this judgment, the overall evaluation value is down. Therefore, huh. In the example shown in Fig. 20, the down information is up when the lens position is XΚ and down when the lens position is X κ + , i = l, 2, 5, 8, 14, 15, and 19. Among them, the weight data W i is highest according to the data in FIG.
1 であるので、 E , (Χ κ ) が最大評価値と して使用される。 ステ ップ S 2 2 2では、 マイ ク コ ンピュータ 6 4は、 評価値 が最大となレンズ位置 X g にフ ォ ーカス レンズを移動するように C P U 4に対して制御信号を送出する。 Since it is 1, E, (Χ κ) is used as the maximum evaluation value. In stearyl-up S 2 2 2, microphones Computer 6 4 evaluation value sends a control signal to the CPU 4 so as to move the full O carcass lens to the maximum and a lens position X g.
ステップ S 2 2 3では、 C P U 4に.彼写体の追従指令があつた か否かを判断する。 この被写体の追従指令とは、 被写体の動きに 追従するように、 ビデオカメ ラのチル ト Zパン動作を制御すると 共に、 ビデオカメ ラの才一 ト フオーカスの評価値検出ゥィ ン ドゥ の位置を可変させるための指令である。 例えば、 この追従指令は 、 カメ ラマンが操作部 5 に設けられた追従指令ボタ ンを押すこと によって C P U 4に供給される。 操作部 5から追従指令が供給さ れたのであれば、 ステップ S 3 0 0 に進み、 追従指令がないので あれば、 ステ ップ S 2 2 4 に進む。
ステ ッ プ S 2 2 4では、 オー ト フ ォ ーカ スの停止命令があつた か否かの判断を行う。 もし、 カ メ ラ マ ンの操作によって、 オー ト フ ォ ーカスモー ドが解除されたのであれば、 ステップ S 2 2 5に 進んで、 マニュ アルフ ォ 一カスモ一 ドに移行する。 In step S223, it is determined whether or not the CPU 4 has received a command to follow the subject. The subject tracking command is used to control the tilt and pan movements of the video camera so as to follow the movement of the subject, and to adjust the position of the evaluation value detection window of the video camera's unique focus. This is a command to make it variable. For example, the following command is supplied to the CPU 4 when the camera man presses a following command button provided on the operation unit 5. If the following command has been supplied from the operation unit 5, the process proceeds to step S300. If there is no following command, the process proceeds to step S224. In step S224, it is determined whether or not an autofocus stop command has been issued. If the autofocus mode has been released by the operation of the camera, the flow advances to step S225 to shift to the manual focus mode.
ステ ッ プ S 2 2 4 において、 オ ー ト フ ォ ーカ スモー ドの停止命 令がないのであれば、 ステ ッ プ S 2 2 6 に進み、 最大評価値 E g (X κ ) と下限評価値 E g ( Χ κ+ , ) の比較が行われる。 もし、 最大評価値 E g ( X κ ) の値が、 被写体の変化等によって減少し て下限評価値 Ε 9 (Χ κ+ 1 ) 以下になった場合は、 ステップ S 2 2 7 に進んで、 才一 ト フ オーカス動作を再起動する。 才一 ト フ ォIf there is no instruction to stop the autofocus mode in step S224, the process proceeds to step S226, where the maximum evaluation value E g (Xκ) and the lower limit evaluation A comparison of the values E g (Χ κ + ,) is made. If the value of the maximum evaluation value E g (X κ) decreases due to a change in the subject and becomes lower than the lower limit evaluation value Ε 9 (Χ κ + 1 ), the process proceeds to step S 2 27. Restart the to focus operation. Talent
—カス動作が再起動される場合には、 再びステップ S 1 0 0 に戻 る ο —If the scrap operation is restarted, return to step S100 again. Ο
次に、 第 1 6図に示されるステ ッ プ S 3 ひ 0からのフ ロ ーを参 照して、 設定された被写体の認識動作に関して説明する。 このス テツプ S 3 0 0からのフ ロ ーは、 C P U 4が行う処理動作を示し ている。 また、 このフ ローの説明をより具体的に Ϊ31解するために 、 同時に、 第 2 2図に示される一例も参照する。 Next, the recognition operation of the set subject will be described with reference to the flow from step S3H0 shown in FIG. The flow from step S300 shows the processing operation performed by the CPU 4. Further, in order to more specifically I3 1 solution the description of this flow, at the same time, also the reference example shown in the second 2 FIG.
第 2 2図は、 丸形状の物体 Λと四角形状の物体 Βが撮像されて いる状態を示している。 この例においては、 物体 Αの と物休 Β の色が、 目的物体と して設定された色と- 致しているとする。 尚 FIG. 22 shows a state in which a round object Λ and a square object Β are being imaged. In this example, it is assumed that the color of the object と and the color of the object rest match the color set as the target object. still
、 第 2 2図に示されるように、 ラスタスキ ャ ン開始点 (撮像画面 における左上) を原点と して、 水平走査方向を X軸方向、 垂直走 查方向を Y軸方向と定義する。 従って、 撮像画面において、 ラ ス タ スキ ヤ ン開始点の座標は ( 0, 0 ) となり、 ラ ス タ スキ ャ ン終 了点の座標は ( 7 6 8, 2 4 0 ) となり、 撮像画而の中央は ( 3As shown in Fig. 22, the origin is the raster scan start point (upper left in the imaging screen), and the horizontal scanning direction is defined as the X-axis direction, and the vertical scanning direction is defined as the Y-axis direction. Therefore, on the imaging screen, the coordinates of the raster scan start point are (0, 0), and the coordinates of the raster scan end point are (768, 240). The center of (3
8 4, 1 2 0 ) となる。 84, 120).
ステップ S 2 2 3において、 C P U 4 は、 被写体の 動追従指 令を操作部 5から受け取ると、 第 1 6図で示されるステ ッ プ S 3
0 0に移行する。 In step S223, the CPU 4 receives the motion tracking instruction of the subject from the operation unit 5, and receives the command from the operation unit 5 in step S3 shown in FIG. 0 Move to 0.
ステップ S 3 0 0では、 カメ ラマンが操作部 5を操作して目的 物体となる被写体が設定された否かを判断する。 ここで、 目的物 体となる被写体の設定方法に関して説明する。 カメ ラマンは、 ま ず、 目的物体となる所望の被写体を撮像画面の中央に位置するよ うに撮影する。 次に、 目的物体が撮像画面の中央に位置した状態 で、 操作部 5 に設けられた目的物休確定ボタ ンをカメ ラマンが押 すと、 C P U 4 は、 撮像画面中央に位置している被写体を力メ ラ マ ンの所望する目的物体と認識して、 この物体の色情報を R A M 4 aに取り込む。 目的物体の設定は、 このような方法に限らずに In step S300, the camera man operates the operation unit 5 to determine whether or not a subject as a target object has been set. Here, a method of setting a subject as a target object will be described. Cameraman first captures a desired subject as a target object so that it is located at the center of the imaging screen. Next, with the target object positioned at the center of the imaging screen, when the camera man presses the target object rest determination button provided on the operation unit 5, the CPU 4 causes the object located at the center of the imaging screen to move. Is recognized as the desired target object of the force camera, and the color information of this object is loaded into the RAM 4a. The setting of the target object is not limited to this method
、 予め設定されている色 (例えば肌色等) を有している物体を 的物体とするように設定しても良い。 ステップ S 3 ϋ 0において 、 目的物体として設定された被写体の色情報が R Λ Μ 4 a に記憶 されると、 ステップ S 3 0 1 に移行する。 Alternatively, an object having a preset color (for example, flesh color) may be set as a target object. In step S3ϋ0, when the color information of the subject set as the target object is stored in RΛ4a, the flow shifts to step S301.
ステ ップ S 3 0 1 では、 C P IJ 4 は、 に説明した 4つの被写 体モ一 ド (モー ド 0、 1、 2、 3 ) の中から、 ステップ S 3 0 0 において設定された目的物体に最も適した被写体モ― ドを選択す る。 C P U 4は、 選択した被写体モー ドに応じて、 ス ィ ッチ回路 7 2 a . 7 2 b . 7 2 c及び 7 2 dのスイ ッチ ングを制御する。 このステップ S 3 0 1 において、 C P U 4 によって、 被写体モ 一ドが選択され、 スィ ッチ回路 7 2 a、 7 2 b、 7 2 c及び 7 2 dのスィ ッチングが制御されると、 エ リ ア検索回路 3 8は、 目的 物体と して設定された被写体の色成分と一致する雨素データが存 在するエ リ アを検索する。 この検索処理は、 C P U 4が行う処理 ではなくて、 ハー ドウェア回路と して設けられたエ リア検索回路 In step S301, CP IJ4 determines the object set in step S300 from the four object modes (modes 0, 1, 2, and 3) described in. Select the most suitable subject mode for the object. The CPU 4 controls the switching of the switch circuits 72a.72b.72c and 72d according to the selected subject mode. In this step S301, when the object mode is selected by the CPU 4 and the switching of the switch circuits 72a, 72b, 72c and 72d is controlled, The search circuit 38 searches for an area in which rain element data that matches the color component of the subject set as the target object exists. This search processing is not the processing performed by the CPU 4, but an area search circuit provided as a hardware circuit.
3 8が行う処理であることが本発明において 31要な点である。 つ まり、 このようにエ リ ア検出回路 3 8をハー ドウェア回 ¾で構成 することによって、 エ ンコーダ 3 7からの全画素データに対して
リ アルタイ ムで条件判断処理を行う ことができるという ことであ る。 ヱ リ ァ検索回路 3 8の動作に関しては、 第 9図を参照しなが ら既に説明したので、 特に説明はしない。 It is an essential point of the present invention that the process 38 is performed. In other words, by configuring the area detection circuit 38 as a hardware circuit in this way, all pixel data from the encoder 37 can be processed. This means that condition judgment processing can be performed in real time.動作 The operation of the relay search circuit 38 has already been described with reference to FIG.
ステ ッ プ S 3 0 2では、 C P U 4は、 ェ リ 了検索回路 3 8から 供給されたチップ回路の番号に基づいて、 どのエ リ アに目的物体 と同じ色の画素データが存在するのかを認識する。 これによつて 、 C P U 4は、 目的物体と して設定された被写体と同じ色が存在 するエ リ ァのみを選択することができる。 第 2 2図に示される例 においては、 目的物体と同じ色が存在するエ リ アと して、 Λ 0 6 8 ゝ A 0 6 9 、 A 0 8 4 、 A 0 8 5 ヽ A 0 8 6 、 A 0 β 7 χ Λ 1 0 2 及び A l 0 3 の 8つのエ リ アが選択されることになる。 In step S302, the CPU 4 determines which area has the pixel data of the same color as the target object based on the chip circuit number supplied from the end search circuit 38. recognize. Thus, the CPU 4 can select only an area having the same color as the subject set as the target object. In the example shown in the second 2 figure as a d re A present the same color as the object object, lambda 0 6 8ゝA 0 6 9, A 0 8 4, A 0 8 5ヽA 0 8 6 , A 0 β 7 χ Λ 10 2 and A 10 3 will be selected.
ステップ S 3 0 3では、 C P U 4 は、 ステップ S 3 0 2 におい て選択されたェ リァ内に存在する全画素データを、 ラ ス タ スキ ヤ ン順にフ レームメ モ リ 3 9から読み出す。 なお、 ステ ッ プ S 3 0 2において選択されていないエ リ アに存在する画素データは、 一 切、 読みだされない。 このフ レームメ モ リ 3 9からは、 同じァ ド レスを供給することによって、 Υデータ、 R — Υデータ及び Β— Υデータから成る画素データ力 画素每に読み出される。 第 2 2 図に示される例においては、 C P U 4は、 8つのエ リ ア A 0 fi 8 、 A 0 6 9 A 0 8 4 A 0 8 5 A 0 8 6 ゝ Λ 0 B 7 ヽ Λ 】 0 2 及び Λ ΐ 0 3 ϊし 存在する画素データのみをフレームメ モ リ 3 9から読み出す。 こ のとき、 選択された 8つのエ リ ア以外のェ リ ァに存在する画 、 f 一夕は、 一切、 フ レームメ メ モ リ 3 9から読み出されない。 この ように、 C P U 4は、 エ リ ア検索回路 3 8によって検索された結 果に ¾づいて、 フ レームメ モ リ 3 9から画素データを読み出すェ リ アを決定しているので、 C Pし' !がフ レームメ モ リ 3 9から受 け取る画素データ数を減少させることができる。 従って、 C P U 4 は、 リ アルタ イ ムで、 フ レームメ モ リ 3 9から供給された全画
素データに対して処理を行うことができる。 In step S303, the CPU 4 reads out all pixel data present in the area selected in step S302 from the frame memory 39 in the last scan order. The pixel data existing in the area not selected in step S302 is not read at all. By supplying the same address from the frame memory 39, the pixel data is read out into the pixel data composed of Υ data, R-Υ data and Β-Υ data. In the example shown in FIG. 2, CPU 4 has eight areas A 0 fi 8 , A 0 6 9 A 0 8 4 A 0 8 5 A 0 8 6 ゝ Λ 0 B 7 Λ Λ] 0 2 and Λ ΐ 0 3 ϊ Only the existing pixel data is read from the frame memory 39. At this time, the images existing in the areas other than the selected eight areas, f, are not read out from the frame memory 39 at all. As described above, the CPU 4 determines the area from which the pixel data is read from the frame memory 39 based on the result searched by the area search circuit 38. The number of pixel data that! Can receive from the frame memory 39 can be reduced. Therefore, CPU 4 is in real time, and the entire image supplied from frame memory 39 is Processing can be performed on raw data.
ステップ S 3 0 4では、 まず、 C P U 4は、 読み出された Yデ ータ、 R— Yデータ及び B— Yデータから成る画素データに基づ いて、 被写体モー ドとしてモー ド 0が選択されている時には、 式 ( 7 0 0 ) に基づく条件判断を行う。 被写体モ一 ドと してモー ド In step S304, the CPU 4 first selects the mode 0 as the subject mode based on the read pixel data including the Y data, the R-Y data, and the B-Y data. If so, the condition is determined based on the equation (700). Mode as subject mode
1が選択されている時には、 式 ( 7 0 1 ) に基づく条件判断を行 う。 被写体モー ドとしてモー ド 2が選択されている時には、 式 ( 7 0 2 ) に基づく条件判断を行う。 被写体モ一 ドと してモー ド 3 が選択されている時には、 式 ( 7 0 3 ) に基づく条件判断を行う 。 尚、 C P U 4で上記の式 ( 7 0 0 ) 、 式 ( 7 0 1 ) 、 式 ( 7 0When 1 is selected, a condition is determined based on the equation (701). When the mode 2 is selected as the subject mode, the condition judgment based on the equation (702) is performed. When the mode 3 is selected as the subject mode, the condition judgment based on the equation (703) is performed. Note that the above formula (700), the formula (701), and the formula (700)
2 ) 又は式 ( 7 0 3 ) に基づく条件判断に閲する演算が行われる 場合には、 式 ( 7 0 0 ) 、 式 ( 7 0 1 ) 、 式 ( 7 0 2 ) 及び式 ( 7 0 3 ) において定義されている輝度信号 Y、 色信号 I R— Υ I 及び色信号 I Β— Υ I は、 フ レームメ モ リ 3 9から読み出される 信号である。 また、 これらの式 ( 7 0 0 ) 、 式 ( 7 0 1 ) 、 式 (2) or when the calculation based on the conditional judgment based on the formula (703) is performed, the formula (700), the formula (701), the formula (702), and the formula (703) ), The luminance signal Y, the color signal IR-ΥI, and the color signal IΒ-ΥI are signals read from the frame memory 39. In addition, these expressions (700), (701), and (
7 0 2 ) 又は式 ( 7 0 3 ) に基づく 件判断を行うためのプログ ラ ムは、 C P 1J 4の中の R A Μ 4 aに予め記 ίΜされている。 A program for performing the case judgment based on the equation (702) or the equation (703) is described in advance in RA A4a of CP1J4.
こ こで、 例えば、 フ レームメ モ リ 3 9 に記憶された全画素デー タに対して上述の条件判断処理を行おうとすると、 処理冋数が多 く成り過ぎて、 リ アルタ イ ムでこの条件判断処理を行う ことがで きない。 しかし、 本実施例においては、 選択されたエ リ アに存在 する画素データのみに上述の条件判断が行われるので、 C P U 4 は、 リ アルタ イ ムでこの条件判断処现を行うことができる。 Here, for example, if the above-described condition determination processing is performed on all pixel data stored in the frame memory 39, the number of processing becomes too large, and this condition is determined in real time. Judgment processing cannot be performed. However, in the present embodiment, since the above-described condition determination is performed only on the pixel data existing in the selected area, the CPU 4 can perform this condition determination processing in real time.
従って、 C P U 4は、 選択されたエ リ ア内の各鼠素データ毎に 、 式 ( 7 0 0 ) 、 ( 7 0 1 ) 、 ( 7 () 2 ) 又は ( 7 ϋ 3 ) で定義 される条件に一致しているかの判断結果を得る。 こ こで、 この画 素データ力、 この式 ( 7 0 0 ) 、 ( 7 0 1 ) 、 ( 7 0 2 ) 又は ( 7 0 3 ) で定義される条件に一致しているという ことは、 この画
素データの色が、 目的物体として設定された色に一致,しているこ とを意味している。 Accordingly, the CPU 4 is defined by the formula (700), (701), (7 () 2) or (7ϋ3) for each of the ginseng data in the selected area. The result of the determination as to whether the condition is met is obtained. Here, the fact that this pixel data power matches the condition defined by this equation (700), (701), (702) or (703) means that Picture This means that the color of the raw data matches and matches the color set as the target object.
さらに、 ステップ S 3 0 4では、 C P U 4は、 この条件判断処 理と平行して後述する物体情報テーブルを作成し、 R A M 4 aの 所定領域に記憶する。 この物体情報テーブルには、 目的物体と し て設定された被写体の色が、 何ライ ン目にどの画素位置からどの 画素位置までに存在するのかを示す座標情報と、 その目的物体の 色と一致する色を有した被写体が何番目の物体であるのかを示す 物体識別番号とが記録される。 Further, in step S304, the CPU 4 creates an object information table, which will be described later, in parallel with the condition determination processing, and stores it in a predetermined area of the RAM 4a. In this object information table, the coordinate of the object, which is set as the target object, indicates which line from which pixel position to which pixel position exists, and matches the color of the target object. And an object identification number indicating the number of the object having the desired color.
次に、 この物体情報テーブルに関して、 さ らに第 2 3図を参照 して説明する t> 第 2 3図は、 第 2 2図に示される例から得られる 物体情報テ一ブルが示されている。 ライ ン位置とは、 目的物体と 同じ色を有する物体が存在するライ ンが何番目のライ ンであるか を Y座標で示し、 スター ト画素位置とは、 このラ イ ン位置で示さ れるラ イ ンにおいて、 目的物休と同じ色を有する物休の最初の画 素データの座標位置を X座標で示し、 エ ン ド画素位匿とは、 この ラィ ン位置で示されるラィ ンにおいて、 1Ξ1的物休と同じ色を有す る物体の最後の画素データの座標位置を X座標で示し、 物体識 IJ 番号とは、 目的物体と同じ色を有する物体と して認識された物体 が何審目の物体であるかを示す番号である。 Next, with respect to the object information table, the t> second 3 diagram described with reference to a second 3 figure is al, and object information te one table obtained from the example shown in the second 2 Figure is shown I have. The line position indicates the number of the line on which an object having the same color as the target object exists by the Y coordinate, and the start pixel position indicates the line indicated by this line position. In X, the coordinate position of the first pixel data of the holiday that has the same color as the target holiday is indicated by the X coordinate, and the end pixel location is defined as 1Ξ1 in the line indicated by this line location. The X-coordinate indicates the coordinate position of the last pixel data of the object having the same color as the target object, and the object identification IJ number is the number of objects recognized as objects having the same color as the target object. A number indicating whether the object is an eye.
例えば、 第 2 2図に示される物体 Λは、 1 6 1 ラ イ ンの 2 4 5 画素から 2 4 6画素の闐に存在するので、 物体情報テーブルには 、 第 2 3図に示されるように、 ラ イ ン審号と して 「 1 6 1 」 が記 憶され、 スター ト画素位置として 「 2 4 5」 が記憶され、 ェン ド 画素位置と して 「 2 4 6」 が記憶され、 さ らに、 物体 Αを示す物 体識別番号として 「 1 」 が記憶される。 以下の、 1 6 2 ラ イ ンか ら 1 9 0 ライ ンに関しても同様であるので、 説明は省略する。 次 に、 第 2 3図に示されるように、 1 9 1 ラ イ ンにおいては、 物体
Aは 2 2 1画素から 2 5 8画素の問に存在し、 物体 Bは 3 1 8画 素から 3 1 9画素の間に存在するので、 物体 I 報テ一ブルには、 第 2 3図に示されるように、 物体 Aを示す情報と して、 ラ イ ン蕃 号と して 「 1 9 1 」 が記憶され、 スター ト画素位置と して 「 2 2 1 」 が記憶され、 ェン ド画素位置として 「 2 5 8」 が記憶され、 物体識別番号と して 「 1 」 が記憶される。 さらに、 被写体情報テ 一ブルには、 物体 Bを示す情報と して、 ラ イ ン番号と して 「 1 9 1 」 が記憶され、 スタ ー ト画素位置と して 「 3 1 8」 が記憶され 、 エン ド画素位置と して 「 63 1 9」 が記憶され、 物体識別番号と して 「 2」 が記憶される。 6 For example, since the object さ れ る shown in FIG. 22 exists in 1 of the pixel 245 to pixel 246 of the line 161, the object information table contains the information よ う as shown in FIG. Then, “16 1” is stored as the line identification, “2 45” is stored as the start pixel position, and “2 4 6” is stored as the end pixel position. Further, “1” is stored as the object identification number indicating the object Α. The same applies to the following 162-line to 190-line, and a description thereof will be omitted. Next, as shown in Fig. 23, in the 91 line, the object A exists between 221 pixels and 258 pixels, and object B exists between 318 pixels and 319 pixels. As shown in (1), as information indicating the object A, "191" is stored as the line ban number, "221" is stored as the start pixel position, and “258” is stored as the pixel position, and “1” is stored as the object identification number. Further, in the subject information table, “191” is stored as the line number as information indicating the object B, and “318” is stored as the start pixel position. Then, “63 19” is stored as the end pixel position, and “2” is stored as the object identification number. 6
ステ ッ プ S 3 0 では、 目的物体と同じ色を有する物体が含ま れる最小のウイ ン ドウを設定する。 第 2 2図に示される例では、 物体 Λが含まれる最小のウイ ン ドウとして、 2 1 6 ≤ X≤ 2 7 3 , 1 6 1 ≤ Y≤ 2 0 2の範囲で定義されるウ ィ ン ドゥ W A が設定 され、 物休 Bが含まれる最小のウ ィ ン ドウと して、 3 0 9≤ X≤In step S30, a minimum window including an object having the same color as the target object is set. In the example shown in Fig. 22, the minimum window containing the object Λ is defined as a window defined in the range of 2 16 ≤ X ≤ 27 3, 16 1 ≤ Y ≤ 20 2 Do W A is set, and as the smallest window that includes vacation B, 3 09 ≤ X ≤
3 5 8 , 1 9 1 Y≤ 2 3 1 の範囲で定義される ウ ィ ン ドウ W B が設定される。 A window W B defined in the range of 3 5 8, 1 9 1 Y ≤ 2 3 1 is set.
ステップ S 3 0 6では、 mを物¾情報テーブルに記憶された最 小の物体識別番号に初期設定する。 但し、 mは単なる変数であつ て、 物体情報テーブルに記憶された最小の物体識別番号から最大 の物体識別番号の値を有する。 In step S306, m is initialized to the minimum object identification number stored in the physical information table. Here, m is a mere variable and has a value from the smallest object identification number stored in the object information table to the largest object identification number.
ステ ッ プ S 3 0 7では、 後述する目的物体履歴テ一ブルに記憶 されたウ ィ ン ドゥ中心べク トルに基づいて、 ステップ S 3 0 5 に おいて設定された m番目のゥィ ン ドゥの中に、 後述する予想位置 座標が存在するか否かを判断する。 これは、 物体 Λと物体 Bのど ちらの物休が、 目的物体であるのかを判断するため - Cある。 In step S307, the m-th pin set in step S305 based on the window center vector stored in the target object history table described later. It is determined whether or not the expected position coordinates described later exist in the do. This is to determine which of the object か and the object B is the target object-C.
まず、 第 2 4図を参照して、 目的物休履歴テーブルに閲して説 明する。 第 2 4図は、 目的物体履歴テ一ブルの一例を示している
図である。 この目的物体履歴テーブルには、 各フ ィ ール ド毎にお ける目的物体と判断された物体の座標位置に関する情報が記憶さ れている。 フ ィ ール ド番号とは、 3 0 フ ィ ール ド毎に リ セ ッ ト さ れる仮の番号であって、 フ ィ 一ル ド毎に順に付与されていく シー ケンシャルな番号である。 ウィ ン ドウ X座標とは、 ステップ S 3First, with reference to FIG. 24, a description will be given with reference to the object leave history table. Fig. 24 shows an example of the target object history table FIG. The target object history table stores information on the coordinate position of the object determined to be the target object in each field. The field number is a temporary number that is reset every 30 fields, and is a sequential number that is sequentially assigned to each field. The window X coordinate is the
0 5において設定されたウイ ン ドウの X軸方向の範囲を X座標値 で示したデータである。 ウィ ン ドゥ Y座標とは、 ステップ S 3 0This is data indicating the range in the X-axis direction of the window set in 05 by X-coordinate values. What is the window Y coordinate?
5において設定されたウ ィ ン ドゥの Y軸方向の範囲を Y座標値で 示したデータである。 ウィ ン ドウ中心べク トル (△ X Δ γ ) と は、 ステップ S 3 0 5 において設定されたウィ ン ドゥの中心位置 が、 撮像画面の中央位置 ( X = 3 8 4 , Y二 〗 2 0 ) に対して、 どの方向に、 且つ、 どれく らい距離ずれているかを表すべク ト ルThis is data indicating the range in the Y-axis direction of the window set in 5 by the Y coordinate value. The window center vector (△ XΔγ) is defined as the window center position set in step S305, which is the center position of the imaging screen (X = 384, Y Y20). A vector indicating the direction and how far away from)
^ある。 There is.
例えば、 第 2 4図に示される目的物体履歴テーブルの例では、 フ ィ ール ド番号 1 7で示される時点においては、 目的物体に対し て設定されたゥィ ン ドゥの範囲が、 3 1 2 X≤ 3 6 2、 かつ、 1 8 6 ≤ Y≤ 2 2 8で規定されていることを示している。 また、 そのウィ ン ドウの中心位置が、 撮像画面中央位置に対して、 ウイ ン ドゥ中心べク ト ル (一 4 7 + 8 7 ) で示される方向及び距離 にずれていることを示している。 フィ ール ド番号 〗 8及びフ ィ ー ルド番号 1 9で示される時点において作成されたウイ ン ドゥ X痰 標、 ウィ ン ドゥ Υ座標及びウィ ン ドゥ中心べク トルに関しても同 様であるので、 説明は省略する。 For example, in the example of the target object history table shown in FIG. 24, at the time indicated by the field number 17, the window range set for the target object is 3 1 2 X ≤ 3 62 and 1 86 ≤ Y ≤ 2 28 It also indicates that the center position of the window is displaced from the center position of the imaging screen in the direction and distance indicated by the window center vector (147 + 87). . The same applies to the window X sputum markers, window Υ coordinates, and window center vector created at the time indicated by field number 及 び 8 and field number 19. Description is omitted.
こ こで、 フ ィ ール ド審号 1 7 、 フ ィ ール ド番号 1 8及びフ ィ ー ルド番号 1 9 の夫々の時点において夫々記憶されたゥィ ン ドゥ中 心べク ト ルのデータを取り出してみると、 この 3つのウ ィ ン ドゥ 中心べク ト ルを示すデータの値に大きな変化はない。 これは、 目 的物体が移動していないのではなくて、 このウ ィ ン ド ウ中心べク
トルは、 前フィールドからの目的物体の移動べク トルを示すから である。 本実施例では、 C P U 4が、 1 フ ィ ール ド毎に、 移動し た目的物体を示すゥイ ン ドウの中心位置が、 撮像画面の中央とな るようにパン Zチルト駆動機構 1 6を制御している。 従って、 ゥ ィ ン ドウ中心べク ト ルを、 撮像画面の中央からのずれの方向及び 距離を示すベク トルとすることによつて、 このゥ ン ドゥ中心べク トルが、 前フィ 一ルドからの 的物体の移動べク トルを表すこと になる。 Here, each of the field center 17 and the field number 18 and the field number 19 are respectively stored in the window center vectors stored at the respective time points. Looking at the data, there is no significant change in the values of the data representing these three window center vectors. This is not because the target object is not moving, but this window center vector This is because the torque indicates the movement vector of the target object from the previous field. In this embodiment, the CPU 4 controls the pan-Z tilt drive mechanism 16 so that the center position of the window indicating the moved target object is positioned at the center of the imaging screen every field. Is controlling. Therefore, by setting the window center vector as a vector indicating the direction and distance of deviation from the center of the imaging screen, the window center vector is shifted from the front field. It represents the movement vector of the target object.
上述した目的物体履歴テーブルを参照しながら、 再度、 ステツ プ S 3 0 7を説明する。 ステップ S 3 0 7では、 まず、 物体 Λに 対応する 1番目のウィ ン ドウ W Λ ( 1 6 ^ ^ 2 7 3 , 1 6 】 ≤ Y≤ 2 0 2 ) の中に、 予想位置座標が存在するかを判断する。 この予想位置座標とは、 上述の 的物体履歴テ一ブルに記憶され た 1 フ ィ ール ド前のウィ ン ドゥ中心ベク トルから得られる位置座 標である。 例えば、 フ ィ 一ルド番号 〗 9の時点において設定され たウィ ン ドウ中心べク トル (△ )( , 3 Δ Y 13) は、 べク トル (一 4 9 + 8 9 ) であるので、 フ ィ ール ド番号 2 0の時点において 得られるウイ ン ドゥ中心べク トルに閲しても、 ベク トル (一 4 9 + 8 9 ) の近傍のべク ト ルとなると予想するこ とができる。 従 つて、 目的物体履歴テーブルに記憶されるウ ィ ン ドゥ中心ベク ト ルは、 撮像中心座標 ( 3 8 4, 1 2 0 ) からの座標のずれ量およ び方向を表しているので、 フ ィ ール ド銮号 2 0の時点において目 的物体に対して設定されるウ ィ ン ドゥの中心位置应標は ( 3 3 5 , 2 0 9 ) と考えることができる。 このウィ ン ドウの中心位置座 標が予想位置座標である。 Step S307 will be described again with reference to the target object history table described above. In step S307, first, the predicted position coordinates exist in the first window W Λ (16 ^ ^ 27 3, 16) ≤ Y ≤ 20 2 corresponding to the object Λ. Judge whether to do. The predicted position coordinates are position coordinates obtained from the window center vector one field before, stored in the target object history table described above. For example, full I one field number is set at the time of〗 9 the windowing central base-vector (△) (, 3 delta Y 13) so is a base-vector (one 4 9 + 8 9), off Even if we look at the window center vector obtained at field number 20, we can expect it to be a vector near the vector (1 49 + 89) . Therefore, since the window center vector stored in the target object history table indicates the amount and direction of the coordinate deviation from the imaging center coordinates (384, 120), the window center vector is displayed. The window center position target set for the target object at the time of field No. 20 can be considered to be (335, 209). The center position coordinate of this window is the expected position coordinate.
具体的には、 ステップ S 3 0 7では、 物体 Aが含まれる最小の ウィ ン ドウと して、 2 1 6 ≤ X≤ 2 7 3かつ Specifically, in step S307, the smallest window including the object A is 2 16 ≤ X ≤ 27 3 and
の範囲で定義されたウイ ン ドウ WA の中に、 目標物体履歴テープ
ルから得られた予想位置座標 ( 3 3 5, 2 0 9 ) が存在しない。 従って、 C P U 4は、 物体 Aは設定された目的物体ではないと判 断して、 ステ ップ S 3 0 8に進む。 Target object history tape in the window W A defined by the range The expected position coordinates (335, 209) obtained from the file do not exist. Therefore, the CPU 4 determines that the object A is not the set target object, and proceeds to step S308.
ステ ップ S 3 0 8では、 mをイ ンク リ メ ン ト して、 再びステツ プ S 3 0 7 に戻る。 In step S308, m is incremented, and the process returns to step S307 again.
再びステップ S 3 0 7 に戻ると、 今度は、 物体 Bが含まれる最 小のウィ ン ドウと して、 3 0 9 ≤ X ≤ 3 5 8かつ 1 9 1 ≤ Y≤ 2 3 1 の範囲で定義されたゥィ ン ドゥ W B の中に、 予想位匾座標 ( 3 3 5 , 2 0 9 ) が存在するか否かを判断する。 このステ ップに おいて、 ウィ ン ドウ W B の中に、 予想位匿座標 ( 3 3 5, 2 0 9Returning to step S307 again, this time, as the smallest window including the object B, the range of 309 ≤ X ≤ 358 and 19.1 ≤ Y≤2 3 1 Some defined © fin de W B, the expected position匾coordinates (3 3 5 2 0 9) determines whether there. Oite to this stearyl-up, in the windowing W B, the expected position anonymous coordinates (3 3 5, 2 0 9
) が存在するので、 C P U 4 は、 物体 Bが設定された Ώ的物体で あると判断し、 ステップ S 3 0 9 に進む。 ), CPU 4 determines that the object B is the set target object, and proceeds to step S309.
ステップ S 3 0 9では、 C P U 4 は、 3 0 9 ≤ X ≤ 3 5 8かつ 1 9 1 ≤ Y≤ 2 3 1 の範囲で定義されるウィ ン ドウ W B の座標を 、 R A M 4 aの目的物体履歴テーブルにおけるフ ィ ール ド審号 2 In step S309, the CPU 4 converts the coordinates of the window WB defined in the range of 3109 ≤ X ≤ 358 and 191 ≤ Y ≤ 231 into the target object of the RAM 4a. Field Acknowledgment in History Table 2
0で示されるエ リアに、 ウィ ン ドウ X座標及びゥ γ ン ドゥ Y座標 と して記憶する。 また、 C P U 4 は、 ウィ ン ドウ W B の座標から 、 ウィ ン ドウ WB の中心座標を演算し、 このウィ ン ドゥの中心座 標をウイ ン ドゥ中心べク トルと して R A M 4 aに記憶する。 上述 した例では、 ウィ ン ドウ中心べク トルと して、 ベタ ト ル (一 5 1The window X coordinate and the ゥγ window Y coordinate are stored in the area indicated by 0. Also, the CPU 4 calculates the center coordinates of the window W B from the coordinates of the window W B , and uses the center coordinates of the window as the window center vector in the RAM 4 a. Remember. In the example described above, the center vector of the window is a solid
+ 9 1 ) が記憶される。 + 9 1) is stored.
ステップ S 3 1 0では、 C P U 4 は、 ステ ップ S 3 0 9で新た に記憶されたウィ ン ドウ中心べク ト ルに基づいて、 ウイ ン ドウ W 2 の中心が、 撮像画面の中央に一致するように、 チル ト Zパン駆 動機構 1 6を制御する。 具体的には、 C P U 4は、 ウィ ン ドウ中 心べク ト ルに基づいて、 制御信号をモータ駆動回路 1 6 bに出力 する。 In step S310, the CPU 4 moves the center of the window W2 to the center of the imaging screen based on the window center vector newly stored in step S309. The tilt Z pan drive mechanism 16 is controlled so as to match. Specifically, the CPU 4 outputs a control signal to the motor drive circuit 16b based on the window center vector.
ステ ップ S 3 1 1 では、 C P U 4 は、 ウィ ン ドウ中心ベク トル
に基づいて、 フ ォ ー力ス制御回路 3 4の評価値生成回路 6 2に対 して、 オ フセ ッ ト値を供給する。 このオ フセ ッ ト値とは、 第 3図 及び第 4図に示されるウィ ン ドウパルス発生回路 6 2 5、 6 3 5 に設けられた各カウ ンタに供給されるオフセッ ト値である。 ウイ ン ドウパルス発生回路 6 2 5、 6 3 5 の各カ ウ ンタ にオ フセ ッ ト 値が供給されていないときには、 第 6 A図及び第 6 B図に示され るように、 各ウィ ン ドウ W 1〜W 1 1 の中心座標は、 撮像画面の 中央の座標に一致している。 しかし、 C P U 4からこのオフセッ ト値が、 ウ ィ ン ドウパルス発生回路 6 2 5、 6 3 5の各力 ゥ ンタ に供給されると、 各カウ ンタのカウ ン ト値がこのオフセッ ト値に 基づいて変更される。 従って、 各ウィ ン ドウ W 1〜 W 1 1 の中心 座標が、 このオ フセ ッ ト値に基づいて変更されることになる。 ス テツプ S 3 1 1 において、 フ ォ ーカ ス制御回路 3 4にオフセッ ト 値が供給されると、 ステップ S 1 0 0 にもどる。 In step S311 CPU 4 is the window center vector The offset value is supplied to the evaluation value generation circuit 62 of the force control circuit 34 on the basis of the value. The offset value is an offset value supplied to each counter provided in the window pulse generation circuits 625 and 635 shown in FIGS. 3 and 4. When the offset value is not supplied to each of the window pulse generators 6 25 and 6 35, as shown in FIGS. 6A and 6B, each window The center coordinates of W1 to W11 coincide with the coordinates of the center of the imaging screen. However, when this offset value is supplied from the CPU 4 to the respective window counters of the window pulse generation circuits 625 and 6335, the counter value of each counter is based on this offset value. Changed. Therefore, the center coordinates of each window W1 to W11 are changed based on this offset value. When the offset value is supplied to the focus control circuit 34 in step S311, the process returns to step S100.
本発明においては、 以下のような効果を有する。 The present invention has the following effects.
ェ リァ検索回路 3 によって、 目的物体と同じ色の画素データ が存在するェ リアを選択し、 その選択されたェ リ アに存在する画 素データのみに対して条件判断処理を行つているので、 C P U 4 に対して処理負担をかけることなく、 リ アルタ イ ムで、 目的物体 の位置を把握できる。 The area search circuit 3 selects an area in which pixel data of the same color as the target object exists, and performs a condition determination process only on the pixel data existing in the selected area. The position of the target object can be grasped in real time without placing a processing burden on the CPU 4.
また、 設定された目的物体の色に応じて、 被写体モー ドを設定 し、 設定された被写体モー ドに応じて、 エ リ ア検出回路 3 8によ る条件判断演算と、 C P U 4 による条件判断演算を可変している ので、 設定された被写休がどのような色を有していようと、 的確 に被写体を認識することができる。 Also, the object mode is set according to the set color of the target object, and the condition judgment calculation by the area detection circuit 38 and the condition judgment by the CPU 4 are performed according to the set object mode. Since the calculation is variable, the subject can be accurately recognized regardless of the color of the set subject rest.
また、 エ リ ア検索回路 3 8において行われる条件判断処理は、 全てハー ドウエア回路によって条件判断されるので、 ェンコ一ダ 3 7から供給される全ての画素データに対して、 リ アルタ イ ムで
条件判断が行える。 In addition, since all the condition determination processing performed in the area search circuit 38 is determined by the hardware circuit, all the pixel data supplied from the encoder 37 are processed in real time. Condition determination can be performed.
また、 目的物体と同じ色を有した物体が複数存在した場合にお いても、 各物体に関する位置情報を有した物体情報テーブルと、 目的物体の移動履歴に関する情報を有した目的物体履歴テ一ブル とを作成するので、 的確に目的物体を認識できる。 Further, even when there are a plurality of objects having the same color as the target object, an object information table having position information on each object and a target object history table having information on a movement history of the target object are provided. Since the target object is created, the target object can be accurately recognized.
また、 目的物体の移動した位置を演算し、 その位置に基づく ォ フセ ッ ト値をウィ ン ドウパルス発生回路に供給しているので、 各 ウイ ン ドウ W 1 〜W 1 1の中心鹿標を目的物体に対応するように 変更される。 よって、 目的物体が移動したと しても、 移動した目 的物体に対して各ウィ ン ドウを的確に設定できるので、 移動した 目的物体に対しても正確な評価値を得ることができる。 よって、 精度の卨ぃォ一 ト フオーカス制御を行える。 In addition, since the position to which the target object has moved is calculated and the offset value based on the position is supplied to the window pulse generation circuit, the center deer of each window W 1 to W 11 is used. Changed to correspond to the object. Therefore, even if the target object moves, each window can be set accurately for the moved target object, and an accurate evaluation value can be obtained for the moved target object. Therefore, automatic focus control can be performed.
また、 本実施例においては、 以下のような効果を有している。 まず、 複数のフ ィ ルタ係数と複数のサイズのゥィ ン ドウを組み 合わせることによって、 複数の評価値を得ることができるので、 色々な被写体に対応することができる。 The present embodiment has the following effects. First, a plurality of evaluation values can be obtained by combining a plurality of filter coefficients with windows of a plurality of sizes, so that various types of subjects can be handled.
また、 評価值生成回路に対して、 重みデータが付 ¾されており 、 複数の評価値とこの評価値に夫々対応する ffiみデータとにもづ いて、 総合評価値を得るようにしているので、 最終的に得られる 評価値の精度が向上する。 評価値の精度が向上すると、 フ ォ ー力 ス点近傍において、 評価値曲線がきれいな放物線を描くので、 評 価値の最大点の決定が髙速に行える。 したがって、 オー ト フ ォ ー 力スの動作自体が高速になる。 Also, weight data is added to the evaluation / generation circuit, and a total evaluation value is obtained based on a plurality of evaluation values and ffi data corresponding to the evaluation values. However, the accuracy of the finally obtained evaluation value is improved. When the accuracy of the evaluation value is improved, the evaluation value curve draws a clear parabola in the vicinity of the force point, so that the maximum point of the evaluation value can be determined quickly. Therefore, the operation of the auto-force becomes faster.
また、 複数の評価値の中から、 総合評価愤を演算する際に不適 切と判断される評価値を選択して、 使用しないようにしているの で、 一層、 評価値の精度が向上する。 例えば、 小さいウイ ン ドウ で適切な評価値が得られない場合は、 その小さいウィ ン ドゥより も大きなゥイ ン ドウに対応する評価値を使用してフ ォ一力スを合
わせるようにしているので、 少なく とも、 何等かの被写体にフ ォ 一カスを合わせることができ、 長い時間、 オー ト フ ォ ーカ ス動作 が動き続けることを防止できる。 In addition, since an evaluation value determined to be inappropriate when calculating the overall evaluation 愤 is selected from a plurality of evaluation values and is not used, the accuracy of the evaluation value is further improved. For example, if a small window does not provide a good rating, use the rating corresponding to a larger window than the smaller window to combine the focus. Since it is made to focus, at least it is possible to focus on some kind of subject, and it is possible to prevent the auto-focus operation from continuing for a long time.
さらに、 フ ォ ーカ スを合わせるために移動方向を決定する際に は、 複数の評価値の変化に対して、 重みデータを用いた多数決方 式を採用しているので、 少ないサンプル点及びレ ンズの焦点深度 内の微小移動で、 フ ォ ー力 ス方向の正硗に判定できる。 Furthermore, when deciding the moving direction in order to adjust the focus, a majority decision method using weight data is used for changes in a plurality of evaluation values, so that a small number of sample points and Small movements within the focal depth of the lens can judge right in the force direction.
評価値の極大点が、 最大点であるか否かを判定する時に、 極大 点から焦点深度の所定倍の距離までレ ンズを移動させるようにし ているので、 例え、 評価値の山が平であったと しても、 レ ンズが 一定の距離動いた時点で最大であるか否かを判断できる。 よって 、 高速にフ ォ ーカ ス点を決定できるという効果を有する。 例えば 、 極大点が最大点であるかを判断するためにフ ォ ーカ スが火き く ずれて、 撮像信号が大き く ぼやけてしまつて違和感のある映像が 出力されることを防止することができる。 When determining whether or not the maximum point of the evaluation value is the maximum point, the lens is moved from the maximum point to a distance of a predetermined multiple of the depth of focus, so that, for example, the peak of the evaluation value is flat. If so, it can be determined whether the lens is at its maximum when it moves a certain distance. Therefore, there is an effect that the focus point can be determined at high speed. For example, in order to determine whether the maximum point is the maximum point, it is necessary to prevent the focus from burning and the image signal to be large and fuzzy, thereby preventing an unnatural image from being output. it can.
フ ォ ー力ス点における最大評価値を求める際に、 総合評価値の ァップダウ ン状態と R Λ Μ G G に記憶されたァップ Zダウ ン情報 がー致する評価 βであって、 且つ、 重みデータの最も高い評価値 を、 最大評価値と して選択しているので、 最大評価値の値が正確 に求められるという効果を有する。
When finding the maximum evaluation value at the force point, the evaluation state β matches the gap state of the overall evaluation value and the gap Z information stored in the R Λ GG, and the weight data Since the highest evaluation value of is selected as the maximum evaluation value, there is an effect that the value of the maximum evaluation value can be obtained accurately.
Claims
1 . 目的被写体の位置を認識する被写体認識装置において、 電気的な撮像信号を出力する撮像手段と、 1. In an object recognizing device for recognizing a position of a target object, an image pickup means for outputting an electric image pickup signal;
上記撮像手段からの撮像信号によって構成される撮像画面を複 数のエ リ アに分割し、 上記分割されたエ リ アの中から、 上記 S 的被写体と同じ色成分を冇した画素データが存在するェ リ ァを 選択するェ リ ァ検索手段と、 The imaging screen formed by the imaging signal from the imaging unit is divided into a plurality of areas, and among the divided areas, pixel data having the same color component as the S-like subject exists. An error search means for selecting an error to be executed;
上記撮像手段からの撮像信号に対応する全画素デ一タを記憶す る記憶手段と、 Storage means for storing all pixel data corresponding to an imaging signal from the imaging means;
上記ェ リ ァ検索手段によつて選択されたェ リ ァに対応する画素 データを上記記憶手段から読出し、 読出された画素データに基 づいて、 目的被写体の位置を演算するプ セッ シ ング手段とを 備えたこ とを特徴とする被写体認識装置。 Processing means for reading out pixel data corresponding to the area selected by the above-mentioned area search means from the storage means, and calculating a position of a target object based on the read-out pixel data; and An object recognizing device comprising:
2 . 目的被写体を撮像する撮像装置において、 2. In an imaging device for imaging a target subject,
電気的な撮像信号を出力する撮像手段と、 Imaging means for outputting an electrical imaging signal;
上記撮像手段から得られた撮像 号から構成される撮像画面に 対して検出ウ ィ ン ドウを設定し、 上記設定された検出ウ ィ ン ド ' ゥ内の撮像信号の評価値を検出し、 評価値に基づいてフ ォ ー力 スを制御するフ ォーカス制御手段と、 A detection window is set for an imaging screen composed of the imaging signals obtained from the imaging means, and the evaluation value of the imaging signal in the set detection window is detected and evaluated. Focus control means for controlling a focus force based on the value;
上記撮像手段からの撮像信号 ίこ ¾応する全画素データを記憶す る記 手段と、 Storage means for storing an image signal from the imaging means, corresponding to all pixel data;
上記記憶手段から読出された ^データに基づいて、 目的被写 体の位置を演算し、 演算された目的被写体の位置に、 上記検出 ウ ィ ン ドゥの位置が一致するようにフ ォ ーカ ス制御手段を制御 するプロセ ッ シ ング手段とを備えたことを特徴とする撮像装置
The position of the target object is calculated based on the ^ data read from the storage means, and the focus is adjusted so that the calculated position of the target object matches the position of the detection window. An imaging apparatus comprising: processing means for controlling a control means.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP15139595 | 1995-06-19 | ||
JP7/151395 | 1995-06-19 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO1997000575A1 true WO1997000575A1 (en) | 1997-01-03 |
Family
ID=15517655
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP1996/001700 WO1997000575A1 (en) | 1995-06-19 | 1996-06-19 | Object recognizing device and image pick-up device |
Country Status (1)
Country | Link |
---|---|
WO (1) | WO1997000575A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU739832B2 (en) * | 1999-06-10 | 2001-10-18 | Canon Kabushiki Kaisha | Object camera description |
US8035721B2 (en) | 2004-08-05 | 2011-10-11 | Panasonic Corporation | Imaging apparatus |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS614011A (en) * | 1984-06-18 | 1986-01-09 | Canon Inc | Automatic tracking device of camera |
JPH02117276A (en) * | 1988-10-27 | 1990-05-01 | Canon Inc | Tracking area determining method |
JPH042281A (en) * | 1990-04-19 | 1992-01-07 | Mitsubishi Electric Corp | Automatic focusing device |
JPH04158683A (en) * | 1990-10-22 | 1992-06-01 | Matsushita Electric Ind Co Ltd | Automatic focusing device |
JPH06165016A (en) * | 1992-09-28 | 1994-06-10 | Sony Corp | Video camera system |
-
1996
- 1996-06-19 WO PCT/JP1996/001700 patent/WO1997000575A1/en unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS614011A (en) * | 1984-06-18 | 1986-01-09 | Canon Inc | Automatic tracking device of camera |
JPH02117276A (en) * | 1988-10-27 | 1990-05-01 | Canon Inc | Tracking area determining method |
JPH042281A (en) * | 1990-04-19 | 1992-01-07 | Mitsubishi Electric Corp | Automatic focusing device |
JPH04158683A (en) * | 1990-10-22 | 1992-06-01 | Matsushita Electric Ind Co Ltd | Automatic focusing device |
JPH06165016A (en) * | 1992-09-28 | 1994-06-10 | Sony Corp | Video camera system |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU739832B2 (en) * | 1999-06-10 | 2001-10-18 | Canon Kabushiki Kaisha | Object camera description |
US8035721B2 (en) | 2004-08-05 | 2011-10-11 | Panasonic Corporation | Imaging apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2563006B1 (en) | Method for displaying character information, and image-taking device | |
JP3791012B2 (en) | Focus control device | |
EP2793457B1 (en) | Image processing device, image processing method, and recording medium | |
US7456898B2 (en) | Video camera apparatus including automatic focusing | |
US7548269B2 (en) | System for autofocusing a moving object | |
US7847855B2 (en) | Image capturing apparatus and focusing method with focus evaluation | |
US9996907B2 (en) | Image pickup apparatus and image processing method restricting an image stabilization range during a live view operation | |
JP2006258944A (en) | Autofocus system | |
JP2012002951A (en) | Imaging device, method for detecting in-focus position and in-focus position detection program | |
US20040130648A1 (en) | Electronic camera and focus controlling method | |
KR20100056280A (en) | Apparatus for processing digital image and method for controlling thereof | |
US9503650B2 (en) | Zoom-tracking method performed by imaging apparatus | |
KR20100079832A (en) | Digital camera supporting an intelligent self-timer mode and controlling method for the same | |
JP2012119756A (en) | Imaging apparatus and white-balance control method | |
WO1997000575A1 (en) | Object recognizing device and image pick-up device | |
US6275262B1 (en) | Focus control method and video camera apparatus | |
US6222587B1 (en) | Focus control method and video camera | |
JP3747474B2 (en) | Focus control method and video camera apparatus | |
KR101411912B1 (en) | Digital image processing apparatus and control method thereof | |
JP3774962B2 (en) | Autofocus device | |
JP2002277730A (en) | Method, device and program for automatic focusing control of electronic camera | |
JP2017009769A (en) | Imaging device, focus control device, and imaging method | |
JP6246705B2 (en) | Focus control device, imaging device, and focus control method | |
KR101480401B1 (en) | Apparatus of processing digital image and method of controlling thereof | |
JP2869370B2 (en) | Video camera lens offset control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AK | Designated states |
Kind code of ref document: A1 Designated state(s): JP US |
|
ENP | Entry into the national phase |
Ref country code: US Ref document number: 1997 809094 Date of ref document: 19970310 Kind code of ref document: A Format of ref document f/p: F |