WO2018163243A1 - 物体追跡装置及び物体追跡方法 - Google Patents
物体追跡装置及び物体追跡方法 Download PDFInfo
- Publication number
- WO2018163243A1 WO2018163243A1 PCT/JP2017/008768 JP2017008768W WO2018163243A1 WO 2018163243 A1 WO2018163243 A1 WO 2018163243A1 JP 2017008768 W JP2017008768 W JP 2017008768W WO 2018163243 A1 WO2018163243 A1 WO 2018163243A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- unit
- video
- feature amount
- weighting information
- person
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 49
- 238000001514 detection method Methods 0.000 claims abstract description 101
- 238000004364 calculation method Methods 0.000 claims description 70
- 238000010586 diagram Methods 0.000 description 15
- 238000012545 processing Methods 0.000 description 14
- 238000012544 monitoring process Methods 0.000 description 9
- 230000006866 deterioration Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 239000002131 composite material Substances 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 101000911772 Homo sapiens Hsc70-interacting protein Proteins 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/285—Analysis of motion using a sequence of stereo image pairs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
Definitions
- the present invention relates to an object tracking device and an object tracking method for associating objects existing in different video frames.
- the object tracking device disclosed in the following Patent Document 1 is a shooting device for shooting time-series images, or in order to prevent deterioration in tracking accuracy of objects even when the shooting environment of time-series images changes.
- a function to automatically adjust the tracking parameter of the object is provided.
- changes in the resolution of the time-series video and changes in the frame rate of the time-series video are assumed as changes in the photographing device.
- changes in the shooting environment and changes in the relative positional relationship between the shooting device and the object to be monitored are assumed as changes in the shooting environment.
- the conventional object tracking device is configured as described above, it is possible to prevent deterioration in tracking accuracy of an object even if a photographing device that captures time-series images or a shooting environment of time-series images changes. it can.
- a photographing device that captures time-series images or a shooting environment of time-series images changes. it can.
- all objects existing in the video frames are included in the target of association. For this reason, for example, even if it is difficult to detect an object with high accuracy, such as a situation where the monitoring area of the object is congested, the object detected by the object detection process is not subject to association. Included. Therefore, an object detected in error may be included in the correspondence target, and in such a case, there is a problem that the tracking accuracy of the object deteriorates.
- the present invention has been made to solve the above-described problems, and provides an object tracking device and an object tracking method capable of preventing deterioration in tracking accuracy of an object even in a situation where an object monitoring area is congested.
- the purpose is to obtain.
- An object tracking device includes an object detection unit that detects one or more objects existing in a video frame for each video frame constituting a time-series video, and an object for each video frame.
- Object detection by referring to the congestion level estimation unit for estimating the congestion level of the area where each object detected by the detection unit is present and the congestion level estimation result by the congestion level estimation unit for each video frame Selected from the one or more objects detected by the unit by the object selection unit for selecting each object existing in an area where the degree of congestion is equal to or less than the first threshold, and the object selection unit for each video frame.
- a feature amount calculation unit that calculates the feature amount of each object, and the object tracking unit selects different images selected by the object selection unit according to the feature amount of each object calculated by the feature amount calculation unit.
- F It is obtained to perform a mapping between the object that is present in the over arm.
- the congestion degree estimation unit for estimating the congestion degree of the region where each object detected by the object detection unit exists is provided, and the object selection unit is provided for each video frame.
- 2 is a flowchart showing an object tracking method that is a processing procedure when the object tracking apparatus of FIG. 1 is realized by software or firmware. It is explanatory drawing which shows an example of the detection result and reliability of a person by the object detection part. It is explanatory drawing which shows the example by which the congestion degree in an image
- FIG. FIG. 1 is a block diagram showing an object tracking device according to Embodiment 1 of the present invention
- FIG. 2 is a hardware configuration diagram showing the object tracking device according to Embodiment 1 of the present invention.
- a camera 1 is a photographing device that photographs a monitoring area, photographs a time-series video composed of a plurality of video frames, and outputs the time-series video to an object tracking device.
- the camera 1 also outputs video information indicating the resolution of the time-series video and the frame rate of the time-series video to the object tracking device.
- a video such as a movie can be considered as a time-series video composed of a plurality of video frames.
- the video is not limited to a video such as a video, and is, for example, a video in which a plurality of still images are arranged in time series. May be.
- the photographing device is the camera 1
- the photographing device is not limited to the camera 1 and may be, for example, a digital video recorder.
- a recording medium on which a time-series video composed of a plurality of video frames is recorded in advance is connected to the object tracking device instead of the camera 1, and the time-series video recorded on the recording medium is tracked. It may be taken into the device.
- the object detection unit 11 is realized by, for example, an object detection circuit 21 illustrated in FIG.
- the object detection unit 11 performs processing for acquiring time-series video and video information output from the camera 1.
- the object detection unit 11 performs a process of detecting one or more objects existing in the video frame for each video frame constituting the acquired time-series video.
- the object detection unit 11 performs a process of calculating the reliability indicating the certainty of the detection result of the object.
- the congestion level estimation unit 12 is realized by, for example, a congestion level estimation circuit 22 shown in FIG.
- the congestion level estimation unit 12 analyzes a video of the video frame, thereby performing a process of estimating the congestion level of the area where each object detected by the object detection unit 11 exists.
- the object selection unit 13 is realized by, for example, an object selection circuit 23 shown in FIG.
- the object selection unit 13 refers to the estimation result of the congestion level by the congestion level estimation unit 12 for each video frame, and the congestion level is a reference congestion level from one or more objects detected by the object detection unit 11. (First threshold) A process of selecting objects existing in the following areas is performed. However, even if the object selection unit 13 is an object that exists in a region where the congestion level is larger than the reference congestion level, the reliability of the detection result calculated by the object detection unit 11 is the reference reliability (second Select objects that exceed the threshold.
- the weighting information storage unit 14 is realized by, for example, the weighting information storage circuit 24 shown in FIG.
- the weighting information storage unit 14 stores weighting information indicating weighting of a plurality of feature amounts for each combination of the resolution of the time-series video and the frame rate of the time-series video.
- the feature amount calculation unit 15 is realized by, for example, a feature amount calculation circuit 25 illustrated in FIG.
- the feature amount calculation unit 15 includes a combination of the resolution and frame rate of the time-series video indicated by the video information output from the camera 1 among the combinations corresponding to the plurality of weighting information stored in the weighting information storage unit 14. A process for identifying matching combinations is performed.
- the feature amount calculation unit 15 acquires weighting information corresponding to the identified combination from the plurality of weighting information stored in the weighting information storage unit 14.
- the feature amount calculation unit 15 performs a process of calculating the feature amount of each object selected by the object selection unit 13 according to the acquired weighting information for each video frame.
- the object tracking unit 16 is realized by, for example, the object tracking circuit 26 shown in FIG.
- the object tracking unit 16 associates objects existing in different video frames selected by the object selection unit 13 according to the feature amount of each object calculated by the feature amount calculation unit 15.
- each of the object detection unit 11, the congestion degree estimation unit 12, the object selection unit 13, the weighting information storage unit 14, the feature amount calculation unit 15, and the object tracking unit 16 that are components of the object tracking device is illustrated in FIG. 2.
- the object detection circuit 21 the congestion degree estimation circuit 22, the object selection circuit 23, the weighting information storage circuit 24, the feature amount calculation circuit 25, and the object tracking circuit 26 is assumed.
- the weighting information storage circuit 24 includes, for example, a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable Read Only Memory), an EEPROM (Electrically Emmable Memory), and the like.
- the object detection circuit 21, the congestion degree estimation circuit 22, the object selection circuit 23, the feature amount calculation circuit 25, and the object tracking circuit 26 are, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, An application specific integrated circuit (ASIC), a field-programmable gate array (FPGA), or a combination thereof corresponds to the ASIC (Application Specific Integrated Circuit).
- ASIC Application Specific integrated circuit
- FPGA field-programmable gate array
- the components of the object tracking device are not limited to those realized by dedicated hardware, and the object tracking device may be realized by software, firmware, or a combination of software and firmware.
- Software or firmware is stored as a program in the memory of a computer.
- the computer means hardware that executes a program, and includes, for example, a CPU (Central Processing Unit), a central processing unit, a processing unit, an arithmetic unit, a microprocessor, a microcomputer, a processor, a DSP (Digital Signal Processor), and the like. .
- FIG. 3 is a hardware configuration diagram of a computer when the object tracking apparatus of FIG. 1 is realized by software or firmware.
- a video input device 31 is an interface device for the camera 1, and acquires time-series video output from the camera 1.
- the video information input device 32 is an interface device for the camera 1 and acquires video information output from the camera 1.
- the processor 33 executes a program stored in the memory 34.
- the memory 34 stores programs executed by the processor 33, weighting information, and the like.
- the result output unit 35 is, for example, an interface device for a display device or the like, and outputs a tracking result of the object tracking device.
- FIG. 4 is a flowchart showing an object tracking method which is a processing procedure when the object tracking apparatus of FIG. 1 is realized by software or firmware.
- the object tracking target may be any object that exists in the monitoring area, and is not limited to a person.
- an object such as a vehicle, an animal, or a robot may be a tracking target.
- the camera 1 that captures the monitoring area captures a time-series video composed of a plurality of video frames and outputs the time-series video to the object tracking device.
- the camera 1 also outputs video information indicating the resolution of the time-series video and the frame rate of the time-series video to the object tracking device.
- the object detection unit 11 detects one or more persons present in the video frame for each video frame constituting the time-series video (see FIG. Step ST1 of 4). Since the detection process itself of the person (object) existing in the video frame is a known technique, a detailed description thereof is omitted, but for example, the following detection method can be used. For example, a color gradient direction and a luminance gradient direction in a video frame are extracted as feature quantities (ACF: Aggregated Channel Features), and an AdaBoost (Adaptive Boosting) classifier detects a person using the feature quantity ACF. The method can be used. This detection method is disclosed in Non-Patent Document 1 below. [Non-Patent Document 1] “Fast Feature Pyramids for Object Detection”, In PAMI, 2014.
- Non-Patent Document 2 “Histograms of Oriented Gradients for Human Detection,” In CVPR, 2005 Further, a method of detecting a person using deep learning can be used. This detection method is disclosed, for example, in Non-Patent Document 3 below.
- Non-Patent Document 3 “Deep Neural Networks for Object Detection”, In NIPS, 2013
- the object detection unit 11 When the object detection unit 11 detects one or more persons present in the video frame, the object detection unit 11 outputs the person detection result to the congestion degree estimation unit 12 and the object selection unit 13.
- the object detection unit 11 indicates the coordinate information indicating the coordinates of the area where the person exists in the video frame or the coordinates of the rectangular area including the person existing in the video frame as the detection result of the person. Output coordinate information.
- the coordinates of the area where the person exists for example, the coordinates of the edge representing the shape of the person can be considered.
- the coordinates of a rectangular area including a person are also handled as the coordinates of the area where the person exists.
- the object detection unit 11 calculates the reliability indicating the certainty of the person detection result, and outputs the calculated reliability to the object selection unit 13 (step ST2 in FIG. 4).
- the reliability indicating the certainty of the detection result indicates the probability that the object detected by the object detection unit 11 is a person, and the higher the possibility that the object is a person, the larger the value. Since the calculation method of reliability is a well-known technique, detailed description is abbreviate
- FIG. 5 is an explanatory diagram illustrating an example of a person detection result and reliability by the object detection unit 11.
- FIG. 5 shows an example in which there are six persons in one video frame.
- FIG. 5 shows a rectangular area including a person detected by the object detection unit 11, and the reliability of the detection result of the person included in the rectangular area is around each rectangular area. It is shown.
- symbols A, B, C, D, E, and F are attached in a rectangular area that includes a person as a symbol for identifying the six persons detected by the object detection unit 11. .
- the congestion degree estimation unit 12 acquires the time-series video output from the camera 1 and the detection result of the object detection unit 11.
- the congestion degree estimation unit 12 analyzes the video of the video frame for each video frame constituting the time-series video, thereby congesting the area where each person detected by the object detection unit 11 exists.
- Each degree is estimated (step ST3 in FIG. 4). Since the method for estimating the degree of congestion of a region is a known technique, detailed description thereof is omitted.
- the congestion degree estimation method is disclosed in Non-Patent Document 4 below, for example.
- Non-Patent Document 4 “Estimation of Crown Density using Image Processing” In IEEE Colloquium on Image Processing for Security Applications, 2002.
- FIG. 6 is an explanatory diagram showing an example in which the degree of congestion in a video frame is converted into a heat map.
- FIG. 6 shows the number of persons per 1 square meter (number of persons / m 2 ) as the degree of congestion.
- the object selection unit 13 refers to the estimation result of the congestion level by the congestion level estimation unit 12 for each video frame, and the congestion level is equal to or less than the reference congestion level among one or more persons detected by the object detection unit 11. A person who exists in the area is selected. However, even if the object selection unit 13 is a person who is present in an area where the degree of congestion is greater than the reference congestion degree, the object selection unit 13 detects a person whose reliability of the detection result calculated by the object detection unit 11 is greater than or equal to the reference reliability. Select.
- the person selection process by the object selection unit 13 will be described in detail.
- the object selection unit 13 refers to the estimation result of the congestion level by the congestion level estimation unit 12 for each video frame, and grasps the congestion level of the area where each person detected by the object detection unit 11 exists. .
- the object selection unit 13 determines whether or not a person who has not yet been subjected to the determination process as to whether or not it is a person to be tracked remains among one or more persons detected by the object detection unit 11. Determination is made (step ST4 in FIG. 4).
- the determination process is the process of step ST5 or the process of step ST7.
- the object selection unit 13 selects a person by the object selection unit 13 if there is no person who has not yet been subjected to the process of determining whether or not the person is a tracking target person (in the case of step ST4: NO in FIG. 4). The process ends, and the process proceeds to step ST8.
- step ST4 in FIG. 4: YES If there is still a person who has not yet been subjected to the process of determining whether or not the object selection unit 13 is a person to be tracked (step ST4 in FIG. 4: YES), there is a person who has not been determined.
- the congestion degree of the area where the person is present is compared with a reference congestion degree set in advance, and it is determined whether or not the congestion degree of the area where the person exists is equal to or less than the reference congestion degree (FIG. 4 step ST5). If the congestion level of the area where the person exists is equal to or less than the reference congestion level (step ST5 in FIG. 4: YES), the object selection unit 13 selects the person as a tracking target person (in FIG. 4). Step ST6).
- FIG. 7 is an explanatory diagram illustrating a selection result of the object selection unit 13 based on the degree of congestion.
- an area where the degree of congestion is larger than the reference congestion degree is set as the congestion area, and the person C, the person D, the person E, and the person F exist in the congestion area. For this reason, in the example of FIG. 7, person A and person B are selected as persons to be tracked.
- the object selection unit 13 determines the detection result of the person calculated by the object detection unit 11. And the reference reliability set in advance are compared to determine whether or not the reliability of the detection result of the person is equal to or higher than the reference reliability (step ST7 in FIG. 4). If the reliability of the detection result of the person is equal to or higher than the reference reliability (step ST7 in FIG. 4: YES), the object selection unit 13 selects the person as a person to be tracked (step in FIG. 4). ST6). If the reliability of the detection result of the person is lower than the reference reliability (step ST7: NO in FIG. 4), the object selection unit 13 excludes the person from the tracking target person. The processes of steps ST4 to ST7 are repeated until the determination process for determining whether or not all persons detected by the object detection unit 11 are tracking target persons is completed.
- FIG. 8 is an explanatory diagram illustrating a selection result of the object selection unit 13 based on the reliability.
- FIG. 8 shows an example in which the reference reliability is 50.
- the person C, the person D, the person E, and the person F exist in the crowded area, but the reliability of the detection results of the person E and the person F is higher than the reference reliability.
- the person E and the person F are selected as the persons to be tracked.
- the reliability of the detection results of the persons C and D is lower than the reference reliability, the persons C and D are excluded from the tracking target persons.
- the reliability of the detection result of the person B is smaller than the reference reliability, but has already been selected as a person to be tracked based on the degree of congestion. Therefore, finally, the person A, the person B, the person E, and the person F are selected as the persons to be tracked.
- the weighting information storage unit 14 stores weighting information indicating the weighting of a plurality of feature amounts for each combination of the resolution of the time-series video and the frame rate of the time-series video.
- FIG. 9 is an explanatory diagram illustrating an example of weight information of feature amounts corresponding to a combination of the resolution of the time-series video and the frame rate of the time-series video.
- FIG. 9 shows an example in which the feature amounts are “color”, “movement”, and “edge”. The color represents the color of the person as an object, the motion represents the movement of the person as an object, and the edge represents the shape of the person as an object.
- FIG. 9 illustrates an example in which the resolution of the time-series video is 0.00 [ppi] or ⁇ [ppi] and the frame rate is ⁇ [fps] or ⁇ [fps].
- the resolution 0.00 [ppi] is higher than the resolution ⁇ [ppi]
- the frame rate ⁇ [fps] is higher than the frame rate ⁇ [fps].
- weighting information of the feature amount corresponding to the resolution of the time-series video and the frame rate of the time-series video is stored in the weighting information storage unit 14, but is not limited thereto.
- weighting information of feature amounts corresponding to the installation angle of the camera 1 and the type of object to be tracked may be stored in the weighting information storage unit 14.
- the weighting information of the feature amount corresponding to the installation angle of the camera 1 and the degree of congestion in the time-series video may be stored in the weighting information storage unit 14.
- the feature amount calculation unit 15 includes a combination of the resolution and frame rate of the time-series video indicated by the video information output from the camera 1 among the combinations corresponding to the plurality of weighting information stored in the weighting information storage unit 14. Identify matching combinations. Next, the feature amount calculation unit 15 acquires weighting information corresponding to the identified combination from the plurality of weighting information stored in the weighting information storage unit 14. Next, the feature quantity calculation unit 15 calculates the feature quantity P of each person selected by the object selection unit 13 according to the acquired weighting information for each video frame (step ST8 in FIG. 4).
- the feature amount calculation unit 15 calculates, for example, a feature amount P 1 indicating the color of the person, a feature amount P 2 indicating the movement of the person, and a feature amount P 3 indicating the edge of the person as elements of the feature amount P of the person. To do. Since the calculation process itself of the feature amounts P 1 , P 2 and P 3 is a known technique, a detailed description thereof will be omitted.
- the feature quantity calculation unit 15 calculates the feature quantity P 1 indicating the color of the person, the feature quantity P 2 indicating the movement of the person, and the feature quantity P 3 indicating the edge of the person, the weighting information acquired from the weighting information storage unit 14 is obtained.
- weighting addition of the feature amounts P 1 , P 2 and P 3 is performed.
- the feature amount calculation unit 15 outputs the weighted addition result of the feature amounts P 1 , P 2 and P 3 to the object tracking unit 16 as the final feature amount P.
- the feature quantity calculation unit 15 uses the weighting information to calculate the feature quantity P as shown in the following formula (1), for example.
- Non-Patent Document 5 “Globally-Optimal Greedy Algorithms for Tracking a Variable Number of Objects” In CVPR, 2011.
- the association between persons is to associate persons having similar feature amounts, and an example of association between persons will be briefly described below.
- the persons existing in the video frame (1) are the person A, the person B, the person E, and the person F
- the persons existing in the video frame (2) are the person A ′, the person B ′, It is assumed that the person E ′ and the person F ′.
- the maximum difference in feature amount between two video frames that can be associated is 3.
- the congestion degree estimation unit 12 that estimates the congestion degree of the area where each object detected by the object detection unit 11 exists for each video frame.
- the object selection unit 13 refers to the estimation result of the congestion level by the congestion level estimation unit 12 for each video frame, and the congestion level is determined from the one or more objects detected by the object detection unit 11. Since an object existing in an area equal to or lower than the first threshold value is selected, there is an effect that it is possible to prevent deterioration in tracking accuracy of the object even in a situation where the monitoring area of the object is congested. .
- the detection result calculated by the object detection unit 11 Since an object having a reliability level equal to or higher than the second threshold is selected, the number of objects that can be tracked can be increased without deteriorating the tracking accuracy of the object.
- the object detection unit 11 calculates the reliability indicating the certainty of the detection result of each object.
- the object selection unit 13 uses the object detection unit 11 to calculate each object.
- the reliability indicating the certainty of the detection result may be calculated.
- the feature amount calculation unit 15 has the resolution and frame rate indicated by the video information output from the camera 1 out of the weighting information corresponding to the plurality of combinations stored in the weighting information storage unit 14.
- the example which acquires the weighting information corresponding to the combination which matches this combination is shown.
- the weighting information storage unit 14 may not store weighting information corresponding to a combination that matches a combination of resolution and frame rate indicated by the video information output from the camera 1.
- the feature amount calculation unit 15 performs the weighting. An example in which appropriate weighting information can be acquired from a plurality of weighting information stored in the information storage unit 14 will be described.
- FIG. 10 is a block diagram showing an object tracking apparatus according to Embodiment 2 of the present invention
- FIG. 11 is a hardware block diagram showing an object tracking apparatus according to Embodiment 2 of the present invention.
- the feature amount calculation unit 40 is realized by, for example, a feature amount calculation circuit 50 illustrated in FIG.
- the feature quantity calculation unit 40 includes the time series video resolution given to the object detection unit 11 and the time given to the object detection unit 11 among the combinations corresponding to the plurality of weighting information stored in the weighting information storage unit 14. Processing for determining whether there is a combination that matches the combination with the frame rate of the sequence video is performed.
- the feature amount calculation unit 40 matches the combination of resolution and frame rate indicated by the video information output from the camera 1 among the combinations corresponding to the plurality of weighting information stored in the weighting information storage unit 14. A process for determining whether or not there is a combination is performed. If it is determined that there is a matching combination, the feature amount calculation unit 40 performs a process of acquiring weighting information corresponding to the matching combination from the weighting information storage unit 14.
- the feature amount calculation unit 40 outputs the resolution and frame rate in the combination corresponding to the plurality of weighting information stored in the weighting information storage unit 14 and the camera 1.
- a process of calculating the similarity between the resolution and the frame rate indicated by the video information is performed.
- the feature amount calculation unit 40 performs a process of acquiring any one of the weighting information from the plurality of weighting information stored in the weighting information storage unit 14 based on the calculated similarity. Similar to the feature amount calculation unit 15 in FIG. 1, the feature amount calculation unit 40 performs a process of calculating the feature amount of each person selected by the object selection unit 13 according to the acquired weighting information for each video frame. carry out.
- the object detection unit 11, the congestion degree estimation unit 12, the object selection unit 13, the weighting information storage unit 14, the feature amount calculation unit 40, and the object tracking unit 16, which are components of the object tracking device, are illustrated in FIG. 11.
- This is assumed to be realized by dedicated hardware as shown in FIG. That is, it is assumed to be realized by the object detection circuit 21, the congestion degree estimation circuit 22, the object selection circuit 23, the weighting information storage circuit 24, the feature amount calculation circuit 50, and the object tracking circuit 26.
- the object detection circuit 21, the congestion degree estimation circuit 22, the object selection circuit 23, the feature amount calculation circuit 50, and the object tracking circuit 26 are, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC, An FPGA or a combination thereof is applicable.
- the components of the object tracking device are not limited to those realized by dedicated hardware, and the object tracking device may be realized by software, firmware, or a combination of software and firmware.
- the object tracking apparatus of FIG. 10 is realized by software or firmware
- the weighting information storage unit 14 is configured on the memory 34 of the computer shown in FIG. 3, and the object detection unit 11, the congestion degree estimation unit 12, the object selection A program for causing the computer to execute the processing procedure of the unit 13, the feature amount calculation unit 40, and the object tracking unit 16 is stored in the memory 34, and the processor 33 of the computer is configured to execute the program stored in the memory 34. That's fine.
- FIG. 12 is a flowchart showing the processing contents in the feature amount calculation unit 40 of the object tracking device according to Embodiment 2 of the present invention.
- the feature amount calculation unit 40 acquires video information output from the camera 1 (step ST11 in FIG. 12). Whether the feature amount calculation unit 40 has a combination that matches the combination of the resolution and the frame rate indicated by the acquired video information among the combinations corresponding to the plurality of weighting information stored in the weighting information storage unit 14. It is determined whether or not (step ST12 in FIG. 12).
- the resolution is 00 [ppi] or ⁇ [ppi] and the frame rate is ⁇ [fps] or ⁇ [fps. ], There are four combinations. Therefore, in the example of FIG.
- the resolution indicated by the acquired video information is “00 [ppi] or ⁇ [ppi]
- the frame rate indicated by the acquired video information is ⁇ [fps] or If it is ⁇ [fps]
- the feature amount calculation unit 40 determines that there is a matching combination.
- step ST12 in FIG. 12 YES
- the feature amount calculation unit 40 acquires weighting information corresponding to the matching combination from the weighting information storage unit 14 ( Step ST13 in FIG. 12). If the feature amount calculation unit 40 determines that there is no matching combination (step ST12 in FIG. 12: NO), the resolution in the combination corresponding to the plurality of weighting information stored in the weighting information storage unit 14 Then, the similarity between the frame rate and the resolution and frame rate indicated by the acquired video information is calculated (step ST14 in FIG. 12).
- the method of calculating the similarity by the feature amount calculation unit 40 is not particularly limited.
- the similarity is calculated as follows.
- the resolution indicated by the acquired video information is a and the frame rate indicated by the acquired video information is b.
- the resolution 00 [ppi] is a 1
- the resolution ⁇ [ppi] is a 2
- the frame rate ⁇ [fps] is b 1
- the frame rate ⁇ [fps] is b 2.
- the feature amount calculating unit 40 calculates a difference ⁇ a 1 between the resolution a indicated by the acquired video information and the resolution a 1 and also as shown in the following equation (3). Then, the difference ⁇ a 2 between the resolution a indicated by the acquired video information and the resolution a 2 is calculated. Further, as shown in the following formula (4), the feature amount calculation unit 40 calculates the difference ⁇ b 1 between the frame rate b indicated by the acquired video information and the frame rate b 1, and the following formula (5) ), The difference ⁇ b 2 between the frame rate b indicated by the acquired video information and the frame rate b 2 is calculated.
- the feature amount calculation unit 40 has a similarity R between the resolution a 1 and the frame rate b 1 in the combination (1) and the resolution a and the frame rate b indicated by the acquired video information. 1 is calculated.
- G is a constant.
- the feature amount calculation unit 40 has a similarity R between the resolution a 1 and the frame rate b 2 in the combination (2) and the resolution a and the frame rate b indicated by the acquired video information. 2 is calculated.
- the feature amount calculation unit 40 is similar to the resolution a 2 and the frame rate b 1 in the combination (3) and the resolution a and the frame rate b indicated by the acquired video information. and calculates the degree R 3. As shown in the following formula (9), the feature amount calculation unit 40 has a similarity R between the resolution a 2 and the frame rate b 2 in the combination (4) and the resolution a and the frame rate b indicated by the acquired video information. 4 is calculated.
- Equation (10) shows an example of calculating the similarity R 1 for the combination (1), w a is the weighting factor for the difference .DELTA.a 1, is w b are weighting factors for the difference [Delta] b 1. Note that w a and w b are values of 0 or more and 1 or less.
- the feature amount calculation unit 40 compares the similarity R for all the combinations and identifies the combination related to the highest similarity (step ST15 in FIG. 12).
- the feature amount calculation unit 40 When acquiring the weighting information, the feature amount calculation unit 40, like the feature amount calculation unit 15 of FIG. 1, for each video frame, the feature amount of each person selected by the object selection unit 13 according to the acquired weighting information. Are respectively calculated (step ST17 in FIG. 12).
- the feature quantity calculation unit 40 includes the combination corresponding to the plurality of weighting information stored in the weighting information storage unit 14 in the object detection unit 11. If there is no combination that coincides with the combination of the resolution of the time-series video provided and the frame rate of the time-series video provided to the object detection unit 11, it corresponds to a plurality of weighting information stored in the weighting information storage unit 14. The degree of similarity between the resolution and the frame rate in the combination, the resolution of the time-series video given to the object detection unit 11 and the frame rate of the time-series video given to the object detection unit 11 are calculated.
- the feature-value calculation part 40 acquires any one weighting information from the some weighting information memorize
- the feature amount of each object selected by the object selection unit 13 is calculated. Thereby, even when the weighting information corresponding to the combination that matches the combination of the resolution and the frame rate of the time-series video given to the object detection unit 11 is not stored in the weighting information storage unit 14, appropriate weighting information can be obtained. The effect which can be acquired is produced.
- the present invention is suitable for an object tracking apparatus and an object tracking method for associating objects existing in different video frames.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
以下の特許文献1に開示されている物体追跡装置は、時系列映像を撮影する撮影機器、あるいは、時系列映像の撮影環境が変化しても、物体の追跡精度の劣化を防止するために、物体の追跡パラメータを自動的に調整する機能を備えている。
以下の特許文献1では、撮影機器の変化として、時系列映像の解像度の変化と、時系列映像のフレームレートの変化とが想定されている。
また、以下の特許文献1では、撮影環境の変化として、撮影機器の設置角度の変化と、撮影機器と監視対象の物体との相対的な位置関係の変化とが想定されている。
図1は、この発明の実施の形態1による物体追跡装置を示す構成図であり、図2は、この発明の実施の形態1による物体追跡装置を示すハードウェア構成図である。
図1及び図2において、カメラ1は、監視エリアを撮影する撮影機器であり、複数の映像フレームから構成されている時系列映像を撮影して、時系列映像を物体追跡装置に出力する。
また、カメラ1は、時系列映像の解像度及び時系列映像のフレームレートを示す映像情報を物体追跡装置に出力する。
ここでは、撮影機器がカメラ1である例を示しているが、撮影機器は、カメラ1に限るものではなく、例えば、デジタルビデオレコーダなどであってもよい。
また、複数の映像フレームから構成されている時系列映像が事前に記録されている記録媒体が、カメラ1の代わりに物体追跡装置に接続され、記録媒体に記録されている時系列映像が物体追跡装置に取り込まれるものであってもよい。
物体検出部11は、カメラ1から出力された時系列映像及び映像情報を取得する処理を実施する。
また、物体検出部11は、取得した時系列映像を構成している映像フレーム毎に、当該映像フレーム内に存在している1つ以上の物体を検出する処理を実施する。
また、物体検出部11は、物体の検出結果の確からしさを示す信頼度をそれぞれ算出する処理を実施する。
混雑度推定部12は、映像フレーム毎に、当該映像フレームの映像を解析することで、物体検出部11により検出された各々の物体が存在している領域の混雑度をそれぞれ推定する処理を実施する。
物体選定部13は、例えば図2に示す物体選定回路23で実現される。
物体選定部13は、映像フレーム毎に、混雑度推定部12による混雑度の推定結果を参照して、物体検出部11により検出された1つ以上の物体の中から、混雑度が基準混雑度(第1の閾値)以下の領域に存在している物体をそれぞれ選定する処理を実施する。
ただし、物体選定部13は、混雑度が基準混雑度よりも大きい領域に存在している物体であっても、物体検出部11により算出された検出結果の信頼度が基準信頼度(第2の閾値)以上の物体については選定する。
重み付け情報記憶部14は、時系列映像の解像度と時系列映像のフレームレートとの組み合わせ毎に、複数の特徴量の重み付けを示す重み付け情報を記憶している。
特徴量算出部15は、例えば図2に示す特徴量算出回路25で実現される。
特徴量算出部15は、重み付け情報記憶部14に記憶されている複数の重み付け情報に対応する組み合わせの中で、カメラ1から出力された映像情報が示す時系列映像の解像度及びフレームレートの組み合わせと一致している組み合わせを特定する処理を実施する。
また、特徴量算出部15は、重み付け情報記憶部14に記憶されている複数の重み付け情報の中から、特定した組み合わせに対応する重み付け情報を取得する。
特徴量算出部15は、映像フレーム毎に、取得した重み付け情報に従って、物体選定部13により選定された各々の物体の特徴量をそれぞれ算出する処理を実施する。
物体追跡部16は、特徴量算出部15により算出された各々の物体の特徴量に従って、物体選定部13により選定された互いに異なる映像フレーム内に存在している物体の間の対応付けを行う。
ここで、重み付け情報記憶回路24は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの不揮発性又は揮発性の半導体メモリや、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)などが該当する。
また、物体検出回路21、混雑度推定回路22、物体選定回路23、特徴量算出回路25及び物体追跡回路26は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、または、これらを組み合わせたものが該当する。
ソフトウェア又はファームウェアはプログラムとして、コンピュータのメモリに格納される。コンピュータは、プログラムを実行するハードウェアを意味し、例えば、CPU(Central Processing Unit)、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、DSP(Digital Signal Processor)などが該当する。
図3において、映像入力器31は、カメラ1に対するインタフェース機器であり、カメラ1から出力された時系列映像を取得する。
映像情報入力器32は、カメラ1に対するインタフェース機器であり、カメラ1から出力された映像情報を取得する。
プロセッサ33は、メモリ34に格納されているプログラムを実行する。
メモリ34は、プロセッサ33が実行するプログラム及び重み付け情報などを格納している。
結果出力器35は、例えば表示装置等に対するインタフェース機器であり、物体追跡装置の追跡結果などを出力する。
図4は、図1の物体追跡装置がソフトウェア又はファームウェアなどで実現される場合の処理手順である物体追跡方法を示すフローチャートである。
この実施の形態1では、物体の監視エリア内に複数の人物が存在しており、物体の追跡対象が監視エリア内に存在している複数の人物である例を説明する。
ただし、物体の追跡対象は、監視エリア内に存在している物体であればよく、人物に限るものではない。このため、例えば、車両、動物又はロボットなどの物体が追跡対象であってもよい。
また、カメラ1は、時系列映像の解像度及び時系列映像のフレームレートを示す映像情報を物体追跡装置に出力する。
映像フレーム内に存在している人物(物体)の検出処理自体は、公知の技術であるため詳細な説明を省略するが、例えば、以下の検出方法を用いることができる。
例えば、映像フレームにおける色の勾配方向及び輝度の勾配方向を特徴量(ACF:Aggregated Channel Features)として抽出し、AdaBoost(Adaptive Boosting)分類器が、特徴量であるACFを用いて、人物を検出する方法を用いることができる。この検出方法は、以下の非特許文献1に開示されている。
[非特許文献1]
“Fast Feature Pyramids for Object Detection”, In PAMI, 2014.
[非特許文献2]
“Histograms of Oriented Gradients for Human Detection,”In CVPR, 2005
また、深層学習を用いて、人物を検出する方法を用いることができる。この検出方法は、例えば、以下の非特許文献3に開示されている。
[非特許文献3]
“Deep Neural Networks for Object Detection”,In NIPS, 2013
物体検出部11は、人物の検出結果として、映像フレーム内で人物が存在している領域の座標を示す座標情報、あるいは、映像フレーム内に存在している人物を包含する矩形領域の座標を示す座標情報を出力する。
人物が存在している領域の座標としては、例えば、人物の形状を表すエッジの座標などが考えられる。
この実施の形態1では、人物を包含する矩形領域の座標についても、人物が存在している領域の座標として扱うものとする。
また、物体検出部11は、人物の検出結果の確からしさを示す信頼度をそれぞれ算出し、算出した信頼度を物体選定部13に出力する(図4のステップST2)。
検出結果の確からしさを示す信頼度は、物体検出部11により検出された物体が、人物である確率を示すものであり、人物である可能性が高いほど、大きな値となる。
信頼度の算出方法は、公知の技術であるため詳細な説明を省略する。信頼度の算出方法は、例えば、以下の特許文献2に開示されている。
[特許文献2]特開2012-133445号公報
図5は、1つの映像フレーム内に人物が6人に存在している例を示している。
図5には、物体検出部11により検出された人物を包含する矩形領域が示されており、各々の矩形領域の周囲には、当該矩形領域に包含されている人物の検出結果の信頼度が示されている。
図5では、物体検出部11により検出された6人の人物を識別するための記号として、人物を包含する矩形領域内にA,B,C,D,E及びFの記号を付している。
混雑度推定部12は、時系列映像を構成している映像フレーム毎に、当該映像フレームの映像を解析することで、物体検出部11により検出された各々の人物が存在している領域の混雑度をそれぞれ推定する(図4のステップST3)。
領域の混雑度を推定する方法は、公知の技術であるため詳細な説明を省略する。混雑度の推定方法は、例えば、以下の非特許文献4に開示されている。
[非特許文献4]
“Estimation of Crowd Density using Image Processing”In IEE Colloquium on Image Processing for Security Applications,2002.
図6では、混雑度として、1平方メートル当りの人物の数(人数/m2)を示している。
ただし、物体選定部13は、混雑度が基準混雑度よりも大きい領域に存在している人物であっても、物体検出部11により算出された検出結果の信頼度が基準信頼度以上の人物については選定する。
以下、物体選定部13による人物の選定処理を具体的に説明する。
次に、物体選定部13は、物体検出部11により検出された一人以上の人物の中に、未だ追跡対象の人物であるか否かの判定処理が済んでいない人物が残っているか否かを判定する(図4のステップST4)。判定処理は、ステップST5の処理又はステップST7の処理である。
物体選定部13は、既に、追跡対象の人物であるか否かの判定処理が済んでいない人物が残っていなければ(図4のステップST4:NOの場合)、物体選定部13による人物の選定処理を終了して、ステップST8の処理に移行する。
物体選定部13は、人物が存在している領域の混雑度が基準混雑度以下であれば(図4のステップST5:YESの場合)、当該人物を追跡対象の人物として選定する(図4のステップST6)。
図7の例では、混雑度が基準混雑度よりも大きい領域を混雑領域としており、人物C、人物D、人物E及び人物Fが混雑領域に存在している。
このため、図7の例では、人物A及び人物Bが、追跡対象の人物として選定される。
物体選定部13は、当該人物の検出結果についての信頼度が基準信頼度以上であれば(図4のステップST7:YESの場合)、当該人物を追跡対象の人物として選定する(図4のステップST6)。
物体選定部13は、当該人物の検出結果についての信頼度が基準信頼度よりも小さければ(図4のステップST7:NOの場合)、当該人物を追跡対象の人物から除外する。
物体検出部11により検出された人物の全てについて、追跡対象の人物であるか否かの判定処理が終了するまで、ステップST4~ST7の処理が繰り返される。
図8では、基準信頼度が50である例を示している。
このため、図8の例では、人物C、人物D、人物E及び人物Fが混雑領域に存在しているが、人物E及び人物Fの検出結果についての信頼度が基準信頼度以上であるために、人物E及び人物Fが、追跡対象の人物として選定されている。
一方、人物C及び人物Dの検出結果についての信頼度が基準信頼度よりも小さいために、人物C及び人物Dは、追跡対象の人物から除外されている。
なお、人物Bの検出結果についての信頼度は、基準信頼度よりも小さいが、既に、混雑度に基づいて、追跡対象の人物として選定されている。
このため、最終的には、人物A、人物B、人物E及び人物Fが追跡対象の人物として選定されている。
図9は、時系列映像の解像度と時系列映像のフレームレートとの組み合わせに対応する特徴量の重み付け情報の一例を示す説明図である。
図9では、特徴量が「色」、「動き」及び「エッジ」である例を示している。色は物体である人物の色、動きは物体である人物の動き、エッジは物体である人物の形状を表すものである。
図9では、時系列映像の解像度が〇〇〇[ppi]又は△△△[ppi]、フレームレートが□□□[fps]又は☆☆☆[fps]である例を示している。また、解像度〇〇〇[ppi]が解像度△△△[ppi]よりも高く、フレームレート□□□[fps]がフレームレート☆☆☆[fps]よりも高い例を示している。
例えば、時系列映像の解像度が〇〇〇[ppi]で、時系列映像のフレームレートが□□□[fps]である場合の組み合わせは、「色」、「動き」及び「エッジ」に対する重み付けが、色:動き:エッジ=5:3:3であることを示している。
また、時系列映像の解像度が△△△[ppi]で、時系列映像のフレームレートが☆☆☆□[fps]である場合の組み合わせは、「色」、「動き」及び「エッジ」に対する重み付けが、色:動き:エッジ=9:3:2であることを示している。
例えば、カメラ1の設置角度及び追跡対象の物体の種類に対応する特徴量の重み付け情報が重み付け情報記憶部14に記憶されているものであってもよい。
また、カメラ1の設置角度及び時系列映像内の混雑度合に対応する特徴量の重み付け情報が重み付け情報記憶部14に記憶されているものであってもよい。
次に、特徴量算出部15は、重み付け情報記憶部14に記憶されている複数の重み付け情報の中から、特定した組み合わせに対応する重み付け情報を取得する。
次に、特徴量算出部15は、映像フレーム毎に、取得した重み付け情報に従って、物体選定部13により選定された各々の人物の特徴量Pをそれぞれ算出する(図4のステップST8)。
特徴量算出部15は、例えば、人物の特徴量Pの要素として、人物の色を示す特徴量P1、人物の動きを示す特徴量P2及び人物のエッジを示す特徴量P3をそれぞれ算出する。
特徴量P1,P2及P3の算出処理自体は、公知の技術であるため詳細な説明を省略する。
特徴量算出部15は、人物の色を示す特徴量P1、人物の動きを示す特徴量P2及び人物のエッジを示す特徴量P3をそれぞれ算出すると、重み付け情報記憶部14から取得した重み付け情報に従って、特徴量P1,P2及P3の重み付け加算を行う。
特徴量算出部15は、特徴量P1,P2及P3の重み付け加算結果を最終的な特徴量Pとして物体追跡部16に出力する。
例えば、時系列映像の解像度が△△△[ppi]で、時系列映像のフレームレートが□□□[fps]である場合、特徴量算出部15は、「色」、「動き」及び「エッジ」に対する重み付け情報として、色:動き:エッジ=5:4:3を取得する。
この場合、特徴量算出部15は、この重み付け情報を用いて、例えば、以下の式(1)に示すように、特徴量Pを算出する。
物体追跡部16は、互いに異なる映像フレーム内に存在している人物の間の対応付け結果を人物の追跡結果として出力する。
互いに異なる映像フレーム内に存在している人物の間の対応付け方法としては、例えば、以下の非特許文献5に開示されている方法を用いることができる。
[非特許文献5]
“Globally-Optimal Greedy Algorithms for Tracking a Variable Number of Objects” In CVPR,2011.
例えば、映像フレーム(1)に存在している人物が、人物A、人物B、人物E及び人物Fであり、映像フレーム(2)に存在している人物が、人物A’、人物B’、人物E’及び人物F’であるとする。
このとき、映像フレーム(1)に存在している人物Aの特徴量がPA=30、人物Bの特徴量がPB=40、人物Eの特徴量がPE=50、人物Fの特徴量がPF=60であるとする。
また、映像フレーム(2)に存在している人物A’の特徴量がPA’=32、人物B’の特徴量がPB’=42、人物E’の特徴量がPE’=48、人物F’の特徴量がPF’=67であるとする。
さらに、対応付けが可能な2つの映像フレーム間での特徴量の最大差分が3であるとする。
しかしながら、人物Fの特徴量PF=60と、人物F’の特徴量PF’=67との差分が7であり、この差分が特徴量の最大差分である3以上である。このため、映像フレーム(1)に存在している人物Fは、映像フレーム(2)に存在しているどの人物とも対応付けられない。
また、映像フレーム(2)に存在している人物F’についても、映像フレーム(1)に存在しているどの人物とも対応付けられない。
しかし、人物Aの特徴量PA=37と、人物A’の特徴量PA’=32との差分が5であり、この差分が特徴量の最大差分である3以上である。また、人物Aの特徴量PA=37と、人物B’の特徴量PB’=42との差分が5であり、この差分が特徴量の最大差分である3以上である。
このため、映像フレーム(1)に存在している人物Aは、映像フレーム(2)に存在しているどの人物とも対応付けられない。
上記実施の形態1では、特徴量算出部15が、重み付け情報記憶部14に記憶されている複数の組み合わせに対応する重み付け情報の中から、カメラ1から出力された映像情報が示す解像度及びフレームレートの組み合わせと一致している組み合わせに対応する重み付け情報を取得する例を示している。
しかしながら、重み付け情報記憶部14には、カメラ1から出力された映像情報が示す解像度及びフレームレートの組み合わせと一致している組み合わせに対応する重み付け情報が記憶されていない場合もある。
この実施の形態2では、カメラ1から出力された映像情報が示す解像度及びフレームレートの組み合わせと一致している組み合わせに対応する重み付け情報が記憶されていない場合でも、特徴量算出部15が、重み付け情報記憶部14に記憶されている複数の重み付け情報の中から、適正な重み付け情報を取得できる例を説明する。
図10及び図11において、図1及び図2と同一符号は同一または相当部分を示すので説明を省略する。
特徴量算出部40は、例えば図11に示す特徴量算出回路50で実現される。
特徴量算出部40は、重み付け情報記憶部14に記憶されている複数の重み付け情報に対応する組み合わせの中に、物体検出部11に与えられる時系列映像の解像度と物体検出部11に与えられる時系列映像のフレームレートとの組み合わせと一致している組み合わせがあるか否かを判定する処理を実施する。
即ち、特徴量算出部40は、重み付け情報記憶部14に記憶されている複数の重み付け情報に対応する組み合わせの中に、カメラ1から出力された映像情報が示す解像度及びフレームレートの組み合わせと一致している組み合わせがあるか否かを判定する処理を実施する。
特徴量算出部40は、一致している組み合わせがあると判定すれば、重み付け情報記憶部14から一致している組み合わせに対応する重み付け情報を取得する処理を実施する。
特徴量算出部40は、算出した類似度に基づいて、重み付け情報記憶部14に記憶されている複数の重み付け情報の中から、いずれか1つの重み付け情報を取得する処理を実施する。
特徴量算出部40は、図1の特徴量算出部15と同様に、映像フレーム毎に、取得した重み付け情報に従って、物体選定部13により選定された各々の人物の特徴量をそれぞれ算出する処理を実施する。
物体検出回路21、混雑度推定回路22、物体選定回路23、特徴量算出回路50及び物体追跡回路26は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、または、これらを組み合わせたものが該当する。
図10の物体追跡装置がソフトウェア又はファームウェアなどで実現される場合、重み付け情報記憶部14を図3に示すコンピュータのメモリ34上に構成するとともに、物体検出部11、混雑度推定部12、物体選定部13、特徴量算出部40及び物体追跡部16の処理手順をコンピュータに実行させるためのプログラムをメモリ34に格納し、コンピュータのプロセッサ33がメモリ34に格納されているプログラムを実行するようにすればよい。
特徴量算出部40以外は、上記実施の形態1と同様であるため、以下、図12を参照しながら、特徴量算出部40の処理内容だけを説明する。
図12は、この発明の実施の形態2による物体追跡装置の特徴量算出部40における処理内容を示すフローチャートである。
特徴量算出部40は、重み付け情報記憶部14に記憶されている複数の重み付け情報に対応する組み合わせの中に、取得した映像情報が示す解像度及びフレームレートの組み合わせと一致している組み合わせがあるか否かを判定する(図12のステップST12)。
図9の例では、時系列映像の解像度とフレームレートの組み合わせとして、解像度が〇〇〇[ppi]又は△△△[ppi]と、フレームレートが□□□[fps]又は☆☆☆[fps]である場合の4通りの組み合わせである。
したがって、図9の例では、取得した映像情報が示す解像度が〇〇〇[ppi]又は△△△[ppi]であり、かつ、取得した映像情報が示すフレームレートが□□□[fps]又は☆☆☆[fps]であれば、特徴量算出部40は、一致している組み合わせがあると判定する。
特徴量算出部40は、一致している組み合わせがないと判定すれば(図12のステップST12:NOの場合)、重み付け情報記憶部14に記憶されている複数の重み付け情報に対応する組み合わせにおける解像度及びフレームレートと、取得した映像情報が示す解像度及びフレームレートとの類似度をそれぞれ算出する(図12のステップST14)。
ここでは、説明の便宜上、取得した映像情報が示す解像度がa、取得した映像情報が示すフレームレートがbであるとする。
また、解像度〇〇〇[ppi]がa1、解像度△△△[ppi]がa2、フレームレート□□□[fps]がb1、フレームレート☆☆☆[fps]がb2であるとする。
解像度〇〇〇[ppi]とフレームレート□□□[fps]の組み合わせが組み合わせ(1)、解像度〇〇〇[ppi]とフレームレート☆☆☆[fps]の組み合わせが組み合わせ(2)、解像度△△△[ppi]とフレームレート□□□[fps]の組み合わせが組み合わせ(3)、解像度△△△[ppi]とフレームレート☆☆☆[fps]の組み合わせが組み合わせ(4)であるとする。
また、特徴量算出部40は、以下の式(4)に示すように、取得した映像情報が示すフレームレートbと、フレームレートb1との差分Δb1を算出するとともに、以下の式(5)に示すように、取得した映像情報が示すフレームレートbと、フレームレートb2との差分Δb2を算出する。
特徴量算出部40は、以下の式(7)に示すように、組み合わせ(2)における解像度a1及びフレームレートb2と、取得した映像情報が示す解像度a及びフレームレートbとの類似度R2を算出する。
特徴量算出部40は、以下の式(9)に示すように、組み合わせ(4)における解像度a2及びフレームレートb2と、取得した映像情報が示す解像度a及びフレームレートbとの類似度R4を算出する。
特徴量算出部40は、重み付け情報記憶部14に記憶されている複数の重み付け情報の中から、最も高い類似度に係る組み合わせに対応する重み付け情報を取得する(図12のステップST16)。
例えば、組み合わせ(1)~(4)の中で、最も高い類似度に係る組み合わせが組み合わせ(1)であれば、「色」、「動き」及び「エッジ」に対する重み付けが、色:動き:エッジ=5:3:3であることを示する重み付け情報を取得する。
また、最も高い類似度に係る組み合わせが組み合わせ(2)であれば、「色」、「動き」及び「エッジ」に対する重み付けが、色:動き:エッジ=8:2:2であることを示する重み付け情報を取得する。
Claims (7)
- 時系列映像を構成している映像フレーム毎に、当該映像フレーム内に存在している1つ以上の物体を検出する物体検出部と、
映像フレーム毎に、前記物体検出部により検出された各々の物体が存在している領域の混雑度をそれぞれ推定する混雑度推定部と、
映像フレーム毎に、前記混雑度推定部による混雑度の推定結果を参照して、前記物体検出部により検出された1つ以上の物体の中から、混雑度が第1の閾値以下の領域に存在している物体をそれぞれ選定する物体選定部と、
映像フレーム毎に、前記物体選定部により選定された各々の物体の特徴量をそれぞれ算出する特徴量算出部と、
前記特徴量算出部により算出された各々の物体の特徴量に従って、前記物体選定部により選定された互いに異なる映像フレーム内に存在している物体の間の対応付けを行う物体追跡部と
を備えた物体追跡装置。 - 前記物体検出部は、映像フレーム内に存在している各々の物体の検出結果の確からしさを示す信頼度をそれぞれ算出し、
前記物体選定部は、混雑度が前記第1の閾値よりも大きい領域に存在している物体であっても、前記物体検出部により算出された検出結果の信頼度が第2の閾値以上の物体については選定することを特徴とする請求項1記載の物体追跡装置。 - 前記物体選定部は、前記物体検出部による各々の物体の検出結果の確からしさを示す信頼度をそれぞれ算出し、混雑度が前記第1の閾値よりも大きい領域に存在している物体であっても、算出した信頼度が第2の閾値以上の物体については選定することを特徴とする請求項1記載の物体追跡装置。
- 前記物体の特徴量として、複数の特徴量があり、
複数の特徴量の重み付け情報を記憶している重み付け情報記憶部を備え、
前記特徴量算出部は、前記重み付け情報記憶部に記憶されている重み付け情報に従って前記物体選定部により選定された各々の物体の特徴量をそれぞれ算出することを特徴とする請求項1記載の物体追跡装置。 - 前記重み付け情報記憶部は、時系列映像の解像度と時系列映像のフレームレートとの組み合わせ毎に、前記重み付け情報を記憶していることを特徴とする請求項4記載の物体追跡装置。
- 前記特徴量算出部は、前記重み付け情報記憶部に記憶されている複数の重み付け情報に対応する組み合わせの中に、前記物体検出部に与えられる時系列映像の解像度と前記物体検出部に与えられる時系列映像のフレームレートとの組み合わせと一致している組み合わせがなければ、前記重み付け情報記憶部に記憶されている複数の重み付け情報に対応する組み合わせにおける解像度及びフレームレートと、前記物体検出部に与えられる時系列映像の解像度及び前記物体検出部に与えられる時系列映像のフレームレートとの類似度をそれぞれ算出し、前記類似度に基づいて、前記重み付け情報記憶部に記憶されている複数の重み付け情報の中から、いずれか1つの重み付け情報を取得し、取得した重み付け情報に従って前記物体選定部により選定された各々の物体の特徴量をそれぞれ算出することを特徴とする請求項5記載の物体追跡装置。
- 物体検出部が、時系列映像を構成している映像フレーム毎に、当該映像フレーム内に存在している1つ以上の物体を検出し、
混雑度推定部が、映像フレーム毎に、前記物体検出部により検出された各々の物体が存在している領域の混雑度をそれぞれ推定し、
物体選定部が、映像フレーム毎に、前記混雑度推定部による混雑度の推定結果を参照して、前記物体検出部により検出された1つ以上の物体の中から、混雑度が第1の閾値以下の領域に存在している物体をそれぞれ選定し、
特徴量算出部が、映像フレーム毎に、前記物体選定部により選定された各々の物体の特徴量をそれぞれ算出し、
物体追跡部が、前記特徴量算出部により算出された各々の物体の特徴量に従って、前記物体選定部により選定された互いに異なる映像フレーム内に存在している物体の間の対応付けを行う
物体追跡方法。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019503834A JP6573744B2 (ja) | 2017-03-06 | 2017-03-06 | 物体追跡装置及び物体追跡方法 |
US16/483,074 US11074698B2 (en) | 2017-03-06 | 2017-03-06 | Object tracking device and object tracking method |
PCT/JP2017/008768 WO2018163243A1 (ja) | 2017-03-06 | 2017-03-06 | 物体追跡装置及び物体追跡方法 |
GB1911069.1A GB2573703B (en) | 2017-03-06 | 2017-03-06 | Object tracking device and object tracking method |
CN201780087806.0A CN110366741A (zh) | 2017-03-06 | 2017-03-06 | 物体跟踪装置和物体跟踪方法 |
TW106119760A TWI624806B (zh) | 2017-03-06 | 2017-06-14 | 物體追蹤裝置及物體追蹤方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/008768 WO2018163243A1 (ja) | 2017-03-06 | 2017-03-06 | 物体追跡装置及び物体追跡方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2018163243A1 true WO2018163243A1 (ja) | 2018-09-13 |
Family
ID=62951733
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2017/008768 WO2018163243A1 (ja) | 2017-03-06 | 2017-03-06 | 物体追跡装置及び物体追跡方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11074698B2 (ja) |
JP (1) | JP6573744B2 (ja) |
CN (1) | CN110366741A (ja) |
GB (1) | GB2573703B (ja) |
TW (1) | TWI624806B (ja) |
WO (1) | WO2018163243A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI697846B (zh) | 2018-11-26 | 2020-07-01 | 財團法人工業技術研究院 | 物體辨識方法及其裝置 |
CN110895141A (zh) * | 2019-11-28 | 2020-03-20 | 梁彦云 | 住宅空间拥挤度分析平台 |
KR102311798B1 (ko) * | 2019-12-12 | 2021-10-08 | 포항공과대학교 산학협력단 | 다중 객체 추적 방법 및 장치 |
EP4036856B1 (en) * | 2021-02-02 | 2025-04-30 | Axis AB | Updating of annotated points in a digital image |
US12231802B2 (en) | 2021-08-04 | 2025-02-18 | Theia Scientific, LLC | System and method for multi-modal microscopy |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003187248A (ja) * | 2001-12-21 | 2003-07-04 | Mitsubishi Electric Corp | 画像処理システムおよび画像処理装置 |
JP2007164804A (ja) * | 2007-01-22 | 2007-06-28 | Asia Air Survey Co Ltd | 移動体検出システム、移動体検出装置、移動体検出方法及び移動体検出プログラム |
JP2012059224A (ja) * | 2010-09-13 | 2012-03-22 | Toshiba Corp | 移動物体追跡システムおよび移動物体追跡方法 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11341339A (ja) | 1998-05-29 | 1999-12-10 | Sony Corp | ビデオカメラ装置 |
TWI222595B (en) * | 2003-09-09 | 2004-10-21 | Icp Electronics Inc | Image overlapping display system and method |
JP4830650B2 (ja) | 2005-07-05 | 2011-12-07 | オムロン株式会社 | 追跡装置 |
JP2009508450A (ja) * | 2005-09-13 | 2009-02-26 | ヴェリフィコン コーポレーション | 物体のトラッキングおよび活動分析のためのシステムおよび方法 |
JP5121508B2 (ja) * | 2008-03-03 | 2013-01-16 | キヤノン株式会社 | 画像処理装置、画像処理方法、プログラム及び記憶媒体 |
JP5227888B2 (ja) | 2009-05-21 | 2013-07-03 | 富士フイルム株式会社 | 人物追跡方法、人物追跡装置および人物追跡プログラム |
JP2012133445A (ja) * | 2010-12-20 | 2012-07-12 | Panasonic Corp | 目的物検出装置および目的物検出方法 |
JP4784709B1 (ja) * | 2011-03-10 | 2011-10-05 | オムロン株式会社 | 対象物追跡装置、対象物追跡方法、および制御プログラム |
JP4855556B1 (ja) * | 2011-03-22 | 2012-01-18 | 株式会社モルフォ | 動体検出装置、動体検出方法、動体検出プログラム、動体追跡装置、動体追跡方法及び動体追跡プログラム |
JP5792990B2 (ja) * | 2011-04-28 | 2015-10-14 | キヤノン株式会社 | 画像処理装置およびその制御方法 |
CN103548041B (zh) | 2011-06-28 | 2016-06-29 | 国际商业机器公司 | 用于确定主观层级聚类中的每个特征的权重的信息处理装置、方法和程序 |
JP6033695B2 (ja) * | 2013-01-28 | 2016-11-30 | 株式会社日立製作所 | エレベータ監視装置及びエレベータ監視方法 |
US9383840B2 (en) * | 2013-04-22 | 2016-07-05 | Samsung Display Co., Ltd. | Method and apparatus to reduce display lag using image overlay |
US10037466B2 (en) * | 2013-08-23 | 2018-07-31 | Nec Corporation | Video processing apparatus, video processing method, and video processing program |
JP6200306B2 (ja) * | 2013-12-09 | 2017-09-20 | 株式会社日立製作所 | 映像検索装置、映像検索方法、および記憶媒体 |
GB2537780B (en) * | 2014-03-11 | 2019-04-17 | Mitsubishi Electric Corp | Person detecting device and person detecting method |
-
2017
- 2017-03-06 WO PCT/JP2017/008768 patent/WO2018163243A1/ja active Application Filing
- 2017-03-06 GB GB1911069.1A patent/GB2573703B/en active Active
- 2017-03-06 JP JP2019503834A patent/JP6573744B2/ja active Active
- 2017-03-06 CN CN201780087806.0A patent/CN110366741A/zh active Pending
- 2017-03-06 US US16/483,074 patent/US11074698B2/en active Active
- 2017-06-14 TW TW106119760A patent/TWI624806B/zh not_active IP Right Cessation
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003187248A (ja) * | 2001-12-21 | 2003-07-04 | Mitsubishi Electric Corp | 画像処理システムおよび画像処理装置 |
JP2007164804A (ja) * | 2007-01-22 | 2007-06-28 | Asia Air Survey Co Ltd | 移動体検出システム、移動体検出装置、移動体検出方法及び移動体検出プログラム |
JP2012059224A (ja) * | 2010-09-13 | 2012-03-22 | Toshiba Corp | 移動物体追跡システムおよび移動物体追跡方法 |
Also Published As
Publication number | Publication date |
---|---|
US20200013172A1 (en) | 2020-01-09 |
GB2573703A (en) | 2019-11-13 |
TWI624806B (zh) | 2018-05-21 |
GB201911069D0 (en) | 2019-09-18 |
JPWO2018163243A1 (ja) | 2019-11-07 |
US11074698B2 (en) | 2021-07-27 |
GB2573703B (en) | 2020-09-09 |
CN110366741A (zh) | 2019-10-22 |
TW201833870A (zh) | 2018-09-16 |
JP6573744B2 (ja) | 2019-09-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6573744B2 (ja) | 物体追跡装置及び物体追跡方法 | |
US20210227132A1 (en) | Method for tracking target in panoramic video, and panoramic camera | |
JP6555906B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP5766564B2 (ja) | 顔認証装置及び顔認証方法 | |
JP6927322B2 (ja) | 脈波検出装置、脈波検出方法、及びプログラム | |
US9721153B2 (en) | Image processing apparatus, image processing method, and storage medium that recognize an image based on a designated object type | |
JP2004199669A (ja) | 顔検出 | |
JP2004192637A (ja) | 顔検出 | |
US11394870B2 (en) | Main subject determining apparatus, image capturing apparatus, main subject determining method, and storage medium | |
US10586339B2 (en) | Device for measuring rotation of spherical body, measurement method, and program | |
JP7272024B2 (ja) | 物体追跡装置、監視システムおよび物体追跡方法 | |
JP2005174352A (ja) | オブジェクト検出 | |
US9858501B2 (en) | Reliability acquiring apparatus, reliability acquiring method, and reliability acquiring program | |
US20090207260A1 (en) | Image pickup apparatus and image pickup method | |
JP2005174353A (ja) | オブジェクト検出 | |
JP6116765B1 (ja) | 物体検出装置及び物体検出方法 | |
US20180314893A1 (en) | Information processing device, video image monitoring system, information processing method, and recording medium | |
JP2012181710A (ja) | オブジェクト追跡装置、方法、及びプログラム | |
US12067734B2 (en) | Image processing apparatus, image processing method, and storage medium | |
US11716448B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JP7243372B2 (ja) | 物体追跡装置および物体追跡方法 | |
WO2022049704A1 (ja) | 情報処理システム、情報処理方法、及びコンピュータプログラム | |
US10846548B2 (en) | Video recording apparatus and method therefor | |
US10372750B2 (en) | Information processing apparatus, method, program and storage medium | |
JP2014203133A (ja) | 画像処理装置、画像処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17899706 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2019503834 Country of ref document: JP Kind code of ref document: A |
|
ENP | Entry into the national phase |
Ref document number: 201911069 Country of ref document: GB Kind code of ref document: A Free format text: PCT FILING DATE = 20170306 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 17899706 Country of ref document: EP Kind code of ref document: A1 |