+

WO2018163243A1 - 物体追跡装置及び物体追跡方法 - Google Patents

物体追跡装置及び物体追跡方法 Download PDF

Info

Publication number
WO2018163243A1
WO2018163243A1 PCT/JP2017/008768 JP2017008768W WO2018163243A1 WO 2018163243 A1 WO2018163243 A1 WO 2018163243A1 JP 2017008768 W JP2017008768 W JP 2017008768W WO 2018163243 A1 WO2018163243 A1 WO 2018163243A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
video
feature amount
weighting information
person
Prior art date
Application number
PCT/JP2017/008768
Other languages
English (en)
French (fr)
Inventor
直大 澁谷
守屋 芳美
杉本 和夫
彰 峯澤
夢雄 王
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2019503834A priority Critical patent/JP6573744B2/ja
Priority to US16/483,074 priority patent/US11074698B2/en
Priority to PCT/JP2017/008768 priority patent/WO2018163243A1/ja
Priority to GB1911069.1A priority patent/GB2573703B/en
Priority to CN201780087806.0A priority patent/CN110366741A/zh
Priority to TW106119760A priority patent/TWI624806B/zh
Publication of WO2018163243A1 publication Critical patent/WO2018163243A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Definitions

  • the present invention relates to an object tracking device and an object tracking method for associating objects existing in different video frames.
  • the object tracking device disclosed in the following Patent Document 1 is a shooting device for shooting time-series images, or in order to prevent deterioration in tracking accuracy of objects even when the shooting environment of time-series images changes.
  • a function to automatically adjust the tracking parameter of the object is provided.
  • changes in the resolution of the time-series video and changes in the frame rate of the time-series video are assumed as changes in the photographing device.
  • changes in the shooting environment and changes in the relative positional relationship between the shooting device and the object to be monitored are assumed as changes in the shooting environment.
  • the conventional object tracking device is configured as described above, it is possible to prevent deterioration in tracking accuracy of an object even if a photographing device that captures time-series images or a shooting environment of time-series images changes. it can.
  • a photographing device that captures time-series images or a shooting environment of time-series images changes. it can.
  • all objects existing in the video frames are included in the target of association. For this reason, for example, even if it is difficult to detect an object with high accuracy, such as a situation where the monitoring area of the object is congested, the object detected by the object detection process is not subject to association. Included. Therefore, an object detected in error may be included in the correspondence target, and in such a case, there is a problem that the tracking accuracy of the object deteriorates.
  • the present invention has been made to solve the above-described problems, and provides an object tracking device and an object tracking method capable of preventing deterioration in tracking accuracy of an object even in a situation where an object monitoring area is congested.
  • the purpose is to obtain.
  • An object tracking device includes an object detection unit that detects one or more objects existing in a video frame for each video frame constituting a time-series video, and an object for each video frame.
  • Object detection by referring to the congestion level estimation unit for estimating the congestion level of the area where each object detected by the detection unit is present and the congestion level estimation result by the congestion level estimation unit for each video frame Selected from the one or more objects detected by the unit by the object selection unit for selecting each object existing in an area where the degree of congestion is equal to or less than the first threshold, and the object selection unit for each video frame.
  • a feature amount calculation unit that calculates the feature amount of each object, and the object tracking unit selects different images selected by the object selection unit according to the feature amount of each object calculated by the feature amount calculation unit.
  • F It is obtained to perform a mapping between the object that is present in the over arm.
  • the congestion degree estimation unit for estimating the congestion degree of the region where each object detected by the object detection unit exists is provided, and the object selection unit is provided for each video frame.
  • 2 is a flowchart showing an object tracking method that is a processing procedure when the object tracking apparatus of FIG. 1 is realized by software or firmware. It is explanatory drawing which shows an example of the detection result and reliability of a person by the object detection part. It is explanatory drawing which shows the example by which the congestion degree in an image
  • FIG. FIG. 1 is a block diagram showing an object tracking device according to Embodiment 1 of the present invention
  • FIG. 2 is a hardware configuration diagram showing the object tracking device according to Embodiment 1 of the present invention.
  • a camera 1 is a photographing device that photographs a monitoring area, photographs a time-series video composed of a plurality of video frames, and outputs the time-series video to an object tracking device.
  • the camera 1 also outputs video information indicating the resolution of the time-series video and the frame rate of the time-series video to the object tracking device.
  • a video such as a movie can be considered as a time-series video composed of a plurality of video frames.
  • the video is not limited to a video such as a video, and is, for example, a video in which a plurality of still images are arranged in time series. May be.
  • the photographing device is the camera 1
  • the photographing device is not limited to the camera 1 and may be, for example, a digital video recorder.
  • a recording medium on which a time-series video composed of a plurality of video frames is recorded in advance is connected to the object tracking device instead of the camera 1, and the time-series video recorded on the recording medium is tracked. It may be taken into the device.
  • the object detection unit 11 is realized by, for example, an object detection circuit 21 illustrated in FIG.
  • the object detection unit 11 performs processing for acquiring time-series video and video information output from the camera 1.
  • the object detection unit 11 performs a process of detecting one or more objects existing in the video frame for each video frame constituting the acquired time-series video.
  • the object detection unit 11 performs a process of calculating the reliability indicating the certainty of the detection result of the object.
  • the congestion level estimation unit 12 is realized by, for example, a congestion level estimation circuit 22 shown in FIG.
  • the congestion level estimation unit 12 analyzes a video of the video frame, thereby performing a process of estimating the congestion level of the area where each object detected by the object detection unit 11 exists.
  • the object selection unit 13 is realized by, for example, an object selection circuit 23 shown in FIG.
  • the object selection unit 13 refers to the estimation result of the congestion level by the congestion level estimation unit 12 for each video frame, and the congestion level is a reference congestion level from one or more objects detected by the object detection unit 11. (First threshold) A process of selecting objects existing in the following areas is performed. However, even if the object selection unit 13 is an object that exists in a region where the congestion level is larger than the reference congestion level, the reliability of the detection result calculated by the object detection unit 11 is the reference reliability (second Select objects that exceed the threshold.
  • the weighting information storage unit 14 is realized by, for example, the weighting information storage circuit 24 shown in FIG.
  • the weighting information storage unit 14 stores weighting information indicating weighting of a plurality of feature amounts for each combination of the resolution of the time-series video and the frame rate of the time-series video.
  • the feature amount calculation unit 15 is realized by, for example, a feature amount calculation circuit 25 illustrated in FIG.
  • the feature amount calculation unit 15 includes a combination of the resolution and frame rate of the time-series video indicated by the video information output from the camera 1 among the combinations corresponding to the plurality of weighting information stored in the weighting information storage unit 14. A process for identifying matching combinations is performed.
  • the feature amount calculation unit 15 acquires weighting information corresponding to the identified combination from the plurality of weighting information stored in the weighting information storage unit 14.
  • the feature amount calculation unit 15 performs a process of calculating the feature amount of each object selected by the object selection unit 13 according to the acquired weighting information for each video frame.
  • the object tracking unit 16 is realized by, for example, the object tracking circuit 26 shown in FIG.
  • the object tracking unit 16 associates objects existing in different video frames selected by the object selection unit 13 according to the feature amount of each object calculated by the feature amount calculation unit 15.
  • each of the object detection unit 11, the congestion degree estimation unit 12, the object selection unit 13, the weighting information storage unit 14, the feature amount calculation unit 15, and the object tracking unit 16 that are components of the object tracking device is illustrated in FIG. 2.
  • the object detection circuit 21 the congestion degree estimation circuit 22, the object selection circuit 23, the weighting information storage circuit 24, the feature amount calculation circuit 25, and the object tracking circuit 26 is assumed.
  • the weighting information storage circuit 24 includes, for example, a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable Read Only Memory), an EEPROM (Electrically Emmable Memory), and the like.
  • the object detection circuit 21, the congestion degree estimation circuit 22, the object selection circuit 23, the feature amount calculation circuit 25, and the object tracking circuit 26 are, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, An application specific integrated circuit (ASIC), a field-programmable gate array (FPGA), or a combination thereof corresponds to the ASIC (Application Specific Integrated Circuit).
  • ASIC Application Specific integrated circuit
  • FPGA field-programmable gate array
  • the components of the object tracking device are not limited to those realized by dedicated hardware, and the object tracking device may be realized by software, firmware, or a combination of software and firmware.
  • Software or firmware is stored as a program in the memory of a computer.
  • the computer means hardware that executes a program, and includes, for example, a CPU (Central Processing Unit), a central processing unit, a processing unit, an arithmetic unit, a microprocessor, a microcomputer, a processor, a DSP (Digital Signal Processor), and the like. .
  • FIG. 3 is a hardware configuration diagram of a computer when the object tracking apparatus of FIG. 1 is realized by software or firmware.
  • a video input device 31 is an interface device for the camera 1, and acquires time-series video output from the camera 1.
  • the video information input device 32 is an interface device for the camera 1 and acquires video information output from the camera 1.
  • the processor 33 executes a program stored in the memory 34.
  • the memory 34 stores programs executed by the processor 33, weighting information, and the like.
  • the result output unit 35 is, for example, an interface device for a display device or the like, and outputs a tracking result of the object tracking device.
  • FIG. 4 is a flowchart showing an object tracking method which is a processing procedure when the object tracking apparatus of FIG. 1 is realized by software or firmware.
  • the object tracking target may be any object that exists in the monitoring area, and is not limited to a person.
  • an object such as a vehicle, an animal, or a robot may be a tracking target.
  • the camera 1 that captures the monitoring area captures a time-series video composed of a plurality of video frames and outputs the time-series video to the object tracking device.
  • the camera 1 also outputs video information indicating the resolution of the time-series video and the frame rate of the time-series video to the object tracking device.
  • the object detection unit 11 detects one or more persons present in the video frame for each video frame constituting the time-series video (see FIG. Step ST1 of 4). Since the detection process itself of the person (object) existing in the video frame is a known technique, a detailed description thereof is omitted, but for example, the following detection method can be used. For example, a color gradient direction and a luminance gradient direction in a video frame are extracted as feature quantities (ACF: Aggregated Channel Features), and an AdaBoost (Adaptive Boosting) classifier detects a person using the feature quantity ACF. The method can be used. This detection method is disclosed in Non-Patent Document 1 below. [Non-Patent Document 1] “Fast Feature Pyramids for Object Detection”, In PAMI, 2014.
  • Non-Patent Document 2 “Histograms of Oriented Gradients for Human Detection,” In CVPR, 2005 Further, a method of detecting a person using deep learning can be used. This detection method is disclosed, for example, in Non-Patent Document 3 below.
  • Non-Patent Document 3 “Deep Neural Networks for Object Detection”, In NIPS, 2013
  • the object detection unit 11 When the object detection unit 11 detects one or more persons present in the video frame, the object detection unit 11 outputs the person detection result to the congestion degree estimation unit 12 and the object selection unit 13.
  • the object detection unit 11 indicates the coordinate information indicating the coordinates of the area where the person exists in the video frame or the coordinates of the rectangular area including the person existing in the video frame as the detection result of the person. Output coordinate information.
  • the coordinates of the area where the person exists for example, the coordinates of the edge representing the shape of the person can be considered.
  • the coordinates of a rectangular area including a person are also handled as the coordinates of the area where the person exists.
  • the object detection unit 11 calculates the reliability indicating the certainty of the person detection result, and outputs the calculated reliability to the object selection unit 13 (step ST2 in FIG. 4).
  • the reliability indicating the certainty of the detection result indicates the probability that the object detected by the object detection unit 11 is a person, and the higher the possibility that the object is a person, the larger the value. Since the calculation method of reliability is a well-known technique, detailed description is abbreviate
  • FIG. 5 is an explanatory diagram illustrating an example of a person detection result and reliability by the object detection unit 11.
  • FIG. 5 shows an example in which there are six persons in one video frame.
  • FIG. 5 shows a rectangular area including a person detected by the object detection unit 11, and the reliability of the detection result of the person included in the rectangular area is around each rectangular area. It is shown.
  • symbols A, B, C, D, E, and F are attached in a rectangular area that includes a person as a symbol for identifying the six persons detected by the object detection unit 11. .
  • the congestion degree estimation unit 12 acquires the time-series video output from the camera 1 and the detection result of the object detection unit 11.
  • the congestion degree estimation unit 12 analyzes the video of the video frame for each video frame constituting the time-series video, thereby congesting the area where each person detected by the object detection unit 11 exists.
  • Each degree is estimated (step ST3 in FIG. 4). Since the method for estimating the degree of congestion of a region is a known technique, detailed description thereof is omitted.
  • the congestion degree estimation method is disclosed in Non-Patent Document 4 below, for example.
  • Non-Patent Document 4 “Estimation of Crown Density using Image Processing” In IEEE Colloquium on Image Processing for Security Applications, 2002.
  • FIG. 6 is an explanatory diagram showing an example in which the degree of congestion in a video frame is converted into a heat map.
  • FIG. 6 shows the number of persons per 1 square meter (number of persons / m 2 ) as the degree of congestion.
  • the object selection unit 13 refers to the estimation result of the congestion level by the congestion level estimation unit 12 for each video frame, and the congestion level is equal to or less than the reference congestion level among one or more persons detected by the object detection unit 11. A person who exists in the area is selected. However, even if the object selection unit 13 is a person who is present in an area where the degree of congestion is greater than the reference congestion degree, the object selection unit 13 detects a person whose reliability of the detection result calculated by the object detection unit 11 is greater than or equal to the reference reliability. Select.
  • the person selection process by the object selection unit 13 will be described in detail.
  • the object selection unit 13 refers to the estimation result of the congestion level by the congestion level estimation unit 12 for each video frame, and grasps the congestion level of the area where each person detected by the object detection unit 11 exists. .
  • the object selection unit 13 determines whether or not a person who has not yet been subjected to the determination process as to whether or not it is a person to be tracked remains among one or more persons detected by the object detection unit 11. Determination is made (step ST4 in FIG. 4).
  • the determination process is the process of step ST5 or the process of step ST7.
  • the object selection unit 13 selects a person by the object selection unit 13 if there is no person who has not yet been subjected to the process of determining whether or not the person is a tracking target person (in the case of step ST4: NO in FIG. 4). The process ends, and the process proceeds to step ST8.
  • step ST4 in FIG. 4: YES If there is still a person who has not yet been subjected to the process of determining whether or not the object selection unit 13 is a person to be tracked (step ST4 in FIG. 4: YES), there is a person who has not been determined.
  • the congestion degree of the area where the person is present is compared with a reference congestion degree set in advance, and it is determined whether or not the congestion degree of the area where the person exists is equal to or less than the reference congestion degree (FIG. 4 step ST5). If the congestion level of the area where the person exists is equal to or less than the reference congestion level (step ST5 in FIG. 4: YES), the object selection unit 13 selects the person as a tracking target person (in FIG. 4). Step ST6).
  • FIG. 7 is an explanatory diagram illustrating a selection result of the object selection unit 13 based on the degree of congestion.
  • an area where the degree of congestion is larger than the reference congestion degree is set as the congestion area, and the person C, the person D, the person E, and the person F exist in the congestion area. For this reason, in the example of FIG. 7, person A and person B are selected as persons to be tracked.
  • the object selection unit 13 determines the detection result of the person calculated by the object detection unit 11. And the reference reliability set in advance are compared to determine whether or not the reliability of the detection result of the person is equal to or higher than the reference reliability (step ST7 in FIG. 4). If the reliability of the detection result of the person is equal to or higher than the reference reliability (step ST7 in FIG. 4: YES), the object selection unit 13 selects the person as a person to be tracked (step in FIG. 4). ST6). If the reliability of the detection result of the person is lower than the reference reliability (step ST7: NO in FIG. 4), the object selection unit 13 excludes the person from the tracking target person. The processes of steps ST4 to ST7 are repeated until the determination process for determining whether or not all persons detected by the object detection unit 11 are tracking target persons is completed.
  • FIG. 8 is an explanatory diagram illustrating a selection result of the object selection unit 13 based on the reliability.
  • FIG. 8 shows an example in which the reference reliability is 50.
  • the person C, the person D, the person E, and the person F exist in the crowded area, but the reliability of the detection results of the person E and the person F is higher than the reference reliability.
  • the person E and the person F are selected as the persons to be tracked.
  • the reliability of the detection results of the persons C and D is lower than the reference reliability, the persons C and D are excluded from the tracking target persons.
  • the reliability of the detection result of the person B is smaller than the reference reliability, but has already been selected as a person to be tracked based on the degree of congestion. Therefore, finally, the person A, the person B, the person E, and the person F are selected as the persons to be tracked.
  • the weighting information storage unit 14 stores weighting information indicating the weighting of a plurality of feature amounts for each combination of the resolution of the time-series video and the frame rate of the time-series video.
  • FIG. 9 is an explanatory diagram illustrating an example of weight information of feature amounts corresponding to a combination of the resolution of the time-series video and the frame rate of the time-series video.
  • FIG. 9 shows an example in which the feature amounts are “color”, “movement”, and “edge”. The color represents the color of the person as an object, the motion represents the movement of the person as an object, and the edge represents the shape of the person as an object.
  • FIG. 9 illustrates an example in which the resolution of the time-series video is 0.00 [ppi] or ⁇ [ppi] and the frame rate is ⁇ [fps] or ⁇ [fps].
  • the resolution 0.00 [ppi] is higher than the resolution ⁇ [ppi]
  • the frame rate ⁇ [fps] is higher than the frame rate ⁇ [fps].
  • weighting information of the feature amount corresponding to the resolution of the time-series video and the frame rate of the time-series video is stored in the weighting information storage unit 14, but is not limited thereto.
  • weighting information of feature amounts corresponding to the installation angle of the camera 1 and the type of object to be tracked may be stored in the weighting information storage unit 14.
  • the weighting information of the feature amount corresponding to the installation angle of the camera 1 and the degree of congestion in the time-series video may be stored in the weighting information storage unit 14.
  • the feature amount calculation unit 15 includes a combination of the resolution and frame rate of the time-series video indicated by the video information output from the camera 1 among the combinations corresponding to the plurality of weighting information stored in the weighting information storage unit 14. Identify matching combinations. Next, the feature amount calculation unit 15 acquires weighting information corresponding to the identified combination from the plurality of weighting information stored in the weighting information storage unit 14. Next, the feature quantity calculation unit 15 calculates the feature quantity P of each person selected by the object selection unit 13 according to the acquired weighting information for each video frame (step ST8 in FIG. 4).
  • the feature amount calculation unit 15 calculates, for example, a feature amount P 1 indicating the color of the person, a feature amount P 2 indicating the movement of the person, and a feature amount P 3 indicating the edge of the person as elements of the feature amount P of the person. To do. Since the calculation process itself of the feature amounts P 1 , P 2 and P 3 is a known technique, a detailed description thereof will be omitted.
  • the feature quantity calculation unit 15 calculates the feature quantity P 1 indicating the color of the person, the feature quantity P 2 indicating the movement of the person, and the feature quantity P 3 indicating the edge of the person, the weighting information acquired from the weighting information storage unit 14 is obtained.
  • weighting addition of the feature amounts P 1 , P 2 and P 3 is performed.
  • the feature amount calculation unit 15 outputs the weighted addition result of the feature amounts P 1 , P 2 and P 3 to the object tracking unit 16 as the final feature amount P.
  • the feature quantity calculation unit 15 uses the weighting information to calculate the feature quantity P as shown in the following formula (1), for example.
  • Non-Patent Document 5 “Globally-Optimal Greedy Algorithms for Tracking a Variable Number of Objects” In CVPR, 2011.
  • the association between persons is to associate persons having similar feature amounts, and an example of association between persons will be briefly described below.
  • the persons existing in the video frame (1) are the person A, the person B, the person E, and the person F
  • the persons existing in the video frame (2) are the person A ′, the person B ′, It is assumed that the person E ′ and the person F ′.
  • the maximum difference in feature amount between two video frames that can be associated is 3.
  • the congestion degree estimation unit 12 that estimates the congestion degree of the area where each object detected by the object detection unit 11 exists for each video frame.
  • the object selection unit 13 refers to the estimation result of the congestion level by the congestion level estimation unit 12 for each video frame, and the congestion level is determined from the one or more objects detected by the object detection unit 11. Since an object existing in an area equal to or lower than the first threshold value is selected, there is an effect that it is possible to prevent deterioration in tracking accuracy of the object even in a situation where the monitoring area of the object is congested. .
  • the detection result calculated by the object detection unit 11 Since an object having a reliability level equal to or higher than the second threshold is selected, the number of objects that can be tracked can be increased without deteriorating the tracking accuracy of the object.
  • the object detection unit 11 calculates the reliability indicating the certainty of the detection result of each object.
  • the object selection unit 13 uses the object detection unit 11 to calculate each object.
  • the reliability indicating the certainty of the detection result may be calculated.
  • the feature amount calculation unit 15 has the resolution and frame rate indicated by the video information output from the camera 1 out of the weighting information corresponding to the plurality of combinations stored in the weighting information storage unit 14.
  • the example which acquires the weighting information corresponding to the combination which matches this combination is shown.
  • the weighting information storage unit 14 may not store weighting information corresponding to a combination that matches a combination of resolution and frame rate indicated by the video information output from the camera 1.
  • the feature amount calculation unit 15 performs the weighting. An example in which appropriate weighting information can be acquired from a plurality of weighting information stored in the information storage unit 14 will be described.
  • FIG. 10 is a block diagram showing an object tracking apparatus according to Embodiment 2 of the present invention
  • FIG. 11 is a hardware block diagram showing an object tracking apparatus according to Embodiment 2 of the present invention.
  • the feature amount calculation unit 40 is realized by, for example, a feature amount calculation circuit 50 illustrated in FIG.
  • the feature quantity calculation unit 40 includes the time series video resolution given to the object detection unit 11 and the time given to the object detection unit 11 among the combinations corresponding to the plurality of weighting information stored in the weighting information storage unit 14. Processing for determining whether there is a combination that matches the combination with the frame rate of the sequence video is performed.
  • the feature amount calculation unit 40 matches the combination of resolution and frame rate indicated by the video information output from the camera 1 among the combinations corresponding to the plurality of weighting information stored in the weighting information storage unit 14. A process for determining whether or not there is a combination is performed. If it is determined that there is a matching combination, the feature amount calculation unit 40 performs a process of acquiring weighting information corresponding to the matching combination from the weighting information storage unit 14.
  • the feature amount calculation unit 40 outputs the resolution and frame rate in the combination corresponding to the plurality of weighting information stored in the weighting information storage unit 14 and the camera 1.
  • a process of calculating the similarity between the resolution and the frame rate indicated by the video information is performed.
  • the feature amount calculation unit 40 performs a process of acquiring any one of the weighting information from the plurality of weighting information stored in the weighting information storage unit 14 based on the calculated similarity. Similar to the feature amount calculation unit 15 in FIG. 1, the feature amount calculation unit 40 performs a process of calculating the feature amount of each person selected by the object selection unit 13 according to the acquired weighting information for each video frame. carry out.
  • the object detection unit 11, the congestion degree estimation unit 12, the object selection unit 13, the weighting information storage unit 14, the feature amount calculation unit 40, and the object tracking unit 16, which are components of the object tracking device, are illustrated in FIG. 11.
  • This is assumed to be realized by dedicated hardware as shown in FIG. That is, it is assumed to be realized by the object detection circuit 21, the congestion degree estimation circuit 22, the object selection circuit 23, the weighting information storage circuit 24, the feature amount calculation circuit 50, and the object tracking circuit 26.
  • the object detection circuit 21, the congestion degree estimation circuit 22, the object selection circuit 23, the feature amount calculation circuit 50, and the object tracking circuit 26 are, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC, An FPGA or a combination thereof is applicable.
  • the components of the object tracking device are not limited to those realized by dedicated hardware, and the object tracking device may be realized by software, firmware, or a combination of software and firmware.
  • the object tracking apparatus of FIG. 10 is realized by software or firmware
  • the weighting information storage unit 14 is configured on the memory 34 of the computer shown in FIG. 3, and the object detection unit 11, the congestion degree estimation unit 12, the object selection A program for causing the computer to execute the processing procedure of the unit 13, the feature amount calculation unit 40, and the object tracking unit 16 is stored in the memory 34, and the processor 33 of the computer is configured to execute the program stored in the memory 34. That's fine.
  • FIG. 12 is a flowchart showing the processing contents in the feature amount calculation unit 40 of the object tracking device according to Embodiment 2 of the present invention.
  • the feature amount calculation unit 40 acquires video information output from the camera 1 (step ST11 in FIG. 12). Whether the feature amount calculation unit 40 has a combination that matches the combination of the resolution and the frame rate indicated by the acquired video information among the combinations corresponding to the plurality of weighting information stored in the weighting information storage unit 14. It is determined whether or not (step ST12 in FIG. 12).
  • the resolution is 00 [ppi] or ⁇ [ppi] and the frame rate is ⁇ [fps] or ⁇ [fps. ], There are four combinations. Therefore, in the example of FIG.
  • the resolution indicated by the acquired video information is “00 [ppi] or ⁇ [ppi]
  • the frame rate indicated by the acquired video information is ⁇ [fps] or If it is ⁇ [fps]
  • the feature amount calculation unit 40 determines that there is a matching combination.
  • step ST12 in FIG. 12 YES
  • the feature amount calculation unit 40 acquires weighting information corresponding to the matching combination from the weighting information storage unit 14 ( Step ST13 in FIG. 12). If the feature amount calculation unit 40 determines that there is no matching combination (step ST12 in FIG. 12: NO), the resolution in the combination corresponding to the plurality of weighting information stored in the weighting information storage unit 14 Then, the similarity between the frame rate and the resolution and frame rate indicated by the acquired video information is calculated (step ST14 in FIG. 12).
  • the method of calculating the similarity by the feature amount calculation unit 40 is not particularly limited.
  • the similarity is calculated as follows.
  • the resolution indicated by the acquired video information is a and the frame rate indicated by the acquired video information is b.
  • the resolution 00 [ppi] is a 1
  • the resolution ⁇ [ppi] is a 2
  • the frame rate ⁇ [fps] is b 1
  • the frame rate ⁇ [fps] is b 2.
  • the feature amount calculating unit 40 calculates a difference ⁇ a 1 between the resolution a indicated by the acquired video information and the resolution a 1 and also as shown in the following equation (3). Then, the difference ⁇ a 2 between the resolution a indicated by the acquired video information and the resolution a 2 is calculated. Further, as shown in the following formula (4), the feature amount calculation unit 40 calculates the difference ⁇ b 1 between the frame rate b indicated by the acquired video information and the frame rate b 1, and the following formula (5) ), The difference ⁇ b 2 between the frame rate b indicated by the acquired video information and the frame rate b 2 is calculated.
  • the feature amount calculation unit 40 has a similarity R between the resolution a 1 and the frame rate b 1 in the combination (1) and the resolution a and the frame rate b indicated by the acquired video information. 1 is calculated.
  • G is a constant.
  • the feature amount calculation unit 40 has a similarity R between the resolution a 1 and the frame rate b 2 in the combination (2) and the resolution a and the frame rate b indicated by the acquired video information. 2 is calculated.
  • the feature amount calculation unit 40 is similar to the resolution a 2 and the frame rate b 1 in the combination (3) and the resolution a and the frame rate b indicated by the acquired video information. and calculates the degree R 3. As shown in the following formula (9), the feature amount calculation unit 40 has a similarity R between the resolution a 2 and the frame rate b 2 in the combination (4) and the resolution a and the frame rate b indicated by the acquired video information. 4 is calculated.
  • Equation (10) shows an example of calculating the similarity R 1 for the combination (1), w a is the weighting factor for the difference .DELTA.a 1, is w b are weighting factors for the difference [Delta] b 1. Note that w a and w b are values of 0 or more and 1 or less.
  • the feature amount calculation unit 40 compares the similarity R for all the combinations and identifies the combination related to the highest similarity (step ST15 in FIG. 12).
  • the feature amount calculation unit 40 When acquiring the weighting information, the feature amount calculation unit 40, like the feature amount calculation unit 15 of FIG. 1, for each video frame, the feature amount of each person selected by the object selection unit 13 according to the acquired weighting information. Are respectively calculated (step ST17 in FIG. 12).
  • the feature quantity calculation unit 40 includes the combination corresponding to the plurality of weighting information stored in the weighting information storage unit 14 in the object detection unit 11. If there is no combination that coincides with the combination of the resolution of the time-series video provided and the frame rate of the time-series video provided to the object detection unit 11, it corresponds to a plurality of weighting information stored in the weighting information storage unit 14. The degree of similarity between the resolution and the frame rate in the combination, the resolution of the time-series video given to the object detection unit 11 and the frame rate of the time-series video given to the object detection unit 11 are calculated.
  • the feature-value calculation part 40 acquires any one weighting information from the some weighting information memorize
  • the feature amount of each object selected by the object selection unit 13 is calculated. Thereby, even when the weighting information corresponding to the combination that matches the combination of the resolution and the frame rate of the time-series video given to the object detection unit 11 is not stored in the weighting information storage unit 14, appropriate weighting information can be obtained. The effect which can be acquired is produced.
  • the present invention is suitable for an object tracking apparatus and an object tracking method for associating objects existing in different video frames.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

映像フレーム毎に、物体検出部(11)により検出された各々の物体が存在している領域の混雑度をそれぞれ推定する混雑度推定部(12)を設け、物体選定部(13)が、映像フレーム毎に、混雑度推定部(12)による混雑度の推定結果を参照して、物体検出部(11)により検出された1つ以上の物体の中から、混雑度が第1の閾値以下の領域に存在している物体をそれぞれ選定するように構成する。

Description

物体追跡装置及び物体追跡方法
 この発明は、互いに異なる映像フレーム内に存在している物体の間の対応付けを行う物体追跡装置及び物体追跡方法に関するものである。
 近年、時系列映像を構成している映像フレーム毎に、当該映像フレーム内に存在している1つ以上の物体を検出し、複数の映像フレーム内に存在している物体の間の対応付けを行うことで、物体の追跡を行う物体追跡装置が開発されている。
 以下の特許文献1に開示されている物体追跡装置は、時系列映像を撮影する撮影機器、あるいは、時系列映像の撮影環境が変化しても、物体の追跡精度の劣化を防止するために、物体の追跡パラメータを自動的に調整する機能を備えている。
 以下の特許文献1では、撮影機器の変化として、時系列映像の解像度の変化と、時系列映像のフレームレートの変化とが想定されている。
 また、以下の特許文献1では、撮影環境の変化として、撮影機器の設置角度の変化と、撮影機器と監視対象の物体との相対的な位置関係の変化とが想定されている。
特開2012-59224号公報
 従来の物体追跡装置は以上のように構成されているので、時系列映像を撮影する撮影機器、あるいは、時系列映像の撮影環境が変化しても、物体の追跡精度の劣化を防止することができる。しかし、複数の映像フレーム内に存在している物体の間の対応付けを行う際、映像フレーム内に存在している全ての物体を対応付けの対象に含めている。このため、例えば、物体の監視エリアが混雑している状況など、高精度に物体を検出することが困難な状況であっても、物体検出処理で検出された物体については、対応付けの対象に含められる。したがって、誤って検出された物体が対応付けの対象に含められる場合があり、このような場合には、物体の追跡精度が劣化してしまうという課題があった。
 この発明は上記のような課題を解決するためになされたもので、物体の監視エリアが混雑している状況でも、物体の追跡精度の劣化を防止することができる物体追跡装置及び物体追跡方法を得ることを目的とする。
 この発明に係る物体追跡装置は、時系列映像を構成している映像フレーム毎に、当該映像フレーム内に存在している1つ以上の物体を検出する物体検出部と、映像フレーム毎に、物体検出部により検出された各々の物体が存在している領域の混雑度をそれぞれ推定する混雑度推定部と、映像フレーム毎に、混雑度推定部による混雑度の推定結果を参照して、物体検出部により検出された1つ以上の物体の中から、混雑度が第1の閾値以下の領域に存在している物体をそれぞれ選定する物体選定部と、映像フレーム毎に、物体選定部により選定された各々の物体の特徴量をそれぞれ算出する特徴量算出部とを設け、物体追跡部が、特徴量算出部により算出された各々の物体の特徴量に従って、物体選定部により選定された互いに異なる映像フレーム内に存在している物体の間の対応付けを行うようにしたものである。
 この発明によれば、映像フレーム毎に、物体検出部により検出された各々の物体が存在している領域の混雑度をそれぞれ推定する混雑度推定部を設け、物体選定部が、映像フレーム毎に、混雑度推定部による混雑度の推定結果を参照して、物体検出部により検出された1つ以上の物体の中から、混雑度が第1の閾値以下の領域に存在している物体をそれぞれ選定するように構成したので、物体の監視エリアが混雑している状況でも、物体の追跡精度の劣化を防止することができる効果がある。
この発明の実施の形態1による物体追跡装置を示す構成図である。 この発明の実施の形態1による物体追跡装置を示すハードウェア構成図である。 図1の物体追跡装置がソフトウェア又はファームウェアなどで実現される場合のコンピュータのハードウェア構成図である。 図1の物体追跡装置がソフトウェア又はファームウェアなどで実現される場合の処理手順である物体追跡方法を示すフローチャートである。 物体検出部11による人物の検出結果及び信頼度の一例を示す説明図である。 映像フレーム内の混雑度がヒートマップ化されている例を示す説明図である。 混雑度に基づく物体選定部13の選定結果を示す説明図である。 信頼度に基づく物体選定部13の選定結果を示す説明図である。 時系列映像の解像度と時系列映像のフレームレートとの組み合わせに対応する特徴量の重み付け情報の一例を示す説明図である。 この発明の実施の形態2による物体追跡装置を示す構成図である。 この発明の実施の形態2による物体追跡装置を示すハードウェア構成図である。 この発明の実施の形態2による物体追跡装置の特徴量算出部40における処理内容を示すフローチャートである。
 以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
 図1は、この発明の実施の形態1による物体追跡装置を示す構成図であり、図2は、この発明の実施の形態1による物体追跡装置を示すハードウェア構成図である。
 図1及び図2において、カメラ1は、監視エリアを撮影する撮影機器であり、複数の映像フレームから構成されている時系列映像を撮影して、時系列映像を物体追跡装置に出力する。
 また、カメラ1は、時系列映像の解像度及び時系列映像のフレームレートを示す映像情報を物体追跡装置に出力する。
 複数の映像フレームから構成されている時系列映像としては、動画などの映像が考えられるが、動画などの映像に限るものではなく、例えば、複数の静止画が時系列に並んでいる映像であってもよい。
 ここでは、撮影機器がカメラ1である例を示しているが、撮影機器は、カメラ1に限るものではなく、例えば、デジタルビデオレコーダなどであってもよい。
 また、複数の映像フレームから構成されている時系列映像が事前に記録されている記録媒体が、カメラ1の代わりに物体追跡装置に接続され、記録媒体に記録されている時系列映像が物体追跡装置に取り込まれるものであってもよい。
 物体検出部11は、例えば図2に示す物体検出回路21で実現される。
 物体検出部11は、カメラ1から出力された時系列映像及び映像情報を取得する処理を実施する。
 また、物体検出部11は、取得した時系列映像を構成している映像フレーム毎に、当該映像フレーム内に存在している1つ以上の物体を検出する処理を実施する。
 また、物体検出部11は、物体の検出結果の確からしさを示す信頼度をそれぞれ算出する処理を実施する。
 混雑度推定部12は、例えば図2に示す混雑度推定回路22で実現される。
 混雑度推定部12は、映像フレーム毎に、当該映像フレームの映像を解析することで、物体検出部11により検出された各々の物体が存在している領域の混雑度をそれぞれ推定する処理を実施する。
 物体選定部13は、例えば図2に示す物体選定回路23で実現される。
 物体選定部13は、映像フレーム毎に、混雑度推定部12による混雑度の推定結果を参照して、物体検出部11により検出された1つ以上の物体の中から、混雑度が基準混雑度(第1の閾値)以下の領域に存在している物体をそれぞれ選定する処理を実施する。
 ただし、物体選定部13は、混雑度が基準混雑度よりも大きい領域に存在している物体であっても、物体検出部11により算出された検出結果の信頼度が基準信頼度(第2の閾値)以上の物体については選定する。
 重み付け情報記憶部14は、例えば図2に示す重み付け情報記憶回路24で実現される。
 重み付け情報記憶部14は、時系列映像の解像度と時系列映像のフレームレートとの組み合わせ毎に、複数の特徴量の重み付けを示す重み付け情報を記憶している。
 特徴量算出部15は、例えば図2に示す特徴量算出回路25で実現される。
 特徴量算出部15は、重み付け情報記憶部14に記憶されている複数の重み付け情報に対応する組み合わせの中で、カメラ1から出力された映像情報が示す時系列映像の解像度及びフレームレートの組み合わせと一致している組み合わせを特定する処理を実施する。
 また、特徴量算出部15は、重み付け情報記憶部14に記憶されている複数の重み付け情報の中から、特定した組み合わせに対応する重み付け情報を取得する。
 特徴量算出部15は、映像フレーム毎に、取得した重み付け情報に従って、物体選定部13により選定された各々の物体の特徴量をそれぞれ算出する処理を実施する。
 物体追跡部16は、例えば図2に示す物体追跡回路26で実現される。
 物体追跡部16は、特徴量算出部15により算出された各々の物体の特徴量に従って、物体選定部13により選定された互いに異なる映像フレーム内に存在している物体の間の対応付けを行う。
 図1では、物体追跡装置の構成要素である物体検出部11、混雑度推定部12、物体選定部13、重み付け情報記憶部14、特徴量算出部15及び物体追跡部16のそれぞれが、図2に示すような専用のハードウェアで実現されるものを想定している。即ち、物体検出回路21、混雑度推定回路22、物体選定回路23、重み付け情報記憶回路24、特徴量算出回路25及び物体追跡回路26で実現されるものを想定している。
 ここで、重み付け情報記憶回路24は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの不揮発性又は揮発性の半導体メモリや、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)などが該当する。
 また、物体検出回路21、混雑度推定回路22、物体選定回路23、特徴量算出回路25及び物体追跡回路26は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、または、これらを組み合わせたものが該当する。
 ただし、物体追跡装置の構成要素は、専用のハードウェアで実現されるものに限るものではなく、物体追跡装置がソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせで実現されるものであってもよい。
 ソフトウェア又はファームウェアはプログラムとして、コンピュータのメモリに格納される。コンピュータは、プログラムを実行するハードウェアを意味し、例えば、CPU(Central Processing Unit)、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、DSP(Digital Signal Processor)などが該当する。
 図3は、図1の物体追跡装置がソフトウェア又はファームウェアなどで実現される場合のコンピュータのハードウェア構成図である。
 図3において、映像入力器31は、カメラ1に対するインタフェース機器であり、カメラ1から出力された時系列映像を取得する。
 映像情報入力器32は、カメラ1に対するインタフェース機器であり、カメラ1から出力された映像情報を取得する。
 プロセッサ33は、メモリ34に格納されているプログラムを実行する。
 メモリ34は、プロセッサ33が実行するプログラム及び重み付け情報などを格納している。
 結果出力器35は、例えば表示装置等に対するインタフェース機器であり、物体追跡装置の追跡結果などを出力する。
 図1の物体追跡装置がソフトウェア又はファームウェアなどで実現される場合、重み付け情報記憶部14をコンピュータのメモリ34上に構成するとともに、物体検出部11、混雑度推定部12、物体選定部13、特徴量算出部15及び物体追跡部16の処理手順をコンピュータに実行させるためのプログラムをメモリ34に格納し、コンピュータのプロセッサ33がメモリ34に格納されているプログラムを実行するようにすればよい。
 図4は、図1の物体追跡装置がソフトウェア又はファームウェアなどで実現される場合の処理手順である物体追跡方法を示すフローチャートである。
 次に動作について説明する。
 この実施の形態1では、物体の監視エリア内に複数の人物が存在しており、物体の追跡対象が監視エリア内に存在している複数の人物である例を説明する。
 ただし、物体の追跡対象は、監視エリア内に存在している物体であればよく、人物に限るものではない。このため、例えば、車両、動物又はロボットなどの物体が追跡対象であってもよい。
 監視エリアを撮影するカメラ1は、複数の映像フレームから構成されている時系列映像を撮影して、時系列映像を物体追跡装置に出力する。
 また、カメラ1は、時系列映像の解像度及び時系列映像のフレームレートを示す映像情報を物体追跡装置に出力する。
 物体検出部11は、カメラ1から出力された時系列映像を取得すると、時系列映像を構成している映像フレーム毎に、当該映像フレーム内に存在している一人以上の人物を検出する(図4のステップST1)。
 映像フレーム内に存在している人物(物体)の検出処理自体は、公知の技術であるため詳細な説明を省略するが、例えば、以下の検出方法を用いることができる。
 例えば、映像フレームにおける色の勾配方向及び輝度の勾配方向を特徴量(ACF:Aggregated Channel Features)として抽出し、AdaBoost(Adaptive Boosting)分類器が、特徴量であるACFを用いて、人物を検出する方法を用いることができる。この検出方法は、以下の非特許文献1に開示されている。
[非特許文献1]
 “Fast Feature Pyramids for Object Detection”, In PAMI, 2014.
 また、輝度の勾配を特徴量(HOG:Histograms Of Oriented Gradients)として抽出し、SVM(Support Vector Machine)識別器が、特徴量であるSVMを用いて、人物を検出する方法を用いることができる。この検出方法は、例えば、以下の非特許文献2に開示されている。
[非特許文献2]
 “Histograms of Oriented Gradients for Human Detection,”In CVPR, 2005
 また、深層学習を用いて、人物を検出する方法を用いることができる。この検出方法は、例えば、以下の非特許文献3に開示されている。
[非特許文献3]
 “Deep Neural Networks for Object Detection”,In NIPS, 2013
 物体検出部11は、映像フレーム内に存在している一人以上の人物を検出すると、人物の検出結果を混雑度推定部12及び物体選定部13に出力する。
 物体検出部11は、人物の検出結果として、映像フレーム内で人物が存在している領域の座標を示す座標情報、あるいは、映像フレーム内に存在している人物を包含する矩形領域の座標を示す座標情報を出力する。
 人物が存在している領域の座標としては、例えば、人物の形状を表すエッジの座標などが考えられる。
 この実施の形態1では、人物を包含する矩形領域の座標についても、人物が存在している領域の座標として扱うものとする。
 また、物体検出部11は、人物の検出結果の確からしさを示す信頼度をそれぞれ算出し、算出した信頼度を物体選定部13に出力する(図4のステップST2)。
 検出結果の確からしさを示す信頼度は、物体検出部11により検出された物体が、人物である確率を示すものであり、人物である可能性が高いほど、大きな値となる。
 信頼度の算出方法は、公知の技術であるため詳細な説明を省略する。信頼度の算出方法は、例えば、以下の特許文献2に開示されている。
[特許文献2]特開2012-133445号公報
 ここで、図5は、物体検出部11による人物の検出結果及び信頼度の一例を示す説明図である。
 図5は、1つの映像フレーム内に人物が6人に存在している例を示している。
 図5には、物体検出部11により検出された人物を包含する矩形領域が示されており、各々の矩形領域の周囲には、当該矩形領域に包含されている人物の検出結果の信頼度が示されている。
 図5では、物体検出部11により検出された6人の人物を識別するための記号として、人物を包含する矩形領域内にA,B,C,D,E及びFの記号を付している。
 混雑度推定部12は、カメラ1から出力された時系列映像及び物体検出部11の検出結果を取得する。
 混雑度推定部12は、時系列映像を構成している映像フレーム毎に、当該映像フレームの映像を解析することで、物体検出部11により検出された各々の人物が存在している領域の混雑度をそれぞれ推定する(図4のステップST3)。
 領域の混雑度を推定する方法は、公知の技術であるため詳細な説明を省略する。混雑度の推定方法は、例えば、以下の非特許文献4に開示されている。
[非特許文献4]
 “Estimation of Crowd Density using Image Processing”In IEE Colloquium on Image Processing for Security Applications,2002.
 図6は、映像フレーム内の混雑度がヒートマップ化されている例を示す説明図である。
 図6では、混雑度として、1平方メートル当りの人物の数(人数/m)を示している。
 物体選定部13は、映像フレーム毎に、混雑度推定部12による混雑度の推定結果を参照して、物体検出部11により検出された一人以上の人物の中から、混雑度が基準混雑度以下の領域に存在している人物を選定する。
 ただし、物体選定部13は、混雑度が基準混雑度よりも大きい領域に存在している人物であっても、物体検出部11により算出された検出結果の信頼度が基準信頼度以上の人物については選定する。
 以下、物体選定部13による人物の選定処理を具体的に説明する。
 物体選定部13は、映像フレーム毎に、混雑度推定部12による混雑度の推定結果を参照して、物体検出部11により検出された各々の人物が存在している領域の混雑度を把握する。
 次に、物体選定部13は、物体検出部11により検出された一人以上の人物の中に、未だ追跡対象の人物であるか否かの判定処理が済んでいない人物が残っているか否かを判定する(図4のステップST4)。判定処理は、ステップST5の処理又はステップST7の処理である。
 物体選定部13は、既に、追跡対象の人物であるか否かの判定処理が済んでいない人物が残っていなければ(図4のステップST4:NOの場合)、物体選定部13による人物の選定処理を終了して、ステップST8の処理に移行する。
 物体選定部13は、未だ追跡対象の人物であるか否かの判定処理が済んでいない人物が残っていれば(図4のステップST4:YESの場合)、判定処理が済んでいない人物が存在している領域の混雑度と、事前に設定されている基準混雑度とを比較して、当該人物が存在している領域の混雑度が基準混雑度以下であるか否かを判定する(図4のステップST5)。
 物体選定部13は、人物が存在している領域の混雑度が基準混雑度以下であれば(図4のステップST5:YESの場合)、当該人物を追跡対象の人物として選定する(図4のステップST6)。
 図7は、混雑度に基づく物体選定部13の選定結果を示す説明図である。
 図7の例では、混雑度が基準混雑度よりも大きい領域を混雑領域としており、人物C、人物D、人物E及び人物Fが混雑領域に存在している。
 このため、図7の例では、人物A及び人物Bが、追跡対象の人物として選定される。
 物体選定部13は、人物が存在している領域の混雑度が基準混雑度よりも大きければ(図4のステップST5:NOの場合)、物体検出部11により算出された当該人物の検出結果についての信頼度と、事前に設定されている基準信頼度とを比較して、当該人物の検出結果についての信頼度が基準信頼度以上であるか否かを判定する(図4のステップST7)。
 物体選定部13は、当該人物の検出結果についての信頼度が基準信頼度以上であれば(図4のステップST7:YESの場合)、当該人物を追跡対象の人物として選定する(図4のステップST6)。
 物体選定部13は、当該人物の検出結果についての信頼度が基準信頼度よりも小さければ(図4のステップST7:NOの場合)、当該人物を追跡対象の人物から除外する。
 物体検出部11により検出された人物の全てについて、追跡対象の人物であるか否かの判定処理が終了するまで、ステップST4~ST7の処理が繰り返される。
 図8は、信頼度に基づく物体選定部13の選定結果を示す説明図である。
 図8では、基準信頼度が50である例を示している。
 このため、図8の例では、人物C、人物D、人物E及び人物Fが混雑領域に存在しているが、人物E及び人物Fの検出結果についての信頼度が基準信頼度以上であるために、人物E及び人物Fが、追跡対象の人物として選定されている。
 一方、人物C及び人物Dの検出結果についての信頼度が基準信頼度よりも小さいために、人物C及び人物Dは、追跡対象の人物から除外されている。
 なお、人物Bの検出結果についての信頼度は、基準信頼度よりも小さいが、既に、混雑度に基づいて、追跡対象の人物として選定されている。
 このため、最終的には、人物A、人物B、人物E及び人物Fが追跡対象の人物として選定されている。
 重み付け情報記憶部14には、時系列映像の解像度と時系列映像のフレームレートとの組み合わせ毎に、複数の特徴量の重み付けを示す重み付け情報が記憶されている。
 図9は、時系列映像の解像度と時系列映像のフレームレートとの組み合わせに対応する特徴量の重み付け情報の一例を示す説明図である。
 図9では、特徴量が「色」、「動き」及び「エッジ」である例を示している。色は物体である人物の色、動きは物体である人物の動き、エッジは物体である人物の形状を表すものである。
 図9では、時系列映像の解像度が〇〇〇[ppi]又は△△△[ppi]、フレームレートが□□□[fps]又は☆☆☆[fps]である例を示している。また、解像度〇〇〇[ppi]が解像度△△△[ppi]よりも高く、フレームレート□□□[fps]がフレームレート☆☆☆[fps]よりも高い例を示している。
 例えば、時系列映像の解像度が〇〇〇[ppi]で、時系列映像のフレームレートが□□□[fps]である場合の組み合わせは、「色」、「動き」及び「エッジ」に対する重み付けが、色:動き:エッジ=5:3:3であることを示している。
 また、時系列映像の解像度が△△△[ppi]で、時系列映像のフレームレートが☆☆☆□[fps]である場合の組み合わせは、「色」、「動き」及び「エッジ」に対する重み付けが、色:動き:エッジ=9:3:2であることを示している。
 ここでは、時系列映像の解像度及び時系列映像のフレームレートに対応する特徴量の重み付け情報が重み付け情報記憶部14に記憶されている例を示しているが、これに限るものではない。
 例えば、カメラ1の設置角度及び追跡対象の物体の種類に対応する特徴量の重み付け情報が重み付け情報記憶部14に記憶されているものであってもよい。
 また、カメラ1の設置角度及び時系列映像内の混雑度合に対応する特徴量の重み付け情報が重み付け情報記憶部14に記憶されているものであってもよい。
 特徴量算出部15は、重み付け情報記憶部14に記憶されている複数の重み付け情報に対応する組み合わせの中で、カメラ1から出力された映像情報が示す時系列映像の解像度及びフレームレートの組み合わせと一致している組み合わせを特定する。
 次に、特徴量算出部15は、重み付け情報記憶部14に記憶されている複数の重み付け情報の中から、特定した組み合わせに対応する重み付け情報を取得する。
 次に、特徴量算出部15は、映像フレーム毎に、取得した重み付け情報に従って、物体選定部13により選定された各々の人物の特徴量Pをそれぞれ算出する(図4のステップST8)。
 以下、各々の人物の特徴量Pの算出処理を簡単に説明する。
 特徴量算出部15は、例えば、人物の特徴量Pの要素として、人物の色を示す特徴量P、人物の動きを示す特徴量P及び人物のエッジを示す特徴量Pをそれぞれ算出する。
 特徴量P,P及Pの算出処理自体は、公知の技術であるため詳細な説明を省略する。
 特徴量算出部15は、人物の色を示す特徴量P、人物の動きを示す特徴量P及び人物のエッジを示す特徴量Pをそれぞれ算出すると、重み付け情報記憶部14から取得した重み付け情報に従って、特徴量P,P及Pの重み付け加算を行う。
 特徴量算出部15は、特徴量P,P及Pの重み付け加算結果を最終的な特徴量Pとして物体追跡部16に出力する。
 例えば、時系列映像の解像度が△△△[ppi]で、時系列映像のフレームレートが□□□[fps]である場合、特徴量算出部15は、「色」、「動き」及び「エッジ」に対する重み付け情報として、色:動き:エッジ=5:4:3を取得する。
 この場合、特徴量算出部15は、この重み付け情報を用いて、例えば、以下の式(1)に示すように、特徴量Pを算出する。
Figure JPOXMLDOC01-appb-I000001
 物体追跡部16は、特徴量算出部15から物体選定部13により選定された各々の人物の特徴量Pを受けると、各々の人物の特徴量Pに従って、物体選定部13により選定された互いに異なる映像フレーム内に存在している人物の間の対応付けを行う(図4のステップST9)。
 物体追跡部16は、互いに異なる映像フレーム内に存在している人物の間の対応付け結果を人物の追跡結果として出力する。
 互いに異なる映像フレーム内に存在している人物の間の対応付け方法としては、例えば、以下の非特許文献5に開示されている方法を用いることができる。
[非特許文献5]
 “Globally-Optimal Greedy Algorithms for Tracking a Variable Number of Objects” In CVPR,2011.
 人物の間の対応付けは、特徴量が近い人物同士を対応付けるものであり、以下、簡単に人物の間の対応付け例を説明する。
 例えば、映像フレーム(1)に存在している人物が、人物A、人物B、人物E及び人物Fであり、映像フレーム(2)に存在している人物が、人物A’、人物B’、人物E’及び人物F’であるとする。
 このとき、映像フレーム(1)に存在している人物Aの特徴量がP=30、人物Bの特徴量がP=40、人物Eの特徴量がP=50、人物Fの特徴量がP=60であるとする。
 また、映像フレーム(2)に存在している人物A’の特徴量がP’=32、人物B’の特徴量がP’=42、人物E’の特徴量がP’=48、人物F’の特徴量がP’=67であるとする。
 さらに、対応付けが可能な2つの映像フレーム間での特徴量の最大差分が3であるとする。
 この場合、映像フレーム(1)に存在している人物Aの特徴量P=30は、映像フレーム(2)に存在している4人の人物の特徴量の中で、人物A’の特徴量P’=32が最も近い。また、人物Aの特徴量P=30と、人物A’の特徴量P’=32との差分が2であり、この差分が特徴量の最大差分である3よりも小さい。このため、映像フレーム(1)に存在している人物Aと映像フレーム(2)に存在している人物A’とが対応付けられる。
 映像フレーム(1)に存在している人物Bの特徴量P=40は、映像フレーム(2)に存在している4人の人物の特徴量の中で、人物B’の特徴量P’=42が最も近い。また、人物Bの特徴量P=40と、人物B’の特徴量P’=42との差分が2であり、この差分が特徴量の最大差分である3よりも小さい。このため、映像フレーム(1)に存在している人物Bと映像フレーム(2)に存在している人物B’とが対応付けられる。
 映像フレーム(1)に存在している人物Eの特徴量P=50は、映像フレーム(2)に存在している4人の人物の特徴量の中で、人物E’の特徴量P’=48が最も近い。また、人物Eの特徴量P=50と、人物E’の特徴量P’=48との差分が2であり、この差分が特徴量の最大差分である3よりも小さい。このため、映像フレーム(1)に存在している人物Eと映像フレーム(2)に存在している人物E’とが対応付けられる。
 映像フレーム(1)に存在している人物Fの特徴量P=60は、映像フレーム(2)に存在している4人の人物の特徴量の中で、人物F’の特徴量P’=67が最も近い。
 しかしながら、人物Fの特徴量P=60と、人物F’の特徴量P’=67との差分が7であり、この差分が特徴量の最大差分である3以上である。このため、映像フレーム(1)に存在している人物Fは、映像フレーム(2)に存在しているどの人物とも対応付けられない。
 また、映像フレーム(2)に存在している人物F’についても、映像フレーム(1)に存在しているどの人物とも対応付けられない。
 ここでは、映像フレーム(1)に存在している人物Aの特徴量がP=30である例を示しているが、例えば、映像フレーム(1)に存在している人物Aの特徴量がP=37である場合、映像フレーム(2)に存在している4人の人物の特徴量の中で、人物A’の特徴量P’=32と人物B’の特徴量P’=42との2つが最も近い。
 しかし、人物Aの特徴量P=37と、人物A’の特徴量P’=32との差分が5であり、この差分が特徴量の最大差分である3以上である。また、人物Aの特徴量P=37と、人物B’の特徴量P’=42との差分が5であり、この差分が特徴量の最大差分である3以上である。
 このため、映像フレーム(1)に存在している人物Aは、映像フレーム(2)に存在しているどの人物とも対応付けられない。
 以上で明らかなように、この実施の形態1によれば、映像フレーム毎に、物体検出部11により検出された各々の物体が存在している領域の混雑度をそれぞれ推定する混雑度推定部12を設け、物体選定部13が、映像フレーム毎に、混雑度推定部12による混雑度の推定結果を参照して、物体検出部11により検出された1つ以上の物体の中から、混雑度が第1の閾値以下の領域に存在している物体をそれぞれ選定するように構成したので、物体の監視エリアが混雑している状況でも、物体の追跡精度の劣化を防止することができる効果を奏する。
 また、この実施の形態1によれば、物体選定部13が、混雑度が第1の閾値よりも大きい領域に存在している物体であっても、物体検出部11により算出された検出結果の信頼度が第2の閾値以上の物体については選定するように構成したので、物体の追跡精度の劣化を招くことなく、追跡可能な物体の数を増やすことができる効果を奏する。
 この実施の形態1では、物体検出部11が、各々の物体の検出結果の確からしさを示す信頼度をそれぞれ算出する例を示したが、物体選定部13が、物体検出部11による各々の物体の検出結果の確からしさを示す信頼度をそれぞれ算出するようにしてもよい。
実施の形態2.
 上記実施の形態1では、特徴量算出部15が、重み付け情報記憶部14に記憶されている複数の組み合わせに対応する重み付け情報の中から、カメラ1から出力された映像情報が示す解像度及びフレームレートの組み合わせと一致している組み合わせに対応する重み付け情報を取得する例を示している。
 しかしながら、重み付け情報記憶部14には、カメラ1から出力された映像情報が示す解像度及びフレームレートの組み合わせと一致している組み合わせに対応する重み付け情報が記憶されていない場合もある。
 この実施の形態2では、カメラ1から出力された映像情報が示す解像度及びフレームレートの組み合わせと一致している組み合わせに対応する重み付け情報が記憶されていない場合でも、特徴量算出部15が、重み付け情報記憶部14に記憶されている複数の重み付け情報の中から、適正な重み付け情報を取得できる例を説明する。
 図10は、この発明の実施の形態2による物体追跡装置を示す構成図であり、図11は、この発明の実施の形態2による物体追跡装置を示すハードウェア構成図である。
 図10及び図11において、図1及び図2と同一符号は同一または相当部分を示すので説明を省略する。
 特徴量算出部40は、例えば図11に示す特徴量算出回路50で実現される。
 特徴量算出部40は、重み付け情報記憶部14に記憶されている複数の重み付け情報に対応する組み合わせの中に、物体検出部11に与えられる時系列映像の解像度と物体検出部11に与えられる時系列映像のフレームレートとの組み合わせと一致している組み合わせがあるか否かを判定する処理を実施する。
 即ち、特徴量算出部40は、重み付け情報記憶部14に記憶されている複数の重み付け情報に対応する組み合わせの中に、カメラ1から出力された映像情報が示す解像度及びフレームレートの組み合わせと一致している組み合わせがあるか否かを判定する処理を実施する。
 特徴量算出部40は、一致している組み合わせがあると判定すれば、重み付け情報記憶部14から一致している組み合わせに対応する重み付け情報を取得する処理を実施する。
 特徴量算出部40は、一致している組み合わせがないと判定すれば、重み付け情報記憶部14に記憶されている複数の重み付け情報に対応する組み合わせにおける解像度及びフレームレートと、カメラ1から出力された映像情報が示す解像度及びフレームレートとの類似度をそれぞれ算出する処理を実施する。
 特徴量算出部40は、算出した類似度に基づいて、重み付け情報記憶部14に記憶されている複数の重み付け情報の中から、いずれか1つの重み付け情報を取得する処理を実施する。
 特徴量算出部40は、図1の特徴量算出部15と同様に、映像フレーム毎に、取得した重み付け情報に従って、物体選定部13により選定された各々の人物の特徴量をそれぞれ算出する処理を実施する。
 図10では、物体追跡装置の構成要素である物体検出部11、混雑度推定部12、物体選定部13、重み付け情報記憶部14、特徴量算出部40及び物体追跡部16のそれぞれが、図11に示すような専用のハードウェアで実現されるものを想定している。即ち、物体検出回路21、混雑度推定回路22、物体選定回路23、重み付け情報記憶回路24、特徴量算出回路50及び物体追跡回路26で実現されるものを想定している。
 物体検出回路21、混雑度推定回路22、物体選定回路23、特徴量算出回路50及び物体追跡回路26は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、または、これらを組み合わせたものが該当する。
 ただし、物体追跡装置の構成要素は、専用のハードウェアで実現されるものに限るものではなく、物体追跡装置がソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせで実現されるものであってもよい。
 図10の物体追跡装置がソフトウェア又はファームウェアなどで実現される場合、重み付け情報記憶部14を図3に示すコンピュータのメモリ34上に構成するとともに、物体検出部11、混雑度推定部12、物体選定部13、特徴量算出部40及び物体追跡部16の処理手順をコンピュータに実行させるためのプログラムをメモリ34に格納し、コンピュータのプロセッサ33がメモリ34に格納されているプログラムを実行するようにすればよい。
 次に動作について説明する。
 特徴量算出部40以外は、上記実施の形態1と同様であるため、以下、図12を参照しながら、特徴量算出部40の処理内容だけを説明する。
 図12は、この発明の実施の形態2による物体追跡装置の特徴量算出部40における処理内容を示すフローチャートである。
 特徴量算出部40は、カメラ1から出力された映像情報を取得する(図12のステップST11)。
 特徴量算出部40は、重み付け情報記憶部14に記憶されている複数の重み付け情報に対応する組み合わせの中に、取得した映像情報が示す解像度及びフレームレートの組み合わせと一致している組み合わせがあるか否かを判定する(図12のステップST12)。
 図9の例では、時系列映像の解像度とフレームレートの組み合わせとして、解像度が〇〇〇[ppi]又は△△△[ppi]と、フレームレートが□□□[fps]又は☆☆☆[fps]である場合の4通りの組み合わせである。
 したがって、図9の例では、取得した映像情報が示す解像度が〇〇〇[ppi]又は△△△[ppi]であり、かつ、取得した映像情報が示すフレームレートが□□□[fps]又は☆☆☆[fps]であれば、特徴量算出部40は、一致している組み合わせがあると判定する。
 特徴量算出部40は、一致している組み合わせがあると判定すれば(図12のステップST12:YESの場合)、重み付け情報記憶部14から一致している組み合わせに対応する重み付け情報を取得する(図12のステップST13)。
 特徴量算出部40は、一致している組み合わせがないと判定すれば(図12のステップST12:NOの場合)、重み付け情報記憶部14に記憶されている複数の重み付け情報に対応する組み合わせにおける解像度及びフレームレートと、取得した映像情報が示す解像度及びフレームレートとの類似度をそれぞれ算出する(図12のステップST14)。
 特徴量算出部40による類似度の算出方法は、特に問わないが、例えば、以下のように、類似度を算出する。
 ここでは、説明の便宜上、取得した映像情報が示す解像度がa、取得した映像情報が示すフレームレートがbであるとする。
 また、解像度〇〇〇[ppi]がa、解像度△△△[ppi]がa、フレームレート□□□[fps]がb、フレームレート☆☆☆[fps]がbであるとする。
 解像度〇〇〇[ppi]とフレームレート□□□[fps]の組み合わせが組み合わせ(1)、解像度〇〇〇[ppi]とフレームレート☆☆☆[fps]の組み合わせが組み合わせ(2)、解像度△△△[ppi]とフレームレート□□□[fps]の組み合わせが組み合わせ(3)、解像度△△△[ppi]とフレームレート☆☆☆[fps]の組み合わせが組み合わせ(4)であるとする。
 特徴量算出部40は、以下の式(2)に示すように、取得した映像情報が示す解像度aと、解像度aとの差分Δaを算出するとともに、以下の式(3)に示すように、取得した映像情報が示す解像度aと、解像度aとの差分Δaを算出する。
Figure JPOXMLDOC01-appb-I000002

Figure JPOXMLDOC01-appb-I000003
 また、特徴量算出部40は、以下の式(4)に示すように、取得した映像情報が示すフレームレートbと、フレームレートbとの差分Δbを算出するとともに、以下の式(5)に示すように、取得した映像情報が示すフレームレートbと、フレームレートbとの差分Δbを算出する。
Figure JPOXMLDOC01-appb-I000004

Figure JPOXMLDOC01-appb-I000005
 特徴量算出部40は、以下の式(6)に示すように、組み合わせ(1)における解像度a及びフレームレートbと、取得した映像情報が示す解像度a及びフレームレートbとの類似度Rを算出する。式(6)において、Gは定数である。
Figure JPOXMLDOC01-appb-I000006
 特徴量算出部40は、以下の式(7)に示すように、組み合わせ(2)における解像度a及びフレームレートbと、取得した映像情報が示す解像度a及びフレームレートbとの類似度Rを算出する。
Figure JPOXMLDOC01-appb-I000007
 また、特徴量算出部40は、以下の式(8)に示すように、組み合わせ(3)における解像度a及びフレームレートbと、取得した映像情報が示す解像度a及びフレームレートbとの類似度Rを算出する。
Figure JPOXMLDOC01-appb-I000008
 特徴量算出部40は、以下の式(9)に示すように、組み合わせ(4)における解像度a及びフレームレートbと、取得した映像情報が示す解像度a及びフレームレートbとの類似度Rを算出する。
Figure JPOXMLDOC01-appb-I000009
 ここでは、解像度の差分Δaと、フレームレートの差分Δbとの間に重みを付けずに、類似度Rを算出している例を示しているが、例えば、以下の式(10)に示すように、解像度の差分Δaと、フレームレートの差分Δbとの間に重みを付けて、類似度Rを算出するようにしてもよい。式(10)は、組み合わせ(1)についての類似度Rの算出例を示しており、wは差分Δaに対する重み係数、wは差分Δbに対する重み係数である。なお、w及びwは、0以上1以下の値である。
Figure JPOXMLDOC01-appb-I000010
 特徴量算出部40は、全ての組み合わせについての類似度Rを算出すると、全ての組み合わせについての類似度Rを比較し、最も高い類似度に係る組み合わせを特定する(図12のステップST15)。
 特徴量算出部40は、重み付け情報記憶部14に記憶されている複数の重み付け情報の中から、最も高い類似度に係る組み合わせに対応する重み付け情報を取得する(図12のステップST16)。
 例えば、組み合わせ(1)~(4)の中で、最も高い類似度に係る組み合わせが組み合わせ(1)であれば、「色」、「動き」及び「エッジ」に対する重み付けが、色:動き:エッジ=5:3:3であることを示する重み付け情報を取得する。
 また、最も高い類似度に係る組み合わせが組み合わせ(2)であれば、「色」、「動き」及び「エッジ」に対する重み付けが、色:動き:エッジ=8:2:2であることを示する重み付け情報を取得する。
 特徴量算出部40は、重み付け情報を取得すると、図1の特徴量算出部15と同様に、映像フレーム毎に、取得した重み付け情報に従って、物体選定部13により選定された各々の人物の特徴量をそれぞれ算出する(図12のステップST17)。
 以上で明らかなように、この実施の形態2によれば、特徴量算出部40が、重み付け情報記憶部14に記憶されている複数の重み付け情報に対応する組み合わせの中に、物体検出部11に与えられる時系列映像の解像度と物体検出部11に与えられる時系列映像のフレームレートとの組み合わせと一致している組み合わせがなければ、重み付け情報記憶部14に記憶されている複数の重み付け情報に対応する組み合わせにおける解像度及びフレームレートと、物体検出部11に与えられる時系列映像の解像度及び物体検出部11に与えられる時系列映像のフレームレートとの類似度をそれぞれ算出する。そして、特徴量算出部40が、算出した類似度に基づいて、重み付け情報記憶部14に記憶されている複数の重み付け情報の中から、いずれか1つの重み付け情報を取得し、取得した重み付け情報に従って物体選定部13により選定された各々の物体の特徴量をそれぞれ算出する。これにより、物体検出部11に与えられる時系列映像の解像度及びフレームレートの組み合わせと一致している組み合わせに対応する重み付け情報が重み付け情報記憶部14に記憶されていない場合でも、適正な重み付け情報を取得することができる効果を奏する。
 なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
 この発明は、互いに異なる映像フレーム内に存在している物体の間の対応付けを行う物体追跡装置及び物体追跡方法に適している。
 1 カメラ、11 物体検出部、12 混雑度推定部、13 物体選定部、14 重み付け情報記憶部、15 特徴量算出部、16 物体追跡部、21 物体検出回路、22 混雑度推定回路、23 物体選定回路、24 重み付け情報記憶回路、25 特徴量算出回路、26 物体追跡回路、31 映像入力器、32 映像情報入力器、33 プロセッサ、34 メモリ、35 結果出力器、40 特徴量算出部、50 特徴量算出回路。

Claims (7)

  1.  時系列映像を構成している映像フレーム毎に、当該映像フレーム内に存在している1つ以上の物体を検出する物体検出部と、
     映像フレーム毎に、前記物体検出部により検出された各々の物体が存在している領域の混雑度をそれぞれ推定する混雑度推定部と、
     映像フレーム毎に、前記混雑度推定部による混雑度の推定結果を参照して、前記物体検出部により検出された1つ以上の物体の中から、混雑度が第1の閾値以下の領域に存在している物体をそれぞれ選定する物体選定部と、
     映像フレーム毎に、前記物体選定部により選定された各々の物体の特徴量をそれぞれ算出する特徴量算出部と、
     前記特徴量算出部により算出された各々の物体の特徴量に従って、前記物体選定部により選定された互いに異なる映像フレーム内に存在している物体の間の対応付けを行う物体追跡部と
     を備えた物体追跡装置。
  2.  前記物体検出部は、映像フレーム内に存在している各々の物体の検出結果の確からしさを示す信頼度をそれぞれ算出し、
     前記物体選定部は、混雑度が前記第1の閾値よりも大きい領域に存在している物体であっても、前記物体検出部により算出された検出結果の信頼度が第2の閾値以上の物体については選定することを特徴とする請求項1記載の物体追跡装置。
  3.  前記物体選定部は、前記物体検出部による各々の物体の検出結果の確からしさを示す信頼度をそれぞれ算出し、混雑度が前記第1の閾値よりも大きい領域に存在している物体であっても、算出した信頼度が第2の閾値以上の物体については選定することを特徴とする請求項1記載の物体追跡装置。
  4.  前記物体の特徴量として、複数の特徴量があり、
     複数の特徴量の重み付け情報を記憶している重み付け情報記憶部を備え、
     前記特徴量算出部は、前記重み付け情報記憶部に記憶されている重み付け情報に従って前記物体選定部により選定された各々の物体の特徴量をそれぞれ算出することを特徴とする請求項1記載の物体追跡装置。
  5.  前記重み付け情報記憶部は、時系列映像の解像度と時系列映像のフレームレートとの組み合わせ毎に、前記重み付け情報を記憶していることを特徴とする請求項4記載の物体追跡装置。
  6.  前記特徴量算出部は、前記重み付け情報記憶部に記憶されている複数の重み付け情報に対応する組み合わせの中に、前記物体検出部に与えられる時系列映像の解像度と前記物体検出部に与えられる時系列映像のフレームレートとの組み合わせと一致している組み合わせがなければ、前記重み付け情報記憶部に記憶されている複数の重み付け情報に対応する組み合わせにおける解像度及びフレームレートと、前記物体検出部に与えられる時系列映像の解像度及び前記物体検出部に与えられる時系列映像のフレームレートとの類似度をそれぞれ算出し、前記類似度に基づいて、前記重み付け情報記憶部に記憶されている複数の重み付け情報の中から、いずれか1つの重み付け情報を取得し、取得した重み付け情報に従って前記物体選定部により選定された各々の物体の特徴量をそれぞれ算出することを特徴とする請求項5記載の物体追跡装置。
  7.  物体検出部が、時系列映像を構成している映像フレーム毎に、当該映像フレーム内に存在している1つ以上の物体を検出し、
     混雑度推定部が、映像フレーム毎に、前記物体検出部により検出された各々の物体が存在している領域の混雑度をそれぞれ推定し、
     物体選定部が、映像フレーム毎に、前記混雑度推定部による混雑度の推定結果を参照して、前記物体検出部により検出された1つ以上の物体の中から、混雑度が第1の閾値以下の領域に存在している物体をそれぞれ選定し、
     特徴量算出部が、映像フレーム毎に、前記物体選定部により選定された各々の物体の特徴量をそれぞれ算出し、
     物体追跡部が、前記特徴量算出部により算出された各々の物体の特徴量に従って、前記物体選定部により選定された互いに異なる映像フレーム内に存在している物体の間の対応付けを行う
     物体追跡方法。
PCT/JP2017/008768 2017-03-06 2017-03-06 物体追跡装置及び物体追跡方法 WO2018163243A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2019503834A JP6573744B2 (ja) 2017-03-06 2017-03-06 物体追跡装置及び物体追跡方法
US16/483,074 US11074698B2 (en) 2017-03-06 2017-03-06 Object tracking device and object tracking method
PCT/JP2017/008768 WO2018163243A1 (ja) 2017-03-06 2017-03-06 物体追跡装置及び物体追跡方法
GB1911069.1A GB2573703B (en) 2017-03-06 2017-03-06 Object tracking device and object tracking method
CN201780087806.0A CN110366741A (zh) 2017-03-06 2017-03-06 物体跟踪装置和物体跟踪方法
TW106119760A TWI624806B (zh) 2017-03-06 2017-06-14 物體追蹤裝置及物體追蹤方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/008768 WO2018163243A1 (ja) 2017-03-06 2017-03-06 物体追跡装置及び物体追跡方法

Publications (1)

Publication Number Publication Date
WO2018163243A1 true WO2018163243A1 (ja) 2018-09-13

Family

ID=62951733

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/008768 WO2018163243A1 (ja) 2017-03-06 2017-03-06 物体追跡装置及び物体追跡方法

Country Status (6)

Country Link
US (1) US11074698B2 (ja)
JP (1) JP6573744B2 (ja)
CN (1) CN110366741A (ja)
GB (1) GB2573703B (ja)
TW (1) TWI624806B (ja)
WO (1) WO2018163243A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI697846B (zh) 2018-11-26 2020-07-01 財團法人工業技術研究院 物體辨識方法及其裝置
CN110895141A (zh) * 2019-11-28 2020-03-20 梁彦云 住宅空间拥挤度分析平台
KR102311798B1 (ko) * 2019-12-12 2021-10-08 포항공과대학교 산학협력단 다중 객체 추적 방법 및 장치
EP4036856B1 (en) * 2021-02-02 2025-04-30 Axis AB Updating of annotated points in a digital image
US12231802B2 (en) 2021-08-04 2025-02-18 Theia Scientific, LLC System and method for multi-modal microscopy

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003187248A (ja) * 2001-12-21 2003-07-04 Mitsubishi Electric Corp 画像処理システムおよび画像処理装置
JP2007164804A (ja) * 2007-01-22 2007-06-28 Asia Air Survey Co Ltd 移動体検出システム、移動体検出装置、移動体検出方法及び移動体検出プログラム
JP2012059224A (ja) * 2010-09-13 2012-03-22 Toshiba Corp 移動物体追跡システムおよび移動物体追跡方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11341339A (ja) 1998-05-29 1999-12-10 Sony Corp ビデオカメラ装置
TWI222595B (en) * 2003-09-09 2004-10-21 Icp Electronics Inc Image overlapping display system and method
JP4830650B2 (ja) 2005-07-05 2011-12-07 オムロン株式会社 追跡装置
JP2009508450A (ja) * 2005-09-13 2009-02-26 ヴェリフィコン コーポレーション 物体のトラッキングおよび活動分析のためのシステムおよび方法
JP5121508B2 (ja) * 2008-03-03 2013-01-16 キヤノン株式会社 画像処理装置、画像処理方法、プログラム及び記憶媒体
JP5227888B2 (ja) 2009-05-21 2013-07-03 富士フイルム株式会社 人物追跡方法、人物追跡装置および人物追跡プログラム
JP2012133445A (ja) * 2010-12-20 2012-07-12 Panasonic Corp 目的物検出装置および目的物検出方法
JP4784709B1 (ja) * 2011-03-10 2011-10-05 オムロン株式会社 対象物追跡装置、対象物追跡方法、および制御プログラム
JP4855556B1 (ja) * 2011-03-22 2012-01-18 株式会社モルフォ 動体検出装置、動体検出方法、動体検出プログラム、動体追跡装置、動体追跡方法及び動体追跡プログラム
JP5792990B2 (ja) * 2011-04-28 2015-10-14 キヤノン株式会社 画像処理装置およびその制御方法
CN103548041B (zh) 2011-06-28 2016-06-29 国际商业机器公司 用于确定主观层级聚类中的每个特征的权重的信息处理装置、方法和程序
JP6033695B2 (ja) * 2013-01-28 2016-11-30 株式会社日立製作所 エレベータ監視装置及びエレベータ監視方法
US9383840B2 (en) * 2013-04-22 2016-07-05 Samsung Display Co., Ltd. Method and apparatus to reduce display lag using image overlay
US10037466B2 (en) * 2013-08-23 2018-07-31 Nec Corporation Video processing apparatus, video processing method, and video processing program
JP6200306B2 (ja) * 2013-12-09 2017-09-20 株式会社日立製作所 映像検索装置、映像検索方法、および記憶媒体
GB2537780B (en) * 2014-03-11 2019-04-17 Mitsubishi Electric Corp Person detecting device and person detecting method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003187248A (ja) * 2001-12-21 2003-07-04 Mitsubishi Electric Corp 画像処理システムおよび画像処理装置
JP2007164804A (ja) * 2007-01-22 2007-06-28 Asia Air Survey Co Ltd 移動体検出システム、移動体検出装置、移動体検出方法及び移動体検出プログラム
JP2012059224A (ja) * 2010-09-13 2012-03-22 Toshiba Corp 移動物体追跡システムおよび移動物体追跡方法

Also Published As

Publication number Publication date
US20200013172A1 (en) 2020-01-09
GB2573703A (en) 2019-11-13
TWI624806B (zh) 2018-05-21
GB201911069D0 (en) 2019-09-18
JPWO2018163243A1 (ja) 2019-11-07
US11074698B2 (en) 2021-07-27
GB2573703B (en) 2020-09-09
CN110366741A (zh) 2019-10-22
TW201833870A (zh) 2018-09-16
JP6573744B2 (ja) 2019-09-11

Similar Documents

Publication Publication Date Title
JP6573744B2 (ja) 物体追跡装置及び物体追跡方法
US20210227132A1 (en) Method for tracking target in panoramic video, and panoramic camera
JP6555906B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP5766564B2 (ja) 顔認証装置及び顔認証方法
JP6927322B2 (ja) 脈波検出装置、脈波検出方法、及びプログラム
US9721153B2 (en) Image processing apparatus, image processing method, and storage medium that recognize an image based on a designated object type
JP2004199669A (ja) 顔検出
JP2004192637A (ja) 顔検出
US11394870B2 (en) Main subject determining apparatus, image capturing apparatus, main subject determining method, and storage medium
US10586339B2 (en) Device for measuring rotation of spherical body, measurement method, and program
JP7272024B2 (ja) 物体追跡装置、監視システムおよび物体追跡方法
JP2005174352A (ja) オブジェクト検出
US9858501B2 (en) Reliability acquiring apparatus, reliability acquiring method, and reliability acquiring program
US20090207260A1 (en) Image pickup apparatus and image pickup method
JP2005174353A (ja) オブジェクト検出
JP6116765B1 (ja) 物体検出装置及び物体検出方法
US20180314893A1 (en) Information processing device, video image monitoring system, information processing method, and recording medium
JP2012181710A (ja) オブジェクト追跡装置、方法、及びプログラム
US12067734B2 (en) Image processing apparatus, image processing method, and storage medium
US11716448B2 (en) Information processing apparatus, information processing method, and storage medium
JP7243372B2 (ja) 物体追跡装置および物体追跡方法
WO2022049704A1 (ja) 情報処理システム、情報処理方法、及びコンピュータプログラム
US10846548B2 (en) Video recording apparatus and method therefor
US10372750B2 (en) Information processing apparatus, method, program and storage medium
JP2014203133A (ja) 画像処理装置、画像処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17899706

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019503834

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 201911069

Country of ref document: GB

Kind code of ref document: A

Free format text: PCT FILING DATE = 20170306

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17899706

Country of ref document: EP

Kind code of ref document: A1

点击 这是indexloc提供的php浏览器服务,不要输入任何密码和下载