WO2018037665A1 - 情報処理装置、情報処理システム、制御方法、及びプログラム - Google Patents
情報処理装置、情報処理システム、制御方法、及びプログラム Download PDFInfo
- Publication number
- WO2018037665A1 WO2018037665A1 PCT/JP2017/021090 JP2017021090W WO2018037665A1 WO 2018037665 A1 WO2018037665 A1 WO 2018037665A1 JP 2017021090 W JP2017021090 W JP 2017021090W WO 2018037665 A1 WO2018037665 A1 WO 2018037665A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image data
- analysis
- information processing
- image
- predetermined condition
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 98
- 230000010365 information processing Effects 0.000 title claims description 109
- 238000004458 analytical method Methods 0.000 claims abstract description 163
- 238000010191 image analysis Methods 0.000 claims abstract description 90
- 238000001514 detection method Methods 0.000 claims description 33
- 230000000750 progressive effect Effects 0.000 claims description 8
- 230000006835 compression Effects 0.000 claims description 6
- 238000007906 compression Methods 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 238000013500 data storage Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
- H04N5/917—Television signal processing therefor for bandwidth reduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/01—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
- H04N7/0117—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/804—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
- H04N9/8042—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
Definitions
- the present invention relates to an information processing apparatus, an information processing system, a control method, and a program.
- Cameras are used for building monitoring. For example, when an incident occurs in the vicinity of a certain building, an image of a surveillance camera of the building is used.
- Patent Document 1 discloses a document disclosing the prior art related to camera images.
- a camera installed outside the entrance images a visitor.
- the visitor's video is stored or displayed as a high-resolution video with a low compression rate when the video change is large, or is stored or displayed as a low-resolution video with a high compression rate when the video change is small. Is displayed.
- Image of camera image may be analyzed by computer.
- a high resolution image is used to perform image analysis with high accuracy. This increases the processing load on the computer that performs image analysis.
- Patent document 1 does not mention reducing the processing load of image analysis.
- An object of the present invention is to provide a technique for reducing the processing load required for image analysis of a camera image.
- the first information processing apparatus of the present invention (1) acquires second image data generated by compressing the first image data by a predetermined encoding method, and performs image analysis on the second image data.
- First analysis means for detecting the second image data satisfying a first predetermined condition; and (2) decoding the detected second image data into third image data having a higher resolution than the second image data.
- second analysis means for performing image analysis of the third image data.
- the information processing system of the present invention is an information processing system having a first information processing apparatus and a second information processing apparatus that are communicably connected.
- the first information processing apparatus includes compression means for compressing the first image data by a predetermined encoding method to generate second image data.
- the second information processing apparatus includes (1) first analysis means for acquiring the second image data, performing image analysis on the second image data, and detecting second image data satisfying a first predetermined condition; (2) decoding means for decoding the detected second image data into third image data having a resolution higher than that of the second image data; and (3) second performing image analysis of the third image data. Analyzing means.
- the first control method of the present invention is executed by a computer.
- the control method includes (1) acquiring second image data generated by compressing the first image data by a predetermined encoding method, analyzing the second image data, and satisfying a first predetermined condition.
- the second control method of the present invention is executed in an information processing system having a first information processing apparatus and a second information processing apparatus that are communicably connected.
- the control method includes (1) a compression step in which the first information processing apparatus compresses the first image data by a predetermined encoding method to generate second image data, and (2) the second information processing.
- a first analysis step in which the apparatus acquires the second image data, analyzes the second image data, and detects the second image data satisfying a first predetermined condition; and (3) the second information.
- a decoding step of decoding the detected second image data into third image data having a resolution higher than that of the second image data; and (4) the second information processing device includes the third information processing device.
- a second analysis step for performing image analysis of the image data is executed in an information processing system having a first information processing apparatus and a second information processing apparatus that are communicably connected.
- the control method includes (1) a compression step in which the first information processing apparatus compresses the first image data by a predetermined encoding method to generate second image
- the program of the present invention causes a computer to execute each step of the first control method of the present invention.
- the second information processing apparatus of the present invention includes (1) an acquisition unit that acquires image data obtained by encoding first image data by a predetermined encoding method, and (2) a second acquisition unit that acquires the acquired image data.
- First decoding means for decoding image data (3) first analysis means for analyzing the decoded second image data and detecting second image data satisfying a first predetermined condition; (4) Second decoding means for decoding the detected second image data into third image data having a higher resolution than the second image data; and (5) second analysis means for performing image analysis of the third image data. And having.
- a technique for reducing the processing load required for image analysis of a camera image is provided.
- FIG. 1 is a block diagram illustrating an information processing apparatus according to a first embodiment. It is a figure which illustrates the relationship of the resolution of each image data.
- FIG. 2 is a diagram conceptually illustrating an operation of the information processing apparatus according to the first embodiment. It is a figure which illustrates the computer for implement
- 3 is a flowchart illustrating a flow of processing executed by the information processing apparatus according to the first embodiment. It is a figure which illustrates a mode that the 2nd image data 0 in which multistage decoding is possible is decoded. It is a figure which illustrates the 2nd image data 20 from which some image fields were decoded. It is a figure which illustrates the information processing apparatus of Example 1 with the surrounding environment.
- FIG. 6 is a flowchart illustrating a flow of processing executed by the information processing apparatus according to the second embodiment. 6 is a flowchart illustrating a flow of processing executed by the information processing apparatus according to the second embodiment. It is a figure which illustrates the information processing apparatus of Example 2 with the surrounding environment.
- each block diagram unless otherwise specified, each block represents a functional unit configuration, not a hardware unit configuration.
- FIG. 1 is a block diagram illustrating an information processing apparatus 200 according to the first embodiment.
- the information processing apparatus 200 includes a first analysis unit 202, a decoding unit 204, and a second analysis 206.
- the first analysis unit 202 acquires the second image data.
- a compressed image is generated by encoding (encoding) the first image data by a predetermined encoding method. Further, the first analysis unit 202 performs image analysis on the acquired second image data. Accordingly, the first analysis unit 202 detects second image data that satisfies the first predetermined condition.
- the second image data 20 that satisfies the first predetermined condition is image data that needs to be decoded (decoded) into image data having a higher resolution for further image analysis. Details of the image analysis performed by the first analysis unit 202 and the first predetermined condition will be described later.
- the decoding unit 204 decodes the second image data that satisfies the first predetermined condition into third image data having a higher resolution than the second image data.
- FIG. 2 is a diagram illustrating the relationship between the resolutions of the image data.
- the resolution of the second image data 20 is lower than the resolution of the first image data 10.
- the resolution of the third image data 30 is higher than the resolution of the second image data 20.
- the resolution of the third image data 30 may be lower than the resolution of the first image data 10 (see FIG. 2A), or may be the same as the resolution of the first image data 10 (FIG. 2B). )reference).
- the second analysis 206 performs image analysis of the third image data 30. Details of the image analysis performed by the second analysis 206 will be described later.
- FIG. 3 is a diagram conceptually illustrating the operation of the information processing apparatus 200 according to the first embodiment.
- the second image data 20 is image data generated by compressing the first image data 10.
- the second image data 20-1 is generated by compressing the first image data 10-1.
- the first analysis unit 202 detects the second image data 20 that satisfies the first predetermined condition by analyzing each second image data 20.
- the decoding unit 204 decodes the second image data 20-2 and the second image data 20-5, respectively, to generate third image data 30-1 and third image data 30-2.
- the second analysis 206 performs image analysis on the third image data 30-1 and the third image data 30-2.
- the information processing apparatus 200 performs image analysis on the second image data 20 having a relatively low resolution, so that the second image data 20 satisfying the first predetermined condition (image data having a higher resolution).
- the second image data 20) that needs to be decoded and further analyzed is detected.
- the information processing apparatus 200 decodes the detected second image data 20 to generate third image data 30, and further performs image analysis on the third image data 30.
- the processing load for image analysis of the third image data 30 is larger than the processing load for image analysis of the second image data 20.
- the number of third image data 30 on which image analysis is performed is smaller than in the case where image analysis is performed on all the third image data 30. Therefore, according to the present embodiment, the processing load on the information processing apparatus 200 is reduced by image analysis. In addition, the time required for image analysis is shortened.
- Each functional component of the information processing apparatus 200 may be realized by hardware (for example, a hard-wired electronic circuit) that realizes each functional component, or a combination of hardware and software (for example: It may be realized by a combination of an electronic circuit and a program for controlling it).
- FIG. 4 is a diagram illustrating a computer 100 for realizing the information processing apparatus 200.
- the computer 100 is an arbitrary computer.
- the computer 100 is a personal computer (PC), a server machine, or a mobile terminal (tablet terminal or smartphone).
- the computer 100 may be a dedicated computer designed for realizing the information processing apparatus 200 or a general-purpose computer.
- the computer 100 includes a bus 102, a processor 104, a memory 106, a storage device 108, an input / output interface 110, and a network interface 112.
- the bus 102 is a data transmission path through which the processor 104, the memory 106, the storage device 108, the input / output interface 110, and the network interface 112 transmit / receive data to / from each other.
- the method of connecting the processors 104 and the like is not limited to bus connection.
- the processor 104 is an arithmetic processing unit such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit).
- the memory 106 is a memory realized using a RAM (Random Access Memory) or the like.
- the storage device 108 is a storage device implemented using a hard disk, SSD (Solid State Drive), ROM (Read Only Memory), flash memory, or the like.
- the input / output interface 110 is an interface for connecting the computer 100 to peripheral devices.
- the network interface 112 is an interface for connecting the computer 100 to a communication network.
- the method of connecting the network interface 112 to the communication network may be a wireless connection or a wired connection.
- the storage device 108 stores program modules for realizing each function of the information processing apparatus 200.
- the processor 104 implements each function of the information processing apparatus 200 by reading the program module into the memory 106 and executing it.
- FIG. 5 is a flowchart illustrating the flow of processing executed by the information processing apparatus 200 according to the first embodiment.
- the first analysis unit 202 acquires the second image data 20 (S102).
- the first analysis unit 202 performs image analysis on the acquired second image data 20, and detects the second image data 20 that satisfies the first predetermined condition (S104).
- the decoding unit 204 decodes the detected second image data 20 to generate third image data 30 (S106).
- the second analysis 206 performs image analysis on the third image data 30 (S108).
- the second image data 20 is generated by compressing the first image data 10.
- the first image data 10 is generated based on the imaging result by the camera.
- This camera is an arbitrary camera that can capture an image of surroundings and generate image data.
- this camera is a surveillance camera provided in various places.
- the surveillance camera is provided in a retail store such as a supermarket or a convenience store, or in an office or a house.
- the first image data 10 is non-compressed image data generated by a camera that has captured an image. Further, for example, the first image data 10 may be image data generated by compressing the uncompressed image data.
- uncompressed image data generated by a camera that has performed imaging is referred to as source image data.
- the second image data 20 is generated by compressing the first image data 10.
- the generation of the second image data 20 may be performed by a camera that generates source image data, or may be performed by a device other than the camera.
- the generated second image data 20 is stored in the storage device.
- This storage device is called a second image data storage device.
- the second image data storage device may be provided inside the device that generates the second image data 20, or may be provided outside.
- the encoding method for generating the second image data 20 from the first image data 10 is arbitrary.
- this encoding method is JPEG or StarPixel (registered trademark).
- a plurality of first image data 10 constitute a moving image (such as a video from a surveillance camera).
- the second image data 20 may be generated by individually encoding the plurality of first image data 10, or generated by encoding a moving image constituted by the first image data 10. May be.
- Examples of the moving image encoding method include encoding methods such as “MPEG” and “H.261”.
- the first analysis unit 202 acquires the second image data 20 (S102). There are various methods by which the first analysis unit 202 acquires the second image data 20. For example, the first analysis unit 202 acquires the second image data 20 by reading the second image data 20 from the second image data storage device described above. Further, for example, the first analysis unit 202 may acquire the second image data 20 by receiving the second image data 20 transmitted by another device (for example, a device that generates the second image data 20). Good.
- the first analysis unit 202 detects the second image data 20 that satisfies the first predetermined condition by performing image analysis on the second image data 20 (S104).
- This image analysis is, for example, a difference detection process or an object detection process.
- the image analysis performed on the second image data may be a process of analyzing the second image data itself, or a process of analyzing the image data obtained by decoding the second image data. Good. In the following, processing for analyzing the second image data itself will be described first, and analysis of image data obtained by decoding the second image data will be described later.
- the first analysis unit 202 acquires a plurality of time-series second image data 20.
- each second image data 20 is image data obtained by compressing each of a plurality of time-series first image data 10 generated as a result of imaging repeatedly performed by the camera.
- the first analysis unit 202 detects, for each of the plurality of second image data 20, a difference from the other second image data 20 positioned before or behind in time series. Then, the first analysis unit 202 detects the second image data 20 in which the detected difference is greater than or equal to a predetermined degree as the second image data 20 that satisfies the first predetermined condition. That is, the first predetermined condition is a condition that “the difference from the other second image data 20 positioned in the front or rear in the time series is a predetermined degree or more”.
- a known algorithm can be used as the difference detection processing algorithm.
- the method of expressing the degree of difference is arbitrary.
- the degree of difference is represented by the size of the area of the area included in the second image data 20 that is different from the previous or subsequent second image data 20.
- the difference is equal to or greater than a predetermined degree can be rephrased as “the area size of the difference region is equal to or greater than a predetermined value”.
- Information indicating the predetermined degree may be preset in the first analysis unit 202 or may be stored in a storage device accessible from the first analysis unit 202.
- the second image data 20 is detected under such a first predetermined condition, the second image data 20 having a change of a predetermined degree or more in the captured scene is detected. Then, it can be said that it is useful to decode the second image data 20 in which the scenery has changed by a predetermined degree or more into the third image data 30 having a higher resolution and perform further image analysis.
- the second image data 20 is image data constituting a video of a surveillance camera, and there is a significant change in the scenery reflected in the second image data 20, a suspicious person or the like is captured in the second image data 20. Because there is a possibility that. Therefore, by detecting the second image data 20 in which the scenery has changed by a predetermined degree or more in the first analysis unit 202, the image data representing such a change in scenery is analyzed in the image analysis by the second analysis 206. To be.
- the first predetermined condition may be a condition that “the difference is not more than a predetermined degree”. Depending on the location imaged by the camera, there may be normal changes in the scenery. In such a case, it is useful to detect that there is no change in the scenery and analyze the image data representing the scenery where the change has disappeared.
- the first analysis unit 202 performs an object detection process for detecting a predetermined object for the second image data 20. Then, the first analysis unit 202 detects the second image data 20 in which the predetermined object is detected as the second image data 20 that satisfies the first predetermined condition. That is, the first predetermined condition is a condition that “a predetermined object is included”.
- a known algorithm can be used as the algorithm for the object detection process.
- the thing handled as the “predetermined object” can be an arbitrary thing.
- the predetermined object is a person or a car.
- Information representing a predetermined object may be set in advance in the first analysis unit 202 or may be stored in a storage device accessible from the first analysis unit 202. .
- the second image data 20 in which a predetermined object is reflected is detected. It can be said that it is useful to decode the second image data 20 in which the predetermined object is reflected in this way into the third image data 30 having a higher resolution and perform further image analysis.
- the second image data 20 is image data constituting the video of the surveillance camera, and the predetermined object is a person.
- the second image data 20 showing a person is decoded into the third image data 30 having a higher resolution and further subjected to image analysis, thereby determining whether or not the person shown is a suspicious person. Is possible. Therefore, by detecting the second image data 20 in which the predetermined object is reflected in the first analysis unit 202, the image data in which the predetermined object is reflected is analyzed in the image analysis by the second analysis 206. So that
- the first predetermined condition may be a condition that “the predetermined object is not included”.
- the first analysis unit 202 detects the second image data 20 that does not include the predetermined object as the second image data 20 that satisfies the first condition.
- the image analysis performed by the first analysis unit 202 is not limited to the difference detection process and the object detection process described above.
- the image analysis by the second analysis 206 is performed on the third image data 30 generated from the second image data 20 detected by the first analysis unit 202. Therefore, the image analysis performed by the first analysis unit 202 can be any process that can detect the second image data 20 in which the scene that the second analysis 206 wants to analyze is reflected.
- Which type of image analysis is performed on the second image data 20 may be set in advance in the first analysis unit 202 or may be changeable according to the setting of the user of the information processing apparatus 200. In the latter case, for example, the user of the information processing apparatus 200 stores information indicating the type of image analysis performed on the second image data 20 in a storage device accessible from the first analysis unit 202. The first analysis unit 202 reads the information and performs the set image analysis on the second image data 20.
- the image analysis performed by the first analysis unit 202 may be an analysis of image data obtained by decoding the second image data. Hereinafter, this image analysis will be described.
- the first analysis unit 202 causes the decoding unit 204 to decode the second image data 20 and analyzes the image data generated as a result of the decoding.
- image data having a resolution lower than that of the first image data 10 is generated.
- the decoding unit 204 can decode the second image data 20 in multiple stages when generating the first image data 10 by decoding the second image data 20.
- An encoding method for generating image data that can be decoded in multiple stages is, for example, a progressive encoding method.
- a decoding method for stepwise decoding image data that can be decoded in multiple steps is, for example, a progressive decoding method.
- a codec classified into the progressive encoding method and the progressive decoding method for example, there is StarPixel (registered trademark).
- FIG. 6 is a diagram illustrating a state of decoding the second image data 20 that can be decoded in multiple stages.
- the second image data 20 can be decoded in three stages.
- the resolution of each image data is the second image data 20, the image data that has been decoded at the first stage, the image data that has been decoded at the second stage, and the image data that has been decoded at the third stage (the first data)
- One image data is higher in the order of 10).
- the first analysis unit 202 causes the decoding unit 204 to generate image data that has been decoded at the first stage or image data that has been decoded at the second stage.
- the first analysis unit 202 performs image analysis on the generated image data.
- the decoding unit 204 decodes a partial image area of the second image data 20.
- the first analysis unit 202 analyzes the decoded image area.
- FIG. 7 is a diagram illustrating the second image data 20 obtained by decoding a part of the image area.
- decoding is performed on the upper half image area of the second image data 20. Therefore, the first analysis unit 202 performs image analysis on the upper half of the image area that has been decoded among the image areas included in the second image data 20. By doing so, the time required for the image analysis of the second image data 20 is shortened compared to the case where the image analysis is performed after decoding all the image regions of the second image data 20.
- the information processing apparatus 200 has a function of restoring the video of the camera by decoding the second image data 20 and providing the video to the user.
- the information processing apparatus 200 performs a process of decoding the second image data 20 and generating the first image data 10 in order to restore the video of the camera.
- image data see FIG. 6
- image data see FIG. 7
- image data see FIG. 7
- the first analysis unit 202 may acquire image data generated in the process of such processing and perform image analysis on the image data.
- the content of the analysis processing performed on the image data obtained by decoding the second image data is the same as the content of the difference detection processing and object detection processing described above.
- the decoding unit 204 decodes the detected second image data 20 to generate third image data 30 (S106).
- the third image data 30 generated from the second image data 20 may be the same image data as the first image data 10 that is the source of the second image data 20, or the first image data 10 May be different image data.
- the decoding unit 204 performs a process of decoding the second image data 20 into the original first image data 10. Then, the original first image data 10 is referred to as third image data 30.
- a known process can be used for the process of decoding the compressed image into the original image.
- the second image data is generated by an encoding method capable of multi-stage decoding (see FIG. 6).
- the decoding unit 204 decodes the second image data 20 to an arbitrary stage, and sets the decoded image data as the third image data 30.
- the decoding unit 204 performs image data that has been decoded at the first stage, image data that has been decoded at the second stage, or image data that has been decoded at the third stage. Is generated as the third image data 30.
- the first analysis unit 202 performs image analysis on the image data that has been decoded in the first stage.
- the decoding unit 204 further generates the third image data 30 by further decoding the image data that has been decoded in the first stage.
- the third image data 30 is image data that has been decoded in the second stage or image data that has been decoded in the third stage.
- the first analysis unit 202 performs image analysis on the image data that has been decoded in the second stage.
- the decoding unit 204 further generates the third image data 30 by further decoding the image data that has been decoded in the second stage. Accordingly, the third image data 30 is image data that has been decoded in the third stage.
- the decoding unit 204 generates the third image data 30 by performing decoding on the remaining image region that has not been decoded by the first analysis unit 202.
- the second analysis 206 performs image analysis on the third image data 30 (S108).
- the third image data 30 is higher in resolution than the image data analyzed by the first analysis unit 202. Therefore, in the image analysis by the second analysis 206, an analysis with higher accuracy than the image analysis by the first analysis unit 202 can be performed.
- the image analysis performed by the second analysis 206 is arbitrary, and can be arbitrarily employed according to the purpose of use of the information processing apparatus 200.
- the image analysis performed by the second analysis 206 is processing for detecting an object having a predetermined feature.
- the predetermined feature is represented by, for example, an age group, sex, or a thing worn.
- the predetermined characteristic represents the characteristic of the person.
- the case where a specific person is desired to be detected is, for example, a case where a criminal of a certain case is specified and the criminal is to be searched from an image of a surveillance camera.
- the second analysis 206 may detect a person having a certain characteristic instead of a specific person.
- the case where it is desired to detect a person having a certain characteristic is, for example, a case where a suspicious person (for example, a person wearing sunglasses, a mask, and a hat) is desired to be found from an image of a surveillance camera.
- the object to be detected is not limited to people.
- the object to be detected may be a car.
- the predetermined characteristics are, for example, the vehicle type, color, license plate number, and the like.
- the object detection algorithm is preferably set to be different depending on the type of object to be detected (for example, a person or a car).
- the type of image analysis performed by the second analysis 206 may be set in advance in the second analysis 206, or may be changeable according to the setting of the user of the information processing apparatus 200. In the latter case, for example, the user of the information processing apparatus 200 stores information indicating the type of image analysis performed by the second analysis 206 in a storage device accessible from the second analysis 206. The second analysis 206 reads the information and performs a set type of image analysis.
- FIG. 8 is a diagram illustrating the information processing apparatus 200 according to the first embodiment together with the surrounding environment.
- the camera 60 generates the source image data 50 by capturing the surrounding scenery.
- the camera 60 is a surveillance camera installed in a building. Further, the camera 60 generates the first image data 10 by compressing the source image data 50.
- the gateway 70 is an arbitrary device having a function of transmitting and receiving data via a WAN (Wide Area) Network).
- the gateway 70 acquires the first image data 10 from the camera 60 via a LAN (Local Area Network). Further, the gateway 70 compresses the first image data 10 to generate the second image data 20. Then, the gateway 70 transmits the second image data 20 to the cloud storage 80 via the WAN interface.
- WAN Wide Area
- LAN Local Area Network
- the cloud storage 80 is an arbitrary storage device that can be used via the WAN.
- the cloud storage 80 stores the second image data 20 received from the gateway 70.
- the gateway 70 may transmit each second image data 20 individually, or archive a plurality of second image data 20 into one file. May be transmitted.
- the gateway 70 archives, for example, a plurality of second image data 20 representing imaging results within a predetermined period (for example, 1 minute) in one file. More specifically, the second image data 20 corresponding to each source image data 50 generated by the camera 60 within a predetermined period is archived in one file.
- the second image data 20 representing the scenery photographed by the camera 60 is stored in the cloud storage 80.
- the camera 60 is a surveillance camera
- a series of images representing the state of the surveillance location will be stored in the cloud storage 80.
- the cloud server 90 is a server machine that implements the information processing apparatus 200 according to the first embodiment.
- the cloud server 90 acquires the second image data 20 stored in the cloud storage 80 and performs the above-described series of processing (see FIG. 5).
- the cloud server 90 acquires one or more archive files as the plurality of second image data 20 acquired in S102.
- the image data transmitted / received via the WAN interface is the second image data 20.
- the second image data 20 is an image having a lower resolution than the first image data 10 and the third image data 30.
- relatively small image data is transmitted and received on a WAN that has a slower communication speed than a LAN. By doing so, the time required for transmitting and receiving image data can be shortened. In addition, the communication speed required for the WAN is reduced.
- FIG. 9 is a diagram illustrating the information processing apparatus 200 according to the second embodiment together with the usage environment thereof. Except as described below, the information processing apparatus 200 according to the second embodiment has the same function as the information processing apparatus 200 according to the first embodiment.
- the information processing apparatus 200 constitutes an information processing system 400 together with the information processing apparatus 300.
- the information processing apparatus 200 uses specific information generated by the information processing apparatus 300.
- the information processing apparatus 300 includes an analysis unit 302 and a feature information generation unit 304.
- the analysis unit 302 performs image analysis on the fourth image data and detects fourth image data that satisfies the second predetermined condition.
- the second predetermined condition will be described later.
- FIG. 10 is a diagram illustrating the relationship between the fourth image data and other image data.
- the fourth image data 40 is generated by compressing the source image data 50.
- the first image data 10 is also generated by compressing the source image data 50. That is, certain first image data 10 and certain fourth image data 40 are both generated from the same source image data 50.
- the first image data 10 and the fourth image data 40 that are generated from the same source image data 50 in this way are respectively referred to as “first image data 10 corresponding to the fourth image data 40” or “first image data 40”. This is expressed as “fourth image data 40 corresponding to one image data 10”.
- the source image data 50 is uncompressed image data generated by the camera as described above.
- the first image data 10 and the fourth image data 40 are generated by compressing the uncompressed image data to different resolutions.
- the resolution of the fourth image data 40 is lower than the resolution of the corresponding first image data 10.
- the fourth image data 40 may be generated by the same device as the device that generates the first image data 10, or may be generated by a different device.
- the feature information generation unit 304 generates specific information for specifying the second image data corresponding to the detected fourth image data.
- the second image data corresponding to certain fourth image data is second image data generated by compressing the first image data corresponding to the fourth image data. Note that the resolutions of the fourth image data 40 and the second image data 20 may be the same or different.
- First analysis unit 202 of Embodiment 2 acquires specific information generated by information processing device 300. Furthermore, the first analysis unit 202 of the second embodiment performs image analysis on the second image data 20 specified by the specification information.
- FIG. 11 is a flowchart illustrating the flow of processing executed by the information processing apparatus 300 according to the second embodiment.
- the analysis unit 302 acquires fourth image data (S202).
- the analysis unit 302 performs image analysis on the fourth image data 40 to detect the fourth image data 40 that satisfies the second predetermined condition (S204).
- the feature information generation unit 304 generates specific information for specifying the second image data corresponding to the detected fourth image data 40 (S206).
- FIG. 12 is a flowchart illustrating the flow of processing executed by the information processing apparatus 200 according to the second embodiment.
- the first analysis unit 202 acquires specific information.
- the first analysis unit 202 acquires the second image data 20 specified by the specification information. The processing performed from S104 to S108 is as described above.
- the analysis unit 302 acquires the fourth image data 40 (S202). There are various methods for the analysis unit 302 to acquire the fourth image data 40. For example, the analysis unit 302 acquires the fourth image data 40 by reading the fourth image data 40 from a storage device in which the fourth image data 40 is stored. Further, for example, the analysis unit 302 may acquire the fourth image data 40 by receiving the fourth image data 40 transmitted by another device (for example, a device that generates the fourth image data 40).
- the analysis unit 302 analyzes the fourth image data 40 to detect the fourth image data 40 that satisfies the second predetermined condition (S204, S206).
- the fourth image data 40 that satisfies the second predetermined condition is the fourth image data 40 that requires the information processing apparatus 200 to perform image analysis of the corresponding second image data 20.
- Image analysis performed on the fourth image data 40 by the analysis unit 302 is an arbitrary process.
- the analysis unit 302 performs a difference detection process and an object detection process in the same manner as the first analysis unit 202 of the first embodiment.
- the image analysis performed by the analysis unit 302 and the first analysis unit 202 is preferably a different type of processing.
- the analysis unit 302 performs difference detection processing, and the first analysis unit 202 performs object detection processing.
- the first analysis unit 202 detects the second image data 20 that “the scene being photographed has a change of a predetermined level or more and a predetermined object is captured”.
- the analysis unit 302 may perform object detection processing, and the first analysis unit 202 may perform difference detection processing.
- the processing performed by the analysis unit 302 and the first analysis unit 202 may be the same type of processing. However, in this case, the analysis process in the first analysis unit 202 is a more detailed analysis process than the analysis process by the analysis unit 302.
- the feature information generation unit 304 generates specific information of the second image data 20 corresponding to the detected fourth image data 40.
- the specific information is arbitrary information that can specify the second image data.
- the specific information is generated by the identifier given to the second image data 20, the time when the second image data 20 is generated, or the first image data 10 or the source image data that is the source of the second image data 20. At the point of time.
- the feature information generation unit 304 stores the generated specific information in an arbitrary storage device.
- the method of grasping the second image data 20 corresponding to certain fourth image data 40 is arbitrary.
- a common identifier is included in the metadata of each image data having the same source image data 50 as the original.
- the metadata of the fourth image data 40 and the second image data 20 corresponding to each other includes the same identifier. Therefore, the feature information generation unit 304 can grasp the second image data 20 corresponding to the fourth image data 40 detected by the analysis unit 302 by using this identifier.
- information that can specify the source image data 50 that is the source is included in the metadata of each image data.
- the metadata of the fourth image data 40 and the second image data 20 corresponding to each other includes information specifying the same source image data 50. Therefore, the feature information generation unit 304 can grasp the second image data 20 corresponding to the fourth image data 40 detected by the analysis unit 302 by using this information.
- the first analysis unit 202 acquires specific information (S302). There are various methods by which the first analysis unit 202 acquires the specific information. For example, the 1st analysis part 202 acquires specific information by reading specific information from the memory
- the first analysis unit 202 detects the second image data 20 satisfying the first predetermined condition from the second image data 20 specified by the specifying information (304).
- the detection method of the second image data 20 that satisfies the first predetermined condition is as described in the first embodiment.
- each program module stored in the storage device 108 described above includes a program that implements each function of the information processing apparatus 200 of the present embodiment.
- the information processing device 300 analyzes the fourth image data 40 to detect the fourth image data 40 that needs to be analyzed for the corresponding second image data 20. .
- the information processing apparatus 200 performs image analysis on the second image data 20 corresponding to the fourth image data 40.
- the second image data 20 to be analyzed by the information processing apparatus 200 is specified in an apparatus different from the information processing apparatus 200. By doing so, the processing load of image analysis in the information processing apparatus 200 is reduced.
- FIG. 13 is a diagram illustrating the information processing apparatus 200 according to the second embodiment together with the surrounding environment.
- the camera 60 generates the fourth image data 40 from the source image data 50 in addition to generating the first image data 10 from the source image data 50.
- the information processing apparatus 300 is realized as the gateway 70.
- the gateway 70 acquires the first image data 10 and the fourth image data 40 from the camera 60.
- the handling of the first image data 10 is the same as in the first embodiment.
- the gateway 70 detects the fourth image data 40 that satisfies the second predetermined condition by analyzing the fourth image data 40. Further, the gateway 70 generates specific information 22 for specifying the second image data 20 corresponding to the detected fourth image data 40. Then, the gateway 70 transmits the specific information 22 to the cloud storage 80.
- the cloud storage 80 acquires and stores the second image data 20 and the specific information 22 received from the gateway 70.
- the gateway 70 may archive the specific information 22 in the same manner as the second image data 20.
- the gateway 70 archives a predetermined number of specific information 22 and generates one archive file.
- the cloud server 90 acquires the specific information 22 stored in the cloud storage 80. Furthermore, the cloud server 90 acquires the second image data 20 specified by the specifying information 22 from the cloud storage 80.
- the specific information 22 is generated by the gateway 70. That is, a device that generates the second image data 20 from the first image data 10 and a device that generates the specific information 22 by analyzing the fourth image data 40 are combined into one. Therefore, the cost for preparing the apparatus can be reduced.
- the cloud server 90 since the cloud server 90 only needs to analyze the second image data 20 specified by the specifying information 22, the amount of computer resources consumed by the cloud server 90 is reduced.
- the cloud server 90 is a rental server, the rental cost of the cloud server 90 is often determined according to the amount of computer resources consumed by the cloud server 90. Therefore, the rental cost of the cloud server 90 can be reduced by reducing the amount of computer resources consumed by the cloud server 90.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Computer Graphics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Analysis (AREA)
- Television Signal Processing For Recording (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
第1解析部(202)は、第2画像データを取得する。第2画像データは、第1画像データを所定の符号化方式によって圧縮することで生成される。さらに第1解析部(202)は、取得した第2画像データを画像解析することで、第1所定条件を満たす第2画像データを検出する。デコーディング部(204)は、第1解析部(202)によって検出された第2画像データを、第2画像データよりも解像度が高い第3画像データにデコードする。第2解析(206)は、第3画像データについて画像解析を行う。
Description
本発明は、情報処理装置、情報処理システム、制御方法、及びプログラムに関する。
建物の監視などにカメラが用いられている。例えば、或る建物の近辺で事件が起こった際に、その建物の監視カメラの映像が利用される。
カメラの映像に関する先行技術を開示する文献として、例えば特許文献1がある。特許文献1では、玄関の外に設置されているカメラが来訪者を撮像する。この際、来訪者の映像は、映像の変化が大きい場合には圧縮率が低い高解像度の映像で記憶又は表示され、映像の変化が小さい場合には圧縮率が高い低解像度の映像で記憶又は表示される。
カメラの映像を計算機で画像解析することがある。このような場合、高い精度で画像解析を行うためには高解像度の画像が利用される。そのため、画像解析を行う計算機の処理負荷が大きくなる。特許文献1は、画像解析の処理負荷を減らすことについては言及していない。
本発明は、上記の課題に鑑みてなされたものである。本発明の目的は、カメラの映像の画像解析に要する処理負荷を軽減する技術を提供することである。
本発明の第1の情報処理装置は、(1)第1画像データを所定の符号化方式によって圧縮することで生成される第2画像データを取得して、前記第2画像データを画像解析し、第1所定条件を満たす前記第2画像データを検出する第1解析手段と、(2)前記検出された第2画像データを、前記第2画像データよりも解像度が高い第3画像データにデコードするデコーディング手段と、(3)前記第3画像データの画像解析を行う第2解析手段と、を有する。
本発明の情報処理システムは、通信可能に接続されている第1情報処理装置と第2情報処理装置を有する情報処理システムである。
前記第1情報処理装置は、第1画像データを所定の符号化方式で圧縮して、第2画像データを生成する圧縮手段を有する。
前記第2情報処理装置は、(1)前記第2画像データを取得して、前記第2画像データを画像解析し、第1所定条件を満たす第2画像データを検出する第1解析手段と、(2)前記検出された第2画像データを、前記第2画像データよりも解像度が高い第3画像データにデコードするデコーディング手段と、(3)前記第3画像データの画像解析を行う第2解析手段と、を有する。
前記第1情報処理装置は、第1画像データを所定の符号化方式で圧縮して、第2画像データを生成する圧縮手段を有する。
前記第2情報処理装置は、(1)前記第2画像データを取得して、前記第2画像データを画像解析し、第1所定条件を満たす第2画像データを検出する第1解析手段と、(2)前記検出された第2画像データを、前記第2画像データよりも解像度が高い第3画像データにデコードするデコーディング手段と、(3)前記第3画像データの画像解析を行う第2解析手段と、を有する。
本発明の第1の制御方法は、コンピュータによって実行される。
当該制御方法は、(1)第1画像データを所定の符号化方式によって圧縮することで生成される第2画像データを取得して、前記第2画像データを画像解析し、第1所定条件を満たす第2画像データを検出する第1解析ステップと、(2)前記検出された第2画像データを、前記第2画像データよりも解像度が高い第3画像データにデコードするデコーディングステップと、(3)前記第3画像データの画像解析を行う第2解析ステップと、を有する。
当該制御方法は、(1)第1画像データを所定の符号化方式によって圧縮することで生成される第2画像データを取得して、前記第2画像データを画像解析し、第1所定条件を満たす第2画像データを検出する第1解析ステップと、(2)前記検出された第2画像データを、前記第2画像データよりも解像度が高い第3画像データにデコードするデコーディングステップと、(3)前記第3画像データの画像解析を行う第2解析ステップと、を有する。
本発明の第2の制御方法は、通信可能に接続されている第1情報処理装置と第2情報処理装置を有する情報処理システムにおいて実行される。
当該制御方法は、(1)前記第1情報処理装置が、第1画像データを所定の符号化方式で圧縮して、第2画像データを生成する圧縮ステップと、(2)前記第2情報処理装置が、前記第2画像データを取得して、前記第2画像データを画像解析し、第1所定条件を満たす前記第2画像データを検出する第1解析ステップと、(3)前記第2情報処理装置が、前記検出された第2画像データを、前記第2画像データよりも解像度が高い第3画像データにデコードするデコーディングステップと、(4)前記第2情報処理装置が、前記第3画像データの画像解析を行う第2解析ステップと、を有する。
当該制御方法は、(1)前記第1情報処理装置が、第1画像データを所定の符号化方式で圧縮して、第2画像データを生成する圧縮ステップと、(2)前記第2情報処理装置が、前記第2画像データを取得して、前記第2画像データを画像解析し、第1所定条件を満たす前記第2画像データを検出する第1解析ステップと、(3)前記第2情報処理装置が、前記検出された第2画像データを、前記第2画像データよりも解像度が高い第3画像データにデコードするデコーディングステップと、(4)前記第2情報処理装置が、前記第3画像データの画像解析を行う第2解析ステップと、を有する。
本発明のプログラムは、本発明の第1の制御方法の各ステップをコンピュータに実行させる。
本発明の第2の情報処理装置は、(1)第1画像データを所定の符号化方式によって符号化された画像データを取得する取得手段と、(2)取得した前記画像データを、第2画像データに復号する第1デコーディング手段と、(3)復号した前記第2画像データを画像解析し、第1所定条件を満たす第2画像データを検出する第1解析手段と、(4)前記検出された第2画像データを、前記第2画像データよりも解像度が高い第3画像データに復号する第2デコーディング手段と、(5)前記第3画像データの画像解析を行う第2解析手段と、を有する。
本発明によれば、カメラの映像の画像解析に要する処理負荷を軽減する技術が提供される。
上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。
以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。また各ブロック図において、特に説明がない限り、各ブロックは、ハードウエア単位の構成ではなく機能単位の構成を表している。
[実施形態1]
図1は、実施形態1の情報処理装置200を例示するブロック図である。情報処理装置200は、第1解析部202、デコーディング部204、及び第2解析206を有する。
図1は、実施形態1の情報処理装置200を例示するブロック図である。情報処理装置200は、第1解析部202、デコーディング部204、及び第2解析206を有する。
第1解析部202は第2画像データを取得する。第2画像データは、第1画像データを所定の符号化方式によってエンコード(符号化)することで圧縮した画像が生成される。さらに第1解析部202は、取得した第2画像データを画像解析する。これにより、第1解析部202は、第1所定条件を満たす第2画像データを検出する。第1所定条件を満たす第2画像データ20は、より解像度が高い画像データにデコード(復号)してさらなる画像解析を行う必要がある画像データである。なお、第1解析部202によって行われる画像解析、及び第1所定条件についての詳細は後述する。
デコーディング部204は、第1所定条件を満たす第2画像データを、第2画像データよりも解像度が高い第3画像データにデコードする。図2は、各画像データの解像度の関係を例示する図である。第2画像データ20の解像度は、第1画像データ10の解像度よりも低い。また、第3画像データ30の解像度は、第2画像データ20の解像度よりも高い。第3画像データ30の解像度は、第1画像データ10の解像度より低くてもよいし(図2(a)参照)、第1画像データ10の解像度と同じであってもよい(図2(b)参照)。
第2解析206は、第3画像データ30の画像解析を行う。第2解析206によって行われる画像解析の詳細については後述する。
図3は、実施形態1の情報処理装置200の動作を概念的に例示する図である。前述したように、第2画像データ20は、第1画像データ10を圧縮することで生成された画像データである。例えば図3において、第2画像データ20-1は、第1画像データ10-1を圧縮することで生成されたものである。
第1解析部202は、各第2画像データ20を画像解析することで、第1所定条件を満たす第2画像データ20を検出する。図3では、第2画像データ20-2及び第2画像データ20-5が、第1所定条件を満たしている。そこでデコーディング部204は、第2画像データ20-2及び第2画像データ20-5それぞれをデコードして、第3画像データ30-1及び第3画像データ30-2を生成する。第2解析206は、第3画像データ30-1及び第3画像データ30-2について画像解析を行う。
このように、本実施形態の情報処理装置200は、解像度が比較的低い第2画像データ20を画像解析することで、第1所定条件を満たす第2画像データ20(より解像度が高い画像データにデコードしてさらなる画像解析を行う必要がある第2画像データ20)を検出する。そして情報処理装置200は、検出された第2画像データ20をデコードして第3画像データ30を生成し、その第3画像データ30についてさらに画像解析を行う。
第3画像データ30は第2画像データ20よりも解像度が高いため、第3画像データ30の画像解析の処理負荷は第2画像データ20の画像解析の処理負荷よりも大きい。本実施形態の情報処理装置200によれば、全ての第3画像データ30について画像解析を行うケースと比較して、画像解析が行われる第3画像データ30の数が少なくなる。そのため、本実施形態によれば、画像解析によって情報処理装置200にかかる処理負荷が小さくなる。また、画像解析に要する時間が短くなる。
以下、本実施形態についてさらに詳細を述べる。
<情報処理装置200を実現するハードウエアの例>
情報処理装置200の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。
情報処理装置200の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。
図4は、情報処理装置200を実現するための計算機100を例示する図である。計算機100は任意の計算機である。例えば計算機100は、Personal Computer(PC)、サーバマシン、又は携帯端末(タブレット端末やスマートフォン)などである。計算機100は、情報処理装置200を実現するために設計された専用の計算機であってもよいし、汎用の計算機であってもよい。
計算機100は、バス102、プロセッサ104、メモリ106、ストレージデバイス108、入出力インタフェース110、及びネットワークインタフェース112を有する。バス102は、プロセッサ104、メモリ106、ストレージデバイス108、入出力インタフェース110、及びネットワークインタフェース112が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ104などを互いに接続する方法は、バス接続に限定されない。
プロセッサ104は、CPU(Central Processing Unit)や GPU(Graphics Processing Unit)などの演算処理装置である。メモリ106は、RAM(Random Access Memory)などを用いて実現されるメモリである。ストレージデバイス108は、ハードディスク、SSD(Solid State Drive)、ROM(Read Only Memory)、又はフラッシュメモリなどを用いて実現されるストレージデバイスである。
入出力インタフェース110は、計算機100を周辺デバイスと接続するためのインタフェースである。ネットワークインタフェース112は、計算機100を通信網に接続するためのインタフェースである。ネットワークインタフェース112が通信網に接続する方法は、無線接続であってもよいし、有線接続であってもよい。
ストレージデバイス108は、情報処理装置200の各機能を実現するためのプログラムモジュールを記憶している。プロセッサ104は、このプログラムモジュールをメモリ106に読み出して実行することで、情報処理装置200の各機能を実現する。
<処理の流れ>
図5は、実施形態1の情報処理装置200によって実行される処理の流れを例示するフローチャートである。第1解析部202は、第2画像データ20を取得する(S102)。第1解析部202は、取得した第2画像データ20について画像解析を行って、第1所定条件を満たす第2画像データ20を検出する(S104)。デコーディング部204は、検出された第2画像データ20をデコードして、第3画像データ30を生成する(S106)。第2解析206は、第3画像データ30に画像解析を施す(S108)。
図5は、実施形態1の情報処理装置200によって実行される処理の流れを例示するフローチャートである。第1解析部202は、第2画像データ20を取得する(S102)。第1解析部202は、取得した第2画像データ20について画像解析を行って、第1所定条件を満たす第2画像データ20を検出する(S104)。デコーディング部204は、検出された第2画像データ20をデコードして、第3画像データ30を生成する(S106)。第2解析206は、第3画像データ30に画像解析を施す(S108)。
<第1画像データ10について>
前述したように、第2画像データ20は、第1画像データ10を圧縮することで生成される。第1画像データ10は、カメラによる撮像結果に基づいて生成される。このカメラは、周囲を撮像して画像データを生成することができる任意のカメラである。例えばこのカメラは、種々の場所に設けられている監視カメラである。例えばこの監視カメラは、スーパーやコンビニエンスストアなどの小売店、又はオフィスや住宅などに設けられる。
前述したように、第2画像データ20は、第1画像データ10を圧縮することで生成される。第1画像データ10は、カメラによる撮像結果に基づいて生成される。このカメラは、周囲を撮像して画像データを生成することができる任意のカメラである。例えばこのカメラは、種々の場所に設けられている監視カメラである。例えばこの監視カメラは、スーパーやコンビニエンスストアなどの小売店、又はオフィスや住宅などに設けられる。
例えば第1画像データ10は、撮像を行ったカメラによって生成される非圧縮の画像データである。また例えば、第1画像データ10は、この非圧縮の画像データを圧縮することで生成された画像データであってもよい。以下、撮像を行ったカメラによって生成される非圧縮の画像データを、ソース画像データと表記する。
<第2画像データの生成>
第2画像データ20は、第1画像データ10を圧縮することで生成される。第2画像データ20の生成は、ソース画像データを生成するカメラによって行われてもよいし、このカメラ以外の装置によって行われてもよい。
第2画像データ20は、第1画像データ10を圧縮することで生成される。第2画像データ20の生成は、ソース画像データを生成するカメラによって行われてもよいし、このカメラ以外の装置によって行われてもよい。
生成された第2画像データ20は記憶装置に記憶される。この記憶装置を、第2画像データ記憶装置と呼ぶ。第2画像データ記憶装置は、第2画像データ20を生成する装置の内部に設けられていてもよいし、外部に設けられていてもよい。
第1画像データ10から第2画像データ20を生成する符号化の方式は任意である。例えばこの符号化の方式は、JPEG や StarPixel(登録商標)などである。
ここで、複数の第1画像データ10によって動画(監視カメラの映像など)が構成されるとする。この場合、第2画像データ20は、これら複数の第1画像データ10を個々に符号化することで生成されてもよいし、第1画像データ10によって構成される動画を符号化することで生成されてもよい。動画の符号化方式には、例えば MPEG や H.261 などの符号化方式がある。
<第2画像データ20の取得:S102>
第1解析部202は、第2画像データ20を取得する(S102)。第1解析部202が第2画像データ20を取得する方法は様々である。例えば第1解析部202は、前述した第2画像データ記憶装置から第2画像データ20を読み出すことで、第2画像データ20を取得する。また例えば、第1解析部202は、他の装置(例えば第2画像データ20を生成する装置)によって送信される第2画像データ20を受信することで、第2画像データ20を取得してもよい。
第1解析部202は、第2画像データ20を取得する(S102)。第1解析部202が第2画像データ20を取得する方法は様々である。例えば第1解析部202は、前述した第2画像データ記憶装置から第2画像データ20を読み出すことで、第2画像データ20を取得する。また例えば、第1解析部202は、他の装置(例えば第2画像データ20を生成する装置)によって送信される第2画像データ20を受信することで、第2画像データ20を取得してもよい。
<第2画像データ20の画像解析:S104>
第1解析部202は、第2画像データ20について画像解析を行うことで、第1所定条件を満たす第2画像データ20を検出する(S104)。この画像解析は、例えば差分検出処理やオブジェクト検出処理である。以下、それぞれについて具体的に説明する。なお、第2画像データについて行われる画像解析は、第2画像データ自体を解析する処理であってもよいし、第2画像データを復号することで得られる画像データを解析する処理であってもよい。以下では、まず第2画像データ自体を解析する処理について説明し、第2画像データを復号することで得られる画像データの解析については後述する。
第1解析部202は、第2画像データ20について画像解析を行うことで、第1所定条件を満たす第2画像データ20を検出する(S104)。この画像解析は、例えば差分検出処理やオブジェクト検出処理である。以下、それぞれについて具体的に説明する。なお、第2画像データについて行われる画像解析は、第2画像データ自体を解析する処理であってもよいし、第2画像データを復号することで得られる画像データを解析する処理であってもよい。以下では、まず第2画像データ自体を解析する処理について説明し、第2画像データを復号することで得られる画像データの解析については後述する。
<<差分検出処理>>
第1解析部202は、時系列の複数の第2画像データ20を取得する。具体的には、各第2画像データ20は、カメラが繰り返し行う撮像の結果生成される時系列の複数の第1画像データ10それぞれを圧縮した画像データである。
第1解析部202は、時系列の複数の第2画像データ20を取得する。具体的には、各第2画像データ20は、カメラが繰り返し行う撮像の結果生成される時系列の複数の第1画像データ10それぞれを圧縮した画像データである。
第1解析部202は、複数の第2画像データ20それぞれについて、時系列において前又は後ろに位置する他の第2画像データ20との差分を検出する。そして、第1解析部202は、検出された差分が所定度合い以上である第2画像データ20を、第1所定条件を満たす第2画像データ20として検出する。つまり、第1所定条件は、「時系列において前又は後ろに位置する他の第2画像データ20との差分が所定度合い以上である」という条件である。なお、差分検出処理のアルゴリズムには、既知のアルゴリズムを利用することができる。
ここで、差分の度合いを表す方法は任意である。例えば差分の度合いは、第2画像データ20に含まれる領域のうち、前又は後の第2画像データ20と差異がある領域の面積の大きさで表される。この場合、「差分が所定度合い以上である」とは、「差分領域の面積の大きさが所定値以上である」と言い換えることができる。所定度合いを示す情報は、第1解析部202に予め設定されていてもよいし、第1解析部202からアクセス可能な記憶装置に記憶されていてもよい。
このような第1所定条件の下で第2画像データ20の検出を行えば、撮像された景色に所定度合い以上の変化がある第2画像データ20が検出される。そして、このように景色に所定度合い以上の変化があった第2画像データ20については、より解像度が高い第3画像データ30にデコードしてさらなる画像解析を行うことが有用であると言える。例えば、第2画像データ20が監視カメラの映像を構成する画像データである場合、第2画像データ20に写っている景色に大きな変化があれば、その第2画像データ20に不審人物などが写っている可能性があるためである。そこで、景色に所定度合い以上の変化があった第2画像データ20を第1解析部202において検出することにより、第2解析206による画像解析において、このような景色の変化を表す画像データが解析されるようにする。
なお、第1所定条件は、「差分が所定度合い以下である」という条件であってもよい。カメラによって撮像される場所によっては、景色に変化があることが通常である場合もある。このような場合においては、景色に変化がなくなったことを検出し、変化がなくなっている景色を表す画像データを解析することが有用である。
<<オブジェクト検出処理>>
第1解析部202は、第2画像データ20について、所定のオブジェクトを検出するためのオブジェクト検出処理を行う。そして、第1解析部202は、所定のオブジェクトが検出された第2画像データ20を、第1所定条件を満たす第2画像データ20として検出する。つまり、第1所定条件は、「所定のオブジェクトが含まれる」という条件である。なお、オブジェクト検出処理のアルゴリズムには、既知のアルゴリズムを利用することができる。
第1解析部202は、第2画像データ20について、所定のオブジェクトを検出するためのオブジェクト検出処理を行う。そして、第1解析部202は、所定のオブジェクトが検出された第2画像データ20を、第1所定条件を満たす第2画像データ20として検出する。つまり、第1所定条件は、「所定のオブジェクトが含まれる」という条件である。なお、オブジェクト検出処理のアルゴリズムには、既知のアルゴリズムを利用することができる。
ここで、「所定のオブジェクト」として扱う物は、任意の物とすることができる。例えば所定のオブジェクトは、人や車などである。所定のオブジェクトを表す情報(例えば所定のオブジェクトの特徴量)は、第1解析部202に予め設定されていてもよいし、第1解析部202からアクセス可能な記憶装置に記憶されていてもよい。
このような第1所定条件の下で第2画像データ20の検出を行えば、所定のオブジェクトが写っている第2画像データ20が検出される。そして、このように所定のオブジェクトが写っている第2画像データ20については、より解像度が高い第3画像データ30にデコードしてさらなる画像解析を行うことが有用であると言える。例えば、第2画像データ20が監視カメラの映像を構成する画像データであり、所定のオブジェクトが人であるとする。この場合、人が写っている第2画像データ20について、より解像度が高い第3画像データ30にデコードしてさらに画像解析を行うことで、写っている人が不審人物であるかどうかの判定などが可能となる。そこで、所定のオブジェクトが写っている第2画像データ20を第1解析部202において検出することにより、第2解析206による画像解析において、このような所定のオブジェクトが写っている画像データが解析されるようにする。
なお、第1所定条件は、「所定のオブジェクトが含まれない」という条件であってもよい。この場合、第1解析部202は、所定のオブジェクトが含まれていない第2画像データ20を、第1条件を満たす第2画像データ20として検出する。
第1解析部202が行う画像解析は、前述した差分検出処理やオブジェクト検出処理に限定されない。第2解析206による画像解析は、第1解析部202によって検出された第2画像データ20から生成される第3画像データ30について行われる。そのため、第1解析部202が行う画像解析は、第2解析206に解析させたい景色が写っている第2画像データ20を検出できる任意の処理とすることができる。
第2画像データ20に対してどの種類の画像解析を行うかは、第1解析部202に予め設定されていてもよいし、情報処理装置200のユーザの設定によって変更可能であってもよい。後者の場合、例えば情報処理装置200のユーザは、第2画像データ20に対して行う画像解析の種類を示す情報を、第1解析部202からアクセス可能な記憶装置に記憶させておく。第1解析部202は、その情報を読み出すことで、設定された画像解析を第2画像データ20に対して行う。
<<第2画像データを復号することで得られる画像データの解析>>
前述したように、第1解析部202によって行われる画像解析は、第2画像データを復号することで得られる画像データの解析であってもよい。以下、この画像解析について説明する。
前述したように、第1解析部202によって行われる画像解析は、第2画像データを復号することで得られる画像データの解析であってもよい。以下、この画像解析について説明する。
例えば第1解析部202は、デコーディング部204に第2画像データ20を復号させ、復号の結果生成された画像データを解析する。この復号では、第1画像データ10の解像度よりも低い解像度を持つ画像データが生成される。この場合、デコーディング部204は、第2画像データ20をデコードして第1画像データ10を生成する際に、多段階でデコードすることができる。
多段階のデコードが可能な画像データを生成する符号化方式は、例えばプログレッシブ符号化方式である。また、このように多段階のデコードが可能な画像データを段階的に復号する復号方式は、例えばプログレッシブ復号方式である。プログレッシブ符号化方式及びプログレッシブ復号方式に分類されるコーデックとして、例えば StarPixel(登録商標)がある。
図6は、多段階のデコードが可能な第2画像データ20をデコードする様子を例示する図である。図6の例において、第2画像データ20は3段階のデコードが可能である。各画像データの解像度は、第2画像データ20、第1段階目のデコードがなされた画像データ、第2段階目のデコードがなされた画像データ、第3段階目のデコードがなされた画像データ(第1画像データ10)の順に高い。
第1解析部202は、デコーディング部204に、第1段階目のデコードがなされた画像データ、又は第2段階目のデコードがなされた画像データを生成させる。そして第1解析部202は、生成された画像データについて画像解析を行う。
また、別の復号方式であれば以下のような手法を採用することもできる。まずデコーディング部204が、第2画像データ20の一部の画像領域を復号する。そして第1解析部202は、復号された画像領域の解析を行う。図7は、一部の画像領域が復号された第2画像データ20を例示する図である。図7では、第2画像データ20の上半分の画像領域について復号が行われている。そこで第1解析部202は、第2画像データ20に含まれる画像領域のうち、復号が行われた上半分の画像領域について画像解析を行う。こうすることで、第2画像データ20の全ての画像領域について復号を行ってから画像解析を行うケースと比較し、第2画像データ20の画像解析に要する時間が短くなる。
ここで情報処理装置200が、第2画像データ20を復号することによってカメラの映像を復元し、その映像をユーザに提供する機能を有するとする。例えば、監視カメラの映像をディスプレイに表示して、監視員に閲覧させるケースなどである。この場合、情報処理装置200は、カメラの映像を復元するために、第2画像データ20を復号して第1画像データ10を生成する処理を行う。第2画像データ20についてプログレッシブ復号が途中まで行われた画像データ(図6参照)や、第2画像データ20の一部の画像領域について復号が行われた画像データ(図7参照)は、例えばこのようにカメラの映像を復元する処理の過程で生成される。そこで第1解析部202は、このような処理の過程で生成される画像データを取得して、その画像データについて画像解析を行ってもよい。
なお、第2画像データを復号することで得られる画像データに対して行う解析処理の内容は、前述した差分検出処理やオブジェクト検出処理の内容と同様である。
<第3画像データ30の生成:S106>
デコーディング部204は、検出された第2画像データ20をデコードして、第3画像データ30を生成する(S106)。第2画像データ20から生成される第3画像データ30は、その第2画像データ20の元となった第1画像データ10と同じ画像データであってもよいし、その第1画像データ10とは異なる画像データであってもよい。
デコーディング部204は、検出された第2画像データ20をデコードして、第3画像データ30を生成する(S106)。第2画像データ20から生成される第3画像データ30は、その第2画像データ20の元となった第1画像データ10と同じ画像データであってもよいし、その第1画像データ10とは異なる画像データであってもよい。
例えばデコーディング部204は、第2画像データ20を元の第1画像データ10にデコードする処理を行う。そして、元の第1画像データ10を第3画像データ30とする。圧縮された画像を元の画像にデコードする処理には、既知の処理を利用することができる。
また、第2画像データが、多段階のデコードが可能な符号化方式によって生成されているとする(図6参照)。この場合、デコーディング部204は、第2画像データ20を任意の段階までデコードし、デコードされた画像データを第3画像データ30とする。例えば図6の例の場合、デコーディング部204は、第1段階目のデコードがなされた画像データ、第2段階目のデコードがなされた画像データ、又は第3段階目のデコードがなされた画像データを、第3画像データ30として生成する。
ここで、前述したように、第1解析部202が、第1画像データ10の解像度よりも低い解像度を持つように第2画像データ20を復号することで生成された画像データ(図6参照)に画像解析を行うとする。この場合、デコーディング部204は、第1解析部202による解析に使われた画像データをさらに復号することで、第3画像データを生成する。
例えば図6の例において、第1解析部202が、第1段階目のデコードがなされた画像データについて画像解析を行ったとする。この場合、デコーディング部204は、この第1段階目のデコードがなされた画像データをさらに復号することで、第3画像データ30を生成する。したがって、第3画像データ30は、第2段階目のデコードがなされた画像データ、又は第3段階目のデコードがなされた画像データとなる。
また例えば、図6の例において、第1解析部202が、第2段階目のデコードがなされた画像データについて画像解析を行ったとする。この場合、デコーディング部204は、この第2段階目のデコードがなされた画像データをさらに復号することで、第3画像データ30を生成する。したがって、第3画像データ30は、第3段階目のデコードがなされた画像データとなる。
また、第2画像データ20の一部の画像領域が復号され、第1解析部202がこの復号された画像領域について画像解析について解析を行うとする(図7参照)。この場合、デコーディング部204は、第1解析部202によって復号されなかった残りの画像領域について復号を行うことで、第3画像データ30を生成する。
<第3画像データ30の画像解析:S108>
第2解析206は、第3画像データ30に画像解析を施す(S108)。前述したように、第3画像データ30は、第1解析部202による解析が行われた画像データの解像度よりも高い。そのため、第2解析206による画像解析では、第1解析部202による画像解析よりも精度の高い解析が行える。
第2解析206は、第3画像データ30に画像解析を施す(S108)。前述したように、第3画像データ30は、第1解析部202による解析が行われた画像データの解像度よりも高い。そのため、第2解析206による画像解析では、第1解析部202による画像解析よりも精度の高い解析が行える。
第2解析206によって行われる画像解析は任意であり、情報処理装置200の利用目的などに応じて任意に採用することができる。例えば第2解析206によって行われる画像解析は、所定の特徴を持つオブジェクトを検出する処理である。例えば検出対象のオブジェクトが人であるとする。この場合、所定の特徴は、例えば年齢層、性別、身につけている物などで表される。
ここで、或る特定の人を検出したい場合、所定の特徴は、その人の特徴を表す。特定の人を検出したい場合とは、例えば或る事件の犯人が特定されている場合に、その犯人を監視カメラの画像から探し出したい場合などである。
また第2解析206は、特定の人ではなく、或る特徴を持った人を検出してもよい。或る特徴を持った人物を検出したい場合とは、例えば監視カメラの画像から、怪しい人物(例えばサングラス、マスク、及び帽子を着用している人物)を探し出したい場合などである。
検出対象のオブジェクトは、人には限定されない。例えば検出対象のオブジェクトは、車であってもよい。この場合、所定の特徴は、例えば車種、色、ナンバープレートのナンバーなどである。
なお、オブジェクト検出のアルゴリズムは、検出対象のオブジェクトの種類(例えば人や車)に応じて異なるものに設定されることが好適である。
第2解析206によって行われる画像解析の種類は、予め第2解析206に設定されていてもよいし、情報処理装置200のユーザの設定によって変更可能であってもよい。後者の場合、例えば情報処理装置200のユーザは、第2解析206によって行われる画像解析の種類を示す情報を、第2解析206からアクセス可能な記憶装置に記憶させておく。第2解析206は、その情報を読み出すことで、設定された種類の画像解析を行う。
<実施例1>
実施形態1の具体的な実現例を、実施例1として説明する。図8は、実施例1の情報処理装置200をその周囲の環境と共に例示する図である。
実施形態1の具体的な実現例を、実施例1として説明する。図8は、実施例1の情報処理装置200をその周囲の環境と共に例示する図である。
カメラ60は、周囲の景色を撮像することで、ソース画像データ50を生成する。例えばカメラ60は、建物に設置されている監視カメラである。さらにカメラ60は、ソース画像データ50を圧縮して第1画像データ10を生成する。
ゲートウェイ70は、WAN(Wide Area Network)を介してデータの送受信を行う機能を有する任意の装置である。ゲートウェイ70は、LAN(Local Area Network)を介して、カメラ60から第1画像データ10を取得する。さらにゲートウェイ70は、第1画像データ10を圧縮して第2画像データ20を生成する。そしてゲートウェイ70は、WAN を介し、第2画像データ20をクラウドストレージ80へ送信する。
クラウドストレージ80は、WAN を介して利用可能な任意のストレージデバイスである。クラウドストレージ80は、ゲートウェイ70から受信した第2画像データ20を記憶する。
ここで、クラウドストレージ80へ第2画像データ20を送信する際、ゲートウェイ70は、各第2画像データ20を個別に送信してもよいし、複数の第2画像データ20を1つのファイルにアーカイブして送信してもよい。後者の場合、ゲートウェイ70は、例えば所定期間内(1分間など)の撮像結果を表す複数の第2画像データ20を1つのファイルにアーカイブする。より具体的には、カメラ60によって所定期間内に生成された各ソース画像データ50に対応する第2画像データ20を、1つのファイルにアーカイブする。
上記構成によれば、カメラ60によって撮影される景色を表す第2画像データ20が、クラウドストレージ80へ記憶されていく。例えばカメラ60が監視カメラであれば、監視場所の様子を表す一連の画像がクラウドストレージ80へ記憶されることとなる。
クラウドサーバ90は、実施形態1の情報処理装置200を実現するサーバマシンである。クラウドサーバ90は、クラウドストレージ80に記憶されている第2画像データ20を取得して、前述した一連の処理(図5参照)を行う。なお、複数の第2画像データ20が1つのファイルにアーカイブされている場合、クラウドサーバ90は、S102で取得する複数の第2画像データ20として、1つ以上のアーカイブファイルを取得する。
図8の構成において、WAN を介して送受信される画像データは、第2画像データ20である。ここで第2画像データ20は、第1画像データ10や第3画像データ30よりも解像度が低い画像である。そのため、LAN よりも通信速度が遅い WAN では、比較的サイズの小さい画像データが送受信される。こうすることで、画像データの送受信に要する時間を短くすることができる。また、WAN に要求される通信速度が小さくなる。
[実施形態2]
図9は、実施形態2の情報処理装置200を、その利用環境と共に例示する図である。以下で説明する点を除き、実施形態2の情報処理装置200は、実施形態1の情報処理装置200と同様の機能を有する。
図9は、実施形態2の情報処理装置200を、その利用環境と共に例示する図である。以下で説明する点を除き、実施形態2の情報処理装置200は、実施形態1の情報処理装置200と同様の機能を有する。
実施形態2の情報処理装置200は、情報処理装置300と共に、情報処理システム400を構成している。情報処理装置200は、情報処理装置300によって生成される特定情報を利用する。情報処理装置300は解析部302及び特徴情報生成部304を有する。解析部302は、第4画像データを画像解析して、第2所定条件を満たす第4画像データを検出する。第2所定条件については後述する。
ここで、第4画像データについて説明する。図10は、第4画像データと他の画像データとの関係を例示する図である。第4画像データ40は、ソース画像データ50を圧縮することで生成される。また、第1画像データ10も、ソース画像データ50を圧縮することで生成される。つまり、或る第1画像データ10と或る第4画像データ40は、共に同じソース画像データ50から生成される。以下、このように同じソース画像データ50から生成されたという関係にある第1画像データ10と第4画像データ40をそれぞれ、「第4画像データ40に対応する第1画像データ10」や「第1画像データ10に対応する第4画像データ40」と表記する。
ここでソース画像データ50は、前述したように、カメラによって生成される非圧縮の画像データである。第1画像データ10及び第4画像データ40は、この非圧縮の画像データをそれぞれ異なる解像度に圧縮することで生成される。第4画像データ40の解像度は、対応する第1画像データ10の解像度よりも低い。なお、第4画像データ40は、第1画像データ10を生成する装置と同じ装置によって生成されてもよいし、それとは異なる装置によって生成されてもよい。
特徴情報生成部304は、検出された第4画像データに対応する第2画像データを特定する特定情報を生成する。或る第4画像データに対応する第2画像データは、その第4画像データに対応する第1画像データを圧縮することで生成された第2画像データである。なお、第4画像データ40と第2画像データ20の解像度は同じであってもよいし、異なってもよい。
実施形態2の第1解析部202は、情報処理装置300によって生成された特定情報を取得する。さらに、実施形態2の第1解析部202は、特定情報によって特定される第2画像データ20について画像解析を行う。
<処理の流れ>
図11は、実施形態2の情報処理装置300によって実行される処理の流れを例示するフローチャートである。解析部302は、第4画像データを取得する(S202)。解析部302は、第4画像データ40について画像解析を行って、第2所定条件を満たす第4画像データ40を検出する(S204)。特徴情報生成部304は、検出された第4画像データ40に対応する第2画像データを特定する特定情報を生成する(S206)。
図11は、実施形態2の情報処理装置300によって実行される処理の流れを例示するフローチャートである。解析部302は、第4画像データを取得する(S202)。解析部302は、第4画像データ40について画像解析を行って、第2所定条件を満たす第4画像データ40を検出する(S204)。特徴情報生成部304は、検出された第4画像データ40に対応する第2画像データを特定する特定情報を生成する(S206)。
図12は、実施形態2の情報処理装置200によって実行される処理の流れを例示するフローチャートである。S302において、第1解析部202は、特定情報を取得する。S304において、第1解析部202は、特定情報によって特定される第2画像データ20を取得する。S104からS108において行われる処理については、前述した通りである。
<第4画像データ40の取得:S202>
解析部302は、第4画像データ40を取得する(S202)。解析部302が第4画像データ40を取得する方法は様々である。例えば解析部302は、第4画像データ40が記憶されている記憶装置から第4画像データ40を読み出すことで、第4画像データ40を取得する。また例えば、解析部302は、他の装置(例えば第4画像データ40を生成する装置)によって送信される第4画像データ40を受信することで、第4画像データ40を取得してもよい。
解析部302は、第4画像データ40を取得する(S202)。解析部302が第4画像データ40を取得する方法は様々である。例えば解析部302は、第4画像データ40が記憶されている記憶装置から第4画像データ40を読み出すことで、第4画像データ40を取得する。また例えば、解析部302は、他の装置(例えば第4画像データ40を生成する装置)によって送信される第4画像データ40を受信することで、第4画像データ40を取得してもよい。
<第4画像データ40の画像解析:S204-S206>
解析部302は、第4画像データ40を画像解析することで、第2所定条件を満たす第4画像データ40を検出する(S204、S206)。第2所定条件を満たす第4画像データ40は、対応する第2画像データ20の画像解析を情報処理装置200で行う必要がある第4画像データ40である。
解析部302は、第4画像データ40を画像解析することで、第2所定条件を満たす第4画像データ40を検出する(S204、S206)。第2所定条件を満たす第4画像データ40は、対応する第2画像データ20の画像解析を情報処理装置200で行う必要がある第4画像データ40である。
解析部302が第4画像データ40について行う画像解析は任意の処理である。例えば解析部302は、実施形態1の第1解析部202と同様に、差分検出処理やオブジェクト検出処理を行う。
解析部302と第1解析部202が行う画像解析は、異なる種類の処理であることが好適である。例えば解析部302は差分検出処理を行い、第1解析部202はオブジェクト検出処理を行う。こうすることで、「写っている景色に所定度合い以上の変化があり、なおかつ所定のオブジェクトが写っている」という第2画像データ20が第1解析部202によって検出されるようになる。逆に、解析部302がオブジェクト検出処理を行い、第1解析部202が差分検出処理を行ってもよい。また、解析部302と第1解析部202が行う処理は同じ種類の処理であってもよい。ただしこの場合、第1解析部202における解析処理は、解析部302による解析処理よりも詳細な解析処理とする。
<特定情報の生成:S208>
特徴情報生成部304は、検出された第4画像データ40に対応する第2画像データ20の特定情報を生成する。ここで、特定情報は、第2画像データを特定できる任意の情報である。例えば特定情報は、第2画像データ20に付与された識別子、その第2画像データ20が生成された時点、又はその第2画像データ20の元となる第1画像データ10やソース画像データが生成された時点などである。特徴情報生成部304は、生成した特定情報を任意の記憶装置に記憶させておく。
特徴情報生成部304は、検出された第4画像データ40に対応する第2画像データ20の特定情報を生成する。ここで、特定情報は、第2画像データを特定できる任意の情報である。例えば特定情報は、第2画像データ20に付与された識別子、その第2画像データ20が生成された時点、又はその第2画像データ20の元となる第1画像データ10やソース画像データが生成された時点などである。特徴情報生成部304は、生成した特定情報を任意の記憶装置に記憶させておく。
或る第4画像データ40に対応する第2画像データ20を把握する方法は任意である。例えば、各種類の画像データを生成する際、元となるソース画像データ50が互いに同じである各画像データのメタデータに、共通の識別子を含めるようにする。この場合、互いに対応する第4画像データ40と第2画像データ20のメタデータは、同じ識別子を含む。よって、特徴情報生成部304は、この識別子を利用することで、解析部302によって検出された第4画像データ40に対応する第2画像データ20を把握できる。
また例えば、各画像データのメタデータに、元となるソース画像データ50を特定できる情報(ソース画像データ50の識別子や生成時点)を含めるようにする。この場合、互いに対応する第4画像データ40と第2画像データ20のメタデータは、互いに同じソース画像データ50を特定する情報を含む。よって、特徴情報生成部304は、この情報を利用することで、解析部302によって検出された第4画像データ40に対応する第2画像データ20を把握できる。
<特定情報の取得:S302>
第1解析部202は、特定情報を取得する(S302)。第1解析部202が特定情報を取得する方法は様々である。例えば第1解析部202は、特定情報が記憶されている記憶装置から特定情報を読み出すことで、特定情報を取得する。また例えば、第1解析部202は、他の装置(例えば情報処理装置300)によって送信される特定情報を受信することで、特定情報を取得してもよい。
第1解析部202は、特定情報を取得する(S302)。第1解析部202が特定情報を取得する方法は様々である。例えば第1解析部202は、特定情報が記憶されている記憶装置から特定情報を読み出すことで、特定情報を取得する。また例えば、第1解析部202は、他の装置(例えば情報処理装置300)によって送信される特定情報を受信することで、特定情報を取得してもよい。
<第2画像データ20の画像解析:S304>
第1解析部202は、特定情報によって特定される第2画像データ20の中から、第1所定条件を満たす第2画像データ20を検出する(304)。第1所定条件を満たす第2画像データ20の検出方法は、実施形態1で述べた通りである。
第1解析部202は、特定情報によって特定される第2画像データ20の中から、第1所定条件を満たす第2画像データ20を検出する(304)。第1所定条件を満たす第2画像データ20の検出方法は、実施形態1で述べた通りである。
<ハードウエアの構成例>
実施形態2の情報処理装置200は、実施形態1の情報処理装置200と同様に、計算機100を用いて実現される(図3参照)。本実施形態において、前述したストレージデバイス108に記憶される各プログラムモジュールには、本実施形態の情報処理装置200の各機能を実現するプログラムが含まれる。
実施形態2の情報処理装置200は、実施形態1の情報処理装置200と同様に、計算機100を用いて実現される(図3参照)。本実施形態において、前述したストレージデバイス108に記憶される各プログラムモジュールには、本実施形態の情報処理装置200の各機能を実現するプログラムが含まれる。
以上、本実施形態によれば、情報処理装置300が第4画像データ40を画像解析することで、対応する第2画像データ20について画像解析をする必要がある第4画像データ40が検出される。そして情報処理装置200は、その第4画像データ40に対応する第2画像データ20について画像解析を行う。このように、情報処理装置200とは異なる装置において、情報処理装置200が画像解析すべき第2画像データ20を特定しておく。こうすることで、情報処理装置200における画像解析の処理負荷が軽減される。
<実施例2>
実施形態2の具体的な実現例を、実施例2として説明する。図13は、実施例2の情報処理装置200をその周囲の環境と共に例示する図である。
実施形態2の具体的な実現例を、実施例2として説明する。図13は、実施例2の情報処理装置200をその周囲の環境と共に例示する図である。
カメラ60は、ソース画像データ50から第1画像データ10を生成することに加え、ソース画像データ50から第4画像データ40を生成する。
実施例2において、情報処理装置300はゲートウェイ70として実現されている。ゲートウェイ70は、第1画像データ10及び第4画像データ40をカメラ60から取得する。第1画像データ10の扱いについては、実施例1と同様である。
ゲートウェイ70は、第4画像データ40を画像解析することで第2所定条件を満たす第4画像データ40を検出する。さらにゲートウェイ70は、検出された第4画像データ40に対応する第2画像データ20を特定する特定情報22を生成する。そして、ゲートウェイ70は、特定情報22をクラウドストレージ80へ送信する。
クラウドストレージ80は、ゲートウェイ70から受信した第2画像データ20及び特定情報22を取得して記憶する。
ここで、クラウドストレージ80へ第2画像データ20を送信する際、ゲートウェイ70は、第2画像データ20と同様に、特定情報22についてもアーカイブを行ってよい。例えばゲートウェイ70は、所定数の特定情報22をアーカイブして、1つのアーカイブファイルを生成する。
クラウドサーバ90は、クラウドストレージ80に記憶されている特定情報22を取得する。さらにクラウドサーバ90は、特定情報22によって特定される第2画像データ20をクラウドストレージ80から取得する。
図13の構成によれば、特定情報22の生成がゲートウェイ70によって行われる。つまり、第1画像データ10から第2画像データ20を生成する装置と、第4画像データ40を画像解析して特定情報22を生成する装置が一つにまとめられている。よって、装置の用意にかかるコストを軽減することができる。
また、クラウドサーバ90が特定情報22によって特定される第2画像データ20のみを画像解析すればよいため、クラウドサーバ90によって消費される計算機リソースの量が軽減される。クラウドサーバ90がレンタルサーバである場合、クラウドサーバ90のレンタル費用は、クラウドサーバ90が消費した計算機リソースの量に応じて決定されることが多い。そのため、クラウドサーバ90によって消費される計算機リソースの量を軽減することにより、クラウドサーバ90のレンタル費用を安くすることができる。
以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記各実施形態の組み合わせ、又は上記以外の様々な構成を採用することもできる。
この出願は、2016年8月22日に出願された日本出願特願2016-161726号を基礎とする優先権を主張し、その開示の全てをここに取り込む。
Claims (39)
- 第1画像データを所定の符号化方式によって圧縮することで生成される第2画像データを取得して、前記第2画像データを画像解析し、第1所定条件を満たす第2画像データを検出する第1解析手段と、
前記検出された第2画像データを、前記第2画像データよりも解像度が高い第3画像データにデコードするデコーディング手段と、
前記第3画像データの画像解析を行う第2解析手段と、を有する情報処理装置。 - 前記所定の符号化方式はプログレッシブ符号化方式に属する、請求項1に記載の情報処理装置。
- 前記第1解析手段は、複数の前記第2画像データを取得し、
複数の前記第2画像データは、時系列の画像データであり、
前記第1解析手段は、複数の前記第2画像データについて差分検出処理を行い、所定度合い以上の差分が検出された第2画像データを、前記第1所定条件を満たす第2画像データとして検出する、請求項1又は2に記載の情報処理装置。 - 前記第1解析手段は、前記第2画像データについてオブジェクト検出処理を行い、第1所定オブジェクトが含まれる第2画像データを、前記第1所定条件を満たす第2画像データとして検出する、請求項1又は2に記載の情報処理装置。
- 前記第1解析手段は、前記第2画像データを復号することで得られる画像データについて画像解析を行うことで、第1所定条件を満たす第2画像データを検出する、請求項1乃至4いずれか一つに記載の情報処理装置。
- 前記第1解析手段は、前記第2画像データの一部の画像領域を復号することで得られる画像データについて、前記復号された一部の画像領域の画像解析を行うことで、第1所定条件を満たす第2画像データを検出する、請求項1乃至4いずれか一つに記載の情報処理装置。
- 前記第1解析手段は、
第2所定条件を満たしている第2画像データを特定する特定情報を取得し、
前記特定情報によって特定される第2画像データを画像解析することで、前記第1所定条件を満たす第2画像データを検出する、請求項1乃至6いずれか一つに記載の情報処理装置。 - 前記第1解析手段は、複数の前記第2画像データを取得し、
複数の前記第2画像データは、時系列の画像データであり、
前記第1画像データよりも解像度が低い第4画像データが生成されており、
前記第1画像データと前記第4画像データは、共通の画像データをそれぞれ異なる解像度に圧縮することで生成されており、
前記第2所定条件を満たす第2画像データは、複数の前記第2画像データそれぞれに対応する第4画像データについて差分検出処理を行うことにより、第2所定度合い以上の差分が検出された第4画像データに対応する第2画像データであり、
前記第4画像データに対応する第2画像データは、その第4画像データと同じ画像データから生成された第1画像データを圧縮することで生成されている、請求項7に記載の情報処理装置。 - 前記第1画像データよりも解像度が低い第4画像データが生成されており、
前記第1画像データと前記第4画像データは、共通の画像データをそれぞれ異なる解像度に圧縮することで生成されており、
前記第2所定条件を満たす第2画像データは、第2所定オブジェクトが含まれる第4画像データに対応する第2画像データであり、
前記第4画像データに対応する第2画像データは、その第4画像データと同じ画像データから生成された第1画像データを圧縮することで生成された第2画像データである、請求項7に記載の情報処理装置。 - 通信可能に接続されている第1情報処理装置と第2情報処理装置を有する情報処理システムであって、
前記第1情報処理装置は、第1画像データを所定の符号化方式で圧縮して第2画像データを生成する圧縮手段を有し、
前記第2情報処理装置は、
前記第2画像データを取得して、前記第2画像データを画像解析し、第1所定条件を満たす前記第2画像データを検出する第1解析手段と、
前記検出された第2画像データを、前記第2画像データよりも解像度が高い第3画像データにデコードするデコーディング手段と、
前記第3画像データの画像解析を行う第2解析手段と、を有する情報処理システム。 - 前記所定の符号化方式はプログレッシブ符号化方式に属する、請求項10に記載の情報処理システム。
- 前記第1解析手段は、複数の前記第2画像データを取得し、
複数の前記第2画像データは、時系列の画像データであり、
前記第1解析手段は、複数の前記第2画像データについて差分検出処理を行い、所定度合い以上の差分が検出された第2画像データを、前記第1所定条件を満たす第2画像データとして検出する、請求項10又は11に記載の情報処理システム。 - 前記第1解析手段は、前記第2画像データについてオブジェクト検出処理を行い、第1所定オブジェクトが含まれる第2画像データを、前記第1所定条件を満たす第2画像データとして検出する、請求項10又は11に記載の情報処理システム。
- 前記第1解析手段は、前記第2画像データを復号することで得られる画像データについて画像解析を行うことで、第1所定条件を満たす第2画像データを検出する、請求項10乃至13いずれか一つに記載の情報処理システム。
- 前記第1解析手段は、前記第2画像データの一部の画像領域を復号することで得られる画像データについて、前記復号された一部の画像領域の画像解析を行うことで、第1所定条件を満たす第2画像データを検出する、請求項10乃至14いずれか一つに記載の情報処理システム。
- 前記第1画像データよりも解像度が低い第4画像データが生成されており、
前記第1画像データと前記第4画像データは、共通の画像データをそれぞれ異なる解像度に圧縮することで生成されており、
前記第1情報処理装置は、
第4画像データを画像解析して、第2所定条件を満たす第4画像データを検出する第3解析手段と、
前記検出された第4画像データに対応する第2画像データを特定する特定情報を生成する特定情報生成手段と、を有し、
前記第1解析手段は、前記特定情報を取得し、前記特定情報によって特定される第2画像データを画像解析することで、前記第1所定条件を満たす第2画像データを検出し、
前記第4画像データに対応する第2画像データは、その第4画像データと同じ画像データから生成された第1画像データを圧縮することで生成された第2画像データである、請求項10乃至15いずれか一つに記載の情報処理システム。 - 前記第3解析手段は、複数の前記第4画像データについて差分検出処理を行い、第2所定度合い以上の差分が検出された第4画像データを、前記第2所定条件を満たす第4画像データとして検出し、
複数の前記第4画像データは、時系列の画像データである、請求項16に記載の情報処理システム。 - 前記第3解析手段は、前記第4画像データについてオブジェクト検出処理を行い、第2所定オブジェクトが含まれる第4画像データを、前記第2所定条件を満たす第4画像データとして検出する、請求項16に記載の情報処理システム。
- 請求項16乃至18いずれか一つに記載の情報処理システムが有する第1情報処理装置。
- コンピュータによって実行される制御方法であって、
第1画像データを所定の符号化方式によって圧縮することで生成される第2画像データを取得して、前記第2画像データを画像解析し、第1所定条件を満たす前記第2画像データを検出する第1解析ステップと、
前記検出された第2画像データを、前記第2画像データよりも解像度が高い第3画像データにデコードするデコーディングステップと、
前記第3画像データの画像解析を行う第2解析ステップと、を有する制御方法。 - 前記所定の符号化方式はプログレッシブ符号化方式に属する、請求項20に記載の制御方法。
- 前記第1解析ステップにおいて、複数の前記第2画像データを取得し、
複数の前記第2画像データは、時系列の画像データであり、
前記第1解析ステップにおいて、複数の前記第2画像データについて差分検出処理を行い、所定度合い以上の差分が検出された第2画像データを、前記第1所定条件を満たす第2画像データとして検出する、請求項20又は21に記載の制御方法。 - 前記第1解析ステップにおいて、前記第2画像データについてオブジェクト検出処理を行い、第1所定オブジェクトが含まれる第2画像データを、前記第1所定条件を満たす第2画像データとして検出する、請求項20又は21に記載の制御方法。
- 前記第1解析ステップにおいて、前記第2画像データを復号することで得られる画像データについて画像解析を行うことで、第1所定条件を満たす第2画像データを検出する、請求項20乃至23いずれか一つに記載の制御方法。
- 前記第1解析ステップにおいて、前記第2画像データの一部の画像領域を復号することで得られる画像データについて、前記復号された一部の画像領域の画像解析を行うことで、第1所定条件を満たす第2画像データを検出する、請求項20乃至23いずれか一つに記載の制御方法。
- 前記第1解析ステップにおいて、
第2所定条件を満たしている第2画像データを特定する特定情報を取得し、
前記特定情報によって特定される第2画像データを画像解析することで、前記第1所定条件を満たす第2画像データを検出する、請求項20乃至25いずれか一つに記載の制御方法。 - 前記第1解析ステップにおいて、複数の前記第2画像データを取得し、
複数の前記第2画像データは、時系列の画像データであり、
前記第1画像データよりも解像度が低い第4画像データが生成されており、
前記第1画像データと前記第4画像データは、共通の画像データをそれぞれ異なる解像度に圧縮することで生成されており、
前記第2所定条件を満たす第2画像データは、複数の前記第2画像データそれぞれに対応する第4画像データについて差分検出処理を行うことにより、第2所定度合い以上の差分が検出された第4画像データに対応する第2画像データであり、
前記第4画像データに対応する第2画像データは、その第4画像データと同じ画像データから生成された第1画像データを圧縮することで生成されている、請求項26に記載の制御方法。 - 前記第1画像データよりも解像度が低い第4画像データが生成されており、
前記第1画像データと前記第4画像データは、共通の画像データをそれぞれ異なる解像度に圧縮することで生成されており、
前記第2所定条件を満たす第2画像データは、第2所定オブジェクトが含まれる第4画像データに対応する第2画像データであり、
前記第4画像データに対応する第2画像データは、その第4画像データと同じ画像データから生成された第1画像データを圧縮することで生成された第2画像データである、請求項26に記載の制御方法。 - 通信可能に接続されている第1情報処理装置と第2情報処理装置を有する情報処理システムにおいて実行される制御方法であって、
前記第1情報処理装置が、第1画像データを所定の符号化方式で圧縮して、第2画像データを生成する圧縮ステップと、
前記第2情報処理装置が、前記第2画像データを取得して、前記第2画像データを画像解析し、第1所定条件を満たす前記第2画像データを検出する第1解析ステップと、
前記第2情報処理装置が、前記検出された第2画像データを、前記第2画像データよりも解像度が高い第3画像データにデコードするデコーディングステップと、
前記第2情報処理装置が、前記第3画像データの画像解析を行う第2解析ステップと、を有する制御方法。 - 前記所定の符号化方式はプログレッシブ符号化方式に属する、請求項29に記載の制御方法。
- 前記第1解析ステップにおいて、複数の前記第2画像データを取得し、
複数の前記第2画像データは、時系列の画像データであり、
前記第1解析ステップにおいて、複数の前記第2画像データについて差分検出処理を行い、所定度合い以上の差分が検出された第2画像データを、前記第1所定条件を満たす第2画像データとして検出する、請求項29又は30に記載の制御方法。 - 前記第1解析ステップにおいて、前記第2画像データについてオブジェクト検出処理を行い、第1所定オブジェクトが含まれる第2画像データを、前記第1所定条件を満たす第2画像データとして検出する、請求項29又は30に記載の制御方法。
- 前記第1解析ステップにおいて、前記第2画像データを復号することで得られる画像データについて画像解析を行うことで、第1所定条件を満たす第2画像データを検出する、請求項29乃至32いずれか一つに記載の制御方法。
- 前記第1解析ステップにおいて、前記第2画像データの一部の画像領域を復号することで得られる画像データについて、前記復号された一部の画像領域の画像解析を行うことで、第1所定条件を満たす第2画像データを検出する、請求項29乃至32いずれか一つに記載の制御方法。
- 前記第1画像データよりも解像度が低い第4画像データが生成されており、
前記第1画像データと前記第4画像データは、共通の画像データをそれぞれ異なる解像度に圧縮することで生成されており、
前記第1情報処理装置が、第4画像データを画像解析して、第2所定条件を満たす第4画像データを検出する第3解析ステップと、
前記第1情報処理装置が、前記検出された第4画像データに対応する第2画像データを特定する特定情報を生成する特定情報生成ステップと、を有し、
前記第1解析ステップにおいて、前記特定情報を取得し、前記特定情報によって特定される第2画像データを画像解析することで、前記第1所定条件を満たす第2画像データを検出し、
前記第4画像データに対応する第2画像データは、その第4画像データと同じ画像データから生成された第1画像データを圧縮することで生成された第2画像データである、請求項29乃至34いずれか一つに記載の制御方法。 - 前記第3解析ステップにおいて、複数の前記第4画像データについて差分検出処理を行い、第2所定度合い以上の差分が検出された第4画像データを、前記第2所定条件を満たす第4画像データとして検出し、
複数の前記第4画像データは、時系列の画像データである、請求項35に記載の制御方法。 - 前記第3解析ステップにおいて、前記第4画像データについてオブジェクト検出処理を行い、第2所定オブジェクトが含まれる第4画像データを、前記第2所定条件を満たす第4画像データとして検出する、請求項35に記載の制御方法。
- 請求項20乃至28いずれか一つに記載の制御方法が有する各ステップをコンピュータに実行させるプログラム。
- 第1画像データを所定の符号化方式によって符号化された画像データを取得する取得手段と、
取得した前記画像データを、第2画像データに復号する第1デコーディング手段と、
復号した前記第2画像データを画像解析し、第1所定条件を満たす第2画像データを検出する第1解析手段と、
前記検出された第2画像データを、前記第2画像データよりも解像度が高い第3画像データに復号する第2デコーディング手段と、
前記第3画像データの画像解析を行う第2解析手段と、を有する情報処理装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/327,174 US10878272B2 (en) | 2016-08-22 | 2017-06-07 | Information processing apparatus, information processing system, control method, and program |
JP2018535469A JP7255841B2 (ja) | 2016-08-22 | 2017-06-07 | 情報処理装置、情報処理システム、制御方法、及びプログラム |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016-161726 | 2016-08-22 | ||
JP2016161726 | 2016-08-22 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2018037665A1 true WO2018037665A1 (ja) | 2018-03-01 |
Family
ID=61246631
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2017/021090 WO2018037665A1 (ja) | 2016-08-22 | 2017-06-07 | 情報処理装置、情報処理システム、制御方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US10878272B2 (ja) |
JP (1) | JP7255841B2 (ja) |
WO (1) | WO2018037665A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020245599A1 (en) * | 2019-06-05 | 2020-12-10 | V-Nova International Ltd | System and method for performing object analysis |
GB2601990A (en) * | 2020-10-16 | 2022-06-22 | V Nova Int Ltd | Distributed analysis of a multi-layer signal encoding |
US12309402B2 (en) | 2019-06-05 | 2025-05-20 | V-Nova International Limited | System and method for performing object analysis |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111294512A (zh) * | 2020-02-10 | 2020-06-16 | 深圳市铂岩科技有限公司 | 图像处理方法、装置、存储介质及摄像装置 |
CN112380392A (zh) * | 2020-11-17 | 2021-02-19 | 北京百度网讯科技有限公司 | 用于分类视频的方法、装置、电子设备及可读存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0927952A (ja) * | 1995-07-11 | 1997-01-28 | Mega Chips:Kk | 監視装置および画像蓄積装置 |
JP2002354502A (ja) * | 2001-05-30 | 2002-12-06 | Toshiba Corp | 動画像特定物体移動判定装置 |
JP2007214886A (ja) * | 2006-02-09 | 2007-08-23 | Fujifilm Corp | 画像処理装置 |
JP2008124626A (ja) * | 2006-11-09 | 2008-05-29 | Victor Co Of Japan Ltd | 画像記録制御装置および画像記録制御方法 |
JP2009246935A (ja) * | 2008-03-14 | 2009-10-22 | Sanyo Electric Co Ltd | 画像処理装置およびそれを搭載した撮像装置 |
JP2010136032A (ja) * | 2008-12-04 | 2010-06-17 | Hitachi Ltd | 映像監視システム |
JP2015170874A (ja) * | 2014-03-05 | 2015-09-28 | 日本電気株式会社 | 映像解析装置、監視装置、監視システムおよび映像解析方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0366278A (ja) * | 1989-08-05 | 1991-03-20 | Matsushita Electric Ind Co Ltd | 映像信号の高能率符号化方法 |
JP3590996B2 (ja) * | 1993-09-30 | 2004-11-17 | ソニー株式会社 | ディジタル画像信号の階層符号化および復号装置 |
JPH11112964A (ja) * | 1997-10-01 | 1999-04-23 | Fuji Electric Co Ltd | 画像伝送装置 |
US7146031B1 (en) * | 2000-11-22 | 2006-12-05 | R2 Technology, Inc. | Method and system for automatic identification and orientation of medical images |
JP2002344946A (ja) | 2001-05-16 | 2002-11-29 | Oki Electric Ind Co Ltd | 監視装置 |
JP2004260462A (ja) | 2003-02-25 | 2004-09-16 | Aiphone Co Ltd | テレビドアホン装置 |
JP2007266652A (ja) | 2004-05-31 | 2007-10-11 | Matsushita Electric Ind Co Ltd | 移動物体検出装置、移動物体検出方法、移動物体検出プログラム、映像復号化装置、映像符号化装置、撮像装置及び映像管理システム |
DE102004026782A1 (de) * | 2004-06-02 | 2005-12-29 | Infineon Technologies Ag | Verfahren und Vorrichtung zur rechnergestützten Bewegungsschätzung in mindestens zwei zeitlich aufeinander folgenden digitalen Bildern, computerlesbares Speichermedium und Computerprogramm-Element |
JP4325596B2 (ja) * | 2005-07-28 | 2009-09-02 | 日本ビクター株式会社 | ネットワーク監視カメラシステム |
US8594446B2 (en) * | 2012-01-12 | 2013-11-26 | Eastman Kodak Company | Method for enhancing a digitized document |
JP6203188B2 (ja) | 2012-10-26 | 2017-09-27 | 株式会社日立国際電気 | 類似画像検索装置 |
US10171823B2 (en) | 2014-05-26 | 2019-01-01 | Sharp Kabushiki Kaisha | Image decoding device and image coding device |
CN110290930A (zh) * | 2016-10-10 | 2019-09-27 | 艾迪密身份与安全美国有限责任公司 | 具有轮廓表面图像的标识文档 |
US10002301B1 (en) * | 2017-09-19 | 2018-06-19 | King Fahd University Of Petroleum And Minerals | System, apparatus, and method for arabic handwriting recognition |
-
2017
- 2017-06-07 US US16/327,174 patent/US10878272B2/en active Active
- 2017-06-07 JP JP2018535469A patent/JP7255841B2/ja active Active
- 2017-06-07 WO PCT/JP2017/021090 patent/WO2018037665A1/ja active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0927952A (ja) * | 1995-07-11 | 1997-01-28 | Mega Chips:Kk | 監視装置および画像蓄積装置 |
JP2002354502A (ja) * | 2001-05-30 | 2002-12-06 | Toshiba Corp | 動画像特定物体移動判定装置 |
JP2007214886A (ja) * | 2006-02-09 | 2007-08-23 | Fujifilm Corp | 画像処理装置 |
JP2008124626A (ja) * | 2006-11-09 | 2008-05-29 | Victor Co Of Japan Ltd | 画像記録制御装置および画像記録制御方法 |
JP2009246935A (ja) * | 2008-03-14 | 2009-10-22 | Sanyo Electric Co Ltd | 画像処理装置およびそれを搭載した撮像装置 |
JP2010136032A (ja) * | 2008-12-04 | 2010-06-17 | Hitachi Ltd | 映像監視システム |
JP2015170874A (ja) * | 2014-03-05 | 2015-09-28 | 日本電気株式会社 | 映像解析装置、監視装置、監視システムおよび映像解析方法 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020245599A1 (en) * | 2019-06-05 | 2020-12-10 | V-Nova International Ltd | System and method for performing object analysis |
CN114127807A (zh) * | 2019-06-05 | 2022-03-01 | 威诺瓦国际有限公司 | 用于执行对象分析的系统和方法 |
GB2601640A (en) * | 2019-06-05 | 2022-06-08 | V Nova Int Ltd | System and method for performing object analysis |
GB2601640B (en) * | 2019-06-05 | 2023-10-18 | V Nova Int Ltd | System and method for performing object analysis |
GB2622318A (en) * | 2019-06-05 | 2024-03-13 | V Nova Int Ltd | System and method for performing object analysis |
GB2622318B (en) * | 2019-06-05 | 2024-06-05 | V Nova Int Ltd | System and method for performing object analysis |
US12309402B2 (en) | 2019-06-05 | 2025-05-20 | V-Nova International Limited | System and method for performing object analysis |
GB2601990A (en) * | 2020-10-16 | 2022-06-22 | V Nova Int Ltd | Distributed analysis of a multi-layer signal encoding |
GB2601990B (en) * | 2020-10-16 | 2024-06-19 | V Nova Int Ltd | Distributed analysis of a multi-layer signal encoding |
Also Published As
Publication number | Publication date |
---|---|
JPWO2018037665A1 (ja) | 2019-06-20 |
US10878272B2 (en) | 2020-12-29 |
JP7255841B2 (ja) | 2023-04-11 |
US20190188514A1 (en) | 2019-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010136032A (ja) | 映像監視システム | |
US9965835B2 (en) | Defogging images and video | |
US11302045B2 (en) | Image processing apparatus, image providing apparatus,control methods thereof, and medium | |
KR20080058171A (ko) | 카메라 템퍼링 검출 | |
WO2018037665A1 (ja) | 情報処理装置、情報処理システム、制御方法、及びプログラム | |
KR20100035616A (ko) | 비디오 모션 검출 | |
US10853961B1 (en) | Image driver that samples high-resolution image data | |
EP4195166A1 (en) | Apparatus and method for transmitting images and apparatus and method for receiving images | |
JP2015154465A (ja) | 表示制御装置、表示制御方法及びプログラム | |
TWI521473B (zh) | 影像分析裝置、方法及電腦可讀取媒體 | |
US20250119511A1 (en) | Apparatus and method for transmitting images and apparatus and method for receiving images | |
JP6809114B2 (ja) | 情報処理装置、画像処理システム、プログラム | |
CN112419639A (zh) | 一种视频信息的获取方法及装置 | |
JP4561649B2 (ja) | 画像圧縮装置、画像圧縮プログラム及び画像圧縮方法、hdr画像生成装置、hdr画像生成プログラム及びhdr画像生成方法、並びに画像処理システム、画像処理プログラム及び画像処理方法 | |
JP2008035096A (ja) | 監視装置、監視方法及びプログラム | |
CN110650309B (zh) | 视频会议视频图像传输方法、终端及可读存储介质 | |
JP6290949B2 (ja) | フォト・クラスターの検出および圧縮 | |
JP5769468B2 (ja) | 物体検出システム及び物体検出方法 | |
KR101525231B1 (ko) | 주차 관리 시스템 및 주차 관리 방법 | |
CN116129316A (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
JP2016021716A (ja) | 追尾装置及びその制御方法 | |
CN110855882B (zh) | 拍摄处理方法及装置、存储介质和电子设备 | |
WO2022061723A1 (zh) | 一种图像处理方法、设备、终端及存储介质 | |
JP2009239804A (ja) | 監視システム及び画像検索サーバ | |
Mariappan et al. | A design methodology of an embedded motion-detecting video surveillance system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17843153 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2018535469 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 17843153 Country of ref document: EP Kind code of ref document: A1 |