WO2017169369A1 - 情報処理装置、情報処理方法、プログラム - Google Patents
情報処理装置、情報処理方法、プログラム Download PDFInfo
- Publication number
- WO2017169369A1 WO2017169369A1 PCT/JP2017/006885 JP2017006885W WO2017169369A1 WO 2017169369 A1 WO2017169369 A1 WO 2017169369A1 JP 2017006885 W JP2017006885 W JP 2017006885W WO 2017169369 A1 WO2017169369 A1 WO 2017169369A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- transition
- output target
- visual field
- target area
- Prior art date
Links
- 230000010365 information processing Effects 0.000 title claims description 148
- 238000003672 processing method Methods 0.000 title claims description 5
- 230000007704 transition Effects 0.000 claims abstract description 644
- 230000000007 visual effect Effects 0.000 claims abstract description 206
- 230000033001 locomotion Effects 0.000 claims description 116
- 238000000034 method Methods 0.000 claims description 99
- 238000012545 processing Methods 0.000 claims description 57
- 230000008569 process Effects 0.000 description 77
- 238000003384 imaging method Methods 0.000 description 30
- 238000004891 communication Methods 0.000 description 27
- 238000001514 detection method Methods 0.000 description 23
- 238000005516 engineering process Methods 0.000 description 21
- 239000013598 vector Substances 0.000 description 18
- 230000000875 corresponding effect Effects 0.000 description 17
- 230000006870 function Effects 0.000 description 16
- 230000003287 optical effect Effects 0.000 description 15
- 230000002093 peripheral effect Effects 0.000 description 11
- 238000007562 laser obscuration time method Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000003139 buffering effect Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000005401 electroluminescence Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000012905 input function Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000000116 mitigating effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/80—2D [Two Dimensional] animation, e.g. using sprites
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
Definitions
- the present technology relates to an information processing apparatus, an information processing method, and a program, and more particularly to a technology used when displaying a partial region as an output target region for an image having a field of view that continues 360 degrees.
- An image having a 360-degree field of view is known as a still image captured by an imaging device, an image content as a moving image, or an image content produced by computer graphics or the like. They are so-called omnidirectional images, hemispherical images, 360-degree panoramic images, and the like.
- omnidirectional images hemispherical images
- 360-degree panoramic images and the like.
- Patent Document 1 describes that when viewing an image having a wide angle of view, such as an omnidirectional image, it is cut out and displayed so as to track a specific subject.
- the present technology has an object of providing an image that is comfortable and easy for a viewer to view and does not become unnatural even when the output target region is changed.
- the information processing apparatus includes a transition source output target region and a transition destination output target region among output target regions that are partial regions of an entire image that is an image having a continuous field of view of 360 degrees in at least one direction. And a visual field transition path determination unit that automatically determines a visual field transition path from the transition source output target area to the transition destination output target area. Assuming the transition source and the transition destination in the 360-degree continuous whole image for the transition of the output target area (the area to be displayed after being cut out from the whole image) simulating the viewer's viewpoint movement, the transition is continued from the transition source output target area. Since there are various visual field transition paths to the transition destination output target area as the image to be processed, the visual field transition path is automatically determined.
- the whole image is an image in which at least a 360-degree continuous portion exists, such as a omnidirectional image, a hemispherical image, and a 360-degree panoramic image.
- the image has a 360 degree field of view.
- the visual field transition path determination unit includes a candidate path that proceeds in one direction from the transition source output target area in the entire image toward the transition destination output target area; It can be considered that one of candidate paths traveling in the direction opposite to the one direction is determined as the visual field transition path. Assuming the transition source and transition destination in the entire image that continues 360 degrees for the transition of the output target region, a plurality of paths that transition from the transition source to the transition destination are assumed. In particular, considering the positional relationship between the transition source and the transition destination in a 360-degree continuous whole image, the transition from the transition source to the transition destination (viewpoint movement) is opposite to one direction on the 360-degree circumference of the whole image. The direction is considered. One of these is automatically selected. Therefore, among the candidate paths that travel in one direction and the candidate paths that travel in the opposite direction, for example, a visually desirable path is automatically determined as the visual field transition path.
- the visual field transition path determination unit calculates a movement distance from the transition source output target area to the transition destination output target area on the entire image for each of a plurality of candidate paths. It is conceivable that the moving distance information shown is used to determine the visual field transition path. For example, the candidate path with the shorter moving distance is selected as the visual field transition path.
- the entire image is a moving image
- the visual field transition path determination unit includes the entire image of the subject existing in the transition source output target area as the moving image progresses. It is conceivable to use movement direction information indicating the movement direction in the image for determining the visual field transition path. That is, when a person or other moving body that is a subject in the transition source output target area is moving in a certain direction on the moving image, the moving direction is set as one element for determining the visual field transition path.
- the entire image is a moving image
- the visual field transition path determination unit includes the entire image of the subject existing in the transition destination output target area as the moving image progresses. It is conceivable to use movement direction information indicating the movement direction in the image for determining the visual field transition path. That is, when a person or other moving body that is a subject in the transition destination output target area is moving in a certain direction on the moving image, the moving direction is an element for determining the visual field transition path.
- the entire image is a moving image
- the visual field transition path determination unit is configured to detect a subject existing in the transition destination output target region or a subject existing in the transition source output target region.
- the moving speed information indicating the moving speed in the entire image as the moving image progresses may be used for determining the visual field transition path. That is, when one or both of the transition source and transition destination images (person or other moving body that is the subject) is moving on the moving image, the moving speed is used as one element for determining the visual field transition path. To do.
- the entire image is a moving image
- the visual field transition path determination unit indicates the position of the subject existing in the transition destination output target region in the frame after the transition required time has elapsed. It can be considered that the subject position information is used to determine the visual field transition path.
- the transition time is required for continuous transition (viewpoint movement) from the transition source to the transition destination.
- the visual field transition path is determined in consideration of the subject position of the transition destination when the required transition time has elapsed.
- the entire image is a moving image
- the specifying unit is a partial area included in the moving image, and indicates a position of each of a plurality of subjects in the moving image.
- the transition source output target area and the transition destination output target area are specified based on a user's selection instruction for a transition setting image expressing a plurality of subject areas in a list.
- a user who is an image viewer can display a list of positions at each time point for each subject in the entire image, and can select, for example, the subject on the transition setting image as the list.
- the specifying unit displays the image existing in the still image or the moving image as the entire image together with the image of the partial region that is the output target region in the entire image.
- the transition destination output target area or the transition source output target area is specified based on a user operation for designating a display candidate image performed on a display based on display data including a presence presentation image that presents a candidate image. It is possible.
- the presence of another display candidate subject is presented as a presence presentation image on the displayed image. Then, when the user performs an operation of selecting a certain display candidate image by an operation on the presence-presented image or the like, an image display that moves the viewpoint to an area including the display candidate image is realized.
- the presence presentation image is a thumbnail image of the display candidate image
- the display data includes an image of a current output target area and a thumbnail image of the display candidate image. It may be included.
- the existing display candidate image is presented as a uniform thumbnail image, for example, by superimposing it on a part of the current output target area.
- the presence presentation image may be arranged at a position corresponding to the positional relationship of the display candidate image indicated by the presence presentation image with respect to the image of the partial area.
- the presence display image for the display candidate image existing above the screen relative to the current output target area is presented above the current screen.
- the presence presentation image for the display candidate image existing on the right side of the screen with respect to the current output target area is presented on the right side of the current screen.
- the display data exists at the specified time axis position corresponding to the time axis position specified in the image of the partial area that is the output target area. It is conceivable that a presence presentation image corresponding to the display candidate image to be included is included. In the case of moving image content, the existence status of each display candidate image also varies in the time axis direction. Therefore, the existence of the display candidate image can be confirmed on the time axis.
- the display data may include a presence presentation image indicating a positional relationship between a display candidate image and the image of the partial area that is the output target area. For example, an image showing the relative position of each display candidate image with respect to the current output target region is set as the presence presentation image.
- the information processing method includes a transition source output target region and a transition destination output target region among output target regions that are partial regions of an entire image that is an image having a continuous visual field of 360 degrees in at least one direction. And a visual field transition path determination procedure for automatically determining a visual field transition path from the transition source output target area to the transition destination output target area. As a result, the information processing apparatus automatically determines the visual field transition path.
- a program according to the present technology is a program that causes an information processing apparatus to execute the above-described specific procedure and visual field transition path determination procedure. As a result, an information processing apparatus capable of automatically determining the visual field transition path is realized.
- a smooth transition can be provided to a viewer on a display simulating viewpoint movement as a transition from a transition source output target area to a transition destination output target area.
- the effects described here are not necessarily limited, and may be any of the effects described in the present disclosure.
- FIG. 1 is a block diagram of an information processing apparatus and peripheral devices according to an embodiment. It is a block diagram of the hardware constitutions of the information processing apparatus of an embodiment. It is a block diagram of a functional structure of the information processing apparatus of an embodiment. It is explanatory drawing of the visual field transition path determination using the movement distance information of embodiment. It is explanatory drawing of the output object area
- the image to be processed is an image having a continuous field of view of 360 degrees in at least one direction.
- the image has a field of view of 360 degrees.
- One direction is a linear direction. It also includes a straight line as a direction on the spherical surface (a straight line in the case of ignoring the curvature generated in the spherical surface in three dimensions).
- Specific examples of such an image include the hemispherical image of FIG. 1A, the omnidirectional image of FIG. 1B, and the 360-degree panoramic image of FIG. 1C.
- P0 is a position that becomes the reference of the line of sight. It may be considered as the position of the image pickup apparatus at the time of image pickup, or as the position of the viewer at the time of image display.
- a wide-angle lens such as a fisheye lens of the imaging device directly above, for example, as shown in FIG. Can be obtained. That is, the image is a hemispherical image having an angle of view of 360 degrees in the horizontal direction and 180 degrees in the vertical direction.
- an image captured through the wide-angle lens on the upper surface and an image captured through the wide-angle lens on the lower surface are combined with the frames captured at the same time to form a spherical shape.
- a moving image capturing the range is generated.
- Such still images and moving images are omnidirectional images having a field angle of 360 degrees in the horizontal direction and 360 degrees in the vertical direction.
- FIG. 1C is a so-called 360 degree panoramic image.
- the imaging device captures a 360-degree range, a still image or a moving image as a 360-degree panoramic image can be obtained. That is, the image has an angle of view of 360 degrees in the horizontal direction.
- the example of the angle of view of the horizontal direction was given here, a 360-degree panoramic image having an angle of view of 360 degrees in the vertical direction is also assumed.
- control for display output or the like is performed with such an image having a field of view of 360 degrees continuous in at least one direction as a processing target.
- the embodiment will be described using the omnidirectional image of FIG. 1B as an example, but the process described can be applied to a hemispherical image or a 360-degree panoramic image as a processing target.
- the information processing apparatus has a 360-degree field angle in any direction including the horizontal direction and the vertical direction when the omnidirectional image is displayed on the display device.
- the output target area which is a partial area of the whole celestial sphere image can be cut out and displayed.
- FIG. 2A shows a state of region extraction for display in the omnidirectional image.
- the whole image HP as the omnidirectional image can be considered as an image of the entire inner peripheral surface of the sphere. That is, the entire image that can be viewed from the position P0.
- a part of the entire image HP is cut out to be an output target area 90.
- the output target area 90 indicated by the solid line is an image that the viewer at the position P0 visually recognizes in the line-of-sight direction E1.
- such a partial region in a certain line-of-sight direction is displayed on the display device as the output target region 90.
- the output target area 90 can be arbitrarily changed.
- the output target area 90 can be an image of an area that can be viewed in the line-of-sight direction E2.
- the output target area 90 can be selected as an arbitrary area in the entire image HP. Therefore, in the case of a still image, the output target area 90 can be changed by a user operation, or the information processing apparatus can automatically change the output target area 90.
- the output target region 90 it is also possible to select the output target region 90 by user operation or automatic control, or to change the output target region 90 according to the progress of the moving image.
- the size, aspect ratio, and the like of the output target area 90 can also be set or changed according to a user operation or by automatic control.
- the output target area 90 is assumed to be an area in which, for example, a person, an animal, a specified target object, or the like is included as a subject in the entire image HP.
- an area including the person A is first cut out as an output target area 90 and displayed on a display device, and then an output target
- the area 90 is changed to an area including the person B, and is cut out and displayed on the display device.
- the information processing apparatus performs visual field transition path determination processing at the time of such transition of the output target region 90.
- FIG. 2B shows the subjects 100 and 101.
- the output target area 90 is changed from the area including the subject 100 to the area including the subject 101, it is often unnatural to suddenly switch the display screen. Therefore, the area to be displayed is gradually changed from the area including the subject 100 to the area including the subject 101.
- paths PT1 and PT2 are assumed when considering a straight line (again, as described above, ignoring the curvature as a spherical surface) as the visual field transition path in such a transition.
- the information processing apparatus performs visual field transition path determination so as to realize a transition that is comfortable for the viewer among a plurality of paths (candidate paths). For example, one of the paths PT1 and PT2 is selected as the visual field transition path.
- the information processing apparatus is built in a device such as an imaging apparatus, an image display apparatus, an image editing apparatus, or a display control apparatus, or is realized by a computer apparatus or the like.
- FIG. 3 shows an information processing device 1 according to the embodiment and an imaging device 2, a storage device 3, a communication device 4, an operation device 5, and a display device 6 as its peripheral components.
- the information processing device 1 may be configured as an integrated device together with all or a part of the imaging device 2, the storage device 3, the communication device 4, the operation device 5, and the display device 6 shown as peripheral devices. For example, it may be integrated as a camera, a monitor display device, a television device, an image editing device, a computer device, a terminal device, or the like.
- the information processing apparatus 1 may be a separate device from the illustrated peripheral device and may be configured to communicate with each peripheral device through a wired or wireless communication path.
- the imaging device 2 shown in FIG. 3 captures an image as a still image or a moving image, and outputs image data obtained by the imaging.
- the imaging apparatus 2 uses an optical system including a lens such as a cover lens, a zoom lens, and a focus lens and an aperture mechanism to convert light from a subject into a CMOS (Complementary Metal Oxide Semiconductor) type, a CCD (Charge Coupled Device) type, or the like. Condensed on the image sensor.
- the imaging device 2 is assumed to have a wide-angle lens in the optical system in order to capture an image having a continuous field of view of 360 degrees. For example, it is assumed that a fish-eye lens and a 360-degree lens are provided.
- the imaging device 2 may include an omnidirectional imaging optical system and an omnidirectional imaging optical system, or may be configured to be attached with an adapter having a detachable omnidirectional imaging optical system and an omnidirectional imaging optical system.
- the omnidirectional imaging optical system and the omnidirectional imaging optical system those using a surrounding reflection mirror, those using a PAL lens (Panoramic Annular Lens), and the like can be considered.
- CDS Correlated Double Sampling
- AGC Automatic Gain
- Control is executed, and further A / D (Analog / Digital) conversion processing is performed.
- the clamping process for clamping the R, G, and B black levels to a predetermined level, the correction process between the R, G, and B color channels, and the R, G, and B image data is performed.
- processing for generating (separating) a luminance (Y) signal and a color (C) signal is performed.
- resolution conversion processing for example, encoding processing for recording or communication, is performed on the image data subjected to these various signal processing.
- the imaging device 2 outputs image data generated by the encoding process or image data before encoding (so-called RAW image data) to the information processing device 1.
- the storage device 3 In response to a request from the information processing device 1, the storage device 3 stores image data in the storage medium and supplies image data read from the storage medium to the information processing device 1.
- the storage device 3 uses, for example, a nonvolatile memory as a storage medium, and stores image files such as still image data and moving image data, attribute information of image files, thumbnail images, and the like.
- Image files include, for example, JPEG (Joint Photographic Experts Group), TIFF (Tagged Image File Format), GIF (Graphics Interchange Format), MPEG (Moving Picture Experts Group) -2, MPEG-4, AVI (Audio Video Interleave), and AVCHD. (Registered trademark: Advanced Video Codec High Definition) or the like.
- the storage device 3 may record RAW image data as still image data or moving image data.
- the storage device 3 may be a storage device using a flash memory as a storage medium, or a memory card (for example, a portable flash memory) that can be attached to and detached from a device including the information processing device 1 and recording / reproducing with respect to the memory card.
- a form by a card recording / reproducing unit that performs access may be used.
- the storage device 3 may be realized as an HDD (Hard Disk Drive) or the like.
- a recording / reproducing unit corresponding to various storage media such as an optical disk, a magneto-optical disk, a hologram memory medium, a magnetic tape, an optical tape, and a volume recording medium may be used.
- the communication device 4 performs wired or wireless communication with an external device (not shown) in response to a request from the information processing device 1. For example, image data and control data are transmitted and received. As a result, the information processing apparatus 1 can transmit image data and control data to an external device (not shown), or can acquire and process image data supplied from the external device.
- the communication device 4 may perform communication using a communication method such as a wireless communication standard such as WIFI (Wireless Fidelity) or Bluetooth.
- the communication device 4 serves as a network communication unit, for example, performs communication through various networks such as the Internet, home network, and LAN (Local Area Network), and performs various data transmission / reception with servers, terminals, and the like on the network. It may be.
- the operation device 5 has an input function for inputting a user operation, and sends a signal corresponding to the input operation to the information processing device 1.
- the operation device 5 is realized as, for example, various operators provided on the housing of the device, a touch pad, a touch panel formed on the display unit 34, or the like.
- Various operations may be performed by a touch panel operation using icons, menus, and the like displayed on the touch panel and the display device 6.
- a user's tap operation is detected by a touch pad or the like.
- a user's so-called gesture operation may be recognized, or a voice input function may be provided to recognize a voice operation.
- the display device 6 performs various displays for the user.
- the display device 6 includes a display unit such as an LCD (Liquid Crystal Display) or an organic EL (Electro-Luminescence) display, and a display driving device thereof. Further, the display device 6 receives image data of the output target area 90 cut out from the omnidirectional image, for example, by the information processing device 1 and displays a moving image or a still image. Further, the display device 6 causes various operation menus, icons, messages, etc., that is, display as a GUI (Graphical User Interface) to be executed on the screen based on an instruction from the information processing device 1.
- GUI Graphic User Interface
- the information processing apparatus 1 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.
- the information processing device 1 functions as a control unit. Based on the operation state, user operation, and the like, the operation control of each peripheral unit is performed.
- the information processing apparatus 1 is a separate device from the peripheral units, the information processing device 1 communicates image data and control data with the devices of the peripheral units.
- the information processing apparatus 1 performs at least a process of determining the visual field transition path of the output target region 90 for an image having a 360-degree visual field such as an omnidirectional image.
- the information processing device 1 targets image data captured by the imaging device 2, image data read from a storage medium by the storage device 3, or image data transmitted from an external device and received by the communication device 4.
- the visual field transition path determination process for the output target area 90 can be performed.
- the information processing apparatus 1 can perform display control for performing transition of the output target area 90 along the visual field transition path determined by the visual field transition path determination process for the image displayed on the display device 6.
- the information processing apparatus 1 can store the information on the visual field transition path determined by the visual field transition path determination process in the storage medium by the storage device 3 in association with the image data. Further, the information processing apparatus 1 can add the information on the visual field transition path determined in the visual field transition path determination process to the image data (for example, add it as metadata) and cause the communication apparatus 4 to transmit the information to the external device.
- FIG. An example of the hardware configuration of the information processing apparatus 1 is shown in FIG.
- the CPU 51 of the information processing apparatus 1 executes various processes according to a program stored in the ROM 52 or a program loaded from the storage unit 59 to the RAM 53.
- the RAM 53 also appropriately stores data necessary for the CPU 51 to execute various processes.
- the CPU 51, ROM 52, and RAM 53 are connected to each other via a bus 54.
- An input / output interface 55 is also connected to the bus 54.
- a display 56 made of a liquid crystal panel or an organic EL panel
- an input unit 57 made of a keyboard, a mouse, etc.
- a speaker 58 a storage unit 59 made up of an HDD, etc.
- a communication unit 60 Connected to the input / output interface 55 are a display 56 made of a liquid crystal panel or an organic EL panel, an input unit 57 made of a keyboard, a mouse, etc., a speaker 58, a storage unit 59 made up of an HDD, etc., and a communication unit 60.
- the display device 6 of FIG. 3 is an integrated device with the information processing device 1
- the display 56 is a display as a computer device, and displays various information for a user interface for the operator.
- the operation device 5 in FIG. 3 is an integrated device with the information processing device 1
- the input unit 57 means the operation device 5.
- the input unit 57 means an input device used by the operator in the computer device.
- the communication unit 60 performs communication processing via
- a drive 61 is connected to the input / output interface 55 as necessary, a memory card 62 is mounted, and a computer program read from the memory card 62 is installed in the storage unit 59 as necessary, or the CPU 51 The data processed in is stored.
- the drive 61 may be a recording / reproducing drive for a removable storage medium such as a magnetic disk, an optical disk, or a magneto-optical disk.
- the processing as the information processing device of the embodiment are realized by software activated by the CPU 51.
- the program constituting the software is downloaded from the network or read from the removable storage medium and installed in the computer apparatus of FIG.
- the program may be stored in advance in an HDD or the like as the storage unit 59. Then, when the program is started in the CPU 51, various processes to be described later can be performed.
- the information processing apparatus 1 according to the embodiment is not limited to a single computer apparatus as illustrated in FIG. 4, and may be configured by systemizing a plurality of computer apparatuses.
- the plurality of computer devices may be systemized by a LAN or the like, or may be arranged at a remote place by a VPN using the Internet or the like.
- the plurality of information processing devices may include an information processing device such as a computer device that can be used by a cloud computing service.
- FIGS. 5A and 5B show functional configuration examples of the information processing apparatus 1 according to the embodiment formed by one or a plurality of computer apparatuses or the like.
- Each function described with reference to FIGS. 5A and 5B is a function realized by processing executed by the CPU 51 in accordance with the program in the information processing apparatus 1. However, all or a part of the processing described below may be realized by hardware. Further, when each function is realized by software, each function need not be realized by an independent program. Processing of a plurality of functions may be executed by one program, or one function may be realized by cooperation of a plurality of program modules. Each function may be distributed among a plurality of computer devices. Further, one of the functions may be realized by a plurality of computer devices. Each function may be realized by a plurality of computer devices configured in separate casings.
- the information processing apparatus 1 includes an image data acquisition unit 10, an object detection unit 11, a path generation unit 12, a cutout frame generation unit 13, a display data generation unit 14, an input information acquisition unit 15, a display control unit 16, A storage control unit 17 and a communication control unit 18 are provided.
- the image data acquisition unit 10 acquires image data (moving image data or still image data) as an image having a 360 ° field of view in at least one direction. That is, image data such as an omnidirectional image supplied from the imaging device 2, the storage device 3, or the communication device 4 is acquired.
- the image data acquisition unit 10 is a receiving device, an interface device, or an input buffering device that receives image data transmitted from the imaging device 2, or a receiving device that receives image data reproduced by the storage device 3, an interface A device, an input buffering device, an interface device that inputs image data received by the communication device 4, an input buffering device, and the like are assumed.
- the object detection unit 11 performs image analysis of the image data acquired by the image data acquisition unit 10 and detects a specific object that is a subject. For example, people, animals, other moving objects, human face detection, specific buildings and objects, etc. are detected in the image data. Such object detection is performed in order to set a cutout region that is the output target region 90. For example, an area where a person's face is shown is used as the output target area 90.
- the image data and the information of the subject detected by the object detection unit 11 are used in the processing of the path generation unit 12, the extraction frame generation unit 13, and the display data generation unit 14 as information for specifying the extraction frame (output target area 90). It is done.
- the clipping frame designation information is not limited to information acquired from the object detection unit 11, but includes meta information labeled manually, marker information added to image data at the time of imaging, face detection, human detection, and the like.
- the recognition information acquired using the image processing may be used.
- the path generation unit 12 performs visual field transition path determination processing when the output target region 90 is transitioned from the region of a certain subject 100 to the region of another subject 101.
- the path generation unit 12 generates a visual field transition path from the designation information of a plurality of clipping frames (output target areas 90) using the characteristics of the omnidirectional image.
- the path generation unit 12 determines the visual field transition direction based on the positional relationship between the transition source output target area 90 and the transition destination output target area 90, the moving direction, the moving speed, the reliability of the specified area, and the like.
- the path generation unit 12 includes a specifying unit 21 and a visual field transition path determination unit 22 as illustrated in FIG.
- the specifying unit performs processing for specifying the output source region 90 that is the transition source and the output target region 90 that is the transition destination for the output target region 90 that is a partial region of the entire image HP as the acquired image data.
- the visual field transition path determination unit 22 performs a process of determining the visual field transition path from the transition source output target area to the transition destination output target area. For example, one of the paths PT1 and PT2 described in FIG. 2B is selected and determined as the visual field transition path. Details of the processing of the path generation unit 12 will be described later.
- the cutout frame generation unit 13 generates information on a region to be cut out as the output target region 90 in the entire image HP. For example, a region including a specific subject detected by the object detection unit 11 is set as a cutout frame. Further, when a transition is made from one output target area 90 to another output target area 90, each cutout that becomes the output target area 90 at each point in the transition process according to the visual field transition path determined by the path generation unit 12. Generate frame information.
- the display data generation unit 14 performs, for example, a rendering process for outputting a cutout image from the entire image HP based on the cutout frame information generated by the cutout frame generation unit 13. In addition, the display data generation unit 14 performs processing for superimposing various images (icons, thumbnails, and other operation images) on the extracted image of the output target area 90, menu images to be displayed separately, An operation image display data generation process may be performed.
- the display data generation unit 14 may perform display data generation processing including a transition setting image and a presence presentation image which will be described later.
- the input information acquisition unit 15 acquires user operation information from the operation device 5 in FIG. 3 or the input unit 57 in FIG. For example, various operation information by a user, subject designation information, and the like are acquired.
- the acquired information is used by the object detection unit 11, the path generation unit 12, and the display data generation unit.
- the display control unit 16 controls the display device 6 to display the display data of the output target area 90 generated by the display data generation unit.
- the storage control unit 17 controls the storage device 3 to store the display data generated by the display data generation unit, the visual field transition path information determined by the path generation unit 12, and the like.
- the communication control unit 18 performs control to transmit the display data generated by the display data generation unit, the visual field transition path information determined by the path generation unit 12, and the like from the communication device 4 to the external device.
- Transition process of output target area The transition process of the output target area 90 by the information processing apparatus 1 will be described.
- a description will be given as processing when moving between a plurality of different cutout regions in the entire image HP on the spherical surface of the omnidirectional sphere.
- one of the paths PT1 and PT2 is determined as shown in FIG. This is an example of the case.
- FIG. 6A shows the whole image HP of the omnidirectional image virtually in a rectangular shape. 6A is assumed to be continuous. The same applies to FIGS. 7A to 7F, 9A, 10A, and 11A described later.
- FIG. 6A it is assumed that an output target area 90 including the subject 100 is currently displayed. At this time, it is assumed that the output target area 90 is changed so that the clipping frame including the subject 101 becomes the output target area 90.
- FIG. 7 shows the transition of the output target area 90.
- An output target area 90 in FIG. 7A is an image area including the subject 100.
- the output target area 90 is displayed, and the user (viewer) is viewing the subject 100.
- the cutout area including the subject 101 becomes the output target area 90. That is, the user can visually recognize the subject 101 on the display device 6.
- the state can be instantaneously switched from the state of FIG. 7A to the state of FIG. 7F, but the user is given a display effect due to the omnidirectional image and a more natural viewing environment within the omnidirectional image.
- the output target area 90 is gradually changed from the state of FIG. 7A in the order of FIG. 7B ⁇ FIG. 7C ⁇ FIG. 7D ⁇ FIG. 7E to finally reach the state of FIG.
- Such a route is called a visual field transition path.
- FIG. 8 shows a model for interpolation between two points on the spherical surface.
- the position of the subject 100 and the position of the subject 101 are taken as two points, and an interpolation between them is performed.
- the line-of-sight direction Es is the line-of-sight direction at the start of transition with respect to the subject 100.
- the line-of-sight direction Ee is the line-of-sight direction at the end of the transition with respect to the subject 101.
- a plane obtained by cutting the sphere so as to include the position P0 and the positions of the subjects 100 and 101 is defined as an interpolation plane HH.
- the interpolation plane HH is a plane formed by the line-of-sight direction of the transition start point and the transition end point.
- the orthogonal plane VH is a plane orthogonal to the interpolation plane HH.
- the direction vector of the orthogonal plane VH is set as a vector c.
- a vector a of the line-of-sight direction Es at the start of the transition and a vector b of the line-of-sight direction Ee at the end of the transition are shown.
- the line-of-sight direction to be interpolated indicated by a broken line is a vector d.
- a vector symbol “ ⁇ ” is added in the drawings and the following mathematical expressions.
- a control parameter for interpolating the line-of-sight directions of the transition start point and the transition end point is “t”.
- t 0 to 1.
- the vectors a and b are normalized by vectors of the line-of-sight direction Es at the start of transition and the line-of-sight direction Ee at the end of transition, respectively.
- the angle ⁇ formed by the line-of-sight direction Es at the start of the transition and the line-of-sight direction Ee at the end of the transition is as follows.
- the line-of-sight direction (vector d) to be interpolated can be expressed as follows using the control parameter t.
- a cutout region to be interpolated as the output target region 90 in the transition process can be determined.
- the increase in the value of the control parameter t is set to a constant speed with respect to the time of visual field (line-of-sight direction) transition, interpolation at equal intervals is performed, that is, transition at a constant speed is realized. Since the output target area 90 moves at a constant speed, the user can visually recognize the change in the image.
- the value of the control parameter t is set by dividing the predetermined transition time into a predetermined number of times, the transition time becomes constant, that is, the transition is slow when the distance is close, and the transition is fast when the transition is far away. Such visual field transition is performed.
- the transition parameter is moderated at the end of transition start. Transitions such as simple movements can also be set. It is considered that when the movement of the output target area 90 is made gentle near the start and end of transition, the image change becomes more comfortable for the user. Of course, the moving speed can be accelerated and decelerated by setting the control parameter t to increase.
- FIG. 6A shows the paths PT1 and PT2 as viewed from above the sphere. That is, the interpolation plane HH is viewed from above the vector c side in FIG.
- the path is determined so that the distance of the viewpoint movement from the line-of-sight direction Es to the line-of-sight direction Ee is shortened on the spherical surface. That is, the movement distance information of the paths PT1 and PT2 is acquired, and the shorter path PT2 is selected as the visual field transition path.
- FIG. 9A shows a state in which the interpolation plane HH is viewed from above.
- the entire image HP is a moving image
- the subject 100 is a person or other moving body, for example, moving in the direction of the arrow M.
- the position of the subject 100 changes in the direction of arrow M as the moving image frame progresses.
- the output target area 90 at each time of the transition process selected by the interpolation described with reference to FIGS. 7 and 8 is an area cut out from the frame corresponding to each time. That is, the user (viewer) sees the display as if the line-of-sight direction gradually moves on the moving image scene.
- the visual field transition path is determined so as to be in the same direction as the direction of movement in the transition source output target area 90, for example, the direction of movement of the main subject 100 in the output target area 90. That is, in this example, since the path PT1 is a transition in the DR1 direction, the path PT2 is a transition in the DR2 direction, and the subject 100 is moving in the DR1 direction, the path PT1 is selected as the visual field transition path. As a result, the user moves the direction of the line of sight to the arrow EsM, and a transition is made such that the scene changes while initially following the subject 100 with the eyes.
- the information processing apparatus 1 may analyze the direction of movement of the subject existing in the output target area 90 by, for example, subject recognition and position comparison of a plurality of frames, or refer to metadata added to the image data. You may grasp it. Alternatively, a global vector for the cutout region may be analyzed and used as the main subject movement direction.
- the moving direction of the subject 100 is not necessarily the horizontal direction with respect to the interpolation plane HH.
- cases such as directions M1, M2, and M3 that are not horizontal to the interpolation plane HH are assumed.
- the interpolation plane HH is a plane formed by the line-of-sight direction of the transition start point and the transition end point as described in FIG. 8, and FIG. 9C is a case where the coordinates are rotated so that the transition source and the transition destination are horizontal.
- the information processing apparatus 1 may determine whether the movement of the subject 100 is the DR1 direction or the DR2 direction based on the orthogonal plane VH100 including the position of the subject 100 at the transition start time.
- the moving direction of the subject 100 is the DR1 direction.
- FIG. 10B shows a state in which the interpolation plane HH is viewed from above. Also in this example, it is assumed that the entire image HP is a moving image, and the subject 101 is a person or other moving body, for example, moving in the arrow M direction. That is, the position of the subject 101 changes in the direction of arrow M as the moving image frame progresses.
- the visual field transition path is determined so as to be the same as the direction of movement in the output target area 90 that is the transition destination, for example, the direction of movement of the main subject 101 in the output target area 90 that is the transition destination.
- the path PT1 is a transition in the DR1 direction
- the path PT2 is a transition in the DR2 direction
- the subject 101 is moving in the DR1 direction. Therefore, the path PT1 is selected as the visual field transition path.
- a transition is made so as to finally follow the subject 101 with the eyes and reach the output target area 90 of the subject 101.
- the moving direction of the subject 101 is not necessarily the horizontal direction with respect to the interpolation plane HH.
- cases such as directions M1, M2, and M3 that are not horizontal to the interpolation plane HH are assumed.
- the information processing apparatus 1 determines whether the motion of the subject 101 is in the DR1 direction or the DR2 direction depending on which vector component is in the DR1 direction or the DR2 direction with reference to the orthogonal plane VH101 including the position of the subject 101 at the start of the transition. What is necessary is just to determine. Therefore, in any of the directions M1, M2, and M3 shown in the figure, the moving direction of the subject 101 is the DR1 direction.
- both the subject 100 included in the transition-source output target area 90 and the subject 101 included in the transition-source output target area 90 may be moving.
- the information processing apparatus 1 acquires the moving speed information Vs of the subject 100 in the output target area 90 that is the transition source, and acquires the moving speed information Ve of the subject 101 in the output target area 90 that is the transition destination.
- the difference in position (number of pixels or distance corresponding to the position difference) in the entire image HP of the subject 100 between successive frames, for example, the frame at the start of transition and the next frame is used as the movement speed information Vs.
- the position difference of the subject 101 may be used as the moving speed information Ve.
- the actual speed value may be calculated and used as the moving speed information Vs and Ve.
- the moving speed information Vs and Ve are compared to determine the faster one. If the subject 100 is faster, the visual field transition path is selected from the paths PT1 and PT2 in accordance with the moving direction of the subject 100 as described in FIG. If the subject 101 is faster, the visual field transition path is selected from the paths PT1 and PT2 in accordance with the moving direction of the subject 101 as described in FIG.
- the visual field transition path may be determined in accordance with the movement direction.
- FIG. 11B shows a state in which the interpolation plane HH is viewed from above.
- the target subject 101 as a transition destination exists at a position indicated as the subject 101c in the entire image HP.
- the information processing apparatus 1 confirms the position of the subject 101 at the end of the transition, and assumes candidate paths PT1 and PT2 based on the subject 101. Then, the shorter one of the paths PT1 and PT2 is selected as the visual field transition path.
- the position of the subject 101 at the end of the transition may be determined based on the assumption that the transition time is constant, and the position of the subject 101 in a frame after the number of frames corresponding to the transition time may be determined. For example, when the moving speed at the time of transition is constant, the time T1 for the output target area 90 to reach the subject 101 in the case of the path PT1 in consideration of the moving speed of the output target area 90 and the moving speed of the subject 101. In the case of the path PT2, the time T2 for the output target area 90 to reach the subject 101 is calculated, and the path having a shorter time may be selected. As a result, the path that is selected is a path that has a short movement distance relative to the position of the subject 101 at the end of the transition.
- the visual field transition path determination process based on the reliability information of the cut-out designation area, a higher-reliability object is selected from the transition source and transition destination subjects, and the viewpoint movement direction (that is, the movement direction of the subject (that is, It is also possible to determine the transition direction.
- the reliability information when the cutout designation area is acquired by image processing such as “object detection” or “face detection”, the likelihood of the detection accuracy is used.
- the cutout designation area is acquired by user input such as “labeling” or “marker”, the priority is used as reliability.
- the priority is higher than in the case of object detection, or in the case of labeling, the priority can be input by the user, and the one with higher reliability according to the priority is selected. It is also possible to make a choice.
- FIG. 12 shows an example of transition of the output target area 90 in the entire image HP as a moving image.
- the upper part of the figure shows frames HP (t0), HP (t1), HP (t2), and HP (t3) as the entire image HP. These are the frames at times t0, t1, t2 and t3, respectively.
- the lower part of the figure shows the output target regions 90 (t0), 90 (t1), and 90 (t2) cut out from the frames HP (t0), HP (t1), HP (t2), and HP (t3) at each time point. , 90 (t3). That is, it is an image that is actually visually recognized by the user.
- an output target area 90 (t1) including a car as the subject 100 is displayed. It is assumed that the subject 100 changes to another vehicle of the subject 101. It is assumed that the automobiles of the subjects 100 and 101 are both moving leftward on the page. Therefore, the visual field transition path is determined so that the line-of-sight direction moves to the left side, and the output target region 90 is transitioned. For example, at the time point t1, the output target area 90 (t1) is moved to the left side in the entire image HP. Since the images are continuous by 360 degrees, the cut out region is a region extending from the left end portion to the right end portion of the frame HP (t1) of the entire image HP.
- the output target area 90 (t1) includes only the front end of the automobile of the subject 100 that is the transition source.
- the output target area 90 (t2) is further moved to the left in the entire image HP.
- the output target area 90 (t2) includes a part of the automobile as the subject 101.
- the output target area 90 (t3) is further moved to the left in the entire image HP, and the output target area 90 (t3) is in a state including the entire automobile as the subject 101.
- the transition has been completed. For example, in this way, by determining the visual field transition path in consideration of the movement of the subjects 100 and 101, it is possible to give the user a natural sense of gaze movement.
- path determination processes I to V Various processing examples of the information processing apparatus 1 for determining the visual field transition path as described above will be described as path determination processes I to V.
- the following processing example is processing executed by the path generation unit 12 of the information processing apparatus 1 by the functions of the specifying unit 21 and the visual field transition path determination unit 22 illustrated in FIG. 5B.
- FIG. 13A shows the path determination process I. This is an example of determining the visual field transition path using the movement distance information described in FIG.
- the path generation unit 12 specifies the transition source and the transition destination.
- the transition source output target area 90 is the output target area 90 currently being displayed.
- the output target area 90 that is the transition destination is an area that includes a specific subject detected by the object detection unit 11.
- the transition source output target area 90 may be specified according to a user's designation operation or the like.
- step S101 the path determination unit 22 selects the above-described candidate paths PT1 and PT2 (hereinafter referred to as “candidate paths for the paths PT1 and PT2) from the determined transition source output target area 90 to the transition target output target area 90. ”).
- step S102 the path generation unit 12 calculates the viewpoint movement distance D1 for the candidate path PT1. This is the moving distance when the candidate path PT1 is adopted.
- step S103 the path generation unit 12 calculates the viewpoint movement distance D2 for the candidate path PT2. This is the moving distance when the candidate path PT2 is adopted.
- step S104 the path generation unit 12 compares the viewpoint movement distances D1 and D2.
- step S105 the path generation unit 12 selects a path having a shorter viewpoint movement distance among the candidate paths PT1 and PT2, and determines it as a visual field transition path.
- FIG. 13B shows the path determination process II. This is an example in which the visual field transition path is determined using the movement direction information of the transition source subject 100 described in FIG.
- the processes described above are denoted by the same step numbers, and detailed description thereof is omitted.
- the path generation unit 12 specifies a transition source and a transition destination in step S100, and specifies candidate paths PT1 and PT2 in step S101.
- step S110 the path generation unit 12 branches the process depending on whether or not there is a motion with respect to the subject 100 in the transition target output target area 90. If there is no movement with respect to the subject 100, the same processing as in FIG. 13A, that is, the path with the shorter viewpoint movement distance is selected from the candidate paths PT1 and PT2 through steps S102, S103, S104, and S105. Determine as transition path.
- the path generation unit 12 proceeds from step S110 to S111, and determines the moving direction of the transition source subject 100. That is, it is determined whether the direction is the DR1 direction or the DR2 direction in FIG.
- the path generation unit 12 selects one of the candidate paths PT1 and PT2 in accordance with the determined movement direction, and determines it as the visual field transition path. For example, if the candidate path PT1 is a path that moves the viewpoint in the DR1 direction, the candidate path PT2 is a path that moves the viewpoint in the DR2 direction, and the movement direction of the subject 100 is the DR1 direction, the candidate path PT1 is selected.
- FIG. 14A shows the path determination process III. This is an example in which the visual field transition path is determined using the movement direction information of the subject 101 of the transition destination described in FIG.
- the path generation unit 12 specifies a transition source and a transition destination in step S100, and specifies candidate paths PT1 and PT2 in step S101.
- the path generation unit 12 branches the process depending on whether or not there is a movement of the subject 101 in the output target area 90 that is the transition destination. If there is no movement with respect to the subject 101, steps S102, S103, S104, and S105 select the path having the shorter viewpoint movement distance among the candidate paths PT1 and PT2 in the same process as in FIG. Determine as transition path.
- the path generation unit 12 proceeds from step S120 to S121, and determines the moving direction of the transition destination subject 101. That is, it is determined whether the direction is the DR1 direction or the DR2 direction in FIG.
- the path generation unit 12 selects one of the candidate paths PT1 and PT2 in accordance with the determined movement direction, and determines it as the visual field transition path. For example, if the candidate path PT1 is a path that moves the viewpoint in the DR1 direction and the candidate path PT2 is a path that moves the viewpoint in the DR2 direction, and the movement direction of the subject 101 is the DR1 direction, the candidate path PT1 is selected.
- FIG. 14B shows the path determination process IV.
- the path generation unit 12 determines in step S120 whether or not there is a motion for the subject 101 that is the transition destination. If there is a movement, in step S125, the position of the transition-destination subject 101 after the time Tm is determined in the entire image HP, and then the process proceeds to step S101.
- the time Tm is the time required for transition. Specifically, the path generation unit 12 determines the position of the subject 101 in a corresponding frame after a time Tm from the current frame. If the subject 101 does not move, the process proceeds to step S101 without performing step S125.
- step S101 the path generation unit 12 specifies candidate paths PT1 and PT2.
- the transition destination is changed to a cut-out area including the subject 101 after the time Tm, and candidate paths PT1 and PT2 are set thereon.
- step S102, S103, S104, and S105 the path generation unit 12 selects a path having a shorter viewpoint movement distance from among the candidate paths PT1 and PT2 as in FIG. decide. Therefore, when the transition destination subject 101 is moving, the path with the shorter transition distance is selected based on the position of the subject 101 after the time required for the transition.
- Fig. 15 shows the path determination process V. This is an example in which a visual field transition path is determined using movement speed information when both the transition source subject 100 and the transition destination subject 101 are moving subjects.
- the path generation unit 12 temporarily selects a visual field transition path as step S151.
- the path generation unit 12 executes the path determination process I (S100 to S105) described with reference to FIG. 13A, and temporarily selects a path selected in the process, that is, a path with a short viewpoint movement distance as a visual field transition path. Do.
- step S152 the path generation unit 12 determines whether the movement direction component of the transition source subject 100 is common to the temporarily selected path. That is, it is determined whether the moving direction of the subject 100 has a component in the DR1 direction or the DR2 direction shown in FIGS. 9 and 10, and whether the moving direction component and the moving direction of the temporarily selected path are the same. To check.
- the path generation unit 12 proceeds to step S153, and this time the movement direction component (DR1 direction / DR2 direction) of the transition destination subject 101 is determined. Check if it is common with the temporary selection path. If they are common, the movement direction components of both the transition source subject 100 and the transition destination subject 101 are the same, and the movement direction of the temporary selection path is also common. Therefore, in this case, the process proceeds to step S156, and the temporary selection path is determined as the visual field transition path.
- the direction of movement of the subject 100 and the subject 101 does not match.
- the movement speed information Vs of the transition source subject 100 and the movement speed information Ve of the transition destination subject 101 are calculated in step S154.
- the actual moving speed is calculated and set as moving speed information Vs and Ve.
- step S155 it is determined whether Vs ⁇ Ve. When Vs ⁇ Ve, that is, when the transition source subject 100 is faster, a path is selected according to the moving direction of the subject 100.
- step S156 since the moving direction component of the subject 100 is common to the temporary selection path, the process proceeds to step S156, and the temporary selection path is determined as the visual field transition path.
- Vs ⁇ Ve is not satisfied, that is, when the transition destination subject 101 is faster, a path is selected according to the moving direction of the subject 101. In this case, the moving direction component of the subject 101 is not common to the temporary selection path. Therefore, the process proceeds to step S157, and the path that has not been selected as the temporary selection path in step S151 is determined as the visual field transition path.
- step S152 the path generation unit 12 proceeds to step S158, and this time, the movement direction component (DR1 direction / It is confirmed whether or not (DR2 direction) is common with the temporary selection path. If not common, the movement direction component of both the transition source subject 100 and the transition destination subject 101 does not match the movement direction of the provisional selection path. Therefore, in this case, the process proceeds to step S161, and the path that has not been selected as the temporary selection path in step S151 is determined as the visual field transition path.
- step S158 If the movement direction component of the subject 101 at the transition destination is common to the temporary selection path in step S158, the direction of movement of the subject 100 and the subject 101 (direction component in the DR1 direction / DR2 direction) does not match. In this case, the moving speed information Vs of the transition source subject 100 and the moving speed information Ve of the transition destination subject 101 are calculated in step S159. In step S160, it is determined whether Vs ⁇ Ve. When Vs ⁇ Ve, that is, when the transition source subject 100 is faster, a path is selected according to the moving direction of the subject 100.
- step S161 since the moving direction component of the subject 100 is not common to the temporary selection path, the process proceeds to step S161, and the path that has not been selected as the temporary selection path in step S151 is determined as the visual field transition path.
- Vs ⁇ Ve when the transition destination subject 101 is faster, a path is selected according to the moving direction of the subject 101.
- the process proceeds to step S162, and the temporary selection path is determined as the visual field transition path.
- steps S155 and S160 it is determined that Vs ⁇ Ve, but it may be determined that Vs> Ve. If the moving speed information Vs and Ve is not the actual speed value but the value of the moving distance between the predetermined frames of the subjects 100 and 101, steps S155 and S160 are determined as Vs ⁇ Ve or Vs ⁇ Ve. In the processing example of FIG. 15 described above, when both the subjects 100 and 101 are moving and the moving direction components of the two are different, the moving speed information is used to determine the visual field transition path.
- the information processing apparatus 1 displays a transition setting image that represents a plurality of subject areas in a list that indicate the existence positions (temporal and visual existence positions in the 360-degree image) of the plurality of subjects.
- a transition setting image that represents a plurality of subject areas in a list that indicate the existence positions (temporal and visual existence positions in the 360-degree image) of the plurality of subjects.
- the information processing apparatus 1 can generate, for example, a transition setting image as shown in FIG. 16A based on the tag information and detection information of the subject shown in the omnidirectional image and display it on the display device 6.
- the horizontal axis is the time when the subject is shown
- the vertical axis is the position where the subject is shown.
- the vertical axis of 0 degrees and 360 degrees is the same position as the visual field in the 360 degree image.
- the time on the horizontal axis corresponds to the progress of a moving image frame.
- the position on the vertical axis is a position indicated within a 360 degree range in the horizontal direction in the entire image HP, for example.
- the positions where specific subjects 100, 101, 102 such as persons detected by the object detection unit 11 are present are shown. That is, for each of the subjects 100, 101, and 102, the existence positions as positions on the time axis and in the 360 degree range are shown in a bird's eye view and displayed as a list.
- the subjects 100, 101, and 102 are, for example, thumbnail images of those subjects. In the case of a person, it is conceivable to use thumbnail images as face images.
- the subject 100 is shown to be in the same position without moving substantially even after a lapse of time.
- the subject 101 has started to move after time t2.
- the subject 102 appears in the entire image HP at the time point t3, and has moved a little thereafter.
- such a transition setting image is generated by the display data generation unit 14 and displayed on the display device 6.
- the display data generation unit 14 can generate a transition setting image based on the detection information of each subject 100, 101, 102 from the object detection unit 11.
- the user can arbitrarily specify the viewpoint movement for the display of the transition setting image.
- An example is shown in FIG. 16B.
- the user performs an operation of designating thumbnail images with diagonal lines for each of the subjects 100, 101, and 102.
- the information processing apparatus 1 grasps the viewpoint movement desired by the user. That is, when an image is reproduced from time t0, the user first displays the region including the subject 100 as the output target region 90, transitions the output target region 90 to the position of the subject 101 at time t3, and further outputs the target at time t6.
- the information processing apparatus 1 recognizes that the region 90 has been instructed to transition to the position of the subject 102. Based on this, the information processing apparatus 1 (path generation unit 12) sets the transition of the output target area 90 according to the time axis as shown by the solid line arrow in FIG. 16B. The information processing apparatus 1 sets a cutout range for each frame in accordance with this setting during image reproduction, and displays and outputs the cutout range as the output target area 90.
- the time interval for displaying thumbnail images for each of the subjects 100, 101, and 102 varies depending on the reproduction time length of the image content, the transition set image size, the thumbnail size, and the like.
- the interval between the time points t1, t2,... Does not necessarily correspond to the transition time length at the time of visual field transition. Therefore, for example, the time at which the field of view transition from the subject 100 to the subject 101 is started at time t3 may be time t2, or may be immediately before time t3 after time t2.
- the user can set the transition of the output target area 90 while grasping the position and time of the subject shown in the omnidirectional image by looking at such a transition setting image. According to such designation by the user, a transition from a certain subject to another subject is set at a certain time. Regarding the transition, the path generation unit 12 performs a visual field transition path determination process.
- FIG. 17 shows a case where it is designated at time t3 that a transition from the output target area 90 including the subject 100 to the output target area 90 including the subject 102 is specified.
- Candidate paths PT1 and PT2 are assumed as visual field transition paths at this time.
- Candidate paths PT1 and PT2 correspond to the paths PT1 and PT2 shown in FIG. 6, FIG. 9, FIG.
- the transition source subject 100 is not moving, but the transition destination subject 102 is moving.
- the visual field transition path is determined by the method described with reference to FIG. 10 (path determination processing III in FIG. 14A), in this case, since the subject 102 has moved in the DR2 direction, the path PT2 that performs transition in the DR2 direction. Is the visual field transition path.
- FIG. 18A shows a case where transition from the output target area 90 including the subject 101 to the output target area 90 including the subject 102 is designated at time t3.
- Candidate paths PT1 and PT2 are assumed as visual field transition paths at this time.
- the visual field transition path is determined in the path determination processing V of FIG. 15, in this case, since both the subjects 101 and 102 have moved in the DR2 direction, the path PT2 that performs the transition in the DR2 direction is the visual field transition path. Is done.
- FIG. 18B shows a case where transition from the output target area 90 including the subject 101 to the output target area 90 including the subject 102 is designated at time t5.
- Candidate paths PT1 and PT2 are assumed as visual field transition paths at this time.
- the transition source subject 100 is not moving, but the transition destination subject 102 is moving.
- the visual field transition path is determined in the path determination process III in FIG. 14A.
- the path PT1 that makes a transition in the DR1 direction is set as a visual field transition path.
- the path determination process IV is used to perform the process in consideration of the position of the subject 102 at the time t5, the path PT2 having a short movement distance is set as the visual field transition path.
- FIG. 19 A processing example of the information processing apparatus 1 using the transition setting image as described above will be described with reference to FIG.
- the processing of FIG. 19 includes functions of each unit in the information processing apparatus 1 (mainly the image data acquisition unit 10, the object detection unit 11, the path generation unit 12, the cutout frame generation unit 13, the display data generation unit 14, and the input information acquisition unit 15). , A process executed by the display control unit 16).
- step S201 the information processing apparatus 1 generates display data as a transition setting image. That is, the display data generation unit 14 generates display data of the transition setting image using the time and position information about the specific subjects 100, 101, 102 and the like detected by the object detection unit 11.
- step S202 the information processing apparatus 1 (display control unit 16) causes the display device 6 to display the transition setting image.
- the information processing apparatus 1 waits for a user's designation input in step S203, and waits for the end of the transition setting image display in step S204.
- the input information acquisition unit 15 detects a user designation input, for example, a thumbnail designation operation as shown in FIG. 16B
- the information processing apparatus 1 stores the designation information in step S205. Further, the process proceeds from step S204 to S206 at the timing when the display of the transition setting image is ended due to the user's operation or the elapse of a predetermined time.
- step S206 the information processing apparatus 1 sets each transition event based on the stored designation information. For example, in the example of FIG. 16B, the transition from the subject 100 to the subject 101 at time t3 and the transition from the subject 101 to the subject 102 at time t6 are set as transition events.
- step S207 one of the transition events is selected for processing.
- step S208 the visual field transition path in the transition event is determined by the path determination process. That is, in step S208, the visual field transition path is determined by performing processes such as the path selection processes I to V described above.
- step S209 it is confirmed whether or not the visual field transition path determination has been completed for all the transition events. If not, the unprocessed transition event is selected in step S207, and the visual field transition path determination is performed in the same manner.
- the process proceeds from step S209 to S210, and the visual field transition of each transition event is stored.
- step S205 and the storage in step S210 may be stored in the storage device 3 by the storage control unit 17, or may be stored in the RAM 53 and the storage unit 59 of FIG. Further, the visual field transition path information stored in step S210 may be added to the image data as metadata and stored. By doing so, at the time of reproduction, the reproduction apparatus can recognize the visual field transition path already determined for each transition event by the metadata, and appropriate transition display can be performed.
- FIG. 20A shows the subjects 100, 101, and 102 with the spherical surface opened in a plane.
- interpolation between two points is performed between the subjects 100 and 101 and between the subjects 101 and 102.
- discontinuous line-of-sight direction changes occur at the joints surrounded by the broken lines.
- the user may feel an unnatural image transition.
- control points P are added at equal intervals on the interpolation curve obtained by the interpolation between the two points described above.
- the control point P that divides the interpolation curve into four is shown.
- a spline curve that passes through all the control points P and the position of the subject 100, 101, 102 in the line of sight direction is obtained.
- FIG. 20C shows the spline curve SC.
- this is possible by performing two-dimensional interpolation on a celestial sphere image in a coordinate system opened on a plane.
- the information processing apparatus 1 (display data generation unit 14) generates display data for displaying a presence presentation image that presents a display candidate image existing in the entire image HP together with an image cut out as the output target region 90.
- the path generation unit 12 sets the output target area 90 being displayed as the transition source, identifies the transition destination based on the input information, and This is an example of determining a transition path. For example, the candidate area to be cut out as the output target area 90 is presented to the user, and the transition to that area is presented. And when a user selects, it changes to the selected area
- FIG. 21A shows a display example including a presence presentation image for presenting a display candidate image.
- An output target area 90 including a certain person (person on a motorcycle) in the entire image HP is cut out and displayed.
- the thumbnail image 80 of the display candidate image is superimposed and displayed as a presence presentation image.
- the display candidate image is a specific subject detected by the object detection unit 11 such as a person. Alternatively, it may be a subject related to a user's designated operation or a subject indicated by metadata added to the image data being reproduced.
- the display candidate image is presented to the user as the presence presentation image.
- the display visual field transition can be performed by designating the thumbnail image 80 as the presence presentation image. For example, by selecting one of the three thumbnail images 80 in FIG.
- the region of the subject as a display candidate image related to the designated thumbnail image 80 is set as the transition destination, and the current subject output target Transition from the area 90 to the output target area 90 of the subject of the transition destination is performed.
- the transition destination of the current subject from the output target area 90 is specified, it is also conceivable to specify the transition source by selecting the thumbnail image 80.
- the current subject is just an image for designating the transition source and the transition destination.
- both the transition source and the transition destination are designated by the thumbnail image 80, or only the transition source is designated (for example, the current image is the transition destination). In the following examples, it is conceivable to specify the transition source.
- FIG. 21B is an example of presenting a thumbnail image 80 as a presence presentation image on the time axis of a moving image.
- a track bar 81 is displayed on the display of the current output target area 90.
- a thumbnail image 80 about the subject (display candidate image) present in the frame of the time code corresponding to the position is displayed.
- the pointing method to the track bar 81 is not limited to using the mouse, but may be a tap operation on the screen or may be made to recognize the position of the hand in virtual reality (VR) or the like.
- VR virtual reality
- the region of the subject as the display candidate image for the designated thumbnail image 80 is set as the transition destination, and the current subject Transition of the output target area 90 from the area is performed.
- the output target area 90 is the output target area 90 of the frame at the time point specified by the track bar 81.
- the transition in the time axis direction may be performed simultaneously or sequentially with the positional transition, or a subject as a designated display candidate image appears.
- transition may be made in time and position to a corresponding area of the frame.
- FIG. 22A is an example in which an arrow mark 83 as a presence presentation image is superimposed on the display of the output target area 90.
- This arrow mark 83 indicates that a subject as a display candidate image exists in the direction of the arrow in the omnidirectional image.
- the information processing apparatus 1 displays the display candidate existing in the direction indicated by the arrow mark 83 A thumbnail image 80 of the subject as an image is displayed.
- the information processing apparatus 1 sets the region of the subject as the display candidate image related to the designated thumbnail image 80 as the transition destination, and sets the current subject.
- the transition of the output target area 90 from the area is executed. In the case of this example, since the thumbnail image 80 is not always displayed, the screen is not complicated.
- FIG. 23A is an example in which a radar image 70 is presented as a presence presentation image.
- the radar image 70 is, for example, a circular shape of an image obtained by cutting a sphere, and a mark 71 indicating a subject in the output target area 90 currently being displayed is displayed immediately above. That is, the position of the person on the motorcycle is shown within a 360 degree range.
- the radar image 70 indicates the positions of the subject as other display candidate images of the current frame by marks 72, 73, and 74, respectively.
- the information processing apparatus 1 displays a thumbnail image 80 of the subject as a display candidate image indicated by the mark 72.
- the information processing apparatus 1 sets the region of the subject as the display candidate image related to the designated thumbnail image 80 as the transition destination, and sets the current subject.
- the transition of the output target area 90 from the area is executed. Also in this example, since the thumbnail image 80 is not always displayed, the screen is not complicated.
- FIG. 24 shows a processing example of the information processing apparatus 1 related to the display of the presence presentation image and the visual field transition specified by the user.
- the process in FIG. 24 is a process executed by the information processing apparatus 1 using each function in FIG. 5A.
- step S301 the information processing apparatus 1 starts supplying display data of the output target area 90 in which the presence presentation image is superimposed on the display device 6 and starts display output on the display device 6. For example, the display as shown in FIG. 22A or FIG. 23A is started.
- the information processing apparatus 1 monitors user operations and the like by the function of the input information acquisition unit 15. For example, when a thumbnail request operation such as designation of the arrow mark 83 in FIG. 22B or designation of the mark 72 in FIG. 23B is detected, the information processing apparatus 1 proceeds to step S310 and starts displaying the corresponding thumbnail image 80. . Thereafter, when the thumbnail request operation is completed, the information processing apparatus 1 proceeds from step S303 to S311 and ends the display of the thumbnail image 80. For example, the thumbnail image 80 is displayed as shown in FIGS. 22B and 23B, and the user moves the position of the pointer 82 to another position without performing the designation operation of the thumbnail image 80. .
- step S312 for example, in one of the above path determination processes I to V, a visual field transition path determination for transitioning from the current output target area 90 to the output target area 90 of the subject specified by the thumbnail image 80 is performed. I do.
- step S313 the information processing apparatus 1 sequentially outputs display data of the output target area 90 in which the cutout area is moved while performing interpolation in the visual field direction in the determined path. The visual field transition is executed. When it is determined in step S314 that the transition is completed, the transition process is finished.
- the information processing apparatus 1 proceeds from step S305 to S315, ends the display output, and continues. Finish the process.
- the output target area 90 that is a part of the entire image HP can be displayed by the presence presentation image in a state in which the presence of other display candidate images is clearly indicated to the user.
- the above processing example assumes the cases of FIGS. 22 and 23. However, when the thumbnail image 80 is initially displayed as the presence presentation image as shown in FIG. 21A, steps S302, S303, S310, and S311 of FIG. Is no longer necessary.
- the track bar 81 is displayed as shown in FIG. 21B, the time code designation on the track bar 81 is the thumbnail request operation in step S302, and the end of the time code designation on the track bar 81 is the thumbnail request in step S303. Think of it as the end.
- the information processing apparatus 1 transitions from the output target area 90 that is a partial area of the entire image HP that is an image having a continuous field of view of 360 degrees in at least one direction to the transition source output target area 90.
- a specifying unit 21 that specifies the previous output target region 90 and a visual field transition path determination unit 22 that automatically determines a visual field transition path from the transition source output target region 90 to the transition target output target region 90 are provided.
- Yes Assuming the transition source and the transition destination in the entire 360-degree continuous image for the transition of the output target area 90 simulating the viewer's viewpoint movement, the transition target output target area is displayed as a continuous image from the transition source output target area.
- Various visual field transition paths can be considered.
- a smooth visual transition can be provided to the viewer on a display simulating viewpoint movement as a transition from the transition source to the transition destination.
- the path generation unit 12 (the visual field transition path determination unit 22) is unidirectional from the transition-source output target region 90 in the entire image HP toward the transition-target output target region 90.
- One of the candidate path (for example, path PT1) that travels in the reverse direction and the candidate path (for example, path PT2) that travels in the opposite direction to one direction is determined as the visual field transition path. Assuming the transition source and transition destination in the entire image that continues 360 degrees for the transition of the output target region, a plurality of paths that transition from the transition source to the transition destination are assumed.
- the transition from the transition source to the transition destination is opposite to one direction on the 360-degree circumference of the whole image.
- the direction is considered.
- One of these is automatically selected. Therefore, among the candidate paths that travel in one direction and the candidate paths that travel in the opposite direction, for example, a visually desirable path is automatically determined as the visual field transition path.
- a visually desirable path is automatically determined as the visual field transition path.
- a movement distance indicating a movement distance from the transition source output target area to the transition destination output target area on the entire image for each of a plurality of candidate paths Information (D1, D2) is used to determine the visual field transition path. For example, by selecting a path with a shorter moving distance, it is possible to efficiently present viewpoint movement from the transition source to the transition destination. A smooth transition that is not redundant in view can be realized. For example, there are cases where the user's visual comfort can be realized by using the moving distance information for determining the visual field transition path.
- the moving direction of the subject 100 existing in the output source area 90 at the transition source in the entire image HP during the moving image is shown.
- the moving direction information is used to determine the visual field transition path. That is, when a person or other moving body that is the subject 100 in the output target area 90 of the transition is moving in a certain direction on the moving image, the moving direction is set as an element for determining the visual field transition path. To do.
- the movement of the transition source subject 100 affects the viewer's viewpoint. Therefore, when the viewpoint is moved from the transition source to the transition destination, the visual field transition path at the time of transition is determined in consideration of the moving direction of the subject 100 of the transition source that has been viewed so far. Can be given.
- the moving direction information indicating the moving direction of the subject 101 existing in the output target area 90 at the transition destination in the entire image HP as the moving image progresses Used to determine the visual field transition path. That is, when a person or other moving body that is the subject 101 in the output target area 90 at the transition destination is moving in a certain direction on the moving image, the moving direction is used as an element for determining the visual field transition path. To do. The fact that the movement of the subject affects the viewpoint of the viewer can also be said for the subject 101 at the transition destination. When the viewpoint is moved from the transition source to the transition destination, the visual field transition path at the time of transition is determined in consideration of the moving direction of the transition destination subject 101 appearing by the transition, so that the viewer can have a smooth viewpoint movement feeling. Can be given.
- Movement speed information (Vs, Ve) indicating the movement speed is used to determine the visual field transition path. That is, when one or both of the transition source and transition destination images (person or other moving body that is the subject) is moving on the moving image, the moving speed is used as one element for determining the visual field transition path.
- the movement of the subjects 100 and 101 affects the movement of the viewer's viewpoint, but the influence on the viewpoint differs depending on the particularly fast movement and slow movement. Therefore, by determining the visual field transition path at the time of transition in consideration of the moving speed of the subjects 100 and 101, it is possible to realize a transition that gives the viewer a smooth sense of viewpoint movement.
- subject position information indicating the position of the subject 101 existing in the output target area 90 that is the transition destination in the frame after the required transition time has elapsed is used to determine the visual field transition path.
- the transition time is required for continuous transition (viewpoint movement) from the transition source to the transition destination.
- viewpoint movement continuous transition
- the visual field transition path is determined in consideration of the subject position of the transition destination when the required transition time has elapsed. Accordingly, it is possible to realize a transition that gives the viewer a smooth viewpoint movement feeling assuming the movement of the subject 101 as the transition destination.
- the information processing apparatus 1 is a transition setting that represents a list of a plurality of subject areas that are partial areas included in the movie and indicate the positions of the plurality of subjects in the movie for the entire image HP as a movie. Present the image to the user. Then, the information processing apparatus 1 (path generation unit 12) specifies the transition source output target area 90 and the transition destination output target area 90 based on the selection instruction by the user (see FIG. 19). That is, the user who is the viewer of the image displays a list of positions at each time point for each subject in the entire image, and can select, for example, the subject on the transition setting image as the list.
- the viewpoint movement by moving the output target area in accordance with the moving image progression, that is, the viewpoint movement, it is possible to present the subject that the user wants to see while moving the viewpoint. In this case, it is possible to give a smooth and natural viewpoint movement feeling to the user by appropriately determining the visual field transition path at the time of transition between subjects (viewpoint movement).
- the transition setting image it is possible for the user to set the viewing angle while viewing the whole celestial sphere image, and it is easy to set the viewing path in consideration of the subject's positional relationship and time. become.
- the information processing apparatus 1 presents a display image (80, 80) that presents a display candidate image existing in a still image or a moving image as the entire image HP together with an image of a partial region that is the output target region 90 in the entire image HP. 81, 83, 70, etc.) is provided. Further, the information processing apparatus 1 includes an input information acquisition unit 15 that acquires input information that designates a display candidate image, which is performed for display based on display data.
- the path generation unit 12 presents a display candidate image present in a still image or a moving image as the entire image together with an image of a partial region that is an output target region in the entire image.
- the transition destination output target region 90 or the transition source output target region 90 is specified (step in FIG. 24). S312). That is, on the displayed image, the presence of another display candidate subject is presented as a presence presentation image. Then, when the user performs an operation of selecting a certain display candidate image by an operation on the presence-presented image or the like, an image display that moves the viewpoint to an area including the display candidate image is realized.
- the subject as the display candidate image has various sizes. In the embodiment, this is presented as a thumbnail image 80 of the same size. Thereby, each display candidate can be confirmed equally and a user's free selection can be promoted. In addition, display candidates are not presented as an unnecessarily large image, and the current image of the output target area 90 can be avoided as much as possible.
- the thumbnail image 80 of the display candidate image is used as an existing presentation image, and one or a plurality of thumbnail images 80 are displayed together with the image of the current output target area 90 (see FIGS. 21 to 23). That is, the existing display candidate image is presented as a thumbnail image 80 of uniform size, for example, by superimposing it on a part of the current output target area.
- the user can easily recognize that there are other images to be noted and the contents of the images, and for example, an operation for obtaining viewpoint movement can be easily understood.
- the presence presentation image is displayed at a position corresponding to the positional relationship of the display candidate image indicated by the presence presentation image with respect to the current output target area 90;
- An example was given (see FIGS. 22 and 23).
- the presence presentation image for the display candidate image existing above the screen relative to the current output target area 90 is presented above the current screen as indicated by an arrow mark 83 in FIG.
- the presence presentation image for the display candidate image present on the right side of the screen with respect to the current output target area 90 is also presented on the right side of the current screen as indicated by the arrow mark 83.
- the display candidate image on the right side can continuously transition from the left side. Therefore, it is appropriate for the positional relationship to indicate the closer one of the right side and the left side. Further, by displaying the thumbnail image 80 in accordance with the designation of the arrow mark 83, the user can easily determine the subject existing at the position, and the desired visual field transition can be easily selected. Furthermore, since the thumbnail image 80 is not always displayed, the screen is not complicated and a comfortable viewing environment can be provided.
- the thumbnail image 80 as the presence presentation image corresponds to the time axis position (position on the track bar 81) of the moving image content of the display candidate image corresponding to the presence presentation image.
- the example which made it display was given.
- the existence status of each display candidate image also varies in the time axis direction. Therefore, the existence of the display candidate image can be confirmed on the time axis. This makes it easier for the user to recognize the presence of each display candidate image on the time axis.
- the display data generation unit may generate display data including a presence presentation image indicating a positional relationship between a display candidate image and a current output target region. For example, an image showing the relative position of each display candidate image with respect to the current output target area 90 by the marks 71, 72, 73, 74 on the radar image 70 of FIG.
- a presence presentation image indicating a positional relationship between a display candidate image and a current output target region. For example, an image showing the relative position of each display candidate image with respect to the current output target area 90 by the marks 71, 72, 73, 74 on the radar image 70 of FIG.
- thumbnail image 80 by displaying the thumbnail image 80 in accordance with the designation of the marks 72, 73, 74, etc., the user can easily discriminate the subject existing at the position, and the desired visual field transition can be easily selected. Furthermore, since the thumbnail image 80 is not always displayed, the screen is not complicated and a comfortable viewing environment can be provided.
- the program according to the embodiment includes a transition source output target area 90 and a transition destination output among the output target areas 90 that are partial areas of the entire image HP that is an image having a continuous field of view of 360 degrees in at least one direction.
- the information processing apparatus execute a specific procedure for identifying the target region 90 and a visual field transition path determination procedure for automatically determining a visual field transition path from the transition source output target region 90 to the transition destination output target region 90.
- It is a program.
- it is a program that causes an information processing device (such as a microcomputer or a DSP (Digital Signal Processor)) to execute the processes of FIGS. 13A, 13B, 14A, 14B, 15, 19, and 24.
- an information processing device such as a microcomputer or a DSP (Digital Signal Processor)
- Such a program can be recorded in various recording media. Further, the program can be recorded in advance in an HDD as a recording medium built in a device such as a computer device or a ROM in a microcomputer having a CPU. Alternatively, it can be temporarily or permanently recorded on a removable recording medium such as a semiconductor memory, a memory card, an optical disk, a magneto-optical disk, or a magnetic disk. Moreover, such a removable recording medium can be provided as so-called package software. Such a program can be downloaded from a removable recording medium to a personal computer or the like, or downloaded from a download site via a network such as a LAN or the Internet.
- a network such as a LAN or the Internet.
- the present technology is not limited to the examples of the embodiments and the modifications mentioned in the description of the embodiments, and various modifications can be assumed.
- the visual field transition path information determined by the transition path determination process is used for display control at that time, stored in correspondence with the image data, or added to the image data as metadata for later playback. It is conceivable that it can be used. Also, transmission of visual field transition path determination information to an external device is assumed.
- the candidate path is calculated and then one is selected.
- the final visual field transition path is directly determined without performing calculation as a candidate path. Also good. For example, when the visual field transition path is determined using the moving direction of the subject, the final visual field transition path can be determined according to the moving direction of the subject without performing a process of obtaining a plurality of candidate paths.
- the information processing apparatus 1 does not have to be composed of a single device.
- a part of the functions of the information processing apparatus 1 according to the embodiment may be performed by another information processing apparatus connected to the system, or may be performed by an external information processing apparatus by so-called cloud computing.
- this technique can also take the following structures.
- a specifying unit that specifies a transition source output target region and a transition destination output target region as an output target region that is a partial region of an entire image that is an image having a continuous field of view of 360 degrees in at least one direction;
- a visual field transition path determination unit that automatically determines a visual field transition path from the transition source output target area to the transition destination output target area.
- the visual field transition path determination unit is one of a candidate path that travels in one direction from the transition source output target area toward the transition destination output target area, and a candidate path that travels in a direction opposite to the one direction. Is determined as the visual field transition path.
- the visual field transition path determination unit uses movement distance information indicating a movement distance from the transition source output target area to the transition destination output target area for each of a plurality of candidate paths for determining the visual field transition path.
- the information processing apparatus according to (1) or (2).
- the entire image is a movie, The visual field transition path determination unit uses movement direction information indicating a movement direction of the subject existing in the transition source output target area in the entire image during the progress of the moving image for determining the visual field transition path.
- the information processing apparatus according to any one of (1) to (3) above.
- the entire image is a moving image,
- the visual field transition path determination unit uses movement direction information indicating the movement direction of the subject existing in the transition destination output target area in the entire image during the progress of the moving image for determining the visual field transition path.
- the information processing apparatus according to any one of (1) to (4).
- the whole image is a moving image
- the visual field transition path determination unit is a moving speed indicating a moving speed of the subject existing in the transition destination output target region or the subject existing in the transition source output target region in the entire image during the progress of the moving image.
- the information processing apparatus according to any one of (1) to (5), wherein information is used for determining the visual field transition path.
- the entire image is a movie
- the visual field transition path determination unit uses the subject position information indicating the position of the subject existing in the transition destination output target region in the frame after the transition required time has elapsed for the determination of the visual field transition path. ).
- the entire image is a movie,
- the specific part is:
- the transition source output based on a user's selection instruction for a transition setting image that is a partial area included in the moving image and that represents a plurality of subject areas indicating the positions of the plurality of subjects in the moving image, respectively.
- the information processing apparatus according to any one of (1) to (7), wherein a target area and the transition destination output target area are identified.
- the specific unit includes: For display based on display data including an image of a partial area that is an output target area in the entire image and a presenting presentation image that presents a display candidate image existing in the still image or moving image as the entire image.
- the information processing apparatus according to any one of (1) to (8), wherein the transition destination output target area or the transition source output target area is specified based on a user operation that specifies a display candidate image performed .
- the presence presentation image is a thumbnail image of the display candidate image.
- the information processing apparatus according to (9), wherein the display data includes an image of a current output target area and a thumbnail image of the display candidate image.
- the information processing apparatus according to (9) or (10), wherein the presence presentation image is arranged at a position corresponding to a positional relationship of the display candidate image indicated by the presence presentation image with respect to the image of the partial area. apparatus.
- the display data corresponds to the display candidate image existing at the specified time axis position corresponding to the time axis position specified in the image of the partial area set as the output target area.
- the information processing apparatus according to any one of (9) to (11), including an image.
- the display data includes a presence presentation image that indicates a positional relationship between a display candidate image and an image of the partial area that is the output target area, according to any one of (9) to (12).
- Information processing device is arranged at a position corresponding to a positional relationship of the display candidate image indicated by the presence presentation image with respect to the image of the partial area. apparatus.
- the display data corresponds to the display candidate image existing at the specified time axis position corresponding to the time axis position specified in the image of the partial area set as the output
- a specifying procedure for specifying a transition source output target region and a transition destination output target region among output target regions that are partial regions of an entire image that is an image having a continuous field of view of 360 degrees in at least one direction; , A visual field transition path determination procedure for automatically determining a visual field transition path from the transition source output target area to the transition destination output target area; For causing an information processing apparatus to execute the program
- SYMBOLS 1 Information processing apparatus 1, 2 ... Imaging device, 3 ... Memory
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Studio Devices (AREA)
- Controls And Circuits For Display Device (AREA)
- Image Processing (AREA)
Abstract
Description
これらの360度の連続する視野を有する画像を表示装置に表示させる場合において、その全体画像の一部を出力対象領域として切り出して表示することが行われる。
そこで本技術は、出力対象領域を遷移させる際にも、視聴者にとって快適で見やすく、不自然とならない画像を提供できるようにすることを目的とする。
視聴者の視点移動を模した出力対象領域(全体画像から切り出して表示対象とする領域)の遷移について、360度連続する全体画像における遷移元と遷移先を想定すると、遷移元出力対象領域から連続する画像として遷移先出力対象領域に至る視野遷移パスは多様に考えられるため、その視野遷移パスを自動決定する。
なお全体画像とは、全天球画像、半天球画像、360度パノラマ画像など、少なくとも360度連続する部分が存在する画像である。換言すると、360度の視野を有する画像である。
出力対象領域の遷移について、360度連続する全体画像における遷移元と遷移先を想定すると、遷移元から連続する画像として遷移先に遷移するパスは複数想定される。特に360度連続する全体画像内での遷移元と遷移先の位置関係を考えると、遷移元から遷移先への遷移(視点移動)は、その全体画像の360度円周上の一方向と逆方向とが考えられる。これらの一方を自動的に選択するものとする。そこで一方向に進行する候補パスと、その逆方向に進行する候補パスのうちで、例えば視認上望ましいパスを視野遷移パスに自動決定する。
例えば移動距離が短い方の候補パスを視野遷移パスとして選択する。
即ち遷移元出力対象領域において被写体となっている人物その他の移動体が、動画上で或る方向に移動している場合、その移動方向を、視野遷移パス決定のための一要素とする。
即ち遷移先出力対象領域において被写体となっている人物その他の移動体が、動画上で或る方向に移動している場合、その移動方向を、視野遷移パス決定のための一要素とする。
即ち遷移元、遷移先の各画像(被写体となっている人物その他の移動体)の一方又は両方が動画上で移動している場合、その移動速度を、視野遷移パス決定のための一要素とする。
遷移元から遷移先への連続的な遷移(視点移動)には、その遷移時間を要する。遷移先の被写体に動きがある場合、遷移所要時間後における当該被写体の全体画像内での位置は、遷移開始時点のフレームでの位置とは異なることが想定される。そこで遷移所要時間を経過したときの遷移先の被写体位置を考慮して視野遷移パス決定を行う。
画像の視認者であるユーザに対して、全体画像内での各被写体について、各時点での位置を一覧表示させ、当該一覧としての遷移設定画像上で例えば被写体を選択できるようにする。これにより動画進行に応じた出力対象領域の移動、即ち視点移動を行うことで、ユーザが見たい被写体を視点移動しながら提示することを可能とする。
表示している画像上で、他の表示候補の被写体の存在を、存在提示画像として提示する。そしてユーザが、存在提示画像に対する操作等により或る表示候補画像を選択する操作を行うことで、その表示候補画像が含まれる領域に視点移動するような画像表示を実現する。
つまり存在する表示候補画像を、たとえば均一サイズのサムネイル画像として、現在の出力対象領域の一部に重畳させるなどの手法で、存在提示する。
例えば現在の出力対象領域に対して画面上の上方に存在する表示候補画像についての存在提示画像は、現在の画面上の上方に提示する。現在の出力対象領域に対して画面上の右方に存在する表示候補画像についての存在提示画像は、現在の画面上の右方に提示する。
動画コンテンツの場合、各表示候補画像は、時間軸方向においても存在状況が変動する。そこで時間軸上で、表示候補画像の存在が確認できるようにする。
例えば現在の出力対象領域に対する各表示候補画像の相対位置を示すような画像を存在提示画像とする。
これにより情報処理装置が視野遷移パスの自動決定を行うようにする。
本技術に係るプログラムは、以上の特定手順と視野遷移パス決定手順を情報処理装置に実行させるプログラムである。これにより視野遷移パスの自動決定を行うことのできる情報処理装置を実現する。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
<1.実施の形態の処理対象の画像>
<2.情報処理装置の構成>
<3.出力対象領域の遷移処理>
<4.遷移設定画像を用いた処理>
<5.存在提示画像を用いた処理>
<6.まとめ及び変形例>
まず本実施の形態の情報処理装置が処理の対象とする画像について説明する。処理対象とする画像は、少なくとも一方向に360度の連続する視野を有する画像である。換言すると360度の視野を有する画像である。一方向とは、直線的な方向である。球面上の方向としての直線(三次元における球面で生ずる湾曲は無視した場合の直線)も含む。
このような画像の具体例としては、図1Aの半天球画像、図1Bの全天球画像、図1Cの360度パノラマ画像などがある。
位置P0において、例えば撮像装置の魚眼レンズ等の広角レンズを真上に向けて撮像を行うと、図1Aのように、一点鎖線で示す光軸L1と天頂が交わる半天球状の範囲の静止画や動画を得ることができる。すなわち、水平方向に360度、垂直方向に180度の画角を有する半天球画像である。
このような静止画や動画が、水平方向に360度、垂直方向に360度の画角を有する全天球画像である。
なお、ここでは水平方向の画角の例を挙げたが、垂直方向に360度の画角を有する360度パノラマ画像も想定される。
以下、図1Bの全天球画像を例に用いて実施の形態の説明を行っていくが、説明する処理は半天球画像や360度パノラマ画像を処理対象としても適用できるものである。
この全体画像HPにおける一部の領域を切り出して出力対象領域90とする。実線で示す出力対象領域90は、位置P0に居る視認者が視線方向E1で視認する画像となる。例えばこのような或る視線方向における一部の領域を出力対象領域90として、表示装置で表示させる。
なお、ここでは表示用に領域を切り出す例を説明しているが、表示用に限らず、編集済みのコンテンツを作成する目的で、一部の領域を切り出して編集したり記録することも想定される。そのような場合でも後述する本実施の形態の処理、特に遷移パスの決定に関する処理は適用できる。
このように出力対象領域90は、全体画像HPのうちで任意の領域として選択できる。従って、静止画の場合は、ユーザの操作によって出力対象領域90を変更したり、情報処理装置が自動的に出力対象領域90を変更することができる。
また動画の場合、ユーザ操作や自動制御によって出力対象領域90を選択したり、動画の進行に応じて出力対象領域90を変更していくようなことも可能である。
図示しないが、出力対象領域90のサイズ、アスペクト比なども、ユーザ操作に応じて、或いは自動制御により、設定したり変更したりすることができる。
例えば全体画像HPの中に人物Aと人物Bが被写体として含まれているときに、最初に人物Aが含まれている領域を出力対象領域90として切り出して表示装置で表示させ、その後、出力対象領域90を人物Bが含まれている領域に変更してとして切り出しを行って表示装置で表示させる等の処理となる。
図2Bに被写体100、101を示している。出力対象領域90を被写体100を含む領域から被写体101を含む領域に遷移させる場合、いきなり表示画面を切り替えることは不自然である場合が多い。そこで被写体100を含む領域から被写体101を含む領域に至まで、徐々に表示される領域が変化していくようにする。
全天球画像の場合、このような遷移の際の視野遷移パスとして、直線(この場合も、上述のように球面としての湾曲は無視する)を考えると、パスPT1,PT2が想定される。
本実施の形態の情報処理装置は、このように複数のパス(候補パス)のうちで、視認者にとって快適な遷移を実現できるように、視野遷移パス決定を行う。例えばパスPT1,PT2のうちで一方を視野遷移パスとして選択する。
本実施の形態の情報処理装置は、撮像装置、画像表示装置、画像編集装置、表示制御装置等の機器に内蔵されたり、或いはコンピュータ装置等により実現される。
図3は実施の形態の情報処理装置1とその周辺の構成として撮像装置2,記憶装置3,通信装置4,操作装置5,表示装置6を示している。
情報処理装置1は、周辺各部の機器として示す撮像装置2,記憶装置3,通信装置4,操作装置5,表示装置6の全部又は一部とともに一体の機器として構成される場合がある。例えばカメラ、モニタディスプレイ装置、テレビジョン装置、画像編集装置、コンピュータ装置、端末装置などとして一体化される場合がある。
また情報処理装置1は、図示する周辺機器とは別体の機器とされ、有線又は無線の通信路により各周辺機器と互いに通信を行う構成とされる場合もある。
例えば撮像装置2は、カバーレンズ、ズームレンズ、フォーカスレンズ等のレンズや絞り機構を備えた光学系により、被写体からの光を、CMOS(Complementary Metal OxideSemiconductor)型、CCD(Charge Coupled Device)型などの撮像素子に集光する。
撮像装置2は、360度の連続する視野を有する画像を撮像するために、光学系において広角レンズを有していることが想定される。例えば魚眼レンズ、360度レンズを備えることが想定される。また撮像装置2が全方位撮像光学系、全周囲撮像光学系を備えていたり、或いは着脱式の全方位撮像光学系、全周囲撮像光学系を有するアダプタを取り付けられる構成とされていてもよい。全方位撮像光学系、全周囲撮像光学系としては周囲反射ミラーを用いたものや、PALレンズ(Panoramic Annular Lens:パノラマ環状レンズ)を用いたものなどが考えられる。
そして撮像装置2では、これらの光学系によって撮像素子に集光された被写体光についての、撮像素子での光電変換で得た電気信号に対し、例えばCDS(Correlated Double Sampling)処理、AGC(Automatic Gain Control)処理などを実行し、さらにA/D(Analog/Digital)変換処理を行う。そしてデジタルデータとしての撮像信号について、R,G,Bの黒レベルを所定のレベルにクランプするクランプ処理や、R,G,Bの色チャンネル間の補正処理、R,G,Bの画像データから、輝度(Y)信号および色(C)信号を生成(分離)する処理を行う。また、これらの各種の信号処理が施された画像データに対して解像度変換処理や、例えば記録用や通信用の符号化処理を行う。
そして撮像装置2は、符号化処理により生成された画像データや、或いは符号化前の画像データ(いわゆるRAW画像データ)を情報処理装置1に出力する。
記憶装置3は、記憶媒体として例えば不揮発性メモリを用い、静止画データや動画データ等の画像ファイルや、画像ファイルの属性情報、サムネイル画像等を記憶する。
画像ファイルは、例えばJPEG(Joint Photographic Experts Group)、TIFF(Tagged Image File Format)、GIF(Graphics Interchange Format)、MPEG(Moving Picture Experts Group)-2、MPEG-4、AVI(Audio Video Interleave)、AVCHD(登録商標:Advanced Video Codec High Definition)等の形式で記憶される。
また記憶装置3は、静止画データや動画データとしてRAW画像データを記録する場合もある。
記憶装置3の実際の形態は多様に考えられる。例えば記憶装置3は、フラッシュメモリを記憶媒体として用いた記憶装置でもよいし、情報処理装置1を備えた機器に着脱できるメモリカード(例えば可搬型のフラッシュメモリ)と該メモリカードに対して記録再生アクセスを行うカード記録再生部による形態でもよい。また記憶装置3はHDD(Hard Disk Drive)などとして実現されることもある。もちろん光ディスク、光磁気ディスク、ホログラムメモリ媒体、磁気テープ、光テープ、体積記録媒体など、各種の記憶媒体に対応する記録再生部としてもよい。
通信装置4は、例えばWIFI(Wireless Fidelity)やブルートゥース等の無線通信規格等の通信方式による通信を行うことが考えられる。
また通信装置4は、ネットワーク通信部として、例えばインターネット、ホームネットワーク、LAN(Local Area Network)等の各種のネットワークによる通信を行い、ネットワーク上のサーバ、端末等との間で各種データ送受信を行うようにしてもよい。
この操作装置5としては、例えば機器の筐体上に設けられた各種操作子や、タッチパッド、表示部34に形成されたタッチパネルなどとして実現される。
またタッチパネルと表示装置6に表示させるアイコンやメニュー等を用いたタッチパネル操作により、各種の操作が可能とされてもよい。
或いはタッチパッド等によりユーザのタップ操作を検出する形態もある。
また周辺画像認識により、ユーザのいわゆるジェスチャ操作を認識したり、音声入力機能を備えて音声操作を認識するようにしてもよい。
また表示装置6は、情報処理装置1によって例えば全天球画像から切り出された出力対象領域90の画像データの供給を受け、動画や静止画の表示を行う。また表示装置6は、情報処理装置1の指示に基づいて、各種操作メニュー、アイコン、メッセージ等、即ちGUI(Graphical User Interface)としての表示を画面上に実行させる。
撮像装置2,記憶装置3,通信装置4,操作装置5,表示装置6等の周辺各部の全部又は一部と一体の機器とされる場合、情報処理装置1は制御部として機能し、プログラムに基づき、動作状態やユーザ操作等に応じて周辺各部の動作制御を行う。
情報処理装置1は、周辺各部と別体機器とされる場合は、周辺各部の機器との間で画像データや制御データの通信等を行う。
本実施の形態では、情報処理装置1は、全天球画像等の360度の視野を有する画像についての出力対象領域90の視野遷移パスを決定する処理を少なくとも行う。
情報処理装置1は、撮像装置2で撮像された画像データ、記憶装置3で記憶媒体から読み出された画像データ、或いは外部機器から送信されて通信装置4により受信された画像データを対象として、出力対象領域90の視野遷移パス決定処理を行うことができる。
また情報処理装置1は、表示装置6で表示させている画像について、視野遷移パス決定処理で決定した視野遷移パスに沿って、出力対象領域90の遷移を行う表示制御を行うことができる。
また情報処理装置1は視野遷移パス決定処理で決定した視野遷移パスの情報を、画像データに対応させて記憶装置3により記憶媒体に記憶させることができる。
また情報処理装置1は視野遷移パス決定処理で決定した視野遷移パスの情報を、画像データに付加して(例えばメタデータとして付加して)、通信装置4により外部機器に送信させることができる。
情報処理装置1のCPU51は、ROM52に記憶されているプログラム、または記憶部59からRAM53にロードされたプログラムに従って各種の処理を実行する。RAM53にはまた、CPU51が各種の処理を実行する上において必要なデータなども適宜記憶される。
CPU51、ROM52、およびRAM53は、バス54を介して相互に接続されている。このバス54にはまた、入出力インタフェース55も接続されている。
図3の表示装置6が情報処理装置1と一体機器の場合、ディスプレイ56は表示装置6を意味する。表示装置6が情報処理装置1とは別体機器の場合、ディスプレイ56はコンピュータ装置としてのディスプレイであり、オペレータに対するユーザインタフェースのための各種情報表示を行う。
図3の操作装置5が情報処理装置1と一体機器の場合、入力部57は操作装置5を意味する。操作装置5が情報処理装置1とは別体機器の場合、入力部57はコンピュータ装置においてオペレータが使用する入力デバイスを意味する。
通信部60は、インターネットを含むネットワークを介しての通信処理や、図3の周辺各部の機器との間の通信を行う。
そしてCPU51において当該プログラムが起動されることで、後述する各種処理を行うことができるようにされる。
なお、実施の形態の情報処理装置1は、図4のようなコンピュータ装置が単一で構成されることに限らず、複数のコンピュータ装置がシステム化されて構成されてもよい。複数のコンピュータ装置は、LAN等によりシステム化されていてもよいし、インターネット等を利用したVPN等により遠隔地に配置されたものでもよい。複数の情報処理装置には、クラウドコンピューティングサービスによって利用可能なコンピュータ装置などの情報処理装置が含まれてもよい。
なお、図5A、図5Bで説明する各機能は、情報処理装置1においてCPU51でプログラムに応じて実行される処理により実現される機能である。但し以下説明する全部又は一部の各構成の処理をハードウエアにより実現してもよい。
また各機能をソフトウエアで実現する場合に、各機能がそれぞれ独立したプログラムで実現される必要はない。1つのプログラムにより複数の機能の処理が実行されてもよいし、1つの機能が複数のプログラムモジュールの連携で実現されてもよい。
また各機能は複数のコンピュータ装置に分散されていてもよい。さらに機能の1つが、複数のコンピュータ装置によって実現されてもよい。各機能は別筐体で構成される複数のコンピュータ装置により実現されてもよい。
例えば画像データ取得部10は、撮像装置2から送信される画像データを受信する受信装置、インタフェース装置、入力バファリング装置であったり、記憶装置3で再生された画像データを受信する受信装置、インタフェース装置、入力バファリング装置であったり、通信装置4で受信した画像データを入力するインタフェース装置、入力バファリング装置等が想定される。
このような物体検知は、出力対象領域90となる切り出し領域の設定のために行う。例えば人の顔が写っている領域を出力対象領域90とするためなどである。
画像データ及び物体検知部11で検知された被写体の情報は、切り出し枠(出力対象領域90)の指定の情報として、パス生成部12、切り出し枠生成部13、表示データ生成部14の処理で用いられる。
なお、切り出し枠の指定情報は、物体検知部11から取得されるものに限らず、人手によってラベリングされたメタ情報や、撮像時に画像データに付与されたマーカー情報、顔検出や人検出などの他の画像処理を用いて取得された認識情報でもよい。
パス生成部12は、複数の切り出し枠(出力対象領域90)の指定情報から、全天球画像の特性を用いて、視野遷移パスを生成する。
このときにパス生成部12は、遷移元の出力対象領域90と遷移先の出力対象領域90の位置関係、移動方向、移動速度、指定領域の信頼性の情報等に基づいて視野遷移方向を決定するなどして視野遷移パスを決定する。
このためパス生成部12には、図5Bに示すように、特定部21と視野遷移パス決定部22を有する。
特定部は、取得した画像データとしての全体画像HPの一部領域である出力対象領域90について、遷移元の出力対象領域90と遷移先の出力対象領域90とを特定する処理を行う。
視野遷移パス決定部22は、遷移元の出力対象領域から遷移先の出力対象領域に至る視野遷移パスを決定する処理を行う。例えば図2Bで説明したパスPT1,PT2のうちから1つを選択して視野遷移パスと決定する。
パス生成部12の処理について、詳しくは後述する。
例えば物体検知部11で検出された特定の被写体を含む領域を切り出し枠とする。
また或る出力対象領域90から他の出力対象領域90に遷移する場合は、パス生成部12で決定された視野遷移パスに応じて、その遷移過程の各時点で出力対象領域90となる各切り出し枠の情報を生成する。
また表示データ生成部14は、切り出した出力対象領域90の画像に対して、各種画像(アイコン、サムネイル、その他の操作用の画像)等の重畳表示するための処理や、別途表示させるメニュー画像、操作用の画像の表示データ生成処理を行ってもよい。
また表示データ生成部14は、後述する遷移設定画像や存在提示画像等を含む表示データ生成処理を行ってもよい。
記憶制御部17は、表示データ生成部生成された表示データや、パス生成部12で決定された視野遷移パスの情報等を記憶装置3に記憶させる制御を行う。
通信制御部18は、表示データ生成部生成された表示データや、パス生成部12で決定された視野遷移パスの情報等を通信装置4から外部機器に送信させる制御を行う。
以上の情報処理装置1による出力対象領域90の遷移処理について説明する。
ここでは、全体画像HPのうちで異なる複数の切り出し領域の間を、全天球の球面上で移動する場合の処理として説明する。例えば図2Aにおいて視線方向E1の出力対象領域90から、視線方向E2の出力対象領域90に遷移させるために、図2BのようにパスPT1,PT2が考えられる状況において、一方を視野遷移パスとして決定する場合の例である。
図6Aは、全天球画像の全体画像HPを仮想的に長方形状で示したものである。なお図6Aの右端と左端は連続しているものとする。後述する図7A~図7F、図9A、図10A、図11Aも同様である。
図6Aにおいて、現在、被写体100を含む出力対象領域90を表示しているとする。このときに被写体101を含む切り出し枠が出力対象領域90となるように、出力対象領域90を遷移させることを想定する。
図7は出力対象領域90の遷移の様子を示している。図7Aの出力対象領域90は被写体100を含む画像領域である。表示装置6では、この出力対象領域90が表示され、ユーザ(視認者)は被写体100を視認している状態である。この状態から、図7Fに示すように、被写体101を含む切り出し領域が出力対象領域90となるようにする。つまりユーザが表示装置6で被写体101を視認できる状態である。
例えば図7Aの状態から図7Fの状態に瞬間的に切り換えることもできるが、ユーザに全天球画像であることによる表示効果を与えると共に、全天球画像内でのより自然な視認環境を与えるには、全体画像HP内で表示装置6で表示される領域を徐々に移動させて、被写体101に至るようにするとよい。これによりユーザは、自分が周囲を見渡すような感覚で、表示されるシーンの遷移を感じることができる。
そのため、図7Aの状態から、図7B→図7C→図7D→図7Eと徐々に出力対象領域90を遷移させ、最終的に図7Fの状態に至るようにする。このような経路を視野遷移パスと呼んでいる。
図8は球面上の2点間の補間のモデルを示している。被写体100の位置と被写体101の位置を2つの点として、その間を補間する。
視線方向Esは被写体100に対する遷移開始時点の視線方向である。視線方向Eeは被写体101に対する遷移終了時の視線方向である。
位置P0及び被写体100、101の位置を含むように球体を切断した平面を補間平面HHとする。補間平面HHは、遷移開始点、遷移終了点の視線方向のなす平面である。
また遷移開始時点の視線方向Esのベクトルa、遷移終了時の視線方向Eeのベクトルbを示している。
破線で示す補間する視線方向はベクトルdとする。
なお、ベクトルa,b,c,dについては、図面及び下記の数式ではベクトル記号“→”を付加している。
t=0~1とする。t=0は遷移開始点、t=1は遷移終了点での値である。
まず、ベクトルの外積を使って、
また遷移開始時の視線方向Esと遷移終了時の視線方向Eeのなす角θは次の通りである。
視野遷移を行う場合、遷移する距離に関わらず遷移時間を一定にすることや、或いは遷移速度を一定にすることが考えられる。さらには遷移開始時と遷移終了時間際はゆっくり移動するが、途中は早めに移動することなども考えられる。このような制御は制御パラメータtの選択により可能となる。
制御パラメータtの値を、一定の遷移時間内を所定回数に分割して設定すると、遷移時間が一定になり、つまり距離が近い遷移の場合はゆっくり、距離が遠い遷移の場合は速い移動となるような視野遷移が行われる。
さらに、遷移開始時と遷移終了時の視線方向の近く(つまり制御パラメータtについてt=0の近く及びt=1の近く)で、制御パラメータtの増加を緩やかにすると、遷移開始終了時は緩やかな移動というような遷移も設定できる。遷移の開始終了近辺で出力対象領域90の移動を緩やかにすると、ユーザにとって画像変化がより心地よいものとなると考えられている。
もちろん制御パラメータtの増加の設定により、移動速度の加速、減速も可能である。
図6Aの全体画像HPにおいて、被写体100を含む出力対象領域90から被写体101を含む出力対象領域90に至るように、出力対象領域90を遷移させるパスとしては、図示するパスPT1,PT2が想定される。
図6Bは、このパスPT1,PT2を球体の上方から見た様子として示している。即ち図8のベクトルc側の上方から補間平面HHを見た状態である。
この場合に、視線方向Esから視線方向Eeへの視点移動の距離が球面上で短くなるようにパスを決定する。つまりパスPT1,PT2の移動距離情報を取得し、短い方のパスPT2を視野遷移パスとして選択する。
ここで、全体画像HPは動画であり、被写体100は人物その他の移動体であって、例えば矢印M方向に移動しているとする。つまり動画のフレームの進行に伴って、被写体100の位置は矢印M方向に変化している。
なお、動画の場合、図7、図8で説明した補間により選択される、遷移過程の各時刻の出力対象領域90は、その各時刻に対応するフレームから切り出される領域である。つまりユーザ(視認者)は、動画シーン上で、徐々に視線方向が移動していく感覚で表示を見ることになる。
即ちこの例の場合、パスPT1はDR1方向の遷移、パスPT2はDR2方向の遷移であって、被写体100はDR1方向に動いているため、パスPT1を視野遷移パスとして選択する。これにより、ユーザが視線方向を矢印EsMに移動させて、当初、被写体100を目で追いながら、シーンが変化していくような遷移が行われる。
情報処理装置1は、例えば遷移開始時点の被写体100の位置を含む直交平面VH100を基準として、被写体100の動きがDR1方向かDR2方向かを判定すればよい。つまりDR1方向のベクトル成分を有するか、DR2方向のベクトル成分を有するかで判別すればよい。従って図示する方向M1,M2,M3のいずれの場合も、被写体100の動き方向はDR1方向とする。
換言すれば、方向M1,M2,M3等について、いずれの候補パスの方向(DR1,DR2)と共通のベクトル成分を有するかを判別すればよい。
この例の場合も全体画像HPは動画であり、被写体101は人物その他の移動体であって、例えば矢印M方向に移動しているとする。つまり動画のフレームの進行に伴って、被写体101の位置は矢印M方向に変化している。
この例の場合、パスPT1はDR1方向の遷移、パスPT2はDR2方向の遷移であって、被写体101はDR1方向に動いているため、パスPT1を視野遷移パスとして選択する。これにより、ユーザが視線方向Esから徐々に移動させていった後、最終的に被写体101を目で追いかけるようにして被写体101の出力対象領域90に至るような遷移が行われる。
その場合において、動き方向が互いに異なる場合、移動速度の速いほうの被写体に合わせて視野遷移パスを決定することが考えられる。
即ち情報処理装置1は、遷移元の出力対象領域90の被写体100の移動速度情報Vsを取得し、また遷移先の出力対象領域90の被写体101の移動速度情報Veを取得する。簡単には、連続するフレーム間、例えば遷移開始時のフレームと次のフレームでの被写体100の全体画像HP内での位置の差分(位置差分に相当する画素数又は距離)を移動速度情報Vsとし、同じく被写体101の位置差分を移動速度情報Veとすればよい。
もちろん実際の速度値を算出して移動速度情報Vs,Veとしてもよい。
そして移動速度情報Vs,Veを比較し、速い方を判断する。もし被写体100の方が速ければ、図9で説明したように、被写体100の動き方向に合わせてパスPT1,PT2のうちで視野遷移パスを選択する。被写体101の方が速ければ、図10で説明したように、被写体101の動き方向に合わせてパスPT1,PT2のうちで視野遷移パスを選択する。
図6Aと同じく、図11Aの全体画像HPにおいて、被写体100を含む出力対象領域90から被写体101を含む出力対象領域90に至る遷移を考える。図11Bは上方から補間平面HHを見た状態である。
ここで、遷移開始時点では、遷移先として目的とする被写体101は、全体画像HP内で被写体101cとして示す位置に存在するとする。しかし、被写体101は図中のM方向に移動しており、遷移終了時点の位置を考えると、図示する被写体101の位置に存在しているとする。
この場合に情報処理装置1は、遷移終了時の被写体101の位置を確認し、その被写体101を基準にして、候補となるパスPT1,PT2を想定する。そして、パスPT1,PT2のうちで、距離が短い方を、視野遷移パスとして選択する。
また例えば遷移の際の移動速度を一定とする場合は、出力対象領域90の移動速度と被写体101の移動速度を考慮して、パスPT1の場合に出力対象領域90が被写体101に到達する時間T1と、パスPT2の場合に出力対象領域90が被写体101に到達する時間T2を算出し、短い時間となるパスの方を選択すればよい。結果的に選択されるパスは、遷移終了時の被写体101の位置に対して、移動距離が短いパスとなる。
視野遷移パス決定処理には、切り出し指定領域の信頼性情報に基づいて、遷移元と遷移先の被写体うちで信頼性の高い方を選択し、その被写体の移動方向に応じて視点移動方向(つまり遷移方向)を決定することも考えられる。
信頼性情報の具体例として、切り出し指定領域が「物体検知」や「顔検出」などの画像処理で取得された場合はその検出精度の尤度を利用する。切り出し指定領域が「ラベリング」や「マーカー」などのユーザ入力によって取得された場合はその優先度を信頼性として利用する。例えばユーザ入力による切り出し指定領域については物体検知等の場合よりも優先度を高くしたり、或いはラベリングの場合は優先度もユーザが入力できるようにし、その優先度に応じて信頼性の高い方を選択することなども考えられる。
図の下段は、それぞれの時点でフレームHP(t0)、HP(t1)、HP(t2)、HP(t3)から切り出されて出力対象領域90(t0)、90(t1)、90(t2)、90(t3)とされている画像を示している。つまりユーザが実際に視認している画像である。
なお、被写体100、101の各自動車は、ともに紙面左方向に移動しているとする。そのため、視線方向が左側に移動するように視野遷移パスが決定され、出力対象領域90の遷移が行われる。
例えば時点t1では、出力対象領域90(t1)が、全体画像HP内で左側に移動される。360度連続している画像であるため、切り出される領域は、全体画像HPのフレームHP(t1)の左端部分と右端部分にかけての領域となる。出力対象領域90(t1)内には、遷移元の被写体100の自動車の先端のみが含まれている。
時点t2では、出力対象領域90(t2)は、さらに全体画像HP内で左側に移動される。出力対象領域90(t2)には、被写体101としての自動車の一部が含まれる状態となっている。
時点t3では、出力対象領域90(t3)は、さらに全体画像HP内で左側に移動され、出力対象領域90(t3)が被写体101としての自動車の全体を含む状態となっている。つまり遷移が終了した状態である。
例えばこのように、被写体100,101の動きを考慮して視野遷移パス決定を行うことで、ユーザに自然な感覚の視線移動を与えることができる。
パス生成部12はステップS100で遷移元、遷移先を特定する。例えば遷移元の出力対象領域90は、現在表示中の出力対象領域90とする。遷移先の出力対象領域90は、物体検知部11で検出された特定の被写体が含まれる領域であるとする。
なお、後述するが、遷移元の出力対象領域90をユーザの指定操作等に応じて特定する場合もある。
ステップS102でパス生成部12は、候補パスPT1について視点移動距離D1を算出する。候補パスPT1を採用した場合の移動距離である。
ステップS103でパス生成部12は、候補パスPT2について視点移動距離D2を算出する。候補パスPT2を採用した場合の移動距離である。
ステップS104でパス生成部12は、視点移動距離D1、D2を比較する。
そしてステップS105でパス生成部12は、候補パスPT1、PT2のうちで視点移動距離が短い方のパスを選択し、それを視野遷移パスとして決定する。
なお、以降のフローチャートにおいて既説明の処理については同一のステップ番号を付して、詳細な説明は省略する。
ここでパス生成部12はステップS110で、遷移元の出力対象領域90の被写体100について動きがあるか否かにより処理を分岐する。
もし被写体100について動きがなければ、ステップS102,S103,S104,S105により、図13Aと同様の処理、つまり候補パスPT1、PT2のうちで視点移動距離が短い方のパスを選択し、それを視野遷移パスとして決定する。
そしてパス生成部12はステップS112で、判別した動き方向に合わせて候補パスPT1、PT2の一方を選択し、それを視野遷移パスとして決定する。
例えば候補パスPT1がDR1方向の視点移動を行うパス、候補パスPT2がDR2方向の視点移動を行うパスで、被写体100の移動方向がDR1方向であれば候補パスPT1を選択する。
パス生成部12はステップS100で遷移元、遷移先を特定し、ステップS101で候補パスPT1,PT2を特定する。
ここでパス生成部12はステップS120で、遷移先の出力対象領域90の被写体101について動きがあるか否かにより処理を分岐する。
もし被写体101について動きがなければ、ステップS102,S103,S104,S105により、図13Aと同様の処理、つまり候補パスPT1、PT2のうちで視点移動距離が短い方のパスを選択し、それを視野遷移パスとして決定する。
そしてパス生成部12はステップS122で、判別した動き方向に合わせて候補パスPT1、PT2の一方を選択し、それを視野遷移パスとして決定する。
例えば候補パスPT1がDR1方向の視点移動を行うパス、候補パスPT2がDR2方向の視点移動を行うパスで、被写体101の移動方向がDR1方向であれば候補パスPT1を選択する。
パス生成部12はステップS100で遷移元、遷移先を特定したら、続いてステップS120で遷移先の被写体101ついて動きがあるか否かを判断する。
もし動きがある場合は、ステップS125で、時間Tm後の遷移先の被写体101の全体画像HP内での位置を判定してからステップS101に進む。時間Tmとは、遷移に要する時間である。パス生成部12は具体的には、現在のフレームより時間Tm後に相当するフレームにおける被写体101の位置を判定する。
被写体101に動きがなければステップS125は行わずにステップS101に進む。
そしてパス生成部12はステップS102,S103,S104,S105により、図13Aと同様の処理、つまり候補パスPT1、PT2のうちで視点移動距離が短い方のパスを選択し、それを視野遷移パスとして決定する。
従って、遷移先の被写体101に動きがある場合は、遷移に要する時間後の被写体101の位置を基準に、遷移距離の短い方のパスが選択されることになる。
もし、共通であれば、遷移元の被写体100と遷移先の被写体101の両方の移動方向成分が共通で、しかも仮選択パスの移動方向とも共通していることになる。従ってその場合はステップS156に進み、仮選択パスを視野遷移パスとして決定する。
その場合は、ステップS154で遷移元の被写体100の移動速度情報Vsと、遷移先の被写体101の移動速度情報Veを算出する。例えば実際の移動速度を算出して移動速度情報Vs、Veとする。そしてステップS155でVs≧Veであるか否かを判断する。
Vs≧Ve、つまり遷移元の被写体100の方が速い場合は、被写体100の移動方向に応じてパスを選択する。この場合、被写体100の移動方向成分は仮選択パスと共通であるため、ステップS156に進み、仮選択パスを視野遷移パスとして決定する。
一方、Vs≧Veではない場合、つまり遷移先の被写体101の方が速い場合は、被写体101の移動方向に応じてパスを選択する。この場合、被写体101の移動方向成分は仮選択パスとは共通ではない。そこでステップS157に進み、ステップS151で仮選択パスには選択しなかった方のパスを視野遷移パスとして決定する。
もし、共通でなければ、遷移元の被写体100と遷移先の被写体101の両方とも、移動方向成分が、仮選択パスの移動方向とは一致していないことになる。
従ってその場合はステップS161に進み、ステップS151で仮選択パスには選択しなかった方のパスを視野遷移パスとして決定する。
その場合は、ステップS159で遷移元の被写体100の移動速度情報Vsと、遷移先の被写体101の移動速度情報Veを算出する。
そしてステップS160でVs≧Veであるか否かを判断する。
Vs≧Ve、つまり遷移元の被写体100の方が速い場合は、被写体100の移動方向に応じてパスを選択する。この場合、被写体100の移動方向成分は仮選択パスと共通ではないため、ステップS161に進み、ステップS151で仮選択パスには選択しなかった方のパスを視野遷移パスとして決定する。
一方、Vs≧Veではない場合、つまり遷移先の被写体101の方が速い場合は、被写体101の移動方向に応じてパスを選択する。この場合、被写体101の移動方向成分は仮選択パスと共通のため、ステップS162に進み、仮選択パスを視野遷移パスとして決定する。
また移動速度情報Vs、Veを実際の速度値ではなく、被写体100、101の所定フレーム間の移動距離の値とする場合は、ステップS155,S160はVs≦Ve又はVs<Veの判断とする。
以上の図15の処理例では、被写体100、101の両方が動いている場合に、その両者の移動方向成分が異なる場合に、移動速度情報が用いられて視野遷移パスが決定される。
即ちパス生成部12は、遷移元、遷移先を特定したら、被写体100、101の両者に動きが無い場合は図13AのステップS101~S105の処理、遷移元の被写体100が動いている場合は、図13BのステップS111,S112の処理、遷移先の被写体101が動いている場合には図14AのステップS121,S122の処理、もしくは図14Bの処理、両者が動いている場合は図15の処理などとして処理を切り換えることも考えられる。
続いて、情報処理装置1が、複数の被写体それぞれの動画内での存在位置(時間的及び360度画像内の視野的な存在位置)を示す複数の被写体領域を一覧で表現する遷移設定画像を表示させ、遷移設定画像に対するユーザによる選択指示に基づいて、遷移元の出力対象領域90と、遷移先の出力対象領域90とを特定する例を説明する。
即ち一覧表示を利用した視野遷移パス決定手法である。
横軸の時間は、動画のフレームの進行に相当する。縦軸の位置とは、全体画像HP内の、例えば水平方向の360度範囲内で示した位置である。
この遷移設定画像には、例えば物体検知部11が検出する、人物等の特定の被写体100,101,102の存在位置が示される。つまり各被写体100,101,102について、時間軸上、及び360度範囲における位置としての存在位置を、俯瞰的に示して一覧表示したものである。各被写体100,101,102は、例えばそれらの被写体のサムネイル画像などとする。人物の場合、顔画像としてのサムネイル画像とすることが考えられる。
この図16Aの例の場合、被写体100は、時間を経過してもほぼ移動を行わずに同じような位置にいることが示されている。
被写体101は、時点t2以降、移動を開始している。
被写体102は、時点t3において全体画像HP内に登場し、その後、少々位置を移動している。
表示データ生成部14は、物体検知部11からの各被写体100,101,102の検出情報に基づいて、遷移設定画像を生成することができる。
図16Bに例を示す。例えばユーザは、各被写体100,101,102について、斜線を付したサムネイル画像を指定する操作を行う。例えば時点t0における被写体100、時点t3における被写体101、時点t6における被写体102である。
これによって情報処理装置1は、ユーザの希望する視点移動を把握する。即ちユーザが、時点t0からの画像再生時には、まず被写体100を含む領域を出力対象領域90として表示させ、時点t3に、出力対象領域90を被写体101の位置に遷移させ、さらに時点t6に出力対象領域90を被写体102の位置に遷移させることを指示したと、情報処理装置1は把握する。
これに基づいて情報処理装置1(パス生成部12)は、図16Bに実線矢印で示すような、時間軸に応じた出力対象領域90の遷移を設定する。
そして情報処理装置1は画像再生時には、この設定に応じてフレーム毎の切り出し範囲を設定し、切り出し範囲を出力対象領域90として表示出力する。
このようなユーザの指定によれば、或る時点で、或る被写体から他の被写体に遷移することが設定される。その遷移に関して、パス生成部12は視野遷移パス決定処理を行うことになる。
このときの視野遷移パスとしては、候補パスPT1、PT2が想定される。候補パスPT1、PT2は例えば図6,図9,図10等に示したパスPT1,PT2に相当する。
この図17の場合、遷移元の被写体100は動いていないが、遷移先の被写体102は動いていることが検出される。例えば図10で説明した手法(図14Aのパス決定処理III)で視野遷移パスが決定されるとすると、この場合、被写体102はDR2方向へ移動しているため、DR2方向の遷移を行うパスPT2が視野遷移パスとされる。
このときの視野遷移パスとしては、候補パスPT1、PT2が想定される。
この図18Aの場合、遷移元の被写体100と、遷移先の被写体102はともに動いていることが検出される。例えば図15のパス決定処理Vで視野遷移パスが決定されるとすると、この場合、被写体101,102はともにDR2方向へ移動しているため、DR2方向の遷移を行うパスPT2が視野遷移パスとされる。
このときの視野遷移パスとしては、候補パスPT1、PT2が想定される。
この図18Bの場合、遷移元の被写体100は動いていないが、遷移先の被写体102は動いていることが検出される。
例えば図14Aのパス決定処理IIIで視野遷移パスが決定されるとする。この場合、被写体102はともにDR1方向へ移動しているため、DR1方向の遷移を行うパスPT1を視野遷移パスとする。
或いは、パス決定処理IVを用いて、時点t5における被写体102の位置を考慮した処理を行えば、移動距離が短いパスPT2が視野遷移パスとされる。
情報処理装置1は、ユーザの指定入力、例えば図16Bのようなサムネイルの指定操作を入力情報取得部15により検知したら、ステップS205で当該指定情報を記憶する。
またユーザの操作や所定時間の経過により遷移設定画像の表示終了となったタイミングで、ステップS204からS206に進む。
ステップS209では、全ての遷移イベントについて視野遷移パス決定を終えたか否かを確認し、終えていなければステップS207で、未処理の遷移イベントを選択して、同様に視野遷移パス決定を行う。
全ての遷移イベントについて視野遷移パス決定を終えたらステップS209からS210に進み、各遷移イベントの視野遷移を記憶する。
また、ステップS210で記憶する視野遷移パスの情報は、画像データにメタデータとして付加して記憶させてもよい。そのようにすることで、再生時に、再生装置がメタデータによってすでに各遷移イベントについて決定されている視野遷移パスを認識することができ、適切な遷移表示を行うことができる。
3点以上の補間を行う場合、各2点間で、上述の図8で説明した2点間の補間を行うことが通常想定される。
図20Aは、球面を平面に開いた状態で被写体100,101,102を示している。この場合、被写体100,101間、被写体101,102間で、2点間の補間を行う。しかしその場合、破線で囲った結合箇所において、不連続な視線方向の転換が生じてしまう。この際、ユーザ(視認者)に不自然な画像遷移を感じさせる場合がある。
まず図20Bのように、上述の2点間の補間で得られた補間曲線上に等間隔に制御点Pを追加する。例えば補間曲線を4分割する制御点Pを示している。
そして被写体100,101,102としての視線方向の位置と、制御点Pを全て通るようなスプライン曲線を求める。図20Cにスプライン曲線SCを示している。簡単な例としては、全天球画像を平面に開いた座標系で二次元的に補間を行うことで可能である。
このようなスプライン曲線SCに沿って、補間すべき視線方向を設定し、その各視線方向に応じて出力対象領域90を切り出して表示させていくことで、より自然な視線移動を感じさせる遷移が可能となる。
続いて、存在提示画像を用いた処理について説明する。
情報処理装置1(表示データ生成部14)は、出力対象領域90として切り出した画像とともに、全体画像HP内に存在する表示候補画像を提示する存在提示画像を表示させる表示データを生成する。
そして情報処理装置1は、表示候補画像を指定する入力情報を取得した場合、パス生成部12が表示中の出力対象領域90を遷移元とし、入力情報に基づいて遷移先を特定して、視野遷移パス決定を行う例である。
例えばユーザに、出力対象領域90として切り出す候補領域を提示し、その領域に遷移可能であることを提示する。そしてユーザが選択した場合、その選択した領域に遷移させるものである。
全体画像HP内の或る人物(バイクに乗る人物)を含む出力対象領域90が切り出されて表示されている。この表示中のフレームにおいて、全体画像HP内には、他の表示候補(例えば他の人物)が存在しており、その表示候補画像のサムネイル画像80が、存在提示画像として重畳表示されている。
表示候補画像とは、例えば人物等、物体検知部11で検知した特定被写体である。或いはユーザの指定操作にかかる被写体や、或いは再生中の画像データに付加されたメタデータで示される被写体などでもよい。
例えば図21Aのようにサムネイル画像80を、それぞれの表示候補画像についての存在提示画像とした場合、ユーザは、表示候補画像の内容(例えば人物の別)を知ることができる。また、その表示候補画像をみたい場合は、存在提示画像としてのサムネイル画像80を指定操作することで、表示の視野遷移を行わせることができる。
例えば図21Aの3つのサムネイル画像80のうちの1つを選択する操作により、その指定されたサムネイル画像80にかかる表示候補画像としての被写体の領域が遷移先に設定され、現在の被写体の出力対象領域90から遷移先の被写体の出力対象領域90への遷移が行われる。
なお、現在の被写体の出力対象領域90からの遷移先を指定するものとして説明しているが、サムネイル画像80の選択により遷移元を指定することも考えられる。例えば現在の被写体は、あくまで遷移元や遷移先を指定するための画像とする。そしてサムネイル画像80により遷移元と遷移先の両方を指定したり、遷移元のみを指定する(例えば現在の画像を遷移先とする)ことなども考えられる。以降の各例の場合も遷移元を指定することが考えられる。
現在の出力対象領域90の表示上に、トラックバー81を表示させる。ユーザがトラックバー81にマウスなどを当てると、その位置に相当するタイムコードのフレームに存在する被写体(表示候補画像)についてのサムネイル画像80が表示される。
トラックバー81へのポインティング手法はマウスによるものに限らず、画面に対するタップ操作であったり、バーチャルリアリティ(VR)などにおいて手の位置を認識させることによってもよい。
そしてこのように表示されたサムネイル画像80の1つを選択する操作を行うことで、その指定されたサムネイル画像80にかかる表示候補画像としての被写体の領域が遷移先に設定され、現在の被写体の領域からの出力対象領域90の遷移が行われる。この場合の出力対象領域90は、トラックバー81で指定された時点のフレームの出力対象領域90となる。
この場合、時間軸方向にフレームが切り替わることになるが、時間軸方向の遷移が位置的な遷移とともに同時に、或いは順次行われてもよいし、或いは、指定された表示候補画像としての被写体が登場するフレームを探索として、そのフレームの該当領域に、時間的及び位置的に遷移してもよい。
ユーザが図22Bのように、ポインタ82等により或る矢印マーク83を指定する操作、例えばマウスオーバーのような操作を行うと、情報処理装置1は、矢印マーク83で示す方向に存在する表示候補画像としての被写体のサムネイル画像80を表示させる。
その状態でユーザがサムネイル画像80を指定する操作を行うと、情報処理装置1は、その指定されたサムネイル画像80にかかる表示候補画像としての被写体の領域を遷移先に設定し、現在の被写体の領域から出力対象領域90の遷移を実行させる。
この例の場合、常にサムネイル画像80を表示するわけではないので、画面上が煩雑にならない。
またレーダー画像70は、現フレームの他の表示候補画像としての被写体の位置を、それぞれマーク72,73,74により示している。
ユーザが図23Bのように、ポインタ82等により或るマーク72を指定する操作を行うと、情報処理装置1はマーク72で示される表示候補画像としての被写体のサムネイル画像80を表示させる。
その状態でユーザがサムネイル画像80を指定する操作を行うと、情報処理装置1は、その指定されたサムネイル画像80にかかる表示候補画像としての被写体の領域を遷移先に設定し、現在の被写体の領域から出力対象領域90の遷移を実行させる。
この例の場合も、常にサムネイル画像80を表示するわけではないので、画面上が煩雑にならない。
例えば図22Bの矢印マーク83の指定や、図23Bのマーク72の指定のようなサムネイル要求操作が検知された場合、情報処理装置1はステップS310に進み、対応するサムネイル画像80の表示を開始させる。
その後、サムネイル要求操作が終了した場合は、情報処理装置1はステップS303からS311に進み、サムネイル画像80の表示を終了させる。例えば図22Bや図23Bのようにサムネイル画像80を表示させた状態で、ユーザがそのサムネイル画像80の指定操作を行わずに、ポインタ82の位置を他の位置に移動させたような場合である。
ステップS312では、例えば上述のパス決定処理I~Vのいずれかの処理で、現在の出力対象領域90から、サムネイル画像80で指定された被写体の出力対象領域90に遷移するための視野遷移パス決定を行う。
そしてステップS313で情報処理装置1は、決定されたパスにおいて、視野方向の補間を行いながら順次、切り出し領域を移動させた出力対象領域90の表示データを出力していくことで、表示装置6における視野遷移を実行させる。ステップS314で遷移完了と判断した時点で、遷移処理を終える。
なお、以上の処理例は、図22,図23の場合を想定したが、図21Aのように存在提示画像として最初からサムネイル画像80を表示する場合、図24のステップS302,S303、S310,S311が不要となる。
また図21Bのようにトラックバー81を表示する場合、トラックバー81上におけるタイムコード指定がステップS302のサムネイル要求操作で、トラックバー81上でのタイムコード指定の終了が、ステップS303でのサムネイル要求終了と考えればよい。
以上の実施の形態では、次のような効果が得られる。
実施の形態の情報処理装置1は、少なくとも一方向に360度の連続する視野を有する画像である全体画像HPの一部領域である出力対象領域90のうち、遷移元の出力対象領域90と遷移先の出力対象領域90とを特定する特定部21と、遷移元の出力対象領域90から遷移先の出力対象領域90に至る視野遷移パスを自動的に決定する視野遷移パス決定部22を備えている。
視聴者の視点移動を模した出力対象領域90の遷移について、360度連続する全体画像における遷移元と遷移先を想定すると、遷移元の出力対象領域から連続する画像として遷移先の出力対象領域に至る視野遷移パスは多様に考えられる。そこで視野遷移パスを自動決定することで、遷移元から遷移先への遷移として視点移動を模した表示上で、視認上スムースな遷移が視認者に提供されるようにすることができる。
出力対象領域の遷移について、360度連続する全体画像における遷移元と遷移先を想定すると、遷移元から連続する画像として遷移先に遷移するパスは複数想定される。特に360度連続する全体画像内での遷移元と遷移先の位置関係を考えると、遷移元から遷移先への遷移(視点移動)は、その全体画像の360度円周上の一方向と逆方向とが考えられる。これらの一方を自動的に選択するものとする。そこで一方向に進行する候補パスと、その逆方向に進行する候補パスのうちで、例えば視認上望ましいパスを視野遷移パスに自動決定する。
特に円周方向での一方向と逆方向の遷移を比較して、いずれの方向での遷移がより円滑な視点移動となるかという判断により、比較的容易な処理で、適切な視野遷移パスを決定できる。
例えば移動距離が短い方のパスを選択することで、遷移元から遷移先への視点移動を効率的に提示することができる。視認上、冗長にならない円滑な遷移が実現できる。例えばこのように移動距離情報を視野遷移パスの決定に用いることで、ユーザの視認時の快適性を実現できる場合がある。
即ち遷移元の出力対象領域90において被写体100となっている人物その他の移動体が、動画上で或る方向に移動している場合、その移動方向を、視野遷移パス決定のための一要素とする。
遷移元の被写体100の動きは、視認者の視点に影響を与える。
従って遷移元から遷移先に視点を移す場合、それまで見ている遷移元の被写体100の移動方向を考慮して遷移の際の視野遷移パスを決定することで、視認者に円滑な視点移動感を与えることができる。
即ち遷移先の出力対象領域90において被写体101となっている人物その他の移動体が、動画上で或る方向に移動している場合、その移動方向を、視野遷移パス決定のための一要素とする。
被写体の動きが視認者の視点に影響を与えることは、遷移先の被写体101についても言える。遷移元から遷移先に視点を移す場合、遷移によって登場してくる遷移先の被写体101の移動方向を考慮して遷移の際の視野遷移パスを決定することで、視認者に円滑な視点移動感を与えることができる。
即ち遷移元、遷移先の各画像(被写体となっている人物その他の移動体)の一方又は両方が動画上で移動している場合、その移動速度を、視野遷移パス決定のための一要素とする。
被写体100,101の動きは、視認者の視点移動に影響を与えるが、特に速い動き、遅い動きにより視点への影響具合は異なる。そこで被写体100,101の移動速度を考慮して遷移の際の視野遷移パスを決定することで、視認者に円滑な視点移動感を与える遷移を実現できる。
遷移元から遷移先への連続的な遷移(視点移動)には、その遷移時間を要する。遷移先の被写体に動きがある場合、遷移所要時間後における当該被写体の全体画像内での位置は、遷移開始時点のフレームでの位置とは異なることが想定される。そこで遷移所要時間を経過したときの遷移先の被写体位置を考慮して視野遷移パス決定を行う。
これにより、視認者に遷移先の被写体101の動きを想定した上での円滑な視点移動感を与える遷移を実現できる。
即ち画像の視認者であるユーザに対して、全体画像内での各被写体について、各時点での位置を一覧表示させ、当該一覧としての遷移設定画像上で例えば被写体を選択できるようにしている。これにより動画進行に応じた出力対象領域の移動、即ち視点移動を行うことで、ユーザが見たい被写体を視点移動しながら提示することを可能とする。
この場合に、被写体間の遷移(視点移動)のときの視野遷移パスを適切に決定することで、ユーザにとって円滑で自然な視点移動感を与えることができる。
また遷移設定画像によっては、ユーザにとっては、全天球映像の全体を俯瞰しながら、視聴する画角を設定することが可能になり、被写体の位置関係と時間を考慮した視聴パスの設定が容易になる。
即ち表示している画像上で、他の表示候補の被写体の存在を、存在提示画像として提示する。そしてユーザが、存在提示画像に対する操作等により或る表示候補画像を選択する操作を行うことで、その表示候補画像が含まれる領域に視点移動するような画像表示を実現する。
この場合に、現在表示中の領域から表示候補画像の領域までの遷移(視点移動)のときの視野遷移パスを適切に決定することで、ユーザにとって円滑で自然な視点移動感を与えることができる。
また、実際には表示候補画像としての被写体は、各種サイズが異なる。これを実施の形態では、同一サイズのサムネイル画像80として提示するようにしている。これにより、各表示候補を均等に確認でき、ユーザの自由な選択を促進できる。またむやみに大きな画像として表示候補を提示することもなく、なるべく現在の出力対象領域90の画像を邪魔しないようにすることができる。
つまり存在する表示候補画像を、たとえば均一サイズのサムネイル画像80として、現在の出力対象領域の一部に重畳させるなどの手法で、存在提示する。これによりユーザは、他にも注目すべき画像が存在することや、その画像内容を容易に認識でき、たとえば視点移動を求める操作もわかりやすいものとなる。
例えば現在の出力対象領域90に対して画面上の上方に存在する表示候補画像についての存在提示画像は、図22の矢印マーク83のように現在の画面上の上方に提示する。現在の出力対象領域90に対して画面上の右方に存在する表示候補画像についての存在提示画像は、同じく矢印マーク83のように現在の画面上の右方に提示する。
これにより現在の画像からの表示候補画像の位置関係をユーザが認識しやすいものとすることができる。但し360度画像の場合であるので、例えば右方とされる表示候補画像は、左側からでも連続した遷移が可能である。そこで位置関係とは、右方・左方のうちで、近い方を示すようにすることが適切となる。
また、矢印マーク83の指定に応じてサムネイル画像80を表示することで、当該位置に存在する被写体をユーザが容易に判別でき、望みの視野遷移を選択しやすいものとなる。
さらに、常時サムネイル画像80を表示するものではないため、画面上が煩雑にならず、快適な視認環境を提供できる。
動画コンテンツの場合、各表示候補画像は、時間軸方向においても存在状況が変動する。そこで時間軸上で、表示候補画像の存在が確認できるようにする。
これによりユーザは、時間軸上での各表示候補画像の存在を認識しやすくなる。そして視聴しているフレームと同時刻に限らず、映っている物体を把握しやすくし、遷移先の指定の多様性や、時間的方向への遷移指定の容易性をユーザに提供できる。
例えば図23のレーダー画像70上でのマーク71,72,73,74により現在の出力対象領域90に対する各表示候補画像の相対位置を示すような画像を存在提示画像とする。
これによりユーザは、各表示候補画像の位置関係をより容易に明確に認識できる。そしてこれにより視点移動を擬した遷移も、より違和感なく感じられやすくなる。
また、マーク72,73,74等の指定に応じてサムネイル画像80を表示することで、当該位置に存在する被写体をユーザが容易に判別でき、望みの視野遷移を選択しやすいものとなる。
さらに、常時サムネイル画像80を表示するものではないため、画面上が煩雑にならず、快適な視認環境を提供できる。
このプログラムにより、実施の形態の情報処理装置1としての機能を備えた演算処理装置を実現できる。
また、このようなプログラムは、リムーバブル記録媒体からパーソナルコンピュータなどにインストールする他、ダウンロードサイトから、LAN、インターネットなどのネットワークを介してダウンロードすることもできる。
遷移パス決定処理で決定される視野遷移パスの情報は、その時点の表示制御として使用するほか、画像データに対応して記憶したり、メタデータとして画像データに付加することで、後の再生時にも使用できるようにすることが考えられる。
また視野遷移パスの決定情報の外部機器への送信も想定される。
また実施の形態のパス決定処理では、候補パスを算出してから一方を選択する処理例としたが、候補パスとしての算出を行わずに、直接的に最終的な視野遷移パスを決定してもよい。例えば被写体の動き方向を用いて視野遷移パスを決定する場合は、複数の候補パスを求めるという処理を行わずに、その被写体の移動方向に応じた最終的な視野遷移パス決定が可能である。
(1)少なくとも一方向に360度の連続する視野を有する画像である全体画像の一部領域である出力対象領域として、遷移元出力対象領域と遷移先出力対象領域とを特定する特定部と、
前記遷移元出力対象領域から前記遷移先出力対象領域に至る視野遷移パスを自動的に決定する視野遷移パス決定部と、を備えた
情報処理装置。
(2)前記視野遷移パス決定部は、前記遷移元出力対象領域から前記遷移先出力対象領域に向かって一方向に進行する候補パスと、前記一方向とは逆方向に進行する候補パスの一方を、前記視野遷移パスとして決定する
上記(1)に記載の情報処理装置。
(3)前記視野遷移パス決定部は、複数の候補パス毎の前記遷移元出力対象領域から前記遷移先出力対象領域までの移動距離を示す移動距離情報を、前記視野遷移パスの決定に用いる
上記(1)又は(2)に記載の情報処理装置。
(4)前記全体画像は動画であり、
前記視野遷移パス決定部は、前記遷移元出力対象領域に存在する被写体の、前記動画の進行上での前記全体画像内での移動方向を示す移動方向情報を、前記視野遷移パスの決定に用いる
上記(1)乃至(3)のいずれかに記載の情報処理装置。
(5)前記全体画像は動画であり、
前記視野遷移パス決定部は、前記遷移先出力対象領域に存在する被写体の、前記動画の進行上での前記全体画像内での移動方向を示す移動方向情報を、前記視野遷移パスの決定に用いる
上記(1)乃至(4)のいずれかに記載の情報処理装置。
(6)前記全体画像は動画であり、
前記視野遷移パス決定部は、前記遷移先出力対象領域に存在する被写体又は前記遷移元出力対象領域に存在する被写体の、前記動画の進行上での前記全体画像内での移動速度を示す移動速度情報を、前記視野遷移パスの決定に用いる
上記(1)乃至(5)のいずれかに記載の情報処理装置。
(7)前記全体画像は動画であり、
前記視野遷移パス決定部は、遷移所要時間経過後のフレームにおける前記遷移先出力対象領域に存在する被写体の位置を示す被写体位置情報を、前記視野遷移パスの決定に用いる
上記(1)乃至(6)のいずれかに記載の情報処理装置。
(8)前記全体画像は動画であり、
前記特定部は、
夫々前記動画に含まれる部分領域であって複数の被写体それぞれの前記動画内での存在位置を示す複数の被写体領域を一覧で表現する遷移設定画像に対するユーザによる選択指示に基づいて、前記遷移元出力対象領域と、前記遷移先出力対象領域とを特定する
上記(1)乃至(7)のいずれかに記載の情報処理装置。
(9)前記特定部は、
前記全体画像内で出力対象領域とされている一部領域の画像とともに、前記全体画像としての静止画又は動画内に存在する表示候補画像を提示する存在提示画像を含む表示データに基づく表示に対して行われた、表示候補画像を指定するユーザ操作に基づいて、前記遷移先出力対象領域または前記遷移元出力対象領域を特定する
上記(1)乃至(8)のいずれかに記載の情報処理装置。
(10)前記存在提示画像は、前記表示候補画像のサムネイル画像であり、
前記表示データは、現在の出力対象領域の画像と、前記表示候補画像のサムネイル画像を含む
上記(9)に記載の情報処理装置。
(11)前記存在提示画像は、その存在提示画像が示す表示候補画像の、前記一部領域の画像に対する位置関係に応じた位置に配置される
上記(9)又は(10)に記載の情報処理装置。
(12)前記表示データは、前記出力対象領域とされた前記一部領域の画像において指定された時間軸位置に対応する、前記指定された時間軸位置に存在する表示候補画像に対応する存在提示画像を含む
上記(9)乃至(11)のいずれかに記載の情報処理装置。
(13)前記表示データは、表示候補画像と前記出力対象領域とされた前記一部領域の画像との位置関係を示す存在提示画像を含む
上記(9)乃至(12)のいずれかに記載の情報処理装置。
(14)情報処理装置が実行する情報処理方法として、
少なくとも一方向に360度の連続する視野を有する画像である全体画像の一部領域である出力対象領域のうち、遷移元出力対象領域と遷移先出力対象領域とを特定する特定手順と、
前記遷移元出力対象領域から前記遷移先出力対象領域に至る視野遷移パスを自動的に決定する視野遷移パス決定手順と、を備えた
情報処理方法。
(15)少なくとも一方向に360度の連続する視野を有する画像である全体画像の一部領域である出力対象領域のうち、遷移元出力対象領域と遷移先出力対象領域とを特定する特定手順と、
前記遷移元出力対象領域から前記遷移先出力対象領域に至る視野遷移パスを自動的に決定する視野遷移パス決定手順と、
を情報処理装置に実行させるプログラム。
Claims (15)
- 少なくとも一方向に360度の連続する視野を有する画像である全体画像の一部領域である出力対象領域として、遷移元出力対象領域と遷移先出力対象領域とを特定する特定部と、
前記遷移元出力対象領域から前記遷移先出力対象領域に至る視野遷移パスを自動的に決定する視野遷移パス決定部と、を備えた
情報処理装置。 - 前記視野遷移パス決定部は、前記遷移元出力対象領域から前記遷移先出力対象領域に向かって一方向に進行する候補パスと、前記一方向とは逆方向に進行する候補パスの一方を、前記視野遷移パスとして決定する
請求項1に記載の情報処理装置。 - 前記視野遷移パス決定部は、複数の候補パス毎の前記遷移元出力対象領域から前記遷移先出力対象領域までの移動距離を示す移動距離情報を、前記視野遷移パスの決定に用いる
請求項1に記載の情報処理装置。 - 前記全体画像は動画であり、
前記視野遷移パス決定部は、前記遷移元出力対象領域に存在する被写体の、前記動画の進行上での前記全体画像内での移動方向を示す移動方向情報を、前記視野遷移パスの決定に用いる
請求項1に記載の情報処理装置。 - 前記全体画像は動画であり、
前記視野遷移パス決定部は、前記遷移先出力対象領域に存在する被写体の、前記動画の進行上での前記全体画像内での移動方向を示す移動方向情報を、前記視野遷移パスの決定に用いる
請求項1に記載の情報処理装置。 - 前記全体画像は動画であり、
前記視野遷移パス決定部は、前記遷移先出力対象領域に存在する被写体又は前記遷移元出力対象領域に存在する被写体の、前記動画の進行上での前記全体画像内での移動速度を示す移動速度情報を、前記視野遷移パスの決定に用いる
請求項1に記載の情報処理装置。 - 前記全体画像は動画であり、
前記視野遷移パス決定部は、遷移所要時間経過後のフレームにおける前記遷移先出力対象領域に存在する被写体の位置を示す被写体位置情報を、前記視野遷移パスの決定に用いる
請求項1に記載の情報処理装置。 - 前記全体画像は動画であり、
前記特定部は、
夫々前記動画に含まれる部分領域であって複数の被写体それぞれの前記動画内での存在位置を示す複数の被写体領域を一覧で表現する遷移設定画像に対するユーザによる選択指示に基づいて、前記遷移元出力対象領域と、前記遷移先出力対象領域とを特定する
請求項1に記載の情報処理装置。 - 前記特定部は、
前記全体画像内で出力対象領域とされている一部領域の画像とともに、前記全体画像としての静止画又は動画内に存在する表示候補画像を提示する存在提示画像を含む表示データに基づく表示に対して行われた、表示候補画像を指定するユーザ操作に基づいて、前記遷移先出力対象領域または前記遷移元出力対象領域を特定する
請求項1に記載の情報処理装置。 - 前記存在提示画像は、前記表示候補画像のサムネイル画像であり、
前記表示データは、現在の出力対象領域の画像と、前記表示候補画像のサムネイル画像を含む
請求項9に記載の情報処理装置。 - 前記存在提示画像は、その存在提示画像が示す表示候補画像の、前記一部領域の画像に対する位置関係に応じた位置に配置される
請求項9に記載の情報処理装置。 - 前記表示データは、前記出力対象領域とされた前記一部領域の画像において指定された時間軸位置に対応する、前記指定された時間軸位置に存在する表示候補画像に対応する存在提示画像を含む
請求項9に記載の情報処理装置。 - 前記表示データは、表示候補画像と前記出力対象領域とされた前記一部領域の画像との位置関係を示す存在提示画像を含む
請求項9に記載の情報処理装置。 - 情報処理装置が実行する情報処理方法として、
少なくとも一方向に360度の連続する視野を有する画像である全体画像の一部領域である出力対象領域のうち、遷移元出力対象領域と遷移先出力対象領域とを特定する特定手順と、
前記遷移元出力対象領域から前記遷移先出力対象領域に至る視野遷移パスを自動的に決定する視野遷移パス決定手順と、を備えた
情報処理方法。 - 少なくとも一方向に360度の連続する視野を有する画像である全体画像の一部領域である出力対象領域のうち、遷移元出力対象領域と遷移先出力対象領域とを特定する特定手順と、
前記遷移元出力対象領域から前記遷移先出力対象領域に至る視野遷移パスを自動的に決定する視野遷移パス決定手順と、
を情報処理装置に実行させるプログラム。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018508611A JP6787394B2 (ja) | 2016-03-31 | 2017-02-23 | 情報処理装置、情報処理方法、プログラム |
KR1020187027784A KR20180130504A (ko) | 2016-03-31 | 2017-02-23 | 정보 처리 장치, 정보 처리 방법, 프로그램 |
CN201780019211.1A CN108780581B (zh) | 2016-03-31 | 2017-02-23 | 信息处理装置、信息处理方案以及程序 |
US16/087,420 US10839601B2 (en) | 2016-03-31 | 2017-02-23 | Information processing device, information processing method, and program |
EP17773914.1A EP3438935A4 (en) | 2016-03-31 | 2017-02-23 | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, PROGRAM |
US17/085,226 US11417062B2 (en) | 2016-03-31 | 2020-10-30 | Information processing device, information processing method, and program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016070604 | 2016-03-31 | ||
JP2016-070604 | 2016-03-31 |
Related Child Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US16/087,420 A-371-Of-International US10839601B2 (en) | 2016-03-31 | 2017-02-23 | Information processing device, information processing method, and program |
US201816087420A Continuation | 2016-03-31 | 2018-09-21 | |
US17/085,226 Continuation US11417062B2 (en) | 2016-03-31 | 2020-10-30 | Information processing device, information processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2017169369A1 true WO2017169369A1 (ja) | 2017-10-05 |
Family
ID=59964247
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2017/006885 WO2017169369A1 (ja) | 2016-03-31 | 2017-02-23 | 情報処理装置、情報処理方法、プログラム |
Country Status (6)
Country | Link |
---|---|
US (2) | US10839601B2 (ja) |
EP (1) | EP3438935A4 (ja) |
JP (2) | JP6787394B2 (ja) |
KR (1) | KR20180130504A (ja) |
CN (1) | CN108780581B (ja) |
WO (1) | WO2017169369A1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018168824A1 (ja) * | 2017-03-14 | 2018-09-20 | 株式会社ニコン | 画像処理装置および電子機器 |
WO2018168825A1 (ja) * | 2017-03-14 | 2018-09-20 | 株式会社ニコン | 画像処理装置および電子機器 |
WO2018168823A1 (ja) * | 2017-03-14 | 2018-09-20 | 株式会社ニコン | 画像処理装置および電子機器 |
JP2021527865A (ja) * | 2018-05-30 | 2021-10-14 | 影石創新科技股▲ふん▼有限公司Arashi Vision Inc. | パノラマビデオのターゲット追跡方法及びパノラマカメラ |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10614606B2 (en) * | 2016-11-30 | 2020-04-07 | Ricoh Company, Ltd. | Information processing apparatus for creating an animation from a spherical image |
EP3777224A1 (en) | 2018-04-05 | 2021-02-17 | VID SCALE, Inc. | Viewpoint metadata for omnidirectional video |
US11385850B2 (en) * | 2018-10-26 | 2022-07-12 | Sony Interactive Entertainment Inc. | Content reproduction device, picture data output device, content creation device, content reproduction method, picture data output method, and content creation method |
US11461942B2 (en) * | 2018-12-21 | 2022-10-04 | Koninklijke Kpn N.V. | Generating and signaling transition between panoramic images |
CN112136311B (zh) | 2019-10-22 | 2022-07-12 | 深圳市大疆创新科技有限公司 | 一种图像处理方法、设备、成像系统及存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013239986A (ja) * | 2012-05-17 | 2013-11-28 | Panasonic Corp | 補助情報生成装置、撮影画像表示システム、補助情報生成方法、撮影画像表示方法、及びコンピュータプログラム |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6256061B1 (en) | 1991-05-13 | 2001-07-03 | Interactive Pictures Corporation | Method and apparatus for providing perceived video viewing experiences using still images |
EP1820159A1 (en) * | 2004-11-12 | 2007-08-22 | MOK3, Inc. | Method for inter-scene transitions |
CN101052996B (zh) * | 2005-08-12 | 2011-06-15 | 索尼计算机娱乐公司 | 面部图像显示设备和方法 |
JP5233926B2 (ja) * | 2009-09-10 | 2013-07-10 | 大日本印刷株式会社 | 魚眼監視システム |
JP5381569B2 (ja) * | 2009-09-29 | 2014-01-08 | 富士通株式会社 | ジェスチャ認識装置、ジェスチャ認識方法、およびジェスチャ認識プログラム |
WO2011114610A1 (ja) * | 2010-03-18 | 2011-09-22 | パナソニック株式会社 | 全方位画像処理装置および全方位画像処理方法 |
EP2472867A1 (en) * | 2010-12-30 | 2012-07-04 | Advanced Digital Broadcast S.A. | Coding and decoding of multiview videos |
US9747019B2 (en) * | 2012-02-24 | 2017-08-29 | Lg Electronics Inc. | Mobile terminal and control method thereof |
JP6548203B2 (ja) * | 2013-03-18 | 2019-07-24 | 任天堂株式会社 | 情報処理プログラム、情報処理装置、情報処理システム、および、パノラマ動画表示方法 |
JP6249202B2 (ja) | 2013-05-10 | 2017-12-20 | ソニー株式会社 | 画像表示装置、画像表示方法、およびプログラム |
JP2014220724A (ja) | 2013-05-10 | 2014-11-20 | ソニー株式会社 | 表示制御装置、表示制御方法、およびプログラム |
CN103841332B (zh) * | 2014-03-21 | 2018-10-12 | 英华达(上海)科技有限公司 | 全景景象拍摄及浏览的移动装置、系统及方法 |
JP6358903B2 (ja) | 2014-09-04 | 2018-07-18 | シャープ株式会社 | 臼および飲料製造装置 |
JP6372696B2 (ja) * | 2014-10-14 | 2018-08-15 | ソニー株式会社 | 情報処理装置、情報処理方法、並びにプログラム |
JP6723512B2 (ja) * | 2015-12-22 | 2020-07-15 | カシオ計算機株式会社 | 画像処理装置、画像処理方法及びプログラム |
-
2017
- 2017-02-23 WO PCT/JP2017/006885 patent/WO2017169369A1/ja active Application Filing
- 2017-02-23 KR KR1020187027784A patent/KR20180130504A/ko not_active Withdrawn
- 2017-02-23 JP JP2018508611A patent/JP6787394B2/ja active Active
- 2017-02-23 US US16/087,420 patent/US10839601B2/en active Active
- 2017-02-23 CN CN201780019211.1A patent/CN108780581B/zh active Active
- 2017-02-23 EP EP17773914.1A patent/EP3438935A4/en not_active Ceased
-
2020
- 2020-10-26 JP JP2020178987A patent/JP7017175B2/ja active Active
- 2020-10-30 US US17/085,226 patent/US11417062B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013239986A (ja) * | 2012-05-17 | 2013-11-28 | Panasonic Corp | 補助情報生成装置、撮影画像表示システム、補助情報生成方法、撮影画像表示方法、及びコンピュータプログラム |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018168824A1 (ja) * | 2017-03-14 | 2018-09-20 | 株式会社ニコン | 画像処理装置および電子機器 |
WO2018168825A1 (ja) * | 2017-03-14 | 2018-09-20 | 株式会社ニコン | 画像処理装置および電子機器 |
WO2018168823A1 (ja) * | 2017-03-14 | 2018-09-20 | 株式会社ニコン | 画像処理装置および電子機器 |
JPWO2018168823A1 (ja) * | 2017-03-14 | 2020-01-16 | 株式会社ニコン | 画像処理装置および電子機器 |
JP7172982B2 (ja) | 2017-03-14 | 2022-11-16 | 株式会社ニコン | 画像処理装置 |
JP2023017920A (ja) * | 2017-03-14 | 2023-02-07 | 株式会社ニコン | 画像処理装置 |
JP2021527865A (ja) * | 2018-05-30 | 2021-10-14 | 影石創新科技股▲ふん▼有限公司Arashi Vision Inc. | パノラマビデオのターゲット追跡方法及びパノラマカメラ |
JP7048764B2 (ja) | 2018-05-30 | 2022-04-05 | 影石創新科技股▲ふん▼有限公司 | パノラマビデオのターゲット追跡方法及びパノラマカメラ |
JP7048764B6 (ja) | 2018-05-30 | 2022-05-16 | 影石創新科技股▲ふん▼有限公司 | パノラマビデオのターゲット追跡方法及びパノラマカメラ |
Also Published As
Publication number | Publication date |
---|---|
JP6787394B2 (ja) | 2020-11-18 |
EP3438935A1 (en) | 2019-02-06 |
EP3438935A4 (en) | 2019-07-03 |
JPWO2017169369A1 (ja) | 2019-02-07 |
CN108780581B (zh) | 2023-04-11 |
JP2021029044A (ja) | 2021-02-25 |
CN108780581A (zh) | 2018-11-09 |
US20210049816A1 (en) | 2021-02-18 |
US10839601B2 (en) | 2020-11-17 |
US20190102940A1 (en) | 2019-04-04 |
KR20180130504A (ko) | 2018-12-07 |
US11417062B2 (en) | 2022-08-16 |
JP7017175B2 (ja) | 2022-02-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7017175B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
US11636644B2 (en) | Output of virtual content | |
US10056115B2 (en) | Automatic generation of video and directional audio from spherical content | |
CN106576184B (zh) | 信息处理装置、显示装置、信息处理方法、程序和信息处理系统 | |
US10686985B2 (en) | Moving picture reproducing device, moving picture reproducing method, moving picture reproducing program, moving picture reproducing system, and moving picture transmission device | |
US9392248B2 (en) | Dynamic POV composite 3D video system | |
US20180160194A1 (en) | Methods, systems, and media for enhancing two-dimensional video content items with spherical video content | |
EP3522542B1 (en) | Switching between multidirectional and limited viewport video content | |
US20150070526A1 (en) | Display control device, display control method, and program | |
JP2019121858A (ja) | 電子機器及びその制御方法 | |
JP2009077363A (ja) | 画像処理装置、動画再生装置、これらにおける処理方法およびプログラム | |
EP3236336B1 (en) | Virtual reality causal summary content | |
CN113424515B (zh) | 信息处理设备、信息处理方法和程序 | |
US20180278995A1 (en) | Information processing apparatus, information processing method, and program | |
US20190155465A1 (en) | Augmented media | |
CN115278193A (zh) | 全景视频分发方法、装置、设备及计算机存储介质 | |
WO2020059327A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US20240305760A1 (en) | Information processing apparatus and method, and storage medium | |
WO2020017600A1 (ja) | 表示制御装置、表示制御方法及びプログラム | |
KR20180102482A (ko) | 전방향 영상의 방향 정보를 생성하는 방법 및 이러한 방법을 수행하는 장치 | |
JP2017084161A (ja) | 画像処理装置、表示装置及びその制御方法 | |
US11385850B2 (en) | Content reproduction device, picture data output device, content creation device, content reproduction method, picture data output method, and content creation method | |
JP2024125644A (ja) | 画像処理装置、画像処理装置の制御方法、及びプログラム | |
WO2024070761A1 (ja) | 情報処理装置、情報処理方法、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WWE | Wipo information: entry into national phase |
Ref document number: 2018508611 Country of ref document: JP |
|
ENP | Entry into the national phase |
Ref document number: 20187027784 Country of ref document: KR Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2017773914 Country of ref document: EP |
|
ENP | Entry into the national phase |
Ref document number: 2017773914 Country of ref document: EP Effective date: 20181031 |
|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17773914 Country of ref document: EP Kind code of ref document: A1 |