+

WO2018194040A1 - 送信装置、送信方法、受信装置、受信方法、記録装置および記録方法 - Google Patents

送信装置、送信方法、受信装置、受信方法、記録装置および記録方法 Download PDF

Info

Publication number
WO2018194040A1
WO2018194040A1 PCT/JP2018/015778 JP2018015778W WO2018194040A1 WO 2018194040 A1 WO2018194040 A1 WO 2018194040A1 JP 2018015778 W JP2018015778 W JP 2018015778W WO 2018194040 A1 WO2018194040 A1 WO 2018194040A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
control information
video stream
blur
blur control
Prior art date
Application number
PCT/JP2018/015778
Other languages
English (en)
French (fr)
Inventor
江藤 博昭
敏之 小倉
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to CN201880024218.7A priority Critical patent/CN110521211B/zh
Priority to US16/603,345 priority patent/US11523120B2/en
Priority to JP2019513638A priority patent/JP7300985B2/ja
Priority to EP18788541.3A priority patent/EP3614680B1/en
Priority to KR1020197029203A priority patent/KR102551759B1/ko
Publication of WO2018194040A1 publication Critical patent/WO2018194040A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/154Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2355Processing of additional data, e.g. scrambling of additional data or processing content descriptors involving reformatting operations of additional data, e.g. HTML pages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/112Selection of coding mode or of prediction mode according to a given display mode, e.g. for interlaced or progressive display mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/177Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a group of pictures [GOP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/587Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234327Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into layers, e.g. base layer and one or more enhancement layers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234381Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the temporal resolution, e.g. decreasing the frame rate by frame skipping
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2353Processing of additional data, e.g. scrambling of additional data or processing content descriptors specifically adapted to content descriptors, e.g. coding, compressing or processing of metadata
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23605Creation or processing of packetized elementary streams [PES]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • H04N21/4355Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream involving reformatting operations of additional data, e.g. HTML pages on a television screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440227Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by decomposing into layers, e.g. base layer and one or more enhancement layers

Definitions

  • the present technology relates to a transmission device, a transmission method, a reception device, a reception method, a recording device, and a recording method, and more particularly to a transmission device that transmits moving image data at a high frame rate.
  • Patent Document 1 a camera that performs high frame rate shooting with a high-speed frame shutter and outputs high-frame-rate moving image data is known (see, for example, Patent Document 1).
  • the normal frame rate is 60 Hz
  • the high frame rate is 120 Hz, 240 Hz, 480 Hz, or the like.
  • a container including a video stream obtained by encoding moving image data at a high frame rate is generated and transmitted on a broadcast wave or a network packet.
  • MPEG-2 TS MPEG-2 Transport Stream
  • MMT MPEG Media Transport
  • a high frame rate moving image data is subjected to thinning or addition processing to obtain a normal frame rate moving image.
  • Image data is obtained and image display is performed.
  • a display image based on normal frame rate moving image data obtained by simply performing a thinning process or an addition process is not satisfactory for the observer.
  • An object of the present technology is to enable an image having an appropriate image quality to be easily presented on a receiving side that receives moving image data at a high frame rate.
  • the concept of this technology is An encoding unit that generates a video stream obtained by encoding high-frame-rate moving image data; A transmission unit for transmitting a container including the video stream; The transmission apparatus includes an information insertion unit that inserts blur control information for controlling blur in the container layer and / or the video stream layer.
  • the encoding unit generates a video stream obtained by encoding moving image data at a high frame rate.
  • the high frame rate moving image data may be 120 Hz, 240 Hz, or 480 Hz frame rate moving image data.
  • a container including a video stream is transmitted by the transmission unit.
  • the information insertion unit inserts blur control information for controlling blur in the container layer and / or the video stream layer.
  • the weighting coefficient of the surrounding frame may include a negative coefficient.
  • the blur control information may be configured to give a weighting coefficient for each frame in a blur provision process in which image data of a peripheral frame is added to image data of the current frame.
  • the peripheral frames may include past and future frames.
  • the surrounding frames may include only past frames.
  • the information insertion unit may insert an SEI message including blur control information into a video stream layer. Further, for example, when the blur control information is inserted into the video stream layer, the information insertion unit may further insert identification information indicating the presence of the insertion into the container layer. By inserting the identification information into the container layer in this way, the receiving side can easily recognize that the blur control information is inserted into the video stream layer without decoding the video stream.
  • the information insertion unit may insert a descriptor including blur control information into a container layer.
  • the container may be an MPEG2 transport stream, and the descriptor may be inserted into a program map table or an event information table.
  • the information insertion unit may insert a plurality of types of blur control information into the container layer and / or the video stream layer. By inserting a plurality of types of blur control information in this way, on the receiving side, for example, the type of blur control information corresponding to the display frame rate or the desired image quality can be selected and used.
  • blur control information for controlling blur is inserted into the container layer and / or the video stream layer. Therefore, the receiving side can control the blur based on the blur control information, and can easily present an image with an appropriate image quality.
  • the receiving apparatus further includes a processing unit that performs blurring processing using blur control information on the obtained high-frame-rate moving image data.
  • a container including a video stream obtained by encoding moving image data at a high frame rate is received by the receiving unit.
  • the video stream is decoded by the decoding unit to obtain high frame rate moving image data.
  • blur processing using blur control information is performed on the moving image data at the high frame rate by the processing unit.
  • blur control information is inserted in the container layer and / or the video stream layer, and the processing unit uses the inserted blur control information or modifies the blur control information. May be. Further, for example, a holding unit that holds blur control information may be further provided, and the processing unit may acquire and use blur control information from the holding unit.
  • a plurality of types of blur control information are inserted in the container layer and / or the video stream layer, and the processing unit can select a desired image quality according to the display frame rate from the plurality of types of blur control information.
  • the type of blur control information corresponding to the selected type may be selected and used.
  • the processing unit may perform blurring processing when obtaining display image data with a reduced frame rate from high frame rate moving image data.
  • blurring processing is performed on the received high-frame-rate moving image data based on the blur control information. Therefore, it is possible to easily present an image with appropriate image quality.
  • An encoding unit that generates a video stream obtained by encoding high-frame-rate moving image data
  • a generation unit that generates blur control information for controlling blur of the moving image data at the high frame rate
  • the recording apparatus includes a recording unit that records the blur control information and the video stream inserted in the layer of the video stream and / or the layer of the container including the video stream.
  • the encoding unit generates a video stream obtained by encoding moving image data at a high frame rate.
  • the generation unit generates blur control information for controlling blur of moving image data at a high frame rate. Then, the blur control information and the video stream inserted in the layer of the video stream and / or the layer of the container including the video stream are recorded by the recording unit.
  • the blur control information for controlling the blur is inserted and recorded in the container layer including the video stream and / or the video stream layer. Therefore, at the time of reproduction, blur of high-frame-rate moving image data can be controlled based on blur control information, and an image with an appropriate image quality can be easily presented.
  • an image with an appropriate image quality can be easily presented on the receiving side that receives moving image data at a high frame rate.
  • the effects described here are not necessarily limited, and may be any of the effects described in the present disclosure.
  • FIG. 1 It is a figure which shows access units other than the head of GOP in case an encoding system is HEVC. It is a figure which shows the structural example of a HFR, blur control, and SEI message. It is a figure which shows the content of the main information in the structural example of a HFR, blur control, and SEI message. It is a figure which shows the content of the main information in the structural example of the HFR information descriptor, and the structural example. It is a figure which shows the structural example of a HFR blur control descriptor. It is a figure which shows the structural example of transport stream TS. It is a block diagram which shows the structural example of a receiver.
  • FIG. 1 shows a configuration example of a transmission / reception system 10 as an embodiment.
  • the transmission / reception system 10 includes a transmission device 100 and a reception device 200.
  • the transmission device 100 generates a transport stream TS as a container, and transmits the transport stream TS on a broadcast wave or a net packet.
  • the transport stream TS includes a video stream obtained by encoding high frame rate moving image data such as 120 Hz, 240 Hz, or 480 Hz. In this case, for example, H.264 / AVC, H.H. Encoding such as H.265 / HEVC is performed.
  • One or more types of blur control information for controlling blur are inserted into the transport stream TS layer and / or the video stream layer. On the receiving side, blur control information can be easily obtained from the container layer or the video stream layer.
  • the transmitting apparatus 100 inserts a descriptor including blur control information into the layer of the transport stream TS. In this embodiment, transmitting apparatus 100 inserts an SEI message including blur control information into the layer of the video stream. In this embodiment, transmitting apparatus 100 inserts a scripter including identification information indicating that an SEI message including blur control information is inserted into the layer of the video stream into the layer of transport stream TS.
  • the receiving apparatus 200 receives the transport stream TS transmitted from the transmitting apparatus 100 on broadcast waves or net packets.
  • This transport stream TS includes a deo stream obtained by encoding high frame rate moving image data.
  • Blur control information for controlling blur is inserted in the transport stream TS layer and / or the video stream layer.
  • the receiving apparatus 200 decodes the video stream to obtain high frame rate moving image data, and performs blurring processing using blur control information on the moving image data. In this case, the receiving apparatus 200 selects and uses blur control information of a type corresponding to the display frame rate or a desired image quality from a plurality of types of blur control information.
  • the type of blur control information corresponding to the desired image quality is selected and used according to the user's selection operation. Also, for example, when obtaining display image data with a reduced frame rate from moving image data with a high frame rate, in order to obtain an appropriate image quality, the corresponding type of blur control information is selected and used.
  • the blur control information is provided with blur to obtain a desired image quality or to obtain an appropriate image quality when the frame rate is lowered on the receiving side to which high frame rate moving image data is transmitted. Used in processing.
  • FIG. 2A shows a change in the signal level of a predetermined pixel as the frame progresses in moving image data having a high frame rate, for example, a frame rate of 120 Hz.
  • the horizontal axis represents the frame, “0” indicates the current frame, “ ⁇ n” indicates the frame before n frames, and “n” indicates the frame after n frames.
  • the signal level is shown with a maximum value of 1.
  • 3 (a) to 3 (d) show the correspondence between light stimulus (left) and visual response (right), respectively.
  • the apparent brightness is accompanied by a time delay of several tens of ms.
  • the apparent brightness changes at the same period.
  • FIG. 4 (a) and 4 (b) also show the correspondence between light stimulus (left) and visual response (right), respectively.
  • FIG. 4A as shown by hatching, the apparent brightness is affected by the previous light stimulus.
  • FIG. 4B as shown with hatching, when the presentation time of the light stimulus becomes longer, the influence of the apparent brightness stimulus becomes longer.
  • the blur control information is function information using a frame as a parameter, and gives a weighting coefficient for each frame in blurring processing for adding image data of a peripheral frame to image data of the current frame.
  • FIG. 5A shows an example in which past and future frames are used and a negative coefficient is included as part of the weighting coefficient of each frame.
  • FIG. 5B is an example in which past and future frames are used and a negative coefficient is not included as a weighting coefficient for each frame.
  • FIG. 5C shows an example in which only past frames are used and a negative coefficient is included as part of the weighting coefficient of each frame.
  • FIG. 5D shows an example in which only past frames are used and no negative coefficient is included as a weighting coefficient for each frame.
  • blur control information for allowing an image observer to perceive a predetermined image quality when moving image data at a high frame rate is used as display image data as it is or when moving image data for display with a reduced frame rate is obtained. Can be obtained.
  • blur control information for allowing an image observer to perceive an appropriate image quality can be obtained.
  • FIGS. 6A to 6D show an example of the weighting coefficient of each frame transmitted as blur control information.
  • the example of FIG. 6A corresponds to the function type shown in FIG. 5A, and the weighting coefficient f ( ⁇ 3) which is the value of the function f (x) in the frames “ ⁇ 3” to “3”. ) To f (3) are transmitted as blur control information.
  • the frame range of “ ⁇ 3” to “3” is an example and is not limited to this.
  • the number of past and future used frames may not be three, and the number of past and future used frames may not be the same. The same applies to the examples of FIGS. 6B to 6D.
  • the example of FIG. 6B corresponds to the function type shown in FIG. 5B, and the weighting coefficient f ( ⁇ 3) which is the value of the function f (x) in the frames “ ⁇ 3” to “3”.
  • To f (3) are transmitted as blur control information.
  • the example of FIG. 6C corresponds to the function type shown in FIG. 5C, and the weighting coefficient f ( ⁇ 3) which is the value of the function f (x) in the frames “ ⁇ 3” to “0”.
  • To f (0) are transmitted as blur control information.
  • the example of FIG. 6D corresponds to the function type shown in FIG. 5D, and the weighting coefficient f ( ⁇ 3) which is the value of the function f (x) in the frames “ ⁇ 3” to “0”.
  • To f (0) are transmitted as blur control information.
  • FIG. 7 shows a configuration example of the transmission device 100.
  • the transmission apparatus 100 includes a CPU (Central Processing Unit) 101, an encoder 102, a multiplexer 103, and a transmission unit 104.
  • the CPU 101 constitutes a control unit and controls the operation of each unit of the transmission device 100.
  • Encoder 102 inputs moving image data VD having a high frame rate such as 120 Hz, 240 Hz, or 480 Hz.
  • the high frame rate moving image data VD is obtained, for example, by being imaged by an imaging device (camera) (not shown), and is in a state where no blur is applied.
  • the encoder 102 adds, for example, H.264 to the moving image data VD. H.264 / AVC, H.H.
  • An encoding process such as H.265 / HEVC is performed to generate a video stream.
  • the encoder 102 inserts the blur control information described above into the layer of the video stream. For example, it is inserted in units such as a picture unit, a GOP (Group Of Pictures) unit, or a scene unit.
  • the encoder 102 inserts a newly defined HFR / blur control / SEI message (HFR_blur_control SEI message) into the “SEIs” portion of the access unit (AU).
  • FIG. 8 shows the top access unit of GOP (Group Of Pictures) when the encoding method is HEVC.
  • FIG. 9 shows an access unit other than the head of the GOP when the encoding method is HEVC.
  • a decoding SEI message group “Prefix_SEIs” is arranged before a slice (slices) in which pixel data is encoded, and a display SEI message group “ “Suffix_SEIs” is arranged.
  • the HFR / blur control / SEI message is arranged, for example, as an SEI message group “Suffix_SEIs”.
  • FIG. 10 shows a structural example (Syntax) of the HFR / blur control / SEI message.
  • FIG. 11 shows the contents (Semantics) of main information in the structural example.
  • the field “source_frame_rate” indicates the frame rate of moving image data having a high frame rate to be transmitted. For example, “0x01” indicates 120 Hz, “0x02” indicates 240 Hz, and “0x03” indicates 480 Hz.
  • “Field of“ number_of_blur_control_info ” indicates the number (number of types) of blur control information to be transmitted. The following information exists repeatedly for this number.
  • the field “display_frame_rate” indicates the frame rate of the display image data. For example, “0x01” indicates 60 Hz, “0x02” indicates 120 Hz, “0x03” indicates 240 Hz, and “0x04” indicates 480 Hz.
  • function_type indicates the function type. For example, “0x01” indicates that the current frame and the previous frame are used, and the weighting coefficient includes a negative coefficient (see FIGS. 5A and 6A). “0x02” indicates that the current frame and the previous frame are used and the weighting coefficient has no negative coefficient (see FIGS. 5B and 6B).
  • 0x03 indicates that the current frame and the frames before and after the frame are used, and the weighting coefficient includes a negative coefficient (see FIGS. 5C and 6C).
  • 0x04 indicates that the current frame and the frames before and after it are used and the weighting coefficient has no negative coefficient (see FIGS. 5D and 6D).
  • start_frame indicates the first frame to be used.
  • end_frame indicates the last frame to be used. For example, in the example of FIGS. 6A and 6B, the first frame is “ ⁇ 3” and the last frame is “3”. Further, for example, in the example of FIGS. 6C and 6D, the first frame is “ ⁇ 3” and the last frame is “0”.
  • number_of_frame indicates the number of used frames. For example, in the example of FIGS. 6A and 6B, “7” is set. Further, for example, in the example of FIGS. 6C and 6D, “4” is set. The following information exists repeatedly for this number.
  • frame_coef (i) indicates a weighting coefficient (function value) used in each frame.
  • the multiplexer 103 converts the video stream generated by the encoder 102 into a PES (Packetized Elementary Stream) packet, further converts it into a transport packet, and multiplexes to obtain a transport stream TS as a multiplexed stream.
  • PES Packetized Elementary Stream
  • the multiplexer 103 inserts identification information indicating that blur control information is inserted into the layer of the video stream into the layer of the transport stream TS as the container.
  • the multiplexer 103 converts a newly defined HFR information descriptor (HFR_information descriptor) into a video elementary loop (PMT: Program Map Table) included in the transport stream TS. Insert it under Video ES loop).
  • HFR_information descriptor a newly defined HFR information descriptor
  • PMT Program Map Table
  • FIG. 12A shows a structural example (Syntax) of the HFR information descriptor. Moreover, FIG.12 (b) has shown the content (Semantics) of the main information in the structural example.
  • the 8-bit field of “HFR_information“ descriptor tag ” indicates a descriptor type, and here indicates that it is an HFR information descriptor.
  • the 8-bit field of “HFR_ information descriptor length” indicates the length (size) of the descriptor, and indicates the number of subsequent bytes as the descriptor length.
  • the 1-bit field of “HFR_blur_control_SEI_existed” is flag information indicating whether or not an HFR / blur control / SEI message is present in the video layer (video stream layer). For example, “1” indicates that it exists, and “0” indicates that it does not exist.
  • the transmission unit 104 transmits the transport stream TS obtained by the multiplexer 103 to the reception device 200 on a broadcast wave or a net packet.
  • moving image data VD having a high frame rate such as 120 Hz, 240 Hz, or 480 Hz is input to the encoder 102.
  • H.D. H.264 / AVC H.H.
  • An encoding process such as H.265 / HEVC is performed to generate a video stream.
  • blur control information is inserted into the layer of the video stream. That is, in the encoder 102, a newly defined HFR / blur control / SEI message (see FIG. 10) is inserted into the "SEIs" portion of the access unit (AU).
  • the video stream generated by the encoder 102 is supplied to the multiplexer 103.
  • the multiplexer 103 performs PES packetization of the video stream and further transport packetization to multiplex, thereby obtaining a transport stream TS as a multiplexed stream.
  • identification information indicating that the blur control information is inserted into the layer of the video stream is inserted into the layer of the transport stream TS as the container. That is, in the multiplexer 103, the HFR information descriptor (see FIG. 12A) is inserted under the video elementary loop (Video ES loop) of the program map table (PMT: Program Map Table). .
  • the transport stream TS generated by the multiplexer 103 is sent to the transmission unit 104.
  • the transport stream TS is transmitted to the receiving apparatus 200 on a broadcast wave or a net packet.
  • the example in which the blur control information is inserted into the video stream layer is shown. Since the HFR / blur control / SEI message can be sent most frequently for each picture, the blur control information can be changed for each picture. Alternatively, the HFR, blur control, and SEI messages can be sent, for example, once per GOP or scene, or in coarser units. Alternatively, even if the HFR / blur control / SEI message is sent for each picture, if the value of the meta information does not change, a static operation is possible.
  • the multiplexer 103 inserts a newly defined HFR blur control descriptor (HFR_blur_control descriptor) under the program map table (PMT). This is sufficient when static operation is sufficient.
  • HFR_blur_control descriptor HFR_blur_control descriptor
  • FIG. 13 shows a structural example (Syntax) of the HFR / blur control descriptor.
  • An 8-bit field of “descriptor_tag” indicates a descriptor type. Here, it indicates that it is an HFR blur control descriptor.
  • the 8-bit field of “descriptor_length” indicates the length (size) of the descriptor, and indicates the number of subsequent bytes as the length of the descriptor.
  • the contents of the HFR / blur control descriptor are the same as the contents of the above-described HFR / blur control / SEI message (see FIG. 10).
  • FIG. 14 illustrates a configuration example of the transport stream TS.
  • An HFR / blur control / SEI message (HFR_blur_control SEI message) is inserted in the access unit.
  • the transport stream TS includes a PMT (Program Map Table) as PSI (Program Specific Information).
  • PSI is information describing to which program each elementary stream included in the transport stream belongs.
  • the PMT there is an elementary loop having information related to each elementary stream.
  • a video elementary loop (Video ES loop).
  • information such as a stream type and a packet identifier (PID) is arranged corresponding to the above one video elementary stream, and information related to the video elementary stream is described.
  • a descriptor is also arranged.
  • HFR_information ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ descriptor is arranged as one of the descriptors. As described above, this descriptor indicates that an HFR / blur control / SEI message is inserted in the video stream.
  • HFR_blur_control_ descriptor may be inserted as one of the descriptors. This descriptor is inserted in place of the HFR / blur control / SEI message or together with the HFR / blur control / SEI message.
  • the transport stream TS includes an EIT (Event Information Table) as SI (Serviced Information) for managing events (programs).
  • EIT Event Information Table
  • SI Serviced Information
  • An HFR blur control descriptor (HFR_blur_control_ descriptor) may be inserted into this EIT. This descriptor is inserted in place of the HFR / blur control / SEI message or together with the HFR / blur control / SEI message.
  • FIG. 15 illustrates a configuration example of the receiving device 200.
  • the receiving apparatus 200 includes a CPU (Central Processing Unit) 201, a user operation unit 201a, a receiving unit 202, a demultiplexer 203, a decoder 204, a display processing unit 205, and a display unit 206.
  • the CPU 201 constitutes a control unit and controls the operation of each unit of the receiving device 200.
  • the receiving unit 202 receives the transport stream TS transmitted from the transmitting device 100 on broadcast waves or net packets.
  • the transport stream TS includes a video stream obtained by performing encoding processing on moving image data VD having a high frame rate such as 120 Hz, 240 Hz, or 480 Hz.
  • the demultiplexer 203 extracts a video stream from the transport stream TS by PID filtering and supplies it to the decoder 204. Further, the demultiplexer 203 extracts section information included in the layer of the transport stream TS and sends it to the CPU 201. In this case, an HFR information descriptor (see FIG. 12A) and an HFR blur control descriptor (see FIG. 13) are also extracted.
  • the decoder 204 performs a decoding process on the video stream supplied from the demultiplexer 203 and outputs high-frame-rate moving image data VD.
  • the decoder 204 extracts a parameter set and SEI message inserted in each access unit constituting the video stream, and sends the parameter set and SEI message to the CPU 201. In this case, the HFR / blur control / SEI message (see FIG. 10) is also extracted.
  • the display processing unit 205 appropriately performs processing such as frame rate conversion on the moving image data obtained by the decoder 204 according to the display capability of the display unit 206 to obtain display image data VDd. For example, when the frame rate of the moving image data DV is 120 Hz and the display unit 206 performs 120 Hz display, frame rate conversion is not performed. For example, when the frame rate of the moving image data DV is 120 Hz and the display unit 206 performs 60 Hz display, frame rate conversion is performed.
  • the display processing unit 205 uses the image data of the surrounding frames in addition to the image data of the current frame, and the HFR / blur control / SEI message or the HFR / Based on the blur control information (weighting coefficient of each frame) included in the blur control descriptor, the blurring process is performed.
  • the CPU 201 automatically selects which blur control information to use based on the frame rate, display frame rate, etc. of the moving image data DV. Or the user arbitrarily selects.
  • the CPU 201 may display a UI screen indicating information related to a plurality of blur control information on the display unit 206 for the convenience of user selection.
  • information related to a plurality of blur control information what is the appropriate frame rate and display frame rate of the moving image data DV? Information that can be used as a reference when selecting what kind of image quality should be perceived by the observer is conceivable.
  • the signal (image data) of a certain frame of the display image data VDd is calculated using the signal of the frame of the moving image data DV and the surrounding frames, and is given a blur.
  • the frames having the moving image data DV and the signals of the surrounding frames are multiplied by the corresponding weighting coefficients and integrated, and the integration result is divided by the integration result of the weighting coefficients to display the frame having the display image data VDd. Is obtained.
  • FIG. 16 shows an example of processing for obtaining a signal of frame “0” as a certain frame of the display image data VDd.
  • FIG. 16A shows a change in the signal level of a predetermined pixel as the frame progresses in moving image data DV at a high frame rate, for example, a frame rate of 120 Hz.
  • the signal level is shown with a maximum value of 1.
  • FIG. 16 (b) shows blur control information (weighting coefficient of each frame) using each of the frames “ ⁇ 3” to “3” shown in FIG. 6 (a).
  • FIG. 16C shows weighting coefficients f ( ⁇ 3) to f (3) corresponding to the signals S ( ⁇ 3) to S (3) of the respective frames “ ⁇ 3” to “3” of the moving image data DV. ) Is multiplied.
  • the signal of the frame of “0” of the display image data VDd has an integrated value of “ ⁇ 3” to “3” as a result of multiplication of each frame of “ ⁇ 3” to “3”. Divided by the integrated value of the weighting coefficient of each frame.
  • FIG. 17 shows an example of processing for obtaining a signal of a frame “0” as a certain frame of the display image data VDd.
  • FIG. 17A is the same as that shown in FIG.
  • FIG. 17B shows blur control information (weighting coefficient of each frame) using each of the frames “ ⁇ 3” to “3” shown in FIG. 6B.
  • FIG. 17C shows weighting coefficients f ( ⁇ 3) to f (3) corresponding to the signals S ( ⁇ 3) to S (3) of the respective frames “ ⁇ 3” to “3” of the moving image data DV. ) Is multiplied.
  • the signal of the frame of “0” of the display image data VDd has an integrated value of “ ⁇ 3” to “3” as a result of multiplication of each frame of “ ⁇ 3” to “3”. Divided by the integrated value of the weighting coefficient of each frame.
  • FIG. 18 shows an example of processing for obtaining a signal of frame “0” as a certain frame of the display image data VDd.
  • FIG. 18A is the same as that shown in FIG.
  • FIG. 18B shows blur control information (weighting coefficient of each frame) using each frame “ ⁇ 3” to “0” shown in FIG. 6C.
  • FIG. 18C shows weighting coefficients f ( ⁇ 3) to f (0) corresponding to the signals S ( ⁇ 3) to S (0) of the frames “ ⁇ 3” to “0” of the moving image data DV, respectively. ) Is multiplied.
  • the signal of the frame of “0” of the display image data VDd has an integrated value of “ ⁇ 3” to “0” as a result of multiplication of each frame of “ ⁇ 3” to “0”. Divided by the integrated value of the weighting coefficient of each frame.
  • FIG. 19 shows an example of processing for obtaining a signal of frame “0” as a certain frame of the display image data VDd.
  • FIG. 19A is the same as that shown in FIG.
  • FIG. 19B shows blur control information (weighting coefficient of each frame) using each frame “ ⁇ 3” to “0” shown in FIG. 6D.
  • FIG. 19C shows weighting coefficients f ( ⁇ 3) to f (0) corresponding to the signals S ( ⁇ 3) to S (0) of the frames “ ⁇ 3” to “0” of the moving image data DV, respectively. ) Is multiplied.
  • the signal of the frame of “0” in the display image data VDd has an integrated value of “ ⁇ 3” to “0” as a result of multiplication of each frame of “ ⁇ 3” to “0”. Divided by the integrated value of the weighting coefficient of each frame.
  • the display unit 206 displays a moving image based on the display image data obtained by the display processing unit 205.
  • the display unit 206 includes, for example, an LCD (Liquid Crystal Display), an organic EL (Organic Electro-Luminescence) panel, and the like.
  • the display unit 206 may be an external device connected to the receiving device 200.
  • the reception unit 202 receives the transport stream TS transmitted from the transmission device 100 on broadcast waves or net packets.
  • This transport stream TS is sent to the demultiplexer 203.
  • the demultiplexer 203 extracts a video stream to be decoded from the transport stream TS by PID filtering.
  • section information included in the layer of the transport stream TS is extracted and sent to the CPU 201.
  • the HFR information descriptor see FIG. 12A
  • the HFR blur control descriptor see FIG. 13
  • the CPU 201 recognizes from the HFR information descriptor that there is insertion of blur control information in the video stream. Further, the CPU 201 acquires blur control information from the HFR / blur control descriptor.
  • the video stream extracted by the demultiplexer 203 is supplied to the decoder 204.
  • the video stream is subjected to decoding processing to obtain high frame rate moving image data VD.
  • the parameter set and SEI message inserted in each access unit constituting the video stream are extracted and sent to the CPU 201.
  • the HFR / blur control / SEI message (see FIG. 10) is also extracted.
  • the blur control information is acquired from the HFR / blur control / SEI message.
  • the high frame rate moving image data DV obtained by the decoder 204 is supplied to the display processing unit 205.
  • processing such as frame rate conversion is appropriately performed on the moving image data DV obtained by the decoder 204 in accordance with the display capability of the display unit 206, and display image data VDd is obtained.
  • the display processing unit 205 uses image data of surrounding frames in addition to the image data of the current frame, and blur control information (weighting of each frame). Based on the coefficient, blurring processing is performed (see FIGS. 16 to 19).
  • a plurality of blur control information is sent from the transmission side, which blur control information is used is automatically selected by the CPU 201 based on the frame rate, display frame rate, etc. of the moving image data DV. Or selected by user operation. For this user operation, for example, a UI screen showing a plurality of blur control information is displayed on the display unit 206.
  • Display image data DVd output from the display processing unit 205 is supplied to the display unit 206. Then, a moving image based on the display image data DVd is displayed on the display unit 206.
  • blur control information for controlling blur is inserted into the layer of the container (transport stream TS) and / or the layer of the video stream.
  • the Therefore, the receiving side can control the blur based on the blur control information, and can easily present an image with an appropriate image quality.
  • the receiving apparatus 100 performs blurring processing based on blur control information inserted in a container (transport stream TS) layer and / or a video stream layer. Therefore, it is possible to easily present an image with appropriate image quality.
  • blur control information is added on the transmission side. It is also conceivable to use blur control information held in the holding unit. In this case, for example, it is conceivable that blur control information is acquired from the net and held in the holding unit, or acquired from a removable recording medium and held in the holding unit. In this case, the removable recording medium may directly constitute the holding unit.
  • blur control information when blur control information is added on the transmission side, it may be possible to update (correct) the blur control information on the reception side. In this case, it is conceivable to acquire the blur control information to be updated from the net or from a removable recording medium.
  • the receiving apparatus 200 obtains high frame rate moving image data to which blur control information is added from a broadcast or the network.
  • a removable recording medium such as a USB memory in the receiving device 200.
  • blur addition processing is performed on the high frame rate moving image data transmitted from the transmission side using the blur control information transmitted from the transmission side.
  • An example is shown.
  • a recording apparatus that records high-frame-rate moving image data sent from the transmission side as content in a recording unit including a semiconductor memory or the like, and reproduces and uses it at an appropriate timing is also conceivable.
  • the receiving device 200 may include the recording unit.
  • the blur control information when the blur control information is sent from the transmission side, the blur control information is also recorded in association with the high frame rate moving image data.
  • the blur control information can be appropriately corrected. Also, if no blur control information is sent from the transmission side, blur control information is generated during content editing, or obtained from the net, and associated with the high-frame-rate moving image data in the recording unit. It is also possible to record.
  • blur when transmitting a container including a video stream obtained by encoding high-frame-rate moving image data, blur is controlled in the container layer and / or the video stream layer.
  • An example of inserting blur control information was shown.
  • a video stream obtained by encoding high-frame-rate moving image data as content on a predetermined recording medium such as a semiconductor memory.
  • blur control information for controlling blur of high frame rate moving image data is generated, and the blur control information is inserted into the layer of the video stream or recorded in the state of the container including the video stream.
  • recording on a medium it can be considered to insert into a container layer and record.
  • the transmission / reception system 10 including the transmission device 100 and the reception device 200 is shown.
  • the configuration of the transmission / reception system to which the present technology can be applied is not limited thereto.
  • a receiving apparatus 200 is connected to a digital interface, for example, a set-top box (STB) 200A and a monitor 200B connected via a digital interface such as HDMI (High-Definition Multimedia Interface).
  • STB set-top box
  • monitor 200B connected via a digital interface such as HDMI (High-Definition Multimedia Interface).
  • HDMI High-Definition Multimedia Interface
  • HDMI High-Definition Multimedia Interface
  • the set top box 200A may include the display processing unit 205 or the decoder 204.
  • the display processing unit 205 or later is included in the monitor 200B
  • blur control information is transmitted from the set top box 200A to the monitor 200B together with uncompressed moving image data DV.
  • the set-top box 200A transmits blur control information by inserting it in the blanking period of the moving image data DV.
  • blur control information is sent to the monitor 200B using a packet of “Video displaying InfoFrame”.
  • FIG. 21 shows a transmission / reception system 10B in which the portion of the monitor 200B in FIG. 20 is replaced with an HMD (head mounted display) device 200C.
  • FIG. 22 shows a configuration example of the HMD device 200C.
  • the HMD device 200 ⁇ / b> C includes a CPU 251, a user operation unit 252, an HDMI receiving unit 253, an image processing unit 254, a display processing unit 255, a left eye display unit 256, and a right eye display unit 257. Yes.
  • the CPU 251 constitutes a control unit and controls the operation of each unit of the HMD device 200C.
  • the user operation unit 252 is a key, button, touch panel, remote controller, or the like for the user to perform various operations.
  • the HDMI receiving unit 253 is configured as an HDMI receiving unit compliant with the HDMI standard, and receives the display image data DVd from the set top box 200A.
  • the image processing unit 254 performs signal processing such as scaling and noise reduction on the display image data DVd input from the HDMI receiving unit 253.
  • the display control unit 255 displays and outputs the image data obtained by the image processing unit 254 to the left-eye display unit 256 and the right-eye display unit 257.
  • Each of the left-eye display unit 256 and the right-eye display unit 257 is equipped with a lens block (not shown in FIG. 22) for enlarging an image.
  • the left and right lens blocks are each composed of a combination of a plurality of optical lenses, and optically process the image displayed on the display panel.
  • the images displayed on the display panels of the left-eye display unit 256 and the right-eye display unit 257 are enlarged when passing through the lens block, and form a large virtual image on the retina of the user. Then, the left-eye image and the right-eye image are fused in the observing user's brain.
  • the left-eye display unit 256 and the right-eye display unit 257 are composed of, for example, a liquid crystal display or an organic EL element.
  • the HDMI receiving unit 253 receives the display image data DVd from the set top box 200A.
  • the HDMI receiving unit 253 receives the high frame rate moving image data DV and blur control from the set top box 200A. It is also possible to receive information.
  • the image processing unit 254 appropriately performs processing such as frame rate conversion on the moving image data DV according to the display capabilities of the display panels of the left-eye display unit 256 and the right-eye display unit 257.
  • display image data VDd is obtained.
  • the image processing unit 254 when obtaining the image data of each frame of the display image data VDd, similarly to the display processing unit 205 of the receiving apparatus 200 shown in FIG.
  • the image data of the first frame is used, and blurring processing is performed based on the blur control information (weighting coefficient of each frame) (see FIGS. 16 to 19).
  • the image display is performed by the display image data VDd subjected to the blur imparting process based on the blur control information, an image with an appropriate image quality can be easily presented.
  • the transmission of blur control information from the set-top box 200A to the monitor 200B or the HMD device 200C is not performed using the "Video display" InfoFrame packet, but other "InfoFrame” packets, for example, "Vender Specific InfoFrame” packets. It is also possible to use such as. It is also conceivable to transmit blur control information via a CEC line or an HEC communication line.
  • the container is a transport stream (MPEG-2 TS)
  • MPEG-2 TS transport stream
  • the present technology can be similarly applied to a system configured to be distributed to receiving terminals using a network such as the Internet.
  • the Internet distribution it is often distributed in a container of MP4 or other formats.
  • containers of various formats such as transport stream (MPEG-2 TS) or MMT (MPEG Media Transport) adopted in the digital broadcasting standard, MP4 used in Internet distribution, and the like are applicable.
  • this technique can also take the following structures.
  • an encoding unit that generates a video stream obtained by encoding high frame rate moving image data;
  • a transmission apparatus comprising: an information insertion unit that inserts blur control information for controlling blur in the container layer and / or the video stream layer.
  • the blur control information gives a weighting coefficient for each frame in a blur provision process in which image data of a peripheral frame is added to image data of a current frame.
  • the peripheral frames include past and future frames.
  • the peripheral frames include only past frames.
  • the transmission device in any one of (2) to (4), wherein the weighting coefficient of the peripheral frame includes a negative coefficient.
  • the moving image data having the high frame rate is moving image data having a frame rate of 120 Hz, 240 Hz, or 480 Hz.
  • the information insertion unit inserts an SEI message including the blur control information into a layer of the video stream.
  • the information insertion unit further inserts identification information indicating the presence into the container layer.
  • the transmission device according to any one of (1) to (8), wherein the information insertion unit inserts a descriptor including the blur control information into a layer of the container.
  • the container is an MPEG2 transport stream, The transmitting device according to (9), wherein the descriptor is inserted into a program map table or an event information table.
  • the information insertion unit inserts a plurality of types of blur control information into the container layer and / or the video stream layer.
  • an image encoding step in which an image encoding unit generates a video stream obtained by encoding moving image data at a high frame rate; A transmission step of transmitting a container including the video stream; A transmission method, wherein the information insertion unit includes an information insertion step of inserting blur control information for controlling blur in the container layer and / or the video stream layer.
  • a receiving unit that receives a container including a video stream obtained by encoding moving image data at a high frame rate; A decoding unit for decoding the video stream to obtain the high frame rate moving image data;
  • a receiving apparatus further comprising: a processing unit that performs blurring processing using blur control information on the obtained high-frame-rate moving image data.
  • the blur control information is inserted into the container layer and / or the video stream layer, The receiving device according to (13), wherein the processing unit uses the inserted blur control information or corrects the blur control information.
  • a holding unit for holding the blur control information is further provided.
  • a plurality of types of blur control information are inserted in the container layer and / or the video stream layer, The receiving apparatus according to (13), wherein the processing unit selects and uses blur control information of a type corresponding to a display frame rate or a desired image quality from the plurality of types of blur control information.
  • the reception unit includes a reception step of receiving a container including a video stream obtained by encoding high-frame-rate moving image data. Blur control information for controlling blur is inserted in the container layer and / or the video stream layer, A decoding step of decoding the video stream to obtain the high frame rate moving image data; A receiving method, further comprising: a processing step in which a processing unit performs a blurring process using the blur control information on the obtained high-frame-rate moving image data.
  • an encoding unit that generates a video stream obtained by encoding high-frame-rate moving image data
  • a generation unit that generates blur control information for controlling blur of the moving image data at the high frame rate
  • a recording apparatus comprising: a recording unit that records the blur control information and the video stream inserted in a layer of the video stream and / or a container layer including the video stream.
  • an encoding step in which an encoding unit generates a video stream obtained by encoding moving image data at a high frame rate;
  • a generating step for generating blur control information for controlling blur of the moving image data at the high frame rate;
  • the recording unit includes a recording step of recording the blur control information and the video stream inserted into a layer of the video stream and / or a container layer including the video stream.
  • Transmission / reception system 100 ... Transmission device 101 ... CPU DESCRIPTION OF SYMBOLS 102 ... Encoder 103 ... Multiplexer 104 ... Transmission part 200 ... Receiving apparatus 200A ... Set top box 200B ... Monitor 200C ... HMD apparatus 201 ... CPU 201a: User operation unit 202 ... Reception unit 203 ... Demultiplexer 204 ... Decoder 205 ... Display processing unit 206 ... Display unit 251 ... CPU 252: User operation unit 253: HDMI reception unit 254 ... Image processing unit 255 ... Display processing unit 256 ... Display unit for left eye 257 ... Display unit for right eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Systems (AREA)

Abstract

ハイフレームレートの動画像データを受信する受信側において、適切な画質の画像を容易に提示可能とする。 ハイフレームレートの動画像データを符号化して得られたビデオストリームを生成する。このビデオストリームを含むコンテナを送信する。コンテナのレイヤおよび/またはビデオストリームのレイヤに、ブラーをコントロールするためのブラーコントロール情報を挿入する。例えば、ブラーコントロール情報は、現在フレームの画像データに周辺フレームの画像データを加算するブラー付与処理における各フレームの重み付け係数を与える。

Description

送信装置、送信方法、受信装置、受信方法、記録装置および記録方法
 本技術は、送信装置、送信方法、受信装置、受信方法、記録装置および記録方法に関し、詳しくは、ハイフレームレートの動画像データを送信する送信装置等に関する。
 近年、高速フレームシャッターでハイフレームレート撮影を行って、ハイフレームレートの動画像データを出力するカメラが知られている(例えば、特許文献1参照)。例えば、ノーマルフレームレートが60Hzであるのに対して、ハイフレームレートは120Hz、240Hz、480Hzなどである。
 そして、近年、このハイフレームレートの動画像データを符号化して得られたビデオストリームを含むコンテナを生成し、このコンテナを放送波あるいはネットのパケットに載せて送信することが考えられている。例えば、コンテナとしては、MPEG-2 TS(MPEG-2 Transport Stream)あるいはMMT(MPEG Media Transport)などが知られている。
特開2010-178124号公報
 ハイフレームレートの動画像データを受信する受信機において、表示部がハイフレームレートに対応していなければ、例えばハイフレームレートの動画像データに間引き処理あるは加算処理を行ってノーマルフレームレートの動画像データを得て、画像表示を行うことになる。しかし、単に間引き処理あるは加算処理を行って得られたノーマルフレームレートの動画像データによる表示画像は観察者にとって満足のいくものとはならないことが想定される。
 本技術の目的は、ハイフレームレートの動画像データを受信する受信側において、適切な画質の画像を容易に提示可能とすることにある。
 本技術の概念は、
 ハイフレームレートの動画像データを符号化して得られたビデオストリームを生成する符号化部と、
 上記ビデオストリームを含むコンテナを送信する送信部と、
 上記コンテナのレイヤおよび/または上記ビデオストリームのレイヤに、ブラーをコントロールするためのブラーコントロール情報を挿入する情報挿入部を備える
 送信装置にある。
 本技術において、符号化部により、ハイフレームレートの動画像データを符号化して得られたビデオストリームが生成される。例えば、ハイフレームレートの動画像データは、120Hz、240Hzあるいは480Hzのフレームレートの動画像データである、ようにされてもよい。送信部により、ビデオストリームを含むコンテナが送信される。
 情報挿入部により、コンテナのレイヤおよび/またはビデオストリームのレイヤに、ブラーをコントロールするためのブラーコントロール情報が挿入される。例えば、周辺フレームの重み付け係数には負の係数が含まれる、ようにされてもよい。
 また、例えば、ブラーコントロール情報は、現在フレームの画像データに周辺フレームの画像データを加算するブラー付与処理における各フレームの重み付け係数を与える、ようにされてもよい。この場合、例えば、周辺フレームには、過去および未来のフレームが含まれる、ようにされてもよい。また、この場合、例えば、周辺フレームには、過去のフレームだけが含まれる、ようにされてもよい。
 また、例えば、情報挿入部は、ブラーコントロール情報を含むSEIメッセージをビデオストリームのレイヤに挿入する、ようにされてもよい。また、例えば、情報挿入部は、ビデオストリームのレイヤにブラーコントロール情報を挿入するとき、該挿入があることを示す識別情報をコンテナのレイヤにさらに挿入する、ようにされてもよい。このようにコンテナのレイヤに識別情報が挿入されることで、受信側では、ビデオストリームをデコードしなくても、ビデオストリームのレイヤにブラーコントロール情報の挿入があることを容易に認識可能となる。
 また、例えば、情報挿入部は、ブラーコントロール情報を含むデスクリプタをコンテナのレイヤに挿入する、ようにされてもよい。この場合、例えば、コンテナは、MPEG2トランスポートストリームであり、デスクリプタは、プログラム・マップ・テーブル、あるいはイベント・インフォメーション・テーブルに挿入される、ようにされてもよい。
 また、例えば、情報挿入部は、コンテナのレイヤおよび/またはビデオストリームのレイヤに、複数種類のブラーコントロール情報を挿入する、ようにされてもよい。このように複数種類のブラーコントロール情報が挿入されることで、受信側では、例えば、表示フレームレートに応じた、あるいは所望画質に応じた種類のブラーコントロール情報を選択して用いることができる。
 このように本技術においては、コンテナのレイヤおよび/またはビデオストリームのレイヤに、ブラーをコントロールするためのブラーコントロール情報を挿入するものである。そのため、受信側では、このブラーコントロール情報に基づいてブラーをコントロールでき、適切な画質の画像を容易に提示できる。
 また、本技術の他の概念は、
 ハイフレームレートの動画像データを符号化して得られたビデオストリームを含むコンテナを受信する受信部を備え、
 上記ビデオストリームを復号化して上記ハイフレームレートの動画像データを得る復号化部と、
 上記得られたハイフレームレートの動画像データにブラーコントロール情報を用いたブラー付与処理を行う処理部をさらに備える
 受信装置にある。
 本技術において、受信部により、ハイフレームレートの動画像データを符号化して得られたビデオストリームを含むコンテナが受信される。復号化部により、ビデオストリームが復号化されてハイフレームレートの動画像データが得られる。そして、処理部により、このハイフレームレートの動画像データにブラーコントロール情報を用いたブラー付与処理が行われる。
 例えば、コンテナのレイヤおよび/またはビデオストリームのレイヤに、ブラーコントロール情報が挿入されており、処理部は、挿入されているブラーコントロール情報を用いるか、あるいはこのブラーコントロール情報を修正して用いる、ようにされてもよい。また、例えば、ブラ―コントロール情報を保持する保持部をさらに備え、処理部は、保持部からブラーコントロール情報を取得して用いる、ようにされてもよい。
 また、例えば、コンテナのレイヤおよび/またはビデオストリームのレイヤに、複数種類のブラーコントロール情報が挿入されており、処理部は、複数種類のブラーコントロール情報から表示フレームレートに応じた、あるいは所望画質に応じた種類のブラーコントロール情報を選択して用いる、ようにされてもよい。また、例えば、処理部は、ハイフレームレートの動画像データからフレームレートを落とした表示画像データを得る際に、ブラー付与処理を行う、ようにされてもよい。
 このように本技術においては、受信されたハイフレームレートの動画像データにブラーコントロール情報に基づいてブラー付与処理を行うものである。そのため、適切な画質の画像を容易に提示できる。
 また、本技術の他の概念は、
 ハイフレームレートの動画像データを符号化して得られたビデオストリームを生成する符号化部と、
 上記ハイフレームレートの動画像データのブラーをコントロールするためのブラーコントロール情報を生成する生成部と、
 上記ビデオストリームのレイヤおよび/または上記ビデオストリームを含むコンテナのレイヤに挿入された上記ブラーコントロール情報および上記ビデオストリームを記録する記録部を備える
 記録装置にある。
 本技術において、符号化部により、ハイフレームレートの動画像データを符号化して得られたビデオストリームが生成される。生成部により、ハイフレームレートの動画像データのブラーをコントロールするためのブラーコントロール情報が生成される。そして、記録部により、ビデオストリームのレイヤおよび/またはビデオストリームを含むコンテナのレイヤに挿入されたブラーコントロール情報およびビデオストリームが記録される。
 このように本技術においては、ビデオストリームを含むコンテナのレイヤおよび/またはビデオストリームのレイヤにブラーをコントロールするためのブラーコントロール情報が挿入されて記録されるものである。そのため、再生時おいて、ハイフレームレートの動画像データのブラーをブラーコントロール情報に基づいてコントロールでき、適切な画質の画像を容易に提示できる。
 本技術によれば、ハイフレームレートの動画像データを受信する受信側において、適切な画質の画像を容易に提示できる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
実施の形態としての送受信システムの構成例を示すブロック図である。 ハイフレームレートの動画像データに対する間引き処理を説明するための図である。 光刺激(左)と視覚反応(右)の対応関係を説明するための図である。 光刺激(左)と視覚反応(右)の対応関係から、見かけの明るさは以前の光刺激の影響を受けることを説明するための図である。 ブラーコントロール情報を与える関数のタイプを説明するための図である。 ブラーコントロール情報として送信される各フレームの重み付け係数の一例を示す図である。 送信装置の構成例を示すブロック図である。 符号化方式がHEVCである場合におけるGOPの先頭のアクセスユニットを示す図である。 符号化方式がHEVCである場合におけるGOPの先頭以外のアクセスユニットを示す図である。 HFR・ブラーコントロール・SEIメッセージの構造例を示す図である。 HFR・ブラーコントロール・SEIメッセージの構造例における主要な情報の内容を示す図である。 HFR・インフォメーション・デスクリプタの構造例と、その構造例における主要な情報の内容を示す図である。 HFR・ブラーコントロール・デスクリプタの構造例を示す図である。 トランスポートストリームTSの構成例を示す図である。 受信装置の構成例を示すブロック図である。 表示画像データVDdのあるフレームとしてのフレーム「0」の信号を得るための処理の一例を示す図である。 表示画像データVDdのあるフレームとしてのフレーム「0」の信号を得るための処理の一例を示す図である。 表示画像データVDdのあるフレームとしてのフレーム「0」の信号を得るための処理の一例を示す図である。 表示画像データVDdのあるフレームとしてのフレーム「0」の信号を得るための処理の一例を示す図である。 送受信システムの他の構成例を示すブロック図である。 送受信システムの他の構成例を示すブロック図である。 HMD装置の構成例を示すブロック図である。
 以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明は以下の順序で行う。
 1.実施の形態
 2.変形例
 <1.実施の形態>
 [送受信システム]
 図1は、実施の形態としての送受信システム10の構成例を示している。この送受信システム10は、送信装置100と、受信装置200とを有する構成となっている。
 送信装置100は、コンテナとしてのトランスポートストリームTSを生成し、このトランスポートストリームTSを放送波、あるいはネットのパケットに載せて送信する。このトランスポートストリームTSには、例えば120Hz,240Hzあるいは480Hz等のハイフレームレートの動画像データを符号化して得られたビデオストリームが含まれる。この場合、例えば、H.264/AVC、H.265/HEVCなどの符号化が施される。
 トランスポートストリームTSのレイヤおよび/またはビデオストリームのレイヤに、ブラーをコントロールするためのブラーコントロール情報が1つまたは複数の種類挿入される。受信側においては、コンテナのレイヤあるいはビデオストリームのレイヤから、ブラーコントロール情報を容易に取得可能となる。
 この実施の形態において、送信装置100は、ブラーコントロール情報を含むデスクリプタをトランスポートストリームTSのレイヤに挿入する。また、この実施の形態において、送信装置100は、ブラーコントロール情報を含むSEIメッセージをビデオストリームのレイヤに挿入する。また、この実施の形態において、送信装置100は、ブラーコントロール情報を含むSEIメッセージがビデオストリームのレイヤに挿入されていることを示す識別情報を含むスクリプタをトランスポートストリームTSのレイヤに挿入する。
 受信装置200は、送信装置100から放送波、あるいはネットのパケットに載せて送られてくるトランスポートストリームTSを受信する。このトランスポートストリームTSには、ハイフレームレートの動画像データが符号化されて得られたデオストリームが含まれている。トランスポートストリームTSのレイヤおよび/またはビデオストリームのレイヤに、ブラーをコントロールするためのブラーコントロール情報が挿入されている。
 受信装置200は、ビデオストリームを復号化してハイフレームレートの動画像データを得、この動画像データにブラーコントロール情報を用いたブラ―付与処理をする。この場合、受信装置200は、複数種類のブラーコントロール情報から表示フレームレートに応じた、あるいは所望画質に応じた種類のブラーコントロール情報を選択して用いる。
 例えば、ハイフレームレートの動画像データをそのまま表示画像データとする場合に、ユーザの選択操作に応じて、所望画質に応じた種類のブラーコントロール情報が選択されて用いられる。また、例えば、ハイフレームレートの動画像データからフレームレートを落とした表示画像データを得る際に、適切な画質を得るために、それに対応した種類のブラーコントロール情報が選択されて用いられる。
 [ブラーコントロール情報]
 ブラーコントロール情報の詳細について説明する。ブラーコントロール情報は、上述したように、ハイフレームレートの動画像データが送られてくる受信側において、所望画質を得るための、あるいはフレームレートを落とした場合に適切な画質を得るためのブラー付与処理において用いられる。
 図2(a)は、ハイフレームレート、例えば120Hzのフレームレートの動画像データにおいて、フレーム進行に伴う所定ピクセルの信号レベルの変化を示している。横軸はフレームであり、「0」は現在フレームを示し、「-n」はnフレーム前のフレームを示し、「n」はnフレーム後のフレームを示している。なお、信号レベルは、最大値を1として示している。
 従来、表示フレームレートが60Hzである場合、例えば、図2(b)に示すように、間引き処理が行われて、60Hzのフレームレートの動画像データとされる。この場合、60Hzのフレームレートの動画像データにおいて、現在フレーム「0」の信号は、図2(c)に示すように、120Hzのフレームレートの動画像データにおける現在フレーム「0」の信号そのものであり、周辺のフレームの信号成分を含んではいない。そのため、このように単なる間引き処理で生成された60Hzのフレームレートの動画像データで提示される画像は滑らかさに欠けるものとなる。
 図3(a)~(d)は、それぞれ、光刺激(左)と視覚反応(右)の対応関係を示している。図3(a)に示すように、光刺激が一定時間呈示されると、見かけの明るさは数10msの時間遅れを伴う。また、図3(b)に示すように、光刺激が一定間隔で呈示されると、見かけの明るさは同一の周期で変化する。
 また、図3(c)に示すように、連続する光刺激が呈示されると、見かけの明るさも連続する。また、図3(d)に示すように、図3(b)と同じ周期でも、連続する光刺激が呈示されると、見かけの明るさは連続する。
 図4(a),(b)も、それぞれ、光刺激(左)と視覚反応(右)の対応関係を示している。図4(a)において、ハッチングを付して示すように、見かけの明るさは、以前の光刺激の影響を受ける。また、図4(b)において、ハッチングを付して示すように、光刺激の呈示時間が長くなると、見かけの明るさの刺激の影響も長くなる。
 この光刺激の影響は画像(映像)の重なり(ブラー)として見える。この重なり量をコントロールすることで、画像観察者が知覚する画質を積極的に変化させることが可能となる。この実施の形態においては、ブラーコントロール情報は、フレームをパラメータとする関数情報とされ、現在フレームの画像データに周辺フレームの画像データを加算するブラー付与処理における各フレームの重み付け係数を与える。
 図5(a)~(d)は、関数のタイプを示している。図5(a)は、過去と未来のフレームを利用し、かつ各フレームの重み付け係数の一部として負の係数が含まれる例である。図5(b)は、過去と未来のフレームを利用し、かつ各フレームの重み付け係数として負の係数が含まれない例である。図5(c)は、過去のフレームだけを利用し、かつ各フレームの重み付け係数の一部として負の係数が含まれる例である。図5(d)は、過去のフレームだけを利用し、かつ各フレームの重み付け係数として負の係数が含まれない例である。
 関数のタイプを変化させ、あるいは関数の係数を変化させることで、複数種類のブラーコントロール情報(各フレームの重み付け係数)を得ることが可能となる。例えば、ハイフレームレートの動画像データをそのまま表示画像データとする場合、あるいはそのフレームレートを落とした表示用動画像データを得る場合に、画像観察者に所定の画質を知覚させるためのブラーコントロール情報を得ることができる。また、例えば、ハイフレームレートの動画像データからフレームレートを落とした表示用動画像データを得る際に、画像観察者に適切な画質を知覚させるための、ブラーコントロール情報を得ることができる。
 なお、送信装置100から受信装置200にブラーコントロール情報を送信する場合、関数情報そのものを送ることも考えられるが、この実施の形態においては、その関数情報で与えられる、受信側のブラー付与処理で使用される各フレームの重み付け係数が送られる。
 図6(a)~(d)は、ブラーコントロール情報として送信される各フレームの重み付け係数の一例を示している。図6(a)の例は、図5(a)に示す関数タイプに対応しており、「-3」~「3」のフレームにおける関数f(x)の値である重み付け係数f(-3)~f(3)がブラーコントロール情報として送信される。なお、「-3」~「3」のフレーム範囲は一例であってこれに限定されない。過去と未来の使用フレームが3でなくてもよく、また過去と未来の使用フレームが同数でなくてもよい。これらの点については、図6(b)~(d)の例においても同様である。
 図6(b)の例は、図5(b)に示す関数タイプに対応しており、「-3」~「3」のフレームにおける関数f(x)の値である重み付け係数f(-3)~f(3)がブラーコントロール情報として送信される。図6(c)の例は、図5(c)に示す関数タイプに対応しており、「-3」~「0」のフレームにおける関数f(x)の値である重み付け係数f(-3)~f(0)がブラーコントロール情報として送信される。図6(d)の例は、図5(d)に示す関数タイプに対応しており、「-3」~「0」のフレームにおける関数f(x)の値である重み付け係数f(-3)~f(0)がブラーコントロール情報として送信される。
 「送信装置の構成」
 図7は、送信装置100の構成例を示している。この送信装置100は、CPU(Central Processing Unit)101と、エンコーダ102と、マルチプレクサ103と、送信部104を有している。CPU101は、制御部を構成し、送信装置100の各部の動作を制御する。
 エンコーダ102は、例えば120Hz,240Hzあるいは480Hz等のハイフレームレートの動画像データVDを入力する。このハイフレームレートの動画像データVDは、例えば、図示しない撮像装置(カメラ)で撮像されて得られたものであり、ブラ―が付与されていない状態にある。エンコーダ102は、この動画像データVDに、例えば、H.264/AVC、H.265/HEVCなどの符号化処理を施し、ビデオストリームを生成する。
 この際、エンコーダ102は、ビデオストリームのレイヤに、上述のブラーコントロール情報を挿入する。例えば、ピクチャ単位、GOP(Group Of Pictures)単位、あるいはシーン単位などの単位で挿入される。
 エンコーダ102は、アクセスユニット(AU)の“SEIs”の部分に、新規定義する、HFR・ブラーコントロール・SEIメッセージ(HFR_blur_control SEI message)を挿入する。
 図8は、符号化方式がHEVCである場合におけるGOP(Group Of Pictures)の先頭のアクセスユニットを示している。また、図9は、符号化方式がHEVCである場合におけるGOPの先頭以外のアクセスユニットを示している。
 HEVCの符号化方式の場合、画素データが符号化されているスライス(slices)の前にデコード用のSEIメッセージ群「Prefix_SEIs」が配置され、このスライス(slices)の後に表示用のSEIメッセージ群「Suffix_SEIs」が配置される。図8、図9に示すように、HFR・ブラーコントロール・SEIメッセージは、例えば、SEIメッセージ群「Suffix_SEIs」として配置される。
 図10は、HFR・ブラーコントロール・SEIメッセージの構造例(Syntax)を示している。図11は、その構造例における主要な情報の内容(Semantics)を示している。「source_frame_rate」のフィールドは、送信するハイフレームレートの動画像データのフレームレートを示す。例えば、“0x01”は120Hzを示し、“0x02”は240Hzを示し、“0x03”は480Hzを示す。
 「number_of_blur_control_info」のフィールドは、送信するブラーコントロール情報の数(種類数)を示す。この数の分だけ、以下の情報が繰り返し存在する。「display_frame_rate」のフィールドは、表示画像データのフレームレートを示す。例えば、“0x01”は60Hzを示し、“0x02”は120Hzを示し、“0x03”は240Hzを示し、“0x04”は480Hzを示す。
 「function_type」のフィールドは、関数タイプを示す。例えば、“0x01”は現在とその前のフレームを使用し、かつ重み付け係数の一部に負の係数があるタイプ(図5(a)、図6(a)参照)であることを示す。また、“0x02”は現在とその前のフレームを使用し、かつ重み付け係数に負の係数がないタイプ(図5(b)、図6(b)参照)であることを示す。
 また、“0x03”は現在とその前後のフレームを使用し、かつ重み付け係数の一部に負の係数があるタイプ(図5(c)、図6(c)参照)であることを示す。さらに、“0x04”は現在とその前後のフレームを使用し、かつ重み付け係数に負の係数がないタイプ(図5(d)、図6(d)参照)であることを示す。
 「start_frame」のフィールドは、使用する最初のフレームを示す。「end_frame」のフィールドは、使用する最後のフレームを示す。例えば、図6(a),(b)の例の場合、最初のフレームは「-3」で、最後のフレームは「3」である。また、例えば、図6(c),(d)の例の場合、最初のフレームは「-3」で、最後のフレームは「0」となる。
 「number_of_frame」のフィールドは、使用フレームの数を示す。例えば、図6(a),(b)の例の場合、「7」となる。また、例えば、図6(c),(d)の例の場合、「4」となる。この数の分だけ、以下の情報が繰り返し存在する。「frame_coef(i)」のフィールドは、各フレームで用いる重み付け係数(関数値)を示す。
 図7に戻って、マルチプレクサ103は、エンコーダ102で生成されたビデオストリームを、PES(Packetized Elementary Stream)パケット化し、さらにトランスポートパケット化して多重し、多重化ストリームとしてのトランスポートストリームTSを得る。
 この際、マルチプレクサ103は、コンテナとしてのトランスポートストリームTSのレイヤに、ビデオストリームのレイヤにブラーコントロール情報の挿入があることを示す識別情報を挿入する。この実施の形態において、マルチプレクサ103は、新規定義するHFR・インフォメーション・デスクリプタ(HFR_information descriptor)を、トランスポートストリームTSに含まれるプログラム・マップ・テーブル(PMT:Program Map Table)のビデオエレメンタリ・ループ(Video ES loop)の配下に挿入する。
 図12(a)は、HFR・インフォメーション・デスクリプタの構造例(Syntax)を示している。また、図12(b)は、その構造例における主要な情報の内容(Semantics)を示している。
 「HFR_information descriptor tag」の8ビットフィールドは、デスクリプタタイプを示し、ここでは、HFR・インフォメーション・デスクリプタであることを示す。「HFR_ information descriptor length」の8ビットフィールドは、デスクリプタの長さ(サイズ)を示し、デスクリプタの長さとして以降のバイト数を示す。
 「HFR_blur_control_SEI_existed」の1ビットフィールドは、ビデオレイヤ(ビデオストリームのレイヤ)に、HFR・ブラーコントロール・SEIメッセージが存在するか否かを示すフラグ情報である。例えば、“1”は存在することを示し、“0”は存在しないことを示す。
 図7に戻って、送信部104は、マルチプレクサ103で得られたトランスポートストリームTSを、放送波、あるいはネットのパケットに載せて、受信装置200に送信する。
 図7に示す送信装置100の動作を簡単に説明する。エンコーダ102には、例えば120Hz、240Hzあるいは480Hz等のハイフレームレートの動画像データVDが入力される。エンコーダ102では、この動画像データVDに、例えば、H.264/AVC、H.265/HEVCなどの符号化処理が施され、ビデオストリームが生成される。
 また、エンコーダ102では、ビデオストリームのレイヤに、ブラーコントロール情報が挿入される。すなわち、エンコーダ102では、アクセスユニット(AU)の“SEIs”の部分に、新規定義する、HFR・ブラーコントロール・SEIメッセージ(図10参照)が挿入される。
 エンコーダ102で生成されたビデオストリームは、マルチプレクサ103に供給される。マルチプレクサ103では、ビデオストリームのPESパケット化、さらにトランスポートパケット化が行われて多重され、多重化ストリームとしてのトランスポートストリームTSが得られる。
 また、マルチプレクサ103では、コンテナとしてのトランスポートストリームTSのレイヤに、ビデオストリームのレイヤにブラーコントロール情報の挿入があることを示す識別情報が挿入される。すなわち、マルチプレクサ103では、HFR・インフォメーション・デスクリプタ(図12(a)参照)が、プログラム・マップ・テーブル(PMT:Program Map Table)のビデオエレメンタリ・ループ(Video ES loop)の配下に挿入される。
 マルチプレクサ103で生成されたトランスポートストリームTSは、送信部104に送られる。送信部104では、このトランスポートストリームTSが、放送波、あるいはネットのパケットに載せられて受信装置200に送信される。
 なお、上述では、ブラーコントロール情報をビデオストリームのレイヤに挿入する例を示した。HFR・ブラーコントロール・SEIメッセージは最も頻繁にはピクチャ毎に送ることができるので、ブラーコントロール情報をピクチャ毎に変更することも可能となる。あるいは、HFR・ブラーコントロール・SEIメッセージを例えばGOPあるいはシーンに1回とか、あるいはもっと粗い単位で送ることもできる。あるいは、HFR・ブラーコントロール・SEIメッセージをピクチャ毎に送っても、メタ情報の値が変わらなければスタティックな運用も可能となる。
 ブラーコントロール情報をビデオストリームのレイヤに挿入する代わりに、あるいはビデオストリームのレイヤに挿入すると共に、コンテナのレイヤに挿入することも考えられる。例えば、マルチプレクサ103は、プログラム・マップ・テーブル(PMT)の配下に、新規定義する、HFR・ブラーコントロール・デスクリプタ(HFR_blur_control descriptor)を挿入する。静的な運用で十分な場合には、これで充分である。
 あるいは、番組単位でブラーコントロール情報がわかれば充分な場合、HFR・ブラーコントロール・デスクリプタを、イベント・インフォメーション・テーブル(EIT)の配下に挿入することも考えられる。
 図13は、HFR・ブラーコントロール・デスクリプタの構造例(Syntax)を示している。「descriptor_tag」の8ビットフィールドは、デスクリプタタイプを示す。ここでは、HFR・ブラーコントロール・デスクリプタであることを示す。「descriptor_length」の8ビットフィールドは、デスクリプタの長さ(サイズ)を示し、デスクリプタの長さとして、以降のバイト数を示す。なお、詳細説明は省略するが、このHFR・ブラーコントロール・デスクリプタの内容は、上述のHFR・ブラーコントロール・SEIメッセージ(図10参照)の内容と同じである。
 [トランスポートストリームTSの構成]
 図14は、トランスポートストリームTSの構成例を示している。この構成例では、PID1で識別されるビデオストリームのPESパケット「video PES1」が存在する。アクセスユニットに、HFR・ブラーコントロール・SEIメッセージ(HFR_blur_control SEI message)が挿入されている。
 また、トランスポートストリームTSには、PSI(Program Specific Information)として、PMT(Program Map Table)が含まれている。PSIは、トランスポートストリームに含まれる各エレメンタリストリームがどのプログラムに属しているかを記した情報である。
 PMTには、各エレメンタリストリームに関連した情報を持つエレメンタリ・ループが存在する。この構成例では、ビデオエレメンタリ・ループ(Video ES loop)が存在する。このビデオエレメンタリ・ループには、上述の1つのビデオエレメンタリストリームに対応して、ストリームタイプ、パケット識別子(PID)等の情報が配置されると共に、そのビデオエレメンタリストリームに関連する情報を記述するデスクリプタも配置される。
 デスクリプタの一つとして、HFR・インフォメーション・デスクリプタ(HFR_information descriptor)が配置される。このデスクリプタは、上述したように、ビデオストリームに、HFR・ブラーコントロール・SEIメッセージの挿入があることを示すものである。
 また、デスクリプタの一つとして、HFR・ブラーコントロール・デスクリプタ(HFR_blur_control_ descriptor)が挿入されることもある。このデスクリプタは、HFR・ブラーコントロール・SEIメッセージの代わりに、あるいはHFR・ブラーコントロール・SEIメッセージと共に、挿入される。
 また、トランスポートストリームTSには、イベント(番組)単位の管理を行うSI(Serviced Information)としてのEIT(Event Information Table)が含まれている。このEITに、HFR・ブラーコントロール・デスクリプタ(HFR_blur_control_ descriptor)が挿入されることもある。このデスクリプタは、HFR・ブラーコントロール・SEIメッセージの代わりに、あるいはHFR・ブラーコントロール・SEIメッセージと共に、挿入される。
 「受信装置の構成」
 図15は、受信装置200の構成例を示している。この受信装置200は、CPU(Central Processing Unit)201と、ユーザ操作部201aと、受信部202と、デマルチプレクサ203と、デコーダ204と、表示処理部205と、表示部206を有している。CPU201は、制御部を構成し、受信装置200の各部の動作を制御する。
 受信部202は、送信装置100から放送波、あるいはネットのパケットに載せて送られてくるトランスポートストリームTSを受信する。このトランスポートストリームTSには、例えば120Hz、240Hzあるいは480Hz等のハイフレームレートの動画像データVDに符号化処理が施されて得られたビデオストリームが含まれている。
 デマルチプレクサ203は、トランスポートストリームTSから、PIDのフィルタリングによってビデオストリームを取り出し、デコーダ204に供給する。また、デマルチプレクサ203は、トランスポートストリームTSのレイヤに含まれるセクション情報を抽出し、CPU201に送る。この場合、HFR・インフォメーション・デスクリプタ(図12(a)参照)、HFR・ブラーコントロール・デスクリプタ(図13参照)も抽出される。
 デコーダ204は、デマルチプレクサ203から供給されるビデオストリームに復号化処理を施して、ハイフレームレートの動画像データVDを出力する。また、デコーダ204は、ビデオストリームを構成する各アクセスユニットに挿入されているパラメータセットやSEIメッセージを抽出し、CPU201に送る。この場合、HFR・ブラーコントロール・SEIメッセージ(図10参照)も抽出される。
 表示処理部205は、表示部206の表示能力に応じて、デコーダ204で得られた動画像データに対して適宜フレームレートの変換などの処理を行って表示画像データVDdを得る。例えば、動画像データDVのフレームレートが120Hzであって、表示部206で120Hz表示を行う場合には、フレームレート変換をしない。また、例えば、動画像データDVのフレームレートが120Hzであって、表示部206で60Hz表示を行う場合には、フレームレート変換をする。
 表示処理部205は、表示画像データVDdの各フレームの画像データを得る際に、現在のフレームの画像データの他に周辺のフレームの画像データを使用し、HFR・ブラーコントロール・SEIメッセージやHFR・ブラーコントロール・デスクリプタに含まれるブラーコントロール情報(各フレームの重み付け係数)に基づいて、ブラー付与処理をする。
 ここで、送信側から複数のブラーコントロール情報が送られてきている場合、どのブラーコントロール情報を使用するかは、動画像データDVのフレームレートや表示フレームレート等に基づいてCPU201が自動的に選択し、あるいはユーザが任意に選択する。なお、CPU201は、ユーザの選択の便宜のために、複数のブラーコントロール情報に係る情報を示すUI画面を表示部206に表示してもよい。複数のブラーコントロール情報に係る情報としては、動画像データDVのフレームレートや表示フレームレートがどのような場合に適するものであるとか。観察者にどのような画質を知覚させるものであるか等の選択に参考となる情報が考えられる。
 表示画像データVDdのあるフレームの信号(画像データ)は、動画像データDVの当該フレームおよびその周辺のフレームの信号を用いて算出され、ブラーが付与されたものとなる。この場合、動画像データDVのあるフレームおよびその周辺のフレームの信号にそれぞれ対応する重み付け係数が掛け算されて積算され、その積算結果が重み付け係数の積算結果で除算されて表示画像データVDdのあるフレームの信号が得られる。
 図16は、表示画像データVDdのあるフレームとしてのフレーム「0」の信号を得るための処理の一例を示している。図16(a)は、ハイフレームレート、例えば120Hzのフレームレートの動画像データDVにおいて、フレーム進行に伴う所定ピクセルの信号レベルの変化を示している。なお、信号レベルは、最大値を1として示している。
 図16(b)は、上述の図6(a)に示した、「-3」~「3」の各フレームを使用するブラーコントロール情報(各フレームの重み付け係数)を示している。図16(c)は、動画像データDVの「-3」~「3」の各フレームの信号S(-3)~S(3)にそれぞれ対応する重み付け係数f(-3)~f(3)を掛け算した結果を示している。表示画像データVDdの「0」のフレームの信号は、図16(d)に示すように、「-3」~「3」の各フレームの掛け算結果の積算値が「-3」~「3」の各フレームの重み付け係数の積算値で割ったものとなる。
 図17は、表示画像データVDdのあるフレームとしてのフレーム「0」の信号を得るための処理の一例を示している。図17(a)は、図16(a)で示したものと同じである。図17(b)は、上述の図6(b)に示した、「-3」~「3」の各フレームを使用するブラーコントロール情報(各フレームの重み付け係数)を示している。
 図17(c)は、動画像データDVの「-3」~「3」の各フレームの信号S(-3)~S(3)にそれぞれ対応する重み付け係数f(-3)~f(3)を掛け算した結果を示している。表示画像データVDdの「0」のフレームの信号は、図17(d)に示すように、「-3」~「3」の各フレームの掛け算結果の積算値が「-3」~「3」の各フレームの重み付け係数の積算値で割ったものとなる。
 図18は、表示画像データVDdのあるフレームとしてのフレーム「0」の信号を得るための処理の一例を示している。図18(a)は、図16(a)で示したものと同じである。図18(b)は、上述の図6(c)に示した、「-3」~「0」の各フレームを使用するブラーコントロール情報(各フレームの重み付け係数)を示している。
 図18(c)は、動画像データDVの「-3」~「0」の各フレームの信号S(-3)~S(0)にそれぞれ対応する重み付け係数f(-3)~f(0)を掛け算した結果を示している。表示画像データVDdの「0」のフレームの信号は、図18(d)に示すように、「-3」~「0」の各フレームの掛け算結果の積算値が「-3」~「0」の各フレームの重み付け係数の積算値で割ったものとなる。
 図19は、表示画像データVDdのあるフレームとしてのフレーム「0」の信号を得るための処理の一例を示している。図19(a)は、図16(a)で示したものと同じである。図19(b)は、上述の図6(d)に示した、「-3」~「0」の各フレームを使用するブラーコントロール情報(各フレームの重み付け係数)を示している。
 図19(c)は、動画像データDVの「-3」~「0」の各フレームの信号S(-3)~S(0)にそれぞれ対応する重み付け係数f(-3)~f(0)を掛け算した結果を示している。表示画像データVDdの「0」のフレームの信号は、図19(d)に示すように、「-3」~「0」の各フレームの掛け算結果の積算値が「-3」~「0」の各フレームの重み付け係数の積算値で割ったものとなる。
 図15に戻って、表示部206は、表示処理部205で得られた表示画像データによる動画像を表示する。この表示部206は、例えば、LCD(Liquid Crystal Display)、有機EL(Organic Electro-Luminescence)パネル等で構成されている。なお、この表示部206は、受信装置200に接続される外部機器であってもよい。
 図15に示す受信装置200の動作を簡単に説明する。受信部202では、送信装置100から放送波、あるいはネットのパケットに載せて送られてくるトランスポートストリームTSを受信される。このトランスポートストリームTSは、デマルチプレクサ203に送られる。デマルチプレクサ203では、トランスポートストリームTSから、PIDのフィルタリングによって、復号化処理をすべきビデオストリームが取り出される。
 また、デマルチプレクサ203では、トランスポートストリームTSのレイヤに含まれるセクション情報が抽出されて、CPU201に送られる。この場合、HFR・インフォメーション・デスクリプタ(図12(a)参照)、さらには、存在する場合には、HFR・ブラーコントロール・デスクリプタ(図13参照)も抽出される。
 CPU201では、HFR・インフォメーション・デスクリプタから、ビデオストリーム
にブラーコントロール情報の挿入があることが認識される。また、CPU201では、HFR・ブラーコントロール・デスクリプタからブラーコントロール情報が取得される。
 デマルチプレクサ203で取り出されたビデオストリームは、デコーダ204に供給される。デコーダ204では、ビデオストリームに復号化処理が施されて、ハイフレームレートの動画像データVDが得られる。
 また、デコーダ204では、ビデオストリームを構成する各アクセスユニットに挿入されているパラメータセットやSEIメッセージが抽出され、CPU201に送られる。この場合、HFR・ブラーコントロール・SEIメッセージ(図10参照)も抽出される。CPU201では、HFR・ブラーコントロール・SEIメッセージからブラーコントロール情報が取得される。
 デコーダ204で得られたハイフレームレートの動画像データDVは、表示処理部205に供給される。表示処理部205では、表示部206の表示能力に応じて、デコーダ204で得られた動画像データDVに対して適宜フレームレート変換などの処理が行われて、表示画像データVDdが得られる。
 そして、表示処理部205では、表示画像データVDdの各フレームの画像データを得る際に、現在のフレームの画像データの他に周辺のフレームの画像データが使用され、ブラーコントロール情報(各フレームの重み付け係数)に基づいて、ブラー付与処理がされる(図16~図19参照)。
 ここで、送信側から複数のブラーコントロール情報が送られてきている場合、どのブラーコントロール情報を使用するかは、動画像データDVのフレームレートや表示フレームレート等に基づいてCPU201により自動的に選択される、あるいはユーザ操作により選択される。このユーザ操作のために、例えば、複数のブラーコントロール情報を示すUI画面が表示部206に表示される。
 表示処理部205から出力された表示画像データDVdは、表示部206に供給される。そして、表示部206に、表示画像データDVdによる動画像が表示される。
 以上説明したように、図1に示す送受信システム10において、送信装置100では、コンテナ(トランスポートストリームTS)のレイヤおよび/またはビデオストリームのレイヤに、ブラーをコントロールするためのブラーコントロール情報が挿入される。そのため、受信側では、このブラーコントロール情報に基づいてブラーをコントロールでき、適切な画質の画像を容易に提示できる。
 図1に示す送受信システム10において、受信装置100では、コンテナ(トランスポートストリームTS)のレイヤおよび/またはビデオストリームのレイヤに挿入されているブラーコントロール情報に基づいてブラー付与処理が行われる。そのため、適切な画質の画像を容易に提示できる。
 <2.変形例>
 なお、上述実施の形態においては、ハイフレームレートの動画像データからフレームレートを下げた(落とした)表示画像データを得る際にブラーコントロール情報を用いたブラ―付与処理を行って適切な画質を得る例を示したが、ハイフレームレートの動画像データからフレームレートを上げた表示画像データを得る際にブラーコントロール情報を用いたブラ―付与処理を行って適切な画質を得ることも同様に考えられる。
 また、上述実施の形態においては、送信側でブラ―コントロール情報の付加がある例を示したが、送信側でブラ―コントロール情報の付加がない場合に、受信側において予めメモリ等で構成される保持部に保持されているブラ―コントロール情報を用いることも考えられる。この場合、例えば、ネットからブラ―コントロール情報を取得して保持部に保持しておくか、あるいはリムーバブルな記録媒体から取得して保持部に保持しておくことが考えられる。そして、この場合、このリムーバブルな記録媒体が直接保持部を構成することも考えられる。
 また、送信側でブラ―コントロール情報の付加がある場合に、受信側においてそのブラ―コントロール情報のアップデート(修正)を可能とすることも考えられる。この場合に、アップデートするブラ―コントロール情報をネットから取得すること、あるいはリムーバブルな記録媒体から取得することも考えられる。
 また、上述実施の形態においては、受信装置200が、ブラーコントロール情報が付加されたハイフレームレートの動画像データを放送あるいはネットから得る例を示した。しかし、受信装置200の部分では、ブラーコントロール情報が付加されたハイフレームレートの動画像データをUSBメモリなどのリムーバブルな記録媒体から得るようにすることも考えられる。
 また、上述実施例においては、送信側から送られてくるハイフレームレートの動画像データに対して、それに付加されて送信側から送られてくるブラ―コントロール情報を用いてブラ―付与処理を行う例を示した。しかし、送信側から送られてくるハイフレームレートの動画像データをコンテンツとして半導体メモリ等で構成される記録部に記録して、適宜なタイミングで再生して利用する記録装置も考えられる。例えば、受信装置200が、当該記録部を備えていてもよい。
 その場合、送信側からブラ―コントロール情報が送られてくる場合には、ハイフレームレートの動画像データと共にそれに関連付けされてブラ―コントロール情報も記録される。そして、このブラ―コントロール情報については、適宜修正も可能とされる。また、送信側からブラ―コントロール情報が送られてこない場合、コンテンツ編集時に、ブラ―コントロール情報を生成し、あるいはネットから取得して、ハイフレームレートの動画像データと共にそれに関連付けされて記録部に記録することも考えられる。
 また、上述実施の形態においては、ハイフレームレートの動画像データを符号化して得られたビデオストリームを含むコンテナを送信する際に、コンテナのレイヤおよび/またはビデオストリームのレイヤに、ブラーをコントロールするためのブラーコントロール情報を挿入する例を示した。しかし、ハイフレームレートの動画像データを符号化して得られたビデオストリームを半導体メモリ等の所定の記録媒体にコンテンツとして記録して利用することも考えられる。その際には、ハイフレームレートの動画像データのブラーをコントロールするブラーコントロール情報を生成し、当該ブラーコントロール情報を、ビデオストリームのレイヤに挿入するか、あるいはこのビデオストリームを含むコンテナの状態で記録媒体に記録しておく場合にはコンテナのレイヤに挿入して記録することも考えられる。
 また、上述では、送信装置100および受信装置200により構成される送受信システム10を示したが、本技術を適用し得る送受信システムの構成は、これに限定されるものではない。例えば、図20に示す送受信システム10Aのように、受信装置200の部分がデジタルインタフェース、例えば、HDMI(High-Definition Multimedia Interface)のデジタルインタフェースで接続されたセットトップボックス(STB)200Aおよびモニタ200Bからなる構成であってもよい。なお、「HDMI」は、登録商標である。
 この場合、セットトップボックス200Aには、表示処理部205まで含まれる場合、あるいはデコーダ204まで含まれる場合などが考えられる。表示処理部205以降がモニタ200Bに含まれる場合、セットトップボックス200Aからモニタ200Bには、非圧縮の動画像データDVと共にブラーコントロール情報が送信される。セットトップボックス200Aは、例えば、ブラーコントロール情報を、動画像データDVのブランキング期間に挿入することで送信する。例えば、“Video displaying InfoFrame”のパケットを用いて、ブラーコントロール情報を、モニタ200Bに送る。
 また、図21に示すように、図20におけるモニタ200Bの部分をHMD(ヘッドマウントディスプレイ)装置200Cに置き換えた送受信システム10Bも考えられる。図22は、HMD装置200Cの構成例を示している。
 HMD装置200Cは、CPU251と、ユーザ操作部252と、HDMI受信部253と、画像処理部254と、表示処理部255と、左眼用表示部256と、右眼用表示部257を有している。CPU251は、制御部を構成し、HMD装置200Cの各部の動作を制御する。ユーザ操作部252は、ユーザが種々の操作を行うためのキー、ボタン、タッチパネル、リモコンなどである。
 HDMI受信部253は、HDMI規格に準拠したHDMI受信部の構成とされており、セットトップボックス200Aから表示画像データDVdを受信する。画像処理部254は、HDMI受信部253から入力された表示画像データDVdに対し、スケーリング、ノイズ・リダクションなどの信号処理をする。
 表示制御部255は、画像処理部254で得られた画像データを左眼用表示部256および右眼用表示部257に表示出力する。左眼用表示部256および右眼用表示部257には、それぞれ映像を拡大するレンズ・ブロック(図22には図示しない)が装備されている。左右のレンズ・ブロックは、それぞれ複数の光学レンズの組み合わせからなり、表示パネルに表示された画像を光学処理する。
 左眼用表示部256および右眼用表示部257の表示パネルに表示された画像は、レンズ・ブロックを通過する際に拡大され、ユーザの網膜に大きな虚像を結像する。そして、観察するユーザの脳内では左眼用画像と右眼用画像が融像される。左眼用表示部256および右眼用表示部257は、例えば液晶ディスプレイや、有機EL素子で構成されている。
 なお、上述では、HDMI受信部253でセットトップボックス200Aから表示画像データDVdを受信するように説明したが、このHDMI受信部253でセットトップボックス200Aからハイフレームレートの動画像データDVとブラーコントロール情報を受信することも考えられる。
 この場合には、画像処理部254において、左眼用表示部256および右眼用表示部257の表示パネルの表示能力に応じて、動画像データDVに対して適宜フレームレート変換などの処理が行われて、表示画像データVDdが得られる。
 また、この画像処理部254において、図15に示す受信装置200の表示処理部205と同様に、表示画像データVDdの各フレームの画像データを得る際に、現在のフレームの画像データの他に周辺のフレームの画像データが使用され、ブラーコントロール情報(各フレームの重み付け係数)に基づいて、ブラー付与処理がされる(図16~図19参照)。
 このように、HMD装置200Cにおいても、ブラーコントロール情報に基づいてブラー付与処理が施された表示画像データVDdによる画像表示がなされるので、適切な画質の画像を容易に提示できる。
 なお、セットトップボックス200Aからモニタ200BやHMD装置200Cへのブラーコントロール情報の送信を、“Video displaying InfoFrame”のパケットを用いる代わりに、その他の”InfoFrame”のパケット、例えば“Vender Specific InfoFrame”のパケットなどを用いることも考えられる。また、ブラーコントロール情報の送信を、CECラインやHECの通信ラインを介して送信することも考えられる。
 また、上述実施の形態においては、コンテナがトランスポートストリーム(MPEG-2 TS)である例を示した。しかし、本技術は、インターネット等のネットワークを利用して受信端末に配信される構成のシステムにも同様に適用できる。インターネットの配信では、MP4やそれ以外のフォーマットのコンテナで配信されることが多い。つまり、コンテナとしては、デジタル放送規格で採用されているトランスポートストリーム(MPEG-2 TS)あるいはMMT(MPEG Media Transport)、インターネット配信で使用されているMP4などの種々のフォーマットのコンテナが該当する。
 また、本技術は、以下のような構成を取ることもできる。
 (1)ハイフレームレートの動画像データを符号化して得られたビデオストリームを生成する符号化部と、
 上記ビデオストリームを含むコンテナを送信する送信部と、
 上記コンテナのレイヤおよび/または上記ビデオストリームのレイヤに、ブラーをコントロールするためのブラーコントロール情報を挿入する情報挿入部を備える
 送信装置。
 (2)上記ブラーコントロール情報は、現在フレームの画像データに周辺フレームの画像データを加算するブラー付与処理における各フレームの重み付け係数を与える
 前記(1)に記載の送信装置。
 (3)上記周辺フレームには、過去および未来のフレームが含まれる
 前記(2)に記載の送信装置。
 (4)上記周辺フレームには、過去のフレームだけが含まれる
 前記(2)に記載の送信装置。
 (5)上記周辺フレームの重み付け係数には負の係数が含まれる
 前記(2)から(4)のいずれかに記載の送信装置。
 (6)上記ハイフレームレートの動画像データは、120Hz、240Hzあるいは480Hzのフレームレートの動画像データである
 前記(1)から(5)のいずれかに記載の送信装置。
 (7)上記情報挿入部は、上記ブラーコントロール情報を含むSEIメッセージを上記ビデオストリームのレイヤに挿入する
 前記(1)から(6)のいずれかに記載の送信装置。
 (8)上記情報挿入部は、上記ビデオストリームのレイヤに上記ブラーコントロール情報を挿入するとき、該挿入があることを示す識別情報を上記コンテナのレイヤにさらに挿入する
 前記(1)から(7)のいずれかに記載の送信装置。
 (9)上記情報挿入部は、上記ブラーコントロール情報を含むデスクリプタを上記コンテナのレイヤに挿入する
 前記(1)から(8)のいずれかに記載の送信装置。
 (10)上記コンテナは、MPEG2トランスポートストリームであり、
 上記デスクリプタは、プログラム・マップ・テーブル、あるいはイベント・インフォメーション・テーブルに挿入される
 前記(9)に記載の送信装置。
 (11)上記情報挿入部は、上記コンテナのレイヤおよび/または上記ビデオストリームのレイヤに、複数種類の上記ブラーコントロール情報を挿入する
 前記(1)から(10)のいずれかに記載の送信装置。
 (12)画像符号化部が、ハイフレームレートの動画像データを符号化して得られたビデオストリームを生成する画像符号化ステップと、
 送信部が、上記ビデオストリームを含むコンテナを送信する送信ステップと、
 情報挿入部が、上記コンテナのレイヤおよび/または上記ビデオストリームのレイヤに、ブラーをコントロールするためのブラーコントロール情報を挿入する情報挿入ステップを有する
 送信方法。
 (13)ハイフレームレートの動画像データを符号化して得られたビデオストリームを含むコンテナを受信する受信部を備え、
 上記ビデオストリームを復号化して上記ハイフレームレートの動画像データを得る復号化部と、
 上記得られたハイフレームレートの動画像データにブラーコントロール情報を用いたブラー付与処理を行う処理部をさらに備える
 受信装置。
 (14)上記コンテナのレイヤおよび/または上記ビデオストリームのレイヤに、上記ブラーコントロール情報が挿入されており、
 上記処理部は、上記挿入されているブラーコントロール情報を用いるか、あるいは該ブラーコントロール情報を修正して用いる
 前記(13)に記載の受信装置。
 (15)上記ブラ―コントロール情報を保持する保持部をさらに備え、
 上記処理部は、上記保持部から上記ブラーコントロール情報を取得して用いる
 前記(13)に記載の受信装置。
 (16)上記コンテナのレイヤおよび/または上記ビデオストリームのレイヤに、複数種類の上記ブラーコントロール情報が挿入されており、
 上記処理部は、上記複数種類のブラーコントロール情報から表示フレームレートに応じた、あるいは所望画質に応じた種類のブラーコントロール情報を選択して用いる
 前記(13)に記載の受信装置。
 (17)上記処理部は、上記ハイフレームレートの動画像データからフレームレートを落とした表示画像データを得る際に、ブラー付与処理を行う
 前記(13)から(16)のいずれかに記載の受信装置。
 (18)受信部が、ハイフレームレートの動画像データを符号化して得られたビデオストリームを含むコンテナを受信する受信ステップを有し、
 上記コンテナのレイヤおよび/または上記ビデオストリームのレイヤに、ブラーをコントロールするためのブラーコントロール情報が挿入されており、
 復号化部が、上記ビデオストリームを復号化して上記ハイフレームレートの動画像データを得る復号化ステップと、
 処理部が、上記得られたハイフレームレートの動画像データに上記ブラーコントロール情報を用いたブラー付与処理を行う処理ステップをさらに有する
 受信方法。
 (19)ハイフレームレートの動画像データを符号化して得られたビデオストリームを生成する符号化部と、
 上記ハイフレームレートの動画像データのブラーをコントロールするためのブラーコントロール情報を生成する生成部と、
  上記ビデオストリームのレイヤおよび/または上記ビデオストリームを含むコンテナのレイヤに挿入された上記ブラーコントロール情報および上記ビデオストリームを記録する記録部を備える
 記録装置。
 (20)符号化部が、ハイフレームレートの動画像データを符号化して得られたビデオストリームを生成する符号化ステップと、
 生成部が、上記ハイフレームレートの動画像データのブラーをコントロールするためのブラーコントロール情報を生成する生成ステップと、
 記録部が、上記ビデオストリームのレイヤおよび/または上記ビデオストリームを含むコンテナのレイヤに挿入された上記ブラーコントロール情報および上記ビデオストリームを記録する記録ステップを有する
 記録方法。
 10,10A,10B・・・送受信システム
 100・・・送信装置
 101・・・CPU
 102・・・エンコーダ
 103・・・マルチプレクサ
 104・・・送信部
 200・・・受信装置
 200A・・・セットトップボックス
 200B・・・モニタ
 200C・・・HMD装置
 201・・・CPU
 201a・・・ユーザ操作部
 202・・・受信部
 203・・・デマルチプレクサ
 204・・・デコーダ
 205・・・表示処理部
 206・・・表示部
 251・・・CPU
 252・・・ユーザ操作部
 253・・・HDMI受信部
 254・・・画像処理部
 255・・・表示処理部
 256・・・左眼用表示部
 257・・・右眼用表示部

Claims (20)

  1.  ハイフレームレートの動画像データを符号化して得られたビデオストリームを生成する符号化部と、
     上記ビデオストリームを含むコンテナを送信する送信部と、
     上記コンテナのレイヤおよび/または上記ビデオストリームのレイヤに、ブラーをコントロールするためのブラーコントロール情報を挿入する情報挿入部を備える
     送信装置。
  2.  上記ブラーコントロール情報は、現在フレームの画像データに周辺フレームの画像データを加算するブラー付与処理における各フレームの重み付け係数を与える
     請求項1に記載の送信装置。
  3.  上記周辺フレームには、過去および未来のフレームが含まれる
     請求項2に記載の送信装置。
  4.  上記周辺フレームには、過去のフレームだけが含まれる
     請求項2に記載の送信装置。
  5.  上記周辺フレームの重み付け係数には負の係数が含まれる
     請求項2に記載の送信装置。
  6.  上記ハイフレームレートの動画像データは、120Hz、240Hzあるいは480Hzのフレームレートの動画像データである
     請求項1に記載の送信装置。
  7.  上記情報挿入部は、上記ブラーコントロール情報を含むSEIメッセージを上記ビデオストリームのレイヤに挿入する
     請求項1に記載の送信装置。
  8.  上記情報挿入部は、上記ビデオストリームのレイヤに上記ブラーコントロール情報を挿入するとき、該挿入があることを示す識別情報を上記コンテナのレイヤにさらに挿入する
     請求項1に記載の送信装置。
  9.  上記情報挿入部は、上記ブラーコントロール情報を含むデスクリプタを上記コンテナのレイヤに挿入する
     請求項1に記載の送信装置。
  10.  上記コンテナは、MPEG2トランスポートストリームであり、
     上記デスクリプタは、プログラム・マップ・テーブル、あるいはイベント・インフォメーション・テーブルに挿入される
     請求項9に記載の送信装置。
  11.  上記情報挿入部は、上記コンテナのレイヤおよび/または上記ビデオストリームのレイヤに、複数種類の上記ブラーコントロール情報を挿入する
     請求項1に記載の送信装置。
  12.  画像符号化部が、ハイフレームレートの動画像データを符号化して得られたビデオストリームを生成する画像符号化ステップと、
     送信部が、上記ビデオストリームを含むコンテナを送信する送信ステップと、
     情報挿入部が、上記コンテナのレイヤおよび/または上記ビデオストリームのレイヤに、ブラーをコントロールするためのブラーコントロール情報を挿入する情報挿入ステップを有する
     送信方法。
  13.  ハイフレームレートの動画像データを符号化して得られたビデオストリームを含むコンテナを受信する受信部を備え、
     上記ビデオストリームを復号化して上記ハイフレームレートの動画像データを得る復号化部と、
     上記得られたハイフレームレートの動画像データにブラーコントロール情報を用いたブラー付与処理を行う処理部をさらに備える
     受信装置。
  14.  上記コンテナのレイヤおよび/または上記ビデオストリームのレイヤに、上記ブラーコントロール情報が挿入されており、
     上記処理部は、上記挿入されているブラーコントロール情報を用いるか、あるいは該ブラーコントロール情報を修正して用いる
     請求項13に記載の受信装置。
  15.  上記ブラ―コントロール情報を保持する保持部をさらに備え、
     上記処理部は、上記保持部から上記ブラーコントロール情報を取得して用いる
     請求項13に記載の受信装置。
  16.  上記コンテナのレイヤおよび/または上記ビデオストリームのレイヤに、複数種類の上記ブラーコントロール情報が挿入されており、
     上記処理部は、上記複数種類のブラーコントロール情報から表示フレームレートに応じた、あるいは所望画質に応じた種類のブラーコントロール情報を選択して用いる
     請求項13に記載の受信装置。
  17.  上記処理部は、上記ハイフレームレートの動画像データからフレームレートを落とした表示画像データを得る際に、ブラー付与処理を行う
     請求項13に記載の受信装置。
  18.  受信部が、ハイフレームレートの動画像データを符号化して得られたビデオストリームを含むコンテナを受信する受信ステップを有し、
     上記コンテナのレイヤおよび/または上記ビデオストリームのレイヤに、ブラーをコントロールするためのブラーコントロール情報が挿入されており、
     復号化部が、上記ビデオストリームを復号化して上記ハイフレームレートの動画像データを得る復号化ステップと、
     処理部が、上記得られたハイフレームレートの動画像データに上記ブラーコントロール情報を用いたブラー付与処理を行う処理ステップをさらに有する
     受信方法。
  19.  ハイフレームレートの動画像データを符号化して得られたビデオストリームを生成する符号化部と、
     上記ハイフレームレートの動画像データのブラーをコントロールするためのブラーコントロール情報を生成する生成部と、
     上記ビデオストリームのレイヤおよび/または上記ビデオストリームを含むコンテナのレイヤに挿入された上記ブラーコントロール情報および上記ビデオストリームを記録する記録部を備える
     記録装置。
  20.  符号化部が、ハイフレームレートの動画像データを符号化して得られたビデオストリームを生成する符号化ステップと、
     生成部が、上記ハイフレームレートの動画像データのブラーをコントロールするためのブラーコントロール情報を生成する生成ステップと、
     記録部が、上記ビデオストリームのレイヤおよび/または上記ビデオストリームを含むコンテナのレイヤに挿入された上記ブラーコントロール情報および上記ビデオストリームを記録する記録ステップを有する
     記録方法。
PCT/JP2018/015778 2017-04-17 2018-04-16 送信装置、送信方法、受信装置、受信方法、記録装置および記録方法 WO2018194040A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201880024218.7A CN110521211B (zh) 2017-04-17 2018-04-16 发送设备、发送方法、接收设备、接收方法、记录设备和记录方法
US16/603,345 US11523120B2 (en) 2017-04-17 2018-04-16 Transmission apparatus, transmission method, reception apparatus, reception method, recording apparatus, and recording method
JP2019513638A JP7300985B2 (ja) 2017-04-17 2018-04-16 情報処理装置および情報処理方法
EP18788541.3A EP3614680B1 (en) 2017-04-17 2018-04-16 Transmission device, transmission method, reception device, reception method, recording device, and recording method
KR1020197029203A KR102551759B1 (ko) 2017-04-17 2018-04-16 송신 장치, 송신 방법, 수신 장치, 수신 방법, 기록 장치 및 기록 방법

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-081604 2017-04-17
JP2017081604 2017-04-17

Publications (1)

Publication Number Publication Date
WO2018194040A1 true WO2018194040A1 (ja) 2018-10-25

Family

ID=63855867

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/015778 WO2018194040A1 (ja) 2017-04-17 2018-04-16 送信装置、送信方法、受信装置、受信方法、記録装置および記録方法

Country Status (6)

Country Link
US (1) US11523120B2 (ja)
EP (1) EP3614680B1 (ja)
JP (1) JP7300985B2 (ja)
KR (1) KR102551759B1 (ja)
CN (1) CN110521211B (ja)
WO (1) WO2018194040A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007063819A1 (ja) * 2005-11-29 2007-06-07 Pioneer Corporation 記録装置、再生装置、記録方法、記録プログラムおよびコンピュータに読み取り可能な記録媒体
JP2010178124A (ja) 2009-01-30 2010-08-12 Victor Co Of Japan Ltd 記録装置及び記録方法
WO2010116731A1 (ja) * 2009-04-08 2010-10-14 パナソニック株式会社 撮像装置、再生装置、撮像方法及び再生方法

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5454051A (en) * 1991-08-05 1995-09-26 Eastman Kodak Company Method of reducing block artifacts created by block transform compression algorithms
US7373013B2 (en) * 2003-12-23 2008-05-13 General Instrument Corporation Directional video filters for locally adaptive spatial noise reduction
KR20070074618A (ko) * 2004-10-13 2007-07-12 코닌클리케 필립스 일렉트로닉스 엔.브이. 무빙 이미지들에 대한 디스플레이 시간 제어
JP4868236B2 (ja) * 2004-12-21 2012-02-01 ソニー株式会社 画像処理装置と画像処理方法および画像処理プログラム
US7570309B2 (en) * 2005-09-27 2009-08-04 Samsung Electronics Co., Ltd. Methods for adaptive noise reduction based on global motion estimation
GB2432068B (en) * 2005-11-02 2010-10-06 Imagination Tech Ltd Motion estimation
JP4961800B2 (ja) 2006-03-31 2012-06-27 ソニー株式会社 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム
US8208563B2 (en) * 2008-04-23 2012-06-26 Qualcomm Incorporated Boundary artifact correction within video units
JP4666012B2 (ja) * 2008-06-20 2011-04-06 ソニー株式会社 画像処理装置、画像処理方法、プログラム
JP5102174B2 (ja) * 2008-10-22 2012-12-19 日本電信電話株式会社 フレームレート変換方法、フレームレート変換装置、フレームレート変換プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
US8953931B2 (en) * 2009-03-26 2015-02-10 Panasonic Intellectual Property Corporation Of America Video processor, video processing method, integrated circuit for video processing, video playback device
US8520736B2 (en) * 2009-04-14 2013-08-27 Fastvdo, Llc Real-time superresolution and video transmission
US8378799B2 (en) * 2009-06-30 2013-02-19 Mitsubishi Electric Research Laboratories, Inc. Method and system for coding information on a roadway surface subject to motion blur
US8503801B2 (en) * 2010-09-21 2013-08-06 Adobe Systems Incorporated System and method for classifying the blur state of digital image pixels
RU2015105986A (ru) * 2012-08-27 2016-09-10 Сони Корпорейшн Передающее устройство, способ передачи, приёмное устройство и способ приёма
PH12022553022A1 (en) * 2012-09-26 2024-06-03 Sun Patent Trust Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and image coding and decoding apparatus
EP2936804A4 (en) * 2012-12-21 2016-06-01 Thomson Licensing VIDEO QUALITY MODEL, METHOD FOR DEVELOPING A VIDEO QUALITY MODEL AND METHOD FOR DETERMINING THE VIDEO QUALITY USING A VIDEO QUALITY MODEL
US20140177706A1 (en) * 2012-12-21 2014-06-26 Samsung Electronics Co., Ltd Method and system for providing super-resolution of quantized images and video
US9542736B2 (en) * 2013-06-04 2017-01-10 Paypal, Inc. Evaluating image sharpness
EP3748953B1 (en) * 2014-01-07 2024-04-17 ML Netherlands C.V. Adaptive camera control for reducing motion blur during real-time image capture
WO2015133866A1 (ko) * 2014-03-06 2015-09-11 삼성전자 주식회사 서브 블록 기반 예측을 수행하는 인터 레이어 비디오 복호화 방법 및 그 장치 및 서브 블록 기반 예측을 수행하는 인터 레이어 비디오 부호화 방법 및 그 장치
CN107430694A (zh) * 2015-03-16 2017-12-01 诺基亚技术有限公司 基于运动模糊的移动对象检测
US10904592B2 (en) 2015-05-22 2021-01-26 Sony Corporation Transmission apparatus, transmission method, image processing apparatus, image processing method, reception apparatus, and reception method
MY185713A (en) * 2015-09-25 2021-05-31 Huawei Tech Co Ltd Apparatus and method for video motion compensation
JP6621798B2 (ja) * 2016-12-08 2019-12-18 株式会社モルフォ 画像処理装置、画像処理方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007063819A1 (ja) * 2005-11-29 2007-06-07 Pioneer Corporation 記録装置、再生装置、記録方法、記録プログラムおよびコンピュータに読み取り可能な記録媒体
JP2010178124A (ja) 2009-01-30 2010-08-12 Victor Co Of Japan Ltd 記録装置及び記録方法
WO2010116731A1 (ja) * 2009-04-08 2010-10-14 パナソニック株式会社 撮像装置、再生装置、撮像方法及び再生方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3614680A4

Also Published As

Publication number Publication date
KR102551759B1 (ko) 2023-07-06
US11523120B2 (en) 2022-12-06
JP7300985B2 (ja) 2023-06-30
CN110521211A (zh) 2019-11-29
EP3614680A1 (en) 2020-02-26
CN110521211B (zh) 2023-06-16
KR20190137802A (ko) 2019-12-11
EP3614680A4 (en) 2020-04-29
EP3614680B1 (en) 2024-05-01
JPWO2018194040A1 (ja) 2020-02-27
US20200322614A1 (en) 2020-10-08

Similar Documents

Publication Publication Date Title
JP6355521B2 (ja) デジタル放送受信装置及び方法
US8937642B2 (en) Stereo image data transmitting apparatus and stereo image data receiving apparatus
US8860782B2 (en) Stereo image data transmitting apparatus and stereo image data receiving apparatus
JP5402715B2 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
US20110141233A1 (en) Three-dimensional image data transmission device, three-dimensional image data transmission method, three-dimensional image data reception device, and three-dimensional image data reception method
US20110141232A1 (en) Image data transmitting apparatus, control method, and program
WO2011001853A1 (ja) 立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置
JP5262546B2 (ja) 映像信号処理システム、再生装置および表示装置、ならびに映像信号処理方法
JPWO2016072347A1 (ja) 送信装置、送信方法、受信装置および受信方法
JP6930419B2 (ja) 画像処理装置、画像処理方法、受信装置および送信装置
US20130100247A1 (en) Image data transmission apparatus, control method for image data transmission apparatus, image data transmission method, and image data reception apparatus
US8769562B2 (en) Digital broadcast method, data receiving device, and data transmitting device
JP2025023350A (ja) 送信装置、送信方法、受信装置および受信方法
JP7300985B2 (ja) 情報処理装置および情報処理方法
KR20130132240A (ko) 입체 화상 데이터 송신 장치, 입체 화상 데이터 송신 방법 및 입체 화상 데이터 수신 장치
JP6930420B2 (ja) 送信装置、送信方法、画像処理装置、画像処理方法、受信装置および受信方法
US8933997B2 (en) Video output apparatus and method for controlling the same
JP2011010255A (ja) 立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP2013176141A (ja) 立体画像データ受信装置および立体画像データ受信方法
JP2012222511A (ja) 動画像復号化装置及びデジタルテレビ受信装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18788541

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019513638

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 20197029203

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018788541

Country of ref document: EP

Effective date: 20191118

点击 这是indexloc提供的php浏览器服务,不要输入任何密码和下载