JPWO2015141696A1 - Image decoding apparatus, image encoding apparatus, and prediction apparatus - Google Patents
Image decoding apparatus, image encoding apparatus, and prediction apparatusInfo
- Publication number
- JPWO2015141696A1 JPWO2015141696A1 JP2016508750A JP2016508750A JPWO2015141696A1 JP WO2015141696 A1 JPWO2015141696 A1 JP WO2015141696A1 JP 2016508750 A JP2016508750 A JP 2016508750A JP 2016508750 A JP2016508750 A JP 2016508750A JP WO2015141696 A1 JPWO2015141696 A1 JP WO2015141696A1
- Authority
- JP
- Japan
- Prior art keywords
- unit
- image
- prediction
- depth
- block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/20—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
- H04N19/23—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding with coding of regions that are present throughout a whole video segment, e.g. sprites, background or mosaic
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/583—Motion compensation with overlapping blocks
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
DBBPでは、2つの補間画像を生成する補間処理と、デプス画像から分割モードを導出する分割モード導出処理と、セグメンテーションに応じて2つの補完画像を合成する合成処理の処理量が大きいという課題があった。デプス画像からセグメンテーション情報を導出するセグメンテーション導出部と、2つの動き補償画像を生成する画像補間部と、上記2つの補間画像を合成して1つの動き補償画像を生成する画像合成部を備えるデプスベースブロック予測画像生成装置において、上記画像補間部は、双線形予測により上記2つの動き補償画像を生成することを特徴とするデプスベースブロック予測画像生成装置。また、デプスのブロックの4隅の画素から分割モードを導出することを特徴とするデプスベースブロック予測画像生成装置。また、ブロックの各画素において2つの上記補間画像のいずれかを選択することにより合成することを特徴とするデプスベースブロック予測画像生成装置。また、双予測を行わないことを特徴とするデプスベースブロック予測画像生成装置。DBBP has a problem that the processing amount of interpolation processing for generating two interpolation images, division mode derivation processing for deriving a division mode from a depth image, and synthesis processing for synthesizing two complementary images according to segmentation is large. It was. A depth base comprising a segmentation deriving unit for deriving segmentation information from a depth image, an image interpolating unit for generating two motion compensated images, and an image synthesizing unit for synthesizing the two interpolated images to generate one motion compensated image In the block prediction image generation device, the image interpolation unit generates the two motion compensated images by bilinear prediction, and the depth base block prediction image generation device. A depth-based block predicted image generation apparatus that derives a division mode from pixels at four corners of a depth block. In addition, a depth-based block predicted image generation apparatus characterized in that synthesis is performed by selecting one of the two interpolation images in each pixel of a block. Also, a depth-based block prediction image generation apparatus characterized by not performing bi-prediction.
Description
本発明は、画像復号装置、画像符号化装置および予測装置に関する。 The present invention relates to an image decoding device, an image encoding device, and a prediction device.
複数視点の画像符号化技術には、複数の視点の画像を符号化する際に画像間の視差を予測することによって情報量を低減する視差予測符号化や、その符号化方法に対応した復号方法が提案されている。視点画像間の視差を表すベクトルを変位ベクトルと呼ぶ。変位ベクトルは、水平方向の要素(x成分)と垂直方向の要素(y成分)を有する2次元のベクトルであり、1つの画像を分割した領域であるブロック毎に算出される。また、複数視点の画像を取得するには、それぞれの視点に配置されたカメラを用いることが一般的である。複数視点の符号化では、各視点画像は、複数のレイヤにおいてそれぞれ異なるレイヤとして符号化される。複数のレイヤから構成される動画像の符号化方法は、一般に、スケーラブル符号化又は階層符号化と呼ばれる。スケーラブル符号化では、レイヤ間で予測を行うことで、高い符号化効率を実現する。レイヤ間で予測を行わずに基準となるレイヤは、ベースレイヤ、それ以外のレイヤは拡張レイヤと呼ばれる。レイヤが視点画像から構成される場合のスケーラブル符号化を、ビュースケーラブル符号化と呼ぶ。このとき、ベースレイヤはベースビュー、拡張レイヤは非ベースビューとも呼ばれる。さらに、ビュースケーラブルに加え、レイヤがテクスチャレイヤ(画像レイヤ)とデプスレイヤ(距離画像レイヤ)から構成される場合のスケーラブル符号化は、3次元スケーラブル符号化と呼ばれる。 The multi-view image encoding technique includes a parallax predictive encoding that reduces the amount of information by predicting a parallax between images when encoding images of a plurality of viewpoints, and a decoding method corresponding to the encoding method. Has been proposed. A vector representing the parallax between viewpoint images is called a displacement vector. The displacement vector is a two-dimensional vector having a horizontal element (x component) and a vertical element (y component), and is calculated for each block which is an area obtained by dividing one image. In order to acquire images from a plurality of viewpoints, it is common to use cameras arranged at the respective viewpoints. In multi-viewpoint encoding, each viewpoint image is encoded as a different layer in each of a plurality of layers. A method for encoding a moving image composed of a plurality of layers is generally referred to as scalable encoding or hierarchical encoding. In scalable coding, high coding efficiency is realized by performing prediction between layers. A reference layer without performing prediction between layers is called a base layer, and other layers are called enhancement layers. Scalable encoding in the case where a layer is composed of viewpoint images is referred to as view scalable encoding. At this time, the base layer is also called a base view, and the enhancement layer is also called a non-base view. Furthermore, in addition to view scalable, scalable coding when a layer is composed of a texture layer (image layer) and a depth layer (distance image layer) is called three-dimensional scalable coding.
また、スケーラブル符号化には、ビュースケーラブル符号化の他、空間的スケーラブル符号化(ベースレイヤとして解像度の低いピクチャ、拡張レイヤが解像度の高いピクチャを処理)、SNRスケーラブル符号化(ベースレイヤとして画質の低いピクチャ、拡張レイヤとして解像度の高いピクチャを処理)等がある。スケーラブル符号化では、例えばベースレイヤのピクチャを、拡張レイヤのピクチャの符号化において、参照ピクチャとして用いることがある。 For scalable coding, in addition to view scalable coding, spatial scalable coding (pictures with low resolution as the base layer and pictures with high resolution in the enhancement layer), SNR scalable coding (image quality as the base layer) Low picture, high resolution picture as an enhancement layer). In scalable coding, for example, a base layer picture may be used as a reference picture in coding an enhancement layer picture.
非特許文献1では、デプス画像からパーティション情報(セグメンテーション)を導出し、セグメンテーションをマスクとして、2つの補間画像から1つの予測画像を合成するデプスベースブロック分割(Depth-based Block Partitioning、DBBP)と呼ばれる技術が知られている。DBBPでは、デプスの画素に基づいて領域分割からセグメンテーションを導出することにより、矩形(2N×2N、2N×N、2N×nU、2N×nD、N×2N、nL×2N、nR×2N)に限定されない自由度の高い分割が可能である。
In
非特許文献2は、視点合成予測(VSP)とDBBPでのデプス画素参照に用いる視差ベクトル(DV)を統一する技術であり、VSPとDBBPでどちらも、デプスリファインする前の隣接ベース視差ベクトル(NBDV)を用いる。
非特許文献1は、VSPとDBBPで異なるパーティション分割方法を用いるため、実装が複雑になるという課題がある。
Since Non-Patent
非特許文献2は、VSPとDBBPのデプス画素参照に用いる視差ベクトル(DV)を統一させることができるが、符号化効率が低下するという課題がある。
Non-Patent
本発明の1つの形態は、デプス画像からセグメンテーション情報を導出するセグメンテーション導出部と、2つの動き補償画像を生成する画像補間部と、上記2つの補間画像を合成して1つの動き補償画像を生成する画像合成部を備えるデプスベースブロック予測画像生成装置において、上記画像補間部は、双線形予測により上記2つの動き補償画像を生成することを特徴とする。 According to one aspect of the present invention, a segmentation deriving unit that derives segmentation information from a depth image, an image interpolating unit that generates two motion compensation images, and a single motion compensation image are generated by combining the two interpolation images. In the depth-based block predicted image generation apparatus including the image synthesizing unit, the image interpolation unit generates the two motion compensation images by bilinear prediction.
本発明の1つの形態は、デプス画像からセグメンテーション情報を導出するセグメンテーション導出部と、2つの動き補償画像を生成する画像補間部と、上記2つの補間画像を合成して1つの動き補償画像を生成する画像合成部を備えるデプスベースブロック予測画像生成装置において、さらに、デプス画像から分割モードを導出するデプス分割モード導出部を備え、上記デプス分割モード導出部はデプスのブロックの4隅の画素から分割モードを導出することを特徴とする。 According to one aspect of the present invention, a segmentation deriving unit that derives segmentation information from a depth image, an image interpolating unit that generates two motion compensation images, and a single motion compensation image are generated by combining the two interpolation images. A depth-based block prediction image generation apparatus including an image synthesizing unit that further includes a depth division mode deriving unit for deriving a division mode from the depth image, wherein the depth division mode deriving unit is divided from pixels at four corners of the depth block A mode is derived.
本発明の1つの形態は、デプス分割モード導出部はデプスの左上と右下の比較と、デプスの右上と左下の比較から分割モードを導出することを特徴とする。 One aspect of the present invention is characterized in that the depth division mode deriving unit derives a division mode from a comparison of the upper left and lower right of the depth and a comparison of the upper right and lower left of the depth.
本発明の1つの形態は、デプス画像からセグメンテーション情報を導出するセグメンテーション導出部と、2つの動き補償画像を生成する画像補間部と、上記2つの補間画像を合成して1つの動き補償画像を生成する画像合成部と分割モードを導出するデプス分割モード導出部を備え、上記デプス分割モード導出部は2N×NもしくはN×2Nの分割モードを導出することを特徴とする。 According to one aspect of the present invention, a segmentation deriving unit that derives segmentation information from a depth image, an image interpolating unit that generates two motion compensation images, and a single motion compensation image are generated by combining the two interpolation images. And a depth division mode deriving unit for deriving a division mode, wherein the depth division mode deriving unit derives a 2N × N or N × 2N division mode.
本発明の1つの形態は、上記デプスベースブロック予測画像生成装置において、上記セグメンテーション導出部は各画素について0もしくは1をとるセグメンテーション情報を導出し、上記画像合成部は、ブロックの各画素において2つの上記補間画像のいずれかを選択することにより合成することを特徴とする。 In one embodiment of the present invention, in the depth-based block prediction image generation device, the segmentation deriving unit derives segmentation information that takes 0 or 1 for each pixel, and the image synthesizing unit includes two pieces of information for each pixel of the block. The composition is performed by selecting one of the interpolation images.
本発明の1つの形態は、上記デプスベースブロック予測画像生成装置とDBBPフラグ復号部を備える画像復号装置であって、上記デプスベースブロック予測画像生成装置はDBBPフラグが1の場合に、DBBP予測を行うことを特徴とする。 One embodiment of the present invention is an image decoding device including the depth base block prediction image generation device and the DBBP flag decoding unit, and the depth base block prediction image generation device performs DBBP prediction when the DBBP flag is 1. It is characterized by performing.
本発明の1つの形態は、デプスベースブロック予測画像生成手段と、視点合成予測手段を備える画像復号装置において、上記デプスベースブロック予測画像生成手段は、デプス画像からセグメンテーション情報を導出するセグメンテーション導出部と、2つの動き補償画像を生成する画像補間部と、上記2つの補間画像を合成して1つの動き補償画像を生成する画像合成部と、分割モードを導出する分割モード導出部を備え、上記視点合成予測手段は、デプス画像からパーティション分割を行うパーティション分割部と、デプス画像から動きベクトルを導出するデプス動きベクトル導出部を備え、上記分割モード導出部と、上記パーティション分割部は、共通の分割モード導出部を備えることを特徴とする。 One aspect of the present invention is an image decoding apparatus including a depth base block prediction image generation unit and a view synthesis prediction unit, wherein the depth base block prediction image generation unit includes a segmentation derivation unit that derives segmentation information from a depth image, and An image interpolation unit that generates two motion compensation images, an image synthesis unit that generates one motion compensation image by synthesizing the two interpolation images, and a division mode deriving unit that derives a division mode. The composite prediction means includes a partition division unit that performs partition division from the depth image, and a depth motion vector derivation unit that derives a motion vector from the depth image, and the division mode derivation unit and the partition division unit include a common division mode. A derivation unit is provided.
本発明の1つの形態は、デプスベースブロック予測画像生成手段とマージモードパラメータ導出部を備える画像復号装置において、上記デプスベースブロック予測画像生成手段は、デプス画像からセグメンテーション情報を導出するセグメンテーション導出部と、2つの動き補償画像を生成する画像補間部と、上記2つの補間画像を合成して1つの動き補償画像を生成する画像合成部を備え、上記画像復号装置は、DBBPフラグ復号部をさらに備え、上記マージモードパラメータ導出部は、上記DBBPフラグが1の場合に双予測から単予測に変換することを特徴とする。 One aspect of the present invention is an image decoding apparatus including a depth base block prediction image generation unit and a merge mode parameter derivation unit, wherein the depth base block prediction image generation unit includes a segmentation derivation unit that derives segmentation information from a depth image, and An image interpolation unit that generates two motion compensation images and an image synthesis unit that combines the two interpolation images to generate one motion compensation image. The image decoding apparatus further includes a DBBP flag decoding unit. The merge mode parameter derivation unit converts bi-prediction to uni-prediction when the DBBP flag is 1.
本発明の1つの形態は、デプスベースブロック予測画像生成手段とインター予測パラメータ復号部を備える画像復号装置において、上記デプスベースブロック予測画像生成手段は、デプス画像からセグメンテーション情報を導出するセグメンテーション導出部と、2つの動き補償画像を生成する画像補間部と、上記2つの補間画像を合成して1つの動き補償画像を生成する画像合成部を備え、上記画像復号装置は、DBBPフラグ復号部をさらに備え、上記インター予測パラメータ復号部は、上記DBBPフラグが1の場合にインター予測識別子として双予測となる値を復号しないことを特徴とする画像復号装置。 One aspect of the present invention is an image decoding apparatus including a depth base block prediction image generation unit and an inter prediction parameter decoding unit, wherein the depth base block prediction image generation unit includes a segmentation deriving unit for deriving segmentation information from the depth image, An image interpolation unit that generates two motion compensation images and an image synthesis unit that combines the two interpolation images to generate one motion compensation image. The image decoding apparatus further includes a DBBP flag decoding unit. The inter prediction parameter decoding unit does not decode a bi-prediction value as an inter prediction identifier when the DBBP flag is 1.
本発明の1つの形態は、上記デプスベースブロック予測画像生成装置とDBBPフラグ符号化部を備える画像符号化装置であって、上記デプスベースブロック予測画像生成装置はDBBPフラグが1の場合に、DBBP予測を行うことを特徴とする画像符号化装置。 One embodiment of the present invention is an image encoding device including the depth base block prediction image generation device and the DBBP flag encoding unit, and the depth base block prediction image generation device is configured to perform DBBP when the DBBP flag is 1. An image encoding apparatus that performs prediction.
本発明の1つの形態は、デプスベースブロック予測画像生成手段と、視点合成予測手段を備える画像符号化装置において、上記デプスベースブロック予測画像生成手段は、デプス画像からセグメンテーション情報を導出するセグメンテーション導出部と、2つの動き補償画像を生成する画像補間部と、上記2つの補間画像を合成して1つの動き補償画像を生成する画像合成部と、分割モードを導出する分割モード導出部を備え、上記視点合成予測手段は、デプスにおうてパーティション分割を行うパーティション分割部と、デプス画像から動きベクトルを導出するデプス動きベクトル導出部を備え、上記、上記分割モード導出部と、上記パーティション分割部は、共通の分割モード導出部を備えることを特徴とする。 One embodiment of the present invention is an image encoding device including a depth base block prediction image generation unit and a viewpoint synthesis prediction unit, wherein the depth base block prediction image generation unit is a segmentation deriving unit that derives segmentation information from a depth image. An image interpolation unit that generates two motion compensation images, an image synthesis unit that combines the two interpolation images to generate one motion compensation image, and a division mode derivation unit that derives a division mode, The viewpoint synthesis prediction unit includes a partition division unit that performs partition division in the depth, and a depth motion vector derivation unit that derives a motion vector from the depth image, and the division mode derivation unit and the partition division unit include: A common division mode deriving unit is provided.
本発明の1つの形態は、デプスベースブロック予測画像生成手段とマージモードパラメータ導出部を備える画像符号化装置において、上記デプスベースブロック予測画像生成手段は、デプス画像からセグメンテーション情報を導出するセグメンテーション導出部と、2つの動き補償画像を生成する画像補間部と、上記2つの補間画像を合成して1つの動き補償画像を生成する画像合成部を備え、上記画像符号化装置は、DBBPフラグを符号化するDBBPフラグ符号化部をさらに備え、上記マージモードパラメータ導出部は、上記DBBPフラグが1の場合に単予測から双予測に変換することを特徴とする。 One aspect of the present invention is an image encoding device including a depth base block prediction image generation unit and a merge mode parameter derivation unit, wherein the depth base block prediction image generation unit derives segmentation information from the depth image. And an image interpolating unit for generating two motion compensated images and an image synthesizing unit for synthesizing the two interpolated images to generate one motion compensated image. The image encoding device encodes the DBBP flag. And a merge mode parameter deriving unit that performs conversion from uni-prediction to bi-prediction when the DBBP flag is 1.
本発明の1つの形態は、デプスベースブロック予測画像生成手段と、視点合成予測手段を備える画像復号装置において、上記デプスベースブロック予測画像生成手段は、デプス画像からセグメンテーション情報を導出するセグメンテーション導出部と、2つの動き補償画像を生成する画像補間部と、上記2つの補間画像を合成して1つの動き補償画像を生成する画像合成部と、分割モードを導出する分割モード導出部を備え、上記視点合成予測手段は、デプス画像からパーティション分割を行うパーティション分割部と、デプス画像から動きベクトルを導出するデプス動きベクトル導出部を備え、上記デプスベースブロック予測画像生成手段の上記セグメンテーション導出部、上記分割モード導出部で参照するデプス画像の位置を導出するのに用いる視差ベクトルと、上記視点合成予測手段の上記パーティション分割部と上記デプス動きベクトル導出部でデプス画像の位置を導出するのに用いる視差ベクトルとを共通の視差ベクトルとすることを特徴とする。 One aspect of the present invention is an image decoding apparatus including a depth base block prediction image generation unit and a view synthesis prediction unit, wherein the depth base block prediction image generation unit includes a segmentation derivation unit that derives segmentation information from a depth image, and An image interpolation unit that generates two motion compensation images, an image synthesis unit that generates one motion compensation image by synthesizing the two interpolation images, and a division mode deriving unit that derives a division mode. The composite prediction unit includes a partition division unit that performs partition division from the depth image, and a depth motion vector derivation unit that derives a motion vector from the depth image. The segmentation derivation unit of the depth base block prediction image generation unit, the division mode The derivation unit derives the position of the depth image to be referenced. A disparity vector used, characterized by a common disparity vector and a disparity vector used to derive the position of the depth image in the partitioning portion of the view synthesized predicting means and the depth motion vector derivation unit.
本発明の1つの形態は、デプスベースブロック予測画像生成手段と、視点合成予測手段を備える画像符号化装置において、上記デプスベースブロック予測画像生成手段は、デプス画像からセグメンテーション情報を導出するセグメンテーション導出部と、2つの動き補償画像を生成する画像補間部と、上記2つの補間画像を合成して1つの動き補償画像を生成する画像合成部と、分割モードを導出する分割モード導出部を備え、上記視点合成予測手段は、デプス画像からパーティション分割を行うパーティション分割部と、デプス画像から動きベクトルを導出するデプス動きベクトル導出部を備え、上記デプスベースブロック予測画像生成手段の上記セグメンテーション導出部、上記分割モード導出部で参照するデプス画像の位置を導出するのに用いる視差ベクトルと、上記視点合成予測手段の上記パーティション分割部と上記デプス動きベクトル導出部でデプス画像の位置を導出するのに用いる視差ベクトルとを共通の視差ベクトルとすることを特徴とする。 One embodiment of the present invention is an image encoding device including a depth base block prediction image generation unit and a viewpoint synthesis prediction unit, wherein the depth base block prediction image generation unit is a segmentation deriving unit that derives segmentation information from a depth image. An image interpolation unit that generates two motion compensation images, an image synthesis unit that combines the two interpolation images to generate one motion compensation image, and a division mode derivation unit that derives a division mode, The viewpoint synthesis prediction unit includes a partition division unit that performs partition division from the depth image, and a depth motion vector derivation unit that derives a motion vector from the depth image, and the segmentation derivation unit of the depth base block prediction image generation unit, the division Deriving the position of the depth image referenced by the mode deriving unit Wherein the disparity vector, that a common disparity vector and a disparity vector used to derive the position of the depth image in the partitioning portion of the view synthesized predicting means and the depth motion vector derivation unit for use in.
本発明によれば、DBBPとVSPでブロック分割処理を共通化することにより実装を簡略化する効果を奏する。また、本発明によれば、DBBPとVSPで用いる視差を共通化することにより実装を簡略化する効果を奏する。 According to the present invention, there is an effect of simplifying the mounting by sharing the block division processing between DBBP and VSP. In addition, according to the present invention, there is an effect of simplifying the mounting by sharing the parallax used in the DBBP and the VSP.
以下、図面を参照しながら本発明の実施形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図2は、本実施形態に係る画像伝送システム1の構成を示す概略図である。
FIG. 2 is a schematic diagram showing the configuration of the
画像伝送システム1は、複数のレイヤ画像を符号化した符号を伝送し、伝送された符号を復号した画像を表示するシステムである。画像伝送システム1は、画像符号化装置11、ネットワーク21、画像復号装置31及び画像表示装置41を含んで構成される。
The
画像符号化装置11には、複数のレイヤ画像(テクスチャ画像ともいう)を示す信号Tが入力される。レイヤ画像とは、ある解像度及びある視点で視認もしくは撮影される画像である。複数のレイヤ画像を用いて3次元画像を符号化するビュースケーラブル符号化を行う場合、複数のレイヤ画像のそれぞれは、視点画像と呼ばれる。ここで、視点は撮影装置の位置又は観測点に相当する。例えば、複数の視点画像は、被写体に向かって左右の撮影装置のそれぞれが撮影した画像である。画像符号化装置11は、この信号のそれぞれを符号化して符号化ストリームTe(符号化データ)を生成する。符号化ストリームTeの詳細については、後述する。視点画像とは、ある視点において観測される2次元画像(平面画像)である。視点画像は、例えば2次元平面内に配置された画素毎の輝度値、又は色信号値で示される。以下では、1枚の視点画像又は、その視点画像を示す信号をピクチャ(picture)と呼ぶ。また、複数のレイヤ画像を用いて空間スケーラブル符号化を行う場合、その複数のレイヤ画像は、解像度の低いベースレイヤ画像と、解像度の高い拡張レイヤ画像からなる。複数のレイヤ画像を用いてSNRスケーラブル符号化を行う場合、その複数のレイヤ画像は、画質の低いベースレイヤ画像と、画質の高い拡張レイヤ画像からなる。なお、ビュースケーラブル符号化、空間スケーラブル符号化、SNRスケーラブル符号化を任意に組み合わせて行っても良い。本実施形態では、複数のレイヤ画像として、少なくともベースレイヤ画像と、ベースレイヤ画像以外の画像(拡張レイヤ画像)を含む画像の符号化および復号を扱う。複数のレイヤのうち、画像もしくは符号化パラメータにおいて参照関係(依存関係)にある2つのレイヤについて、参照される側の画像を、第1レイヤ画像、参照する側の画像を第2レイヤ画像と呼ぶ。例えば、ベースレイヤを参照して符号化される(ベースレイヤ以外の)エンハンスレイヤ画像がある場合、ベースレイヤ画像を第1レイヤ画像、エンハンスレイヤ画像を第2レイヤ画像として扱う。なお、エンハンスレイヤ画像の例としては、ベースビュー以外の視点の画像やデプス画像などがある。
A signal T indicating a plurality of layer images (also referred to as texture images) is input to the
デプス画像(depth map、「深度画像」、「距離画像」とも言う)とは、被写空間に含まれる被写体や背景の、視点(撮影装置等)からの距離に対応する信号値(「デプス値」、「深度値」、「デプス」等と呼ぶ)であって、二次元平面に配置された画素毎の信号値(画素値)からなる画像信号である。デプス画像を構成する画素は、視点画像を構成する画素と対応する。従って、デプスマップは、被写空間を二次元平面に射影した基準となる画像信号である視点画像を用いて、三次元の被写空間を表すための手がかりとなる。 A depth image (also referred to as a depth map, “depth image”, or “distance image”) is a signal value (“depth value”) corresponding to the distance from the viewpoint (such as a photographing device) of the subject or background included in the subject space. ”,“ Depth value ”,“ depth ”, etc.), and is an image signal composed of signal values (pixel values) for each pixel arranged in a two-dimensional plane. The pixels constituting the depth image correspond to the pixels constituting the viewpoint image. Therefore, the depth map is a clue for representing the three-dimensional object space by using the viewpoint image which is a reference image signal obtained by projecting the object space onto the two-dimensional plane.
ネットワーク21は、画像符号化装置11が生成した符号化ストリームTeを画像復号装置31に伝送する。ネットワーク21は、インターネット(internet)、広域ネットワーク(WAN:Wide Area Network)、小規模ネットワーク(LAN:Local Area Network)又はこれらの組み合わせである。ネットワーク21は、必ずしも双方向の通信網に限らず、地上波ディジタル放送、衛星放送等の放送波を伝送する一方向又は双方向の通信網であっても良い。また、ネットワーク21は、DVD(Digital Versatile Disc)、BD(Blue-ray Disc)等の符号化ストリームTeを記録した記憶媒体で代替されても良い。
The network 21 transmits the encoded stream Te generated by the
画像復号装置31は、ネットワーク21が伝送した符号化ストリームTeのそれぞれを復号し、それぞれ復号した複数の復号レイヤ画像Td(復号視点画像Td)を生成する。 The image decoding device 31 decodes each of the encoded streams Te transmitted by the network 21, and generates a plurality of decoded layer images Td (decoded viewpoint images Td) respectively decoded.
画像表示装置41は、画像復号装置31が生成した複数の復号レイヤ画像Tdの全部又は一部を表示する。例えば、ビュースケーラブル符号化においては、全部の場合、3次元画像(立体画像)や自由視点画像が表示され、一部の場合、2次元画像が表示される。画像表示装置41は、例えば、液晶ディスプレイ、有機EL(Electro-luminescence)ディスプレイ等の表示デバイスを備える。また、空間スケーラブル符号化、SNRスケーラブル符号化では、画像復号装置31、画像表示装置41が高い処理能力を有する場合には、画質の高い拡張レイヤ画像を表示し、より低い処理能力しか有しない場合には、拡張レイヤほど高い処理能力、表示能力を必要としないベースレイヤ画像を表示する。 The image display device 41 displays all or part of the plurality of decoded layer images Td generated by the image decoding device 31. For example, in view scalable coding, a 3D image (stereoscopic image) and a free viewpoint image are displayed in all cases, and a 2D image is displayed in some cases. The image display device 41 includes, for example, a display device such as a liquid crystal display or an organic EL (Electro-luminescence) display. In addition, in the spatial scalable coding and SNR scalable coding, when the image decoding device 31 and the image display device 41 have a high processing capability, a high-quality enhancement layer image is displayed and only a lower processing capability is provided. Displays a base layer image that does not require higher processing capability and display capability as an extension layer.
<符号化ストリームTeの構造>
本実施形態に係る画像符号化装置11および画像復号装置31の詳細な説明に先立って、画像符号化装置11によって生成され、画像復号装置31によって復号される符号化ストリームTeのデータ構造について説明する。<Structure of Encoded Stream Te>
Prior to detailed description of the
図3は、符号化ストリームTeにおけるデータの階層構造を示す図である。符号化ストリームTeは、例示的に、シーケンス、およびシーケンスを構成する複数のピクチャを含む。図3の(a)〜(f)は、それぞれ、シーケンスSEQを既定するシーケンスレイヤ、ピクチャPICTを規定するピクチャレイヤ、スライスSを規定するスライスレイヤ、スライスデータを規定するスライスデータレイヤ、スライスデータに含まれる符号化ツリーユニットを規定する符号化ツリーレイヤ、符号化ツリーに含まれる符号化単位(Coding Unit;CU)を規定する符号化ユニットレイヤを示す図である。 FIG. 3 is a diagram illustrating a hierarchical structure of data in the encoded stream Te. The encoded stream Te illustratively includes a sequence and a plurality of pictures constituting the sequence. (A) to (f) of FIG. 3 respectively show a sequence layer that defines the sequence SEQ, a picture layer that defines the picture PICT, a slice layer that defines the slice S, a slice data layer that defines slice data, and slice data. It is a figure which shows the encoding unit layer which prescribes | regulates the encoding tree layer which prescribes | regulates the encoding tree unit contained, and the coding unit (Coding Unit; CU) contained in a coding tree.
(シーケンスレイヤ)
シーケンスレイヤでは、処理対象のシーケンスSEQ(以下、対象シーケンスとも称する)を復号するために画像復号装置31が参照するデータの集合が規定されている。シーケンスSEQは、図3の(a)に示すように、ビデオパラメータセット(Video Parameter Set)シーケンスパラメータセットSPS(Sequence Parameter Set)、ピクチャパラメータセットPPS(Picture Parameter Set)、ピクチャPICT、及び、付加拡張情報SEI(Supplemental Enhancement Information)を含んでいる。ここで#の後に示される値はレイヤIDを示す。図3では、#0と#1すなわちレイヤ0とレイヤ1の符号化データが存在する例を示すが、レイヤの種類およびレイヤの数はこれによらない。(Sequence layer)
In the sequence layer, a set of data referred to by the image decoding device 31 for decoding a sequence SEQ to be processed (hereinafter also referred to as a target sequence) is defined. As shown in FIG. 3A, the sequence SEQ includes a video parameter set (Sequence Parameter Set), a picture parameter set PPS (Picture Parameter Set), a picture PICT, and an additional extension. Information SEI (Supplemental Enhancement Information) is included. Here, the value indicated after # indicates the layer ID. FIG. 3 shows an example in which encoded data of # 0 and # 1, that is,
ビデオパラメータセットVPSは、複数のレイヤから構成されている動画像において、複数の動画像に共通する符号化パラメータの集合および動画像に含まれる複数のレイヤおよび個々のレイヤに関連する符号化パラメータの集合が規定されている。 The video parameter set VPS is a set of encoding parameters common to a plurality of moving images, a plurality of layers included in the moving image, and encoding parameters related to individual layers in a moving image composed of a plurality of layers. A set is defined.
シーケンスパラメータセットSPSでは、対象シーケンスを復号するために画像復号装置31が参照する符号化パラメータの集合が規定されている。例えば、ピクチャの幅や高さが規定される。 In the sequence parameter set SPS, a set of encoding parameters referred to by the image decoding device 31 in order to decode the target sequence is defined. For example, the width and height of the picture are defined.
ピクチャパラメータセットPPSでは、対象シーケンス内の各ピクチャを復号するために画像復号装置31が参照する符号化パラメータの集合が規定されている。例えば、ピクチャの復号に用いられる量子化幅の基準値(pic_init_qp_minus26)や重み付き予測の適用を示すフラグ(weighted_pred_flag)が含まれる。なお、PPSは複数存在してもよい。その場合、対象シーケンス内の各ピクチャから複数のPPSの何れかを選択する。 In the picture parameter set PPS, a set of encoding parameters referred to by the image decoding device 31 in order to decode each picture in the target sequence is defined. For example, a quantization width reference value (pic_init_qp_minus26) used for picture decoding and a flag (weighted_pred_flag) indicating application of weighted prediction are included. A plurality of PPS may exist. In that case, one of a plurality of PPSs is selected from each picture in the target sequence.
(ピクチャレイヤ)
ピクチャレイヤでは、処理対象のピクチャPICT(以下、対象ピクチャとも称する)を復号するために画像復号装置31が参照するデータの集合が規定されている。ピクチャPICTは、図3の(b)に示すように、スライスS0〜SNS−1を含んでいる(NSはピクチャPICTに含まれるスライスの総数)。(Picture layer)
In the picture layer, a set of data referred to by the image decoding device 31 for decoding a picture PICT to be processed (hereinafter also referred to as a target picture) is defined. As shown in FIG. 3B, the picture PICT includes slices S0 to SNS-1 (NS is the total number of slices included in the picture PICT).
なお、以下、スライスS0〜SNS−1のそれぞれを区別する必要が無い場合、符号の添え字を省略して記述することがある。また、以下に説明する符号化ストリームTeに含まれるデータであって、添え字を付している他のデータについても同様である。 In addition, hereinafter, when it is not necessary to distinguish each of the slices S0 to SNS-1, the subscripts may be omitted. The same applies to data included in an encoded stream Te described below and to which other subscripts are attached.
(スライスレイヤ)
スライスレイヤでは、処理対象のスライスS(対象スライスとも称する)を復号するために画像復号装置31が参照するデータの集合が規定されている。スライスSは、図3の(c)に示すように、スライスヘッダSH、および、スライスデータSDATAを含んでいる。(Slice layer)
In the slice layer, a set of data referred to by the image decoding device 31 for decoding the slice S to be processed (also referred to as a target slice) is defined. As shown in FIG. 3C, the slice S includes a slice header SH and slice data SDATA.
スライスヘッダSHには、対象スライスの復号方法を決定するために画像復号装置31が参照する符号化パラメータ群が含まれる。スライスタイプを指定するスライスタイプ指定情報(slice_type)は、スライスヘッダSHに含まれる符号化パラメータの一例である。 The slice header SH includes a coding parameter group that the image decoding device 31 refers to in order to determine a decoding method of the target slice. The slice type designation information (slice_type) that designates the slice type is an example of an encoding parameter included in the slice header SH.
スライスタイプ指定情報により指定可能なスライスタイプとしては、(1)符号化の際にイントラ予測のみを用いるIスライス、(2)符号化の際に単方向予測、または、イントラ予測を用いるPスライス、(3)符号化の際に単方向予測、双方向予測、または、イントラ予測を用いるBスライスなどが挙げられる。 As slice types that can be specified by the slice type specification information, (1) I slice using only intra prediction at the time of encoding, (2) P slice using unidirectional prediction or intra prediction at the time of encoding, (3) B-slice using unidirectional prediction, bidirectional prediction, or intra prediction at the time of encoding may be used.
なお、スライスヘッダSHには、上記シーケンスレイヤに含まれる、ピクチャパラメータセットPPSへの参照(pic_parameter_set_id)を含んでいても良い。 Note that the slice header SH may include a reference (pic_parameter_set_id) to the picture parameter set PPS included in the sequence layer.
(スライスデータレイヤ)
スライスデータレイヤでは、処理対象のスライスデータSDATAを復号するために画像復号装置31が参照するデータの集合が規定されている。スライスデータSDATAは、図3の(d)に示すように、符号化ツリーブロック(CTB:Coded Tree Block)を含んでいる。CTBは、スライスを構成する固定サイズ(例えば64×64)のブロックであり、最大符号化単位(LCU:Largest Cording Unit)と呼ぶこともある。(Slice data layer)
In the slice data layer, a set of data referred to by the image decoding device 31 in order to decode the slice data SDATA to be processed is defined. As shown in FIG. 3D, the slice data SDATA includes a coded tree block (CTB). The CTB is a fixed-size block (for example, 64 × 64) constituting a slice, and may be referred to as a maximum coding unit (LCU).
(符号化ツリーレイヤ)
符号化ツリーレイヤは、図3の(e)に示すように、処理対象の符号化ツリーブロックを復号するために画像復号装置31が参照するデータの集合が規定されている。符号化ツリーユニットは、再帰的な4分木分割により分割される。再帰的な4分木分割により得られる木構造のノードのことを符号化ツリー(coding tree)と称する。4分木の中間ノードは、符号化ツリーユニット(CTU:Coded Tree Unit)であり、符号化ツリーブロック自身も最上位のCTUとして規定される。CTUは、分割フラグ(split_flag)を含み、split_flagが1の場合には、4つの符号化ツリーユニットCTUに分割される。split_flagが0の場合には、符号化ツリーユニットCTUは4つの符号化ユニット(CU:Coded Unit)に分割される。符号化ユニットCUは符号化ツリーレイヤの末端ノードであり、このレイヤではこれ以上分割されない。符号化ユニットCUは、符号化処理の基本的な単位となる。(Encoding tree layer)
As shown in (e) of FIG. 3, the coding tree layer defines a set of data referred to by the image decoding device 31 in order to decode a coding tree block to be processed. The coding tree unit is divided by recursive quadtree division. A tree-structured node obtained by recursive quadtree partitioning is called a coding tree. An intermediate node of the quadtree is a coded tree unit (CTU), and the coded tree block itself is also defined as the highest CTU. The CTU includes a split flag (split_flag). When the split_flag is 1, the CTU is split into four coding tree units CTU. When split_flag is 0, the coding tree unit CTU is divided into four coding units (CU: Coded Unit). The coding unit CU is a terminal node of the coding tree layer and is not further divided in this layer. The encoding unit CU is a basic unit of the encoding process.
また、符号化ツリーブロックCTBのサイズ64×64画素の場合には、符号化ユニットCUのサイズは、64×64画素、32×32画素、16×16画素、および、8×8画素の何れかをとり得る。 When the size of the coding tree block CTB is 64 × 64 pixels, the size of the coding unit CU is any of 64 × 64 pixels, 32 × 32 pixels, 16 × 16 pixels, and 8 × 8 pixels. Can take.
(符号化ユニットレイヤ)
符号化ユニットレイヤは、図3の(f)に示すように、処理対象の符号化ユニットを復号するために画像復号装置31が参照するデータの集合が規定されている。具体的には、符号化ユニットは、CUヘッダCUH、予測ユニット(予測単位)、変換ツリー、CUヘッダCUFから構成される。CUヘッダCUHでは、符号化ユニットが、イントラ予測を用いるユニットであるか、インター予測を用いるユニットであるかなどが規定される。また、CUヘッダCUHには、符号化ユニットが、残差予測に用いる重み(もしくは残差予測を行うか否か)を示す残差予測インデックスiv_res_pred_weight_idxや、照度補償予測を用いるか否かを示す照度補償フラグic_flagを含む。符号化ユニットは、予測ユニット(prediction unit;PU、予測ユニット)および変換ツリー(transform tree;TT)のルートとなる。CUヘッダCUFは、予測ユニットと変換ツリーの間、もしくは、変換ツリーの後に含まれる。(Encoding unit layer)
As shown in (f) of FIG. 3, the encoding unit layer defines a set of data referred to by the image decoding device 31 in order to decode the processing target encoding unit. Specifically, the encoding unit includes a CU header CUH, a prediction unit (prediction unit), a conversion tree, and a CU header CUF. In the CU header CUH, it is defined whether the coding unit is a unit using intra prediction or a unit using inter prediction. In the CU header CUH, the encoding unit indicates a residual prediction index iv_res_pred_weight_idx indicating a weight used for residual prediction (or whether or not to perform residual prediction), and illuminance indicating whether or not illuminance compensation prediction is used. A compensation flag ic_flag is included. The encoding unit is the root of a prediction unit (PU) and a transform tree (TT). The CU header CUF is included between the prediction unit and the conversion tree or after the conversion tree.
予測ユニットは、符号化ユニットが1または複数の予測ブロックに分割され、各予測ブロックの位置とサイズとが規定される。別の表現でいえば、予測ブロックは、符号化ユニットを構成する1または複数の重複しない領域である。また、予測ユニットは、上述の分割により得られた1または複数の予測ブロックを含む。 In the prediction unit, the encoding unit is divided into one or a plurality of prediction blocks, and the position and size of each prediction block are defined. In other words, the prediction block is one or a plurality of non-overlapping areas constituting the coding unit. Further, the prediction unit includes one or a plurality of prediction blocks obtained by the above-described division.
予測処理は、この予測ブロックごとに行われる。以下、予測の単位である予測ブロックのことを、予測ユニットとも称する。より詳細には予測は色コンポーネント単位で行われるため、以下では、輝度の予測ブロック、色差の予測ブロックなど、色コンポーネント毎のブロックを、予測ブロックと呼び、複数の色コンポーネントのブロック(輝度の予測ブロック、色差の予測ブロック)を合わせて、予測ユニットと呼ぶ。色コンポーネントの種類を示すインデックスcIdx(colour_component Idx)が0のブロックが輝度ブロック(輝度の予測ブロック)を示し(通例、LもしくはYと表示される)、cIdxが1もしくは2のブロックは各々Cb, Crの色差ブロック(色差の予測ブロック)を示す。 Prediction processing is performed for each prediction block. Hereinafter, a prediction block that is a unit of prediction is also referred to as a prediction unit. More specifically, since prediction is performed in units of color components, hereinafter, blocks for each color component, such as a luminance prediction block and a color difference prediction block, are referred to as prediction blocks, and blocks of multiple color components (luminance prediction blocks). A block and a color difference prediction block) are collectively called a prediction unit. A block whose index cIdx (colour_component Idx) indicating a color component type is 0 indicates a luminance block (predicted luminance block) (usually displayed as L or Y), and a block whose cIdx is 1 or 2 is Cb, The Cr color difference block (color difference prediction block) is shown.
予測ユニットにおける分割の種類は、大まかにいえば、イントラ予測の場合と、インター予測の場合との2つがある。イントラ予測とは、同一ピクチャ内の予測であり、インター予測とは、互いに異なるピクチャ間(例えば、表示時刻間、レイヤ画像間)で行われる予測処理を指す。 Roughly speaking, there are two types of division in the prediction unit: intra prediction and inter prediction. Intra prediction is prediction within the same picture, and inter prediction refers to prediction processing performed between different pictures (for example, between display times and between layer images).
イントラ予測の場合、分割方法は、2N×2N(符号化ユニットと同一サイズ)と、N×Nとがある。 In the case of intra prediction, there are 2N × 2N (the same size as the encoding unit) and N × N division methods.
また、インター予測の場合、分割方法は、符号化データの分割モードpart_modeにより符号化される。分割モードpart_modeによって指定される分割モードには、対象CUのサイズを2N×2N画素とすると、次の合計8種類のパターンがある。すなわち、2N×2N画素、2N×N画素、N×2N画素、およびN×N画素の4つの対称的分割(symmetric splittings)、並びに、2N×nU画素、2N×nD画素、nL×2N画素、およびnR×2N画素の4つの非対称的分割(AMP:asymmetric motion partitions)である。なお、N=2m(mは1以上の任意の整数)を意味している。以下、分割モードが非対称的分割である予測ブロックをAMPブロックとも呼称する。分割数は1、2、4のいずれかであるため、CUに含まれるPUは1個から4個である。これらのPUを順にPU0、PU1、PU2、PU3と表現する。Also, in the case of inter prediction, the division method is encoded by the encoded data division mode part_mode. The division mode specified by the division mode part_mode includes the following eight types of patterns in total, assuming that the size of the target CU is 2N × 2N pixels. That is, 4 symmetric splittings of 2N × 2N pixels, 2N × N pixels, N × 2N pixels, and N × N pixels, and 2N × nU pixels, 2N × nD pixels, nL × 2N pixels, And four asymmetric motion partitions (AMP) of nR × 2N pixels. N = 2 m (m is an arbitrary integer of 1 or more). Hereinafter, a prediction block whose division mode is asymmetric division is also referred to as an AMP block. Since the number of divisions is one of 1, 2, and 4, PUs included in the CU are 1 to 4. These PUs are expressed as PU0, PU1, PU2, and PU3 in order.
図4(a)〜(h)に、それぞれの分割モードについて、CUにおけるPU分割の境界の位置を具体的に図示している。 4A to 4H specifically illustrate the positions of the PU partition boundaries in the CU for each partition mode.
図4(a)は、CUの分割を行わない2N×2Nの分割モードを示している。また、図4(b)および(e)は、それぞれ、分割モードが、2N×N、および、N×2Nである場合のパーティションの形状について示している。また、図4(h)は、分割モードが、N×Nである場合のパーティションの形状を示している。 FIG. 4A shows a 2N × 2N division mode in which no CU division is performed. FIGS. 4B and 4E show the shapes of partitions when the division modes are 2N × N and N × 2N, respectively. FIG. 4H shows the shape of the partition when the division mode is N × N.
また、図4(c)、(d)、(f)および(g)は、それぞれ非対称的分割(AMP)である、2N×nU、2N×nD、nL×2N、および、nR×2Nである場合のパーティションの形状について示している。 4 (c), (d), (f), and (g) are 2N × nU, 2N × nD, nL × 2N, and nR × 2N, which are asymmetric divisions (AMP), respectively. Shows the shape of the partition.
また、図4(a)〜(h)において、各領域に付した番号は、領域の識別番号を示しており、この識別番号順に、領域に対して処理が行われる。すなわち、当該識別番号は、領域のスキャン順を表している。 Also, in FIGS. 4A to 4H, the numbers given to the respective regions indicate the region identification numbers, and the regions are processed in the order of the identification numbers. That is, the identification number represents the scan order of the area.
インター予測の場合の予測ブロックでは、上記8種類の分割モードのうち、N×N(図4(h))以外の7種類が定義されている。 In the prediction block in the case of inter prediction, seven types other than N × N (FIG. 4 (h)) are defined among the eight types of division modes.
また、Nの具体的な値は、当該PUが属するCUのサイズによって規定され、nU、nD、nL、および、nRの具体的な値は、Nの値に応じて定められる。例えば、32×32画素のCUは、32×32画素、32×16画素、16×32画素、32×16画素、32×8画素、32×24画素、8×32画素、および、24×32画素のインター予測の予測ブロックへ分割できる。 A specific value of N is defined by the size of the CU to which the PU belongs, and specific values of nU, nD, nL, and nR are determined according to the value of N. For example, 32 × 32 pixel CUs are 32 × 32 pixels, 32 × 16 pixels, 16 × 32 pixels, 32 × 16 pixels, 32 × 8 pixels, 32 × 24 pixels, 8 × 32 pixels, and 24 × 32. It can be divided into prediction blocks for inter prediction of pixels.
また、変換ツリーにおいては、符号化ユニットが1または複数の変換ブロックに分割され、各変換ブロックの位置とサイズとが規定される。別の表現でいえば、変換ブロックは、符号化ユニットを構成する1または複数の重複しない領域のことである。また、変換ツリーは、上述の分割より得られた1または複数の変換ブロックを含む。 In the transform tree, the encoding unit is divided into one or a plurality of transform blocks, and the position and size of each transform block are defined. In other words, the transform block is one or a plurality of non-overlapping areas constituting the encoding unit. The conversion tree includes one or a plurality of conversion blocks obtained by the above division.
変換ツリーにおける分割には、符号化ユニットと同一のサイズの領域を変換ブロックとして割り付けるものと、上述したツリーブロックの分割と同様、再帰的な4分木分割によるものがある。 There are two types of division in the transformation tree: one in which an area having the same size as the encoding unit is allocated as a transformation block, and the other in division by recursive quadtree division, similar to the above-described division in the tree block.
変換処理は、この変換ブロックごとに行われる。以下、変換の単位である変換ブロックのことを、変換単位(transform unit;TU)とも称する。 The conversion process is performed for each conversion block. Hereinafter, a transform block that is a unit of transform is also referred to as a transform unit (TU).
(予測パラメータ)
予測ユニットの予測画像は、予測ユニットに付随する予測パラメータによって導出される。予測パラメータには、イントラ予測の予測パラメータもしくはインター予測の予測パラメータがある。以下、インター予測の予測パラメータ(インター予測パラメータ)について説明する。インター予測パラメータは、予測利用フラグpredFlagL0、predFlagL1と、参照ピクチャインデックスrefIdxL0、refIdxL1と、ベクトルmvL0、mvL1から構成される。予測利用フラグpredFlagL0、predFlagL1は、各々L0リスト、L1リストと呼ばれる参照ピクチャリストが用いられるか否かを示すフラグであり、値が1の場合に対応する参照ピクチャリストが用いられる。なお、本明細書中「XXであるか否かを示すフラグ」と記す場合、1をXXである場合、0をXXではない場合とし、論理否定、論理積などでは1を真、0を偽と扱う(以下同様)。但し、実際の装置や方法では真値、偽値として他の値を用いることもできる。2つの参照ピクチャリストが用いられる場合、つまり、(predFlagL0,predFlagL1) = (1, 1)の場合が、双予測に対応し、1つの参照ピクチャリストを用いる場合、すなわち(predFlagL0, predFlagL1) = (1, 0)もしくは(predFlagL0, predFlagL1) = (0, 1)の場合が単予測に対応する。なお、予測利用フラグの情報は、後述のインター予測識別子inter_pred_idcで表現することもできる。通常、後述の予測画像生成部、予測パラメータメモリでは、予測利用フラグが用いれ、符号化データから、どの参照ピクチャリストが用いられるか否かの情報を復号する場合にはインター予測識別子inter_pred_idcが用いられる。(Prediction parameter)
The prediction image of the prediction unit is derived by a prediction parameter associated with the prediction unit. The prediction parameters include a prediction parameter for intra prediction or a prediction parameter for inter prediction. Hereinafter, prediction parameters for inter prediction (inter prediction parameters) will be described. The inter prediction parameter includes prediction use flags predFlagL0 and predFlagL1, reference picture indexes refIdxL0 and refIdxL1, and vectors mvL0 and mvL1. The prediction use flags predFlagL0 and predFlagL1 are flags indicating whether or not reference picture lists called L0 list and L1 list are used, respectively, and a reference picture list corresponding to a value of 1 is used. In this specification, when “flag indicating whether or not XX” is described, 1 is XX, 0 is not XX, 1 is true and 0 is false in logical negation and logical product. (The same applies hereinafter). However, other values can be used as true values and false values in an actual apparatus or method. When two reference picture lists are used, that is, (predFlagL0, predFlagL1) = (1, 1) corresponds to bi-prediction, and when one reference picture list is used, that is, (predFlagL0, predFlagL1) = ( 1, 0) or (predFlagL0, predFlagL1) = (0, 1) corresponds to single prediction. Note that the prediction use flag information can also be expressed by an inter prediction identifier inter_pred_idc described later. Normally, a prediction use flag is used in a prediction image generation unit and a prediction parameter memory, which will be described later, and an inter prediction identifier inter_pred_idc is used when decoding information about which reference picture list is used from encoded data. .
符号化データに含まれるインター予測パラメータを導出するためのシンタックス要素には、例えば、分割モードpart_mode、マージフラグmerge_flag、マージインデックスmerge_idx、インター予測識別子inter_pred_idc、参照ピクチャインデックスrefIdxLX、予測ベクトルフラグmvp_LX_flag、差分ベクトルmvdLXがある。なお、LXは、L0予測とL1予測を区別しない場合に用いられる記述方法であり、LXをL0、L1に置き換えることでL0リストに対するパラメータとL1リストに対するパラメータを区別する(以降同様)。例えば、refIdxL0はL0予測に用いる参照ピクチャインデックス、refIdxL1はL1予測に用いる参照ピクチャインデックス、refIdx(refIdxLX)は、refIdxL0とrefIdxL1を区別しない場合に用いられる表記である。 Syntax elements for deriving inter prediction parameters included in the encoded data include, for example, a partition mode part_mode, a merge flag merge_flag, a merge index merge_idx, an inter prediction identifier inter_pred_idc, a reference picture index refIdxLX, a prediction vector flag mvp_LX_flag, and a difference There is a vector mvdLX. Note that LX is a description method used when L0 prediction and L1 prediction are not distinguished. By replacing LX with L0 and L1, parameters for the L0 list and parameters for the L1 list are distinguished (the same applies hereinafter). For example, refIdxL0 is a reference picture index used for L0 prediction, refIdxL1 is a reference picture index used for L1 prediction, and refIdx (refIdxLX) is a notation used when refIdxL0 and refIdxL1 are not distinguished.
(参照ピクチャリストの一例)
次に、参照ピクチャリストの一例について説明する。参照ピクチャリストとは、参照ピクチャメモリ306に記憶された参照ピクチャからなる列である。図5は、参照ピクチャリストRefPicListXの一例を示す概念図である。参照ピクチャリストRefPicListXにおいて、左右に一列に配列された5個の長方形は、それぞれ参照ピクチャを示す。左端から右へ順に示されている符号、P1、P2、Q0、P3、P4は、それぞれの参照ピクチャを示す符号である。P1等のPとは、視点Pを示し、そしてQ0のQとは、視点Pとは異なる視点Qを示す。P及びQの添字は、ピクチャ順序番号POCを示す。refIdxLXの真下の下向きの矢印は、参照ピクチャインデックスrefIdxLXが、参照ピクチャメモリ306において参照ピクチャQ0を参照するインデックスであることを示す。(Example of reference picture list)
Next, an example of the reference picture list will be described. The reference picture list is a column composed of reference pictures stored in the
(参照ピクチャの例)
次に、ベクトルを導出する際に用いる参照ピクチャの例について説明する。図6は、参照ピクチャの例を示す概念図である。図6において、横軸は表示時刻を示し、縦軸は視点を示す。図6に示されている、縦2行、横3列(計6個)の長方形は、それぞれピクチャを示す。6個の長方形のうち、下行の左から2列目の長方形は復号対象のピクチャ(対象ピクチャ)を示し、残りの5個の長方形がそれぞれ参照ピクチャを示す。対象ピクチャから上向きの矢印で示される参照ピクチャQ0は対象ピクチャと同表示時刻であって視点(ビューID)が異なるピクチャである。対象ピクチャを基準とする変位予測においては、参照ピクチャQ0が用いられる。対象ピクチャから左向きの矢印で示される参照ピクチャP1は、対象ピクチャと同じ視点であって、過去のピクチャである。対象ピクチャから右向きの矢印で示される参照ピクチャP2は、対象ピクチャと同じ視点であって、未来のピクチャである。対象ピクチャを基準とする動き予測においては、参照ピクチャP1又はP2が用いられる。(Reference picture example)
Next, an example of a reference picture used for deriving a vector will be described. FIG. 6 is a conceptual diagram illustrating an example of a reference picture. In FIG. 6, the horizontal axis indicates the display time, and the vertical axis indicates the viewpoint. The rectangles shown in FIG. 6 with 2 rows and 3 columns (6 in total) indicate pictures. Among the six rectangles, the rectangle in the second column from the left in the lower row indicates a picture to be decoded (target picture), and the remaining five rectangles indicate reference pictures. A reference picture Q0 indicated by an upward arrow from the target picture is a picture that has the same display time as the target picture and a different viewpoint (view ID). In the displacement prediction based on the target picture, the reference picture Q0 is used. A reference picture P1 indicated by a left-pointing arrow from the target picture is a past picture at the same viewpoint as the target picture. A reference picture P2 indicated by a right-pointing arrow from the target picture is a future picture at the same viewpoint as the target picture. In motion prediction based on the target picture, the reference picture P1 or P2 is used.
(インター予測識別子と予測利用フラグ)
インター予測識別子inter_pred_idcと、予測利用フラグpredFlagL0、predFlagL1の関係は
inter_pred_idc = (predFlagL1<<1) + predFlagL0
predFlagL0 =inter_pred_idc & 1
predFlagL1 =inter_pred_idc >> 1
の式を用いて相互に変換可能である。ここで、>>は右シフト、<<は左シフトである。そのため、インター予測パラメータとしては、予測利用フラグpredFlagL0、predFlagL1を用いても良いし、インター予測識別子inter_pred_idcを用いてもよい。また、以下、予測利用フラグpredFlagL0、predFlagL1を用いた判定は、インター予測識別子inter_pred_idcに置き替えても可能である。逆に、インター予測識別子inter_pred_idcを用いた判定は、予測利用フラグpredFlagL0、predFlagL1に置き替えても可能である。(Inter prediction identifier and prediction usage flag)
The relationship between the inter prediction identifier inter_pred_idc and the prediction usage flags predFlagL0 and predFlagL1 is
inter_pred_idc = (predFlagL1 << 1) + predFlagL0
predFlagL0 = inter_pred_idc & 1
predFlagL1 = inter_pred_idc >> 1
Can be converted to each other. Here, >> is a right shift, and << is a left shift. Therefore, as the inter prediction parameter, the prediction use flags predFlagL0 and predFlagL1 may be used, or the inter prediction identifier inter_pred_idc may be used. In addition, hereinafter, the determination using the prediction usage flags predFlagL0 and predFlagL1 may be replaced with the inter prediction identifier inter_pred_idc. Conversely, the determination using the inter prediction identifier inter_pred_idc can be replaced with the prediction use flags predFlagL0 and predFlagL1.
(マージモードとAMVP予測)
予測パラメータの復号(符号化)方法には、マージ(merge)モードとAMVP(Adaptive Motion Vector Prediction、適応動きベクトル予測)モードがある、マージフラグmerge_flagは、これらを識別するためのフラグである。マージモードでも、AMVPモードでも、既に処理済みのブロックの予測パラメータを用いて、対象PUの予測パラメータが導出される。マージモードは、予測利用フラグpredFlagLX(インター予測識別子inter_pred_idc)、参照ピクチャインデックスrefIdxLX、ベクトルmvLXを符号化データに含めずに、既に導出した予測パラメータをそのまま用いるモードであり、AMVPモードは、インター予測識別子inter_pred_idc、参照ピクチャインデックスrefIdxLX、ベクトルmvLXを符号化データに含めるモードである。なおベクトルmvLXは、予測ベクトルを示す予測ベクトルフラグmvp_LX_flagと差分ベクトル(mvdLX)として符号化される。(Merge mode and AMVP prediction)
The prediction parameter decoding (encoding) method includes a merge mode and an AMVP (Adaptive Motion Vector Prediction) mode. The merge flag merge_flag is a flag for identifying these. In both the merge mode and the AMVP mode, the prediction parameter of the target PU is derived using the prediction parameter of the already processed block. The merge mode is a mode that uses the prediction parameter already derived without including the prediction use flag predFlagLX (inter prediction identifier inter_pred_idc), the reference picture index refIdxLX, and the vector mvLX in the encoded data. The AMVP mode is an inter prediction identifier. In this mode, inter_pred_idc, reference picture index refIdxLX, and vector mvLX are included in the encoded data. The vector mvLX is encoded as a prediction vector flag mvp_LX_flag indicating a prediction vector and a difference vector (mvdLX).
インター予測識別子inter_pred_idcは、参照ピクチャの種類および数を示すデータであり、Pred_L0、Pred_L1、Pred_BIの何れかの値をとる。Pred_L0、Pred_L1は、各々L0リスト、L1リストと呼ばれる参照ピクチャリストに記憶された参照ピクチャが用いられることを示し、共に1枚の参照ピクチャを用いること(単予測)を示す。L0リスト、L1リストを用いた予測を各々L0予測、L1予測と呼ぶ。Pred_BIは2枚の参照ピクチャを用いること(双予測)を示し、L0リストとL1リストに記憶された参照ピクチャの2つを用いることを示す。予測ベクトルフラグmvp_LX_flagは予測ベクトルを示すインデックスであり、参照ピクチャインデックスrefIdxLXは、参照ピクチャリストに記憶された参照ピクチャを示すインデックスである。マージインデックスmerge_idxは、処理が完了したブロックから導出される予測パラメータ候補(マージ候補)のうち、いずれかの予測パラメータを予測ユニット(対象ブロック)の予測パラメータとして用いるかを示すインデックスである。 The inter prediction identifier inter_pred_idc is data indicating the type and number of reference pictures, and takes one of Pred_L0, Pred_L1, and Pred_BI. Pred_L0 and Pred_L1 indicate that reference pictures stored in reference picture lists called an L0 list and an L1 list are used, respectively, and that both use one reference picture (single prediction). Prediction using the L0 list and the L1 list are referred to as L0 prediction and L1 prediction, respectively. Pred_BI indicates that two reference pictures are used (bi-prediction), and indicates that two reference pictures stored in the L0 list and the L1 list are used. The prediction vector flag mvp_LX_flag is an index indicating a prediction vector, and the reference picture index refIdxLX is an index indicating a reference picture stored in the reference picture list. The merge index merge_idx is an index that indicates whether one of the prediction parameter candidates (merge candidates) derived from the processed block is used as a prediction parameter of the prediction unit (target block).
(動きベクトルと変位ベクトル)
ベクトルmvLXには、動きベクトルと変位ベクトル(disparity vector、視差ベクトル)がある。動きベクトルとは、あるレイヤのある表示時刻でのピクチャにおけるブロックの位置と、異なる表示時刻(例えば、隣接する離散時刻)における同一のレイヤのピクチャにおける対応するブロックの位置との間の位置のずれを示すベクトルである。変位ベクトルとは、あるレイヤのある表示時刻でのピクチャにおけるブロックの位置と、同一の表示時刻における異なるレイヤのピクチャにおける対応するブロックの位置との間の位置のずれを示すベクトルである。異なるレイヤのピクチャとしては、異なる視点のピクチャである場合、もしくは、異なる解像度のピクチャである場合などがある。特に、異なる視点のピクチャに対応する変位ベクトルを視差ベクトルと呼ぶ。以下の説明では、動きベクトルと変位ベクトルを区別しない場合には、単にベクトルmvLXと呼ぶ。ベクトルmvLXに関する予測ベクトル、差分ベクトルを、それぞれ予測ベクトルmvpLX、差分ベクトルmvdLXと呼ぶ。ベクトルmvLXおよび差分ベクトルmvdLXが、動きベクトルであるか、変位ベクトルであるかは、ベクトルに付随する参照ピクチャインデックスrefIdxLXを用いて行われる。(Motion vector and displacement vector)
The vector mvLX includes a motion vector and a displacement vector (disparity vector). A motion vector is a positional shift between the position of a block in a picture at a certain display time of a layer and the position of the corresponding block in a picture of the same layer at a different display time (for example, an adjacent discrete time). It is a vector which shows. The displacement vector is a vector indicating a positional shift between the position of a block in a picture at a certain display time of a certain layer and the position of a corresponding block in a picture of a different layer at the same display time. The pictures in different layers may be pictures from different viewpoints or pictures with different resolutions. In particular, a displacement vector corresponding to pictures of different viewpoints is called a disparity vector. In the following description, when a motion vector and a displacement vector are not distinguished, they are simply referred to as a vector mvLX. A prediction vector and a difference vector related to the vector mvLX are referred to as a prediction vector mvpLX and a difference vector mvdLX, respectively. Whether the vector mvLX and the difference vector mvdLX are motion vectors or displacement vectors is determined using a reference picture index refIdxLX associated with the vectors.
(画像復号装置の構成)
次に、本実施形態に係る画像復号装置31の構成について説明する。図7は、本実施形態に係る画像復号装置31の構成を示す概略図である。画像復号装置31は、エントロピー復号部301、予測パラメータ復号部302、参照ピクチャメモリ(参照画像記憶部、フレームメモリ)306、予測パラメータメモリ(予測パラメータ記憶部、フレームメモリ)307、予測画像生成部308、逆量子化・逆DCT部311、加算部312、及び図示されないデプスDV導出部351を含んで構成される。(Configuration of image decoding device)
Next, the configuration of the image decoding device 31 according to the present embodiment will be described. FIG. 7 is a schematic diagram illustrating a configuration of the image decoding device 31 according to the present embodiment. The image decoding device 31 includes an
また、予測パラメータ復号部302は、インター予測パラメータ復号部303及びイントラ予測パラメータ復号部304を含んで構成される。予測画像生成部308は、インター予測画像生成部309及びイントラ予測画像生成部310を含んで構成される。
The prediction
エントロピー復号部301は、外部から入力された符号化ストリームTeに対してエントロピー復号を行って、個々の符号(シンタックス要素)を分離し復号する。分離された符号には、予測画像を生成するための予測情報および、差分画像を生成するための残差情報などがある。
The
エントロピー復号部301は、分離した符号の一部を予測パラメータ復号部302に出力する。分離した符号の一部とは、例えば、予測モードPredMode、分割モードpart_mode、マージフラグmerge_flag、マージインデックスmerge_idx、インター予測識別子inter_pred_idc、参照ピクチャインデックスrefIdxLX、予測ベクトルフラグmvp_LX_flag、差分ベクトルmvdLX、残差予測インデックスiv_res_pred_weight_idx、照度補償フラグic_flagである。どの符号を復号するか否かの制御は、予測パラメータ復号部302の指示に基づいて行われる。エントロピー復号部301は、量子化係数を逆量子化・逆DCT部311に出力する。この量子化係数は、符号化処理において、残差信号に対してDCT(DiscreteCosine Transform、離散コサイン変換)を行い量子化して得られる係数である。エントロピー復号部301は、デプスDV変換テーブルDepthToDisparityBを、デプスDV導出部351に出力する。このデプスDV変換テーブルDepthToDisparityBは、デプス画像の画素値を視点画像間の変位を示す視差に変換するためのテーブルであり、デプスDV変換テーブルDepthToDisparityBの要素DepthToDisparityB[d]は、傾きcp_scaleとオフセットcp_off、傾きの精度cp_precisionを用いて、
log2Div = BitDepthY - 1 + cp_precision
offset = ( cp_off << BitDepthY ) + ( ( 1 << log2Div ) >> 1 )
scale = cp_scale
DepthToDisparityB[ d ] = ( scale * d + offset ) >> log2Div
の式によって求めることができる。パラメータcp_scale、cp_off、cp_precisionは参照する視点毎に符号化データ中のパラメータセットから復号する。なお、BitDepthYは輝度信号に対応する画素値のビット深度を示しており、例えば、値として8をとる。The
log2Div = BitDepth Y -1 + cp_precision
offset = (cp_off << BitDepthY) + ((1 << log2Div) >> 1)
scale = cp_scale
DepthToDisparityB [d] = (scale * d + offset) >> log2Div
It can be calculated by the following formula. The parameters cp_scale, cp_off, and cp_precision are decoded from the parameter set in the encoded data for each viewpoint to be referred to. BitDepthY indicates the bit depth of the pixel value corresponding to the luminance signal, and takes, for example, 8 as the value.
予測パラメータ復号部302は、エントロピー復号部301から符号の一部を入力として受け取る。予測パラメータ復号部302は、符号の一部である予測モードPredModeが示す予測モードに対応する予測パラメータを復号する。予測パラメータ復号部302は、予測モードPredModeと復号した予測パラメータを予測パラメータメモリ307と予測画像生成部308に出力する。
The prediction
インター予測パラメータ復号部303は、エントロピー復号部301から入力された符号に基づいて、予測パラメータメモリ307に記憶された予測パラメータを参照してインター予測パラメータを復号する。インター予測パラメータ復号部303は、復号したインター予測パラメータを予測画像生成部308に出力し、また予測パラメータメモリ307に記憶する。インター予測パラメータ復号部303の詳細については後述する。
Based on the code input from the
イントラ予測パラメータ復号部304は、エントロピー復号部301から入力された符号に基づいて、予測パラメータメモリ307に記憶された予測パラメータを参照してイントラ予測パラメータを復号する。イントラ予測パラメータとは、ピクチャブロックを1つのピクチャ内で予測する処理で用いるパラメータ、例えば、イントラ予測モードIntraPredModeである。イントラ予測パラメータ復号部304は、復号したイントラ予測パラメータを予測画像生成部308に出力し、また予測パラメータメモリ307に記憶する。
Based on the code input from the
参照ピクチャメモリ306は、加算部312が生成した復号ピクチャブロックrecSamplesを、復号ピクチャブロックの位置に記憶する。
The
予測パラメータメモリ307は、予測パラメータを、復号対象のピクチャ及びブロック毎に予め定めた位置に記憶する。具体的には、予測パラメータメモリ307は、インター予測パラメータ復号部303が復号したインター予測パラメータ、イントラ予測パラメータ復号部304が復号したイントラ予測パラメータ及びエントロピー復号部301が分離した予測モードPredModeを記憶する。記憶されるインター予測パラメータには、例えば、予測利用フラグpredFlagLX、参照ピクチャインデックスrefIdxLX、ベクトルmvLXがある。
The
予測画像生成部308には、予測パラメータ復号部302から予測モードPredMode及び予測パラメータが入力される。また、予測画像生成部308は、参照ピクチャメモリ306から参照ピクチャを読み出す。予測画像生成部308は、予測モードPredModeが示す予測モードで、入力された予測パラメータと読み出した参照ピクチャを用いて予測ピクチャブロックpredSamples(予測画像)を生成する。
The prediction
ここで、予測モードPredModeがインター予測モードを示す場合、インター予測画像生成部309は、インター予測パラメータ復号部303から入力されたインター予測パラメータと読み出した参照ピクチャを用いてインター予測により予測ピクチャブロックpredSamplesを生成する。予測ピクチャブロックpredSamplesは予測ユニットPUに対応する。PUは、上述したように予測処理を行う単位となる複数の画素からなるピクチャの一部分、つまり1度に予測処理が行われる対象ブロックに相当する。
Here, when the prediction mode PredMode indicates the inter prediction mode, the inter prediction
インター予測画像生成部309は、予測利用フラグpredFlagLXが1である参照ピクチャリストRefPicListLXに対し、参照ピクチャインデックスrefIdxLXで示される参照ピクチャRefPicListLX[refIdxLX]から、予測ユニットを基準としてベクトルmvLXが示す位置にある参照ピクチャブロックを参照ピクチャメモリ306から読み出す。インター予測画像生成部309は、読み出した参照ピクチャブロックに動き補償を行って予測ピクチャブロックpredSamplesLXを生成する。インター予測画像生成部309は、さらに各参照ピクチャリストの参照ピクチャから導出された予測ピクチャブロックpredSamplesL0、predSamplesL1から重み付予測により予測ピクチャブロックpredSamplesを生成し、加算部312に出力する。
For the reference picture list RefPicListLX in which the prediction usage flag predFlagLX is 1, the inter predicted
予測モードPredModeがイントラ予測モードを示す場合、イントラ予測画像生成部310は、イントラ予測パラメータ復号部304から入力されたイントラ予測パラメータと読み出した参照ピクチャを用いてイントラ予測を行う。具体的には、イントラ予測画像生成部310は、復号対象のピクチャであって、既に処理されたブロックのうち予測ユニットから予め定めた範囲にある参照ピクチャブロックを参照ピクチャメモリ306から読み出す。予め定めた範囲とは、例えば、左、左上、上、右上の隣接ブロックの範囲でありイントラ予測モードによって異なる。
When the prediction mode PredMode indicates the intra prediction mode, the intra predicted
イントラ予測画像生成部310は、読み出した参照ピクチャブロックについてイントラ予測モードIntraPredModeが示す予測モードで予測を行って予測ピクチャブロックpredSamplesを生成し、加算部312に出力する。
The intra predicted
逆量子化・逆DCT部311は、エントロピー復号部301から入力された量子化係数を逆量子化してDCT係数を求める。逆量子化・逆DCT部311は、求めたDCT係数について逆DCT(Inverse Discrete Cosine Transform、逆離散コサイン変換)を行い、復号残差信号を算出する。逆量子化・逆DCT部311は、算出した復号残差信号を加算部312に出力する。
The inverse quantization /
加算部312は、インター予測画像生成部309及びイントラ予測画像生成部310から入力された予測ピクチャブロックpredSamplesと逆量子化・逆DCT部311から入力された復号残差信号の信号値resSamplesを画素毎に加算して、復号ピクチャブロックrecSamplesを生成する。加算部312は、生成した復号ピクチャブロックrecSamplesを参照ピクチャメモリ306に出力する。復号ピクチャブロックはピクチャ毎に統合される。復号されたピクチャには、デブロックフィルタおよび適応オフセットフィルタが適用などのループフィルタが適用される。復号されたピクチャは復号レイヤ画像Tdとして外部に出力する。
The
(インター予測パラメータ復号部の構成)
次に、インター予測パラメータ復号部303の構成について説明する。図8は、本実施形態に係るインター予測パラメータ復号部303の構成を示す概略図である。インター予測パラメータ復号部303は、インター予測パラメータ復号制御部3031、AMVP予測パラメータ導出部3032、加算部3035及びマージモードパラメータ導出部3036、変位導出部30363を含んで構成される。(Configuration of inter prediction parameter decoding unit)
Next, the configuration of the inter prediction parameter decoding unit 303 will be described. FIG. 8 is a schematic diagram illustrating a configuration of the inter prediction parameter decoding unit 303 according to the present embodiment. The inter prediction parameter decoding unit 303 includes an inter prediction parameter decoding control unit 3031, an AMVP prediction parameter deriving unit 3032, an adding unit 3035, a merge mode
インター予測パラメータ復号制御部3031は、インター予測に関連する符号(シンタックス要素の復号をエントロピー復号部301に指示し、符号化データに含まれる符号(シンタックス要素)を例えば、分割モードpart_mode、マージフラグmerge_flag、マージインデックスmerge_idx、インター予測識別子inter_pred_idc、参照ピクチャインデックスrefIdxLX、予測ベクトルフラグmvp_LX_flag、差分ベクトルmvdLX、残差予測インデックスiv_res_pred_weight_idx、照度補償フラグic_flag、DBBPフラグdbbp_flagを抽出する。インター予測パラメータ復号制御部3031が、あるシンタックス要素を抽出すると表現する場合は、あるシンタックス要素の復号をエントロピー復号部301に指示し、該当のシンタックス要素を符号化データから読み出すことを意味する。
The inter prediction parameter decoding control unit 3031 instructs the
インター予測パラメータ復号制御部3031は、マージフラグmerge_flagが1、すなわち、予測ユニットがマージモードの場合、マージインデックスmerge_idxを符号化データから抽出する。インター予測パラメータ復号制御部3031は、抽出した残差予測インデックスiv_res_pred_weight_idx、照度補償フラグic_flag及びマージインデックスmerge_idxをマージモードパラメータ導出部3036に出力する。
When the merge flag merge_flag is 1, that is, when the prediction unit is in the merge mode, the inter prediction parameter decoding control unit 3031 extracts the merge index merge_idx from the encoded data. The inter prediction parameter decoding control unit 3031 outputs the extracted residual prediction index iv_res_pred_weight_idx, the illumination compensation flag ic_flag, and the merge index merge_idx to the merge mode
インター予測パラメータ復号制御部3031は、マージフラグmerge_flagが0、すなわち、予測ブロックがAMVP予測モードの場合、エントロピー復号部301を用いて符号化データからインター予測識別子inter_pred_idc、参照ピクチャインデックスrefIdxLX、予測ベクトルフラグmvp_LX_flag、差分ベクトルmvdLXを抽出する。インター予測パラメータ復号制御部3031は、抽出したインター予測識別子inter_pred_idcから導出した予測利用フラグpredFlagLXと、参照ピクチャインデックスrefIdxLXをAMVP予測パラメータ導出部3032及び予測画像生成部308に出力し、また予測パラメータメモリ307に記憶する。インター予測パラメータ復号制御部3031は、抽出した予測ベクトルフラグmvp_LX_flagをAMVP予測パラメータ導出部3032に出力し抽出した差分ベクトルmvdLXを加算部3035に出力する。
When the merge flag merge_flag is 0, that is, when the prediction block is in the AMVP prediction mode, the inter prediction parameter decoding control unit 3031 uses the
インター予測パラメータ復号制御部3031は、分割モードPartModeが特定の値の場合に、DBBPフラグdbbp_flagを符号化データから復号する。それ以外の場合、dbbp_flagが符号化データに含まれない場合には、dbbp_flagとして0を推定する。図20は本実施形態のDBBPフラグdbbp_flagに関するシンタックス表である。インター予測パラメータ復号制御部3031は、図のSE1001〜SE1004に示すcu_skip_flag、pred_mode、part_mode、dbbp_flagを復号する。ここで、cu_skip_flagは対象CUがスキップであるか否かを示すフラグである。スキップの場合にはPartModeは2N×2Nに限定され、分割モードpart_modeの復号は省略される。符号化データから復号した分割モードpart_modeは分割モードPredModeにセットされる。インター予測パラメータ復号制御部3031は、この例では、分割モードPartMode(=part_mode)が2N×Nの場合に、dbbp_flagを復号するが、分割モードが他の値の場合にdbbp_flagを復号しても良い。また、上記とは異なる方法でdbbpフラグを導出しても良い。 The inter prediction parameter decoding control unit 3031 decodes the DBBP flag dbbp_flag from the encoded data when the division mode PartMode is a specific value. In other cases, when dbbp_flag is not included in the encoded data, 0 is estimated as dbbp_flag. FIG. 20 is a syntax table related to the DBBP flag dbbp_flag of this embodiment. The inter prediction parameter decoding control unit 3031 decodes cu_skip_flag, pred_mode, part_mode, and dbbp_flag shown in SE1001 to SE1004 in the figure. Here, cu_skip_flag is a flag indicating whether or not the target CU is skipped. In the case of skipping, PartMode is limited to 2N × 2N, and decoding of the split mode part_mode is omitted. The division mode part_mode decoded from the encoded data is set to the division mode PredMode. In this example, the inter prediction parameter decoding control unit 3031 decodes dbbp_flag when the partition mode PartMode (= part_mode) is 2N × N, but may decode dbbp_flag when the partition mode is another value. . Further, the dbbp flag may be derived by a method different from the above.
また、インター予測パラメータ復号制御部3031は、インター予測パラメータ導出時に導出された変位ベクトル(NBDV)、及び視点合成予測を行うか否かを示すフラグであるVSPモードフラグVspModeFlagを、インター予測画像生成部309に出力する。 In addition, the inter prediction parameter decoding control unit 3031 displays the displacement vector (NBDV) derived when the inter prediction parameter is derived and the VSP mode flag VspModeFlag that is a flag indicating whether to perform viewpoint synthesis prediction, as an inter prediction image generation unit. To 309.
図9は、本実施形態に係るマージモードパラメータ導出部3036の構成を示す概略図である。マージモードパラメータ導出部3036は、マージ候補導出部30361とマージ候補選択部30362、双予測制限部30363を備える。マージ候補導出部30361は、マージ候補格納部303611と、拡張マージ候補導出部30370と基本マージ候補導出部30380を含んで構成される。
FIG. 9 is a schematic diagram illustrating a configuration of the merge mode
マージ候補格納部303611は、拡張マージ候補導出部30370及び基本マージ候補導出部30380から入力されたマージ候補をマージ候補リストmergeCandListに格納する。なお、マージ候補は、予測利用フラグpredFlagLX、ベクトルmvLX、参照ピクチャインデックスrefIdxLX、VSPモードフラグVspModeFlag、変位ベクトルMvDisp、レイヤIDRefViewIdxを含んで構成されている。マージ候補格納部303611において、マージ候補リストmergeCandListに格納されたマージ候補には、所定の規則に従ってインデックスが割り当てられる。 The merge candidate storage unit 303611 stores the merge candidates input from the extended merge candidate derivation unit 30370 and the basic merge candidate derivation unit 30380 in the merge candidate list mergeCandList. The merge candidate includes a prediction usage flag predFlagLX, a vector mvLX, a reference picture index refIdxLX, a VSP mode flag VspModeFlag, a displacement vector MvDisp, and a layer ID RefViewIdx. In the merge candidate storage unit 303611, an index is assigned to the merge candidates stored in the merge candidate list mergeCandList according to a predetermined rule.
図11は、マージ候補導出部30361が導出するマージ候補リストmergeCandListの例を示すものである。図11(a)は、ベースレイヤ(レイヤIDnal_unit_layer=0のレイヤ)において、マージ候補格納部303611が導出するマージ候補を示す。2つのマージ候補が同じ予測パラメータである場合に順番を詰める処理(プルーニング処理)を除くと、マージインデックス順に、空間マージ候補(A1)、空間マージ候補(B1)、空間マージ候補(B0)、空間マージ候補(A0)、空間マージ候補(B2)の順になる。なお、括弧内は、マージ候補のニックネームであり、空間マージ候補の場合には、導出に用いる参照ブロックの位置に対応する。また、それ以降に、結合マージ候補、ゼロマージ候補があるが、図11では省略している。これらのマージ候補は、つまり、空間マージ候補、時間マージ候補、結合マージ候補、ゼロマージ候補は、基本マージ候補導出部30380により導出される。図11(b)は、ベースレイヤ以外のレイヤであるエンハンスメントレイヤ(レイヤIDnal_unit_layer!=0のレイヤ)においてマージ候補格納部303611が導出するマージ候補を示す。マージインデックス順に、テクスチャマージ候補(T)、インタービュ−マージ候補(IvMC)、空間マージ候補(A1)、空間マージ候補(B1)、空間マージ候補(B0)、変位マージ候補(IvDC)、VSPマージ候補(VSP)、空間マージ候補(A0)、空間マージ候補(B2)、動きシフトマージ候補(IvMCShift)、変位シフトマージ候補(IvDCShift)、時間マージ候補(Col)の順になる。なお、括弧内は、マージ候補のニックネームである。また、それ以降に、結合マージ候補、ゼロマージ候補があるが、図11では省略している。テクスチャマージ候補(T)、インタービューマージ候補(IvMC)、変位マージ候補(IvDC)、VSPマージ候補(VSP)、動きシフトマージ候補(IvMCShift)、変位シフトマージ候補(IvDCShift)は、拡張マージ候補導出部30370において導出される。 FIG. 11 shows an example of the merge candidate list mergeCandList derived by the merge candidate deriving unit 30361. FIG. 11A shows merge candidates derived by the merge candidate storage unit 303611 in the base layer (layer IDnal_unit_layer = 0). If two merge candidates have the same prediction parameter, excluding the process of reducing the order (pruning process), the merge index order is spatial merge candidate (A1), spatial merge candidate (B1), spatial merge candidate (B0), and space The merge candidate (A0) and the spatial merge candidate (B2) are in this order. The parentheses are nicknames of merge candidates, and in the case of spatial merge candidates, they correspond to the positions of reference blocks used for derivation. Further, there are a merge merge candidate and a zero merge candidate thereafter, which are omitted in FIG. These merge candidates, that is, the spatial merge candidate, temporal merge candidate, join merge candidate, and zero merge candidate are derived by the basic merge candidate deriving unit 30380. FIG. 11B shows merge candidates derived by the merge candidate storage unit 303611 in the enhancement layer (layer IDnal_unit_layer! = 0) that is a layer other than the base layer. Texture merge candidate (T), interview merge candidate (IvMC), spatial merge candidate (A1), spatial merge candidate (B1), spatial merge candidate (B0), displacement merge candidate (IvDC), VSP merge in order of merge index Candidate (VSP), spatial merge candidate (A0), spatial merge candidate (B2), motion shift merge candidate (IvMCShift), displacement shift merge candidate (IvDCShift), and temporal merge candidate (Col). The parentheses are nicknames of merge candidates. Further, there are a merge merge candidate and a zero merge candidate thereafter, which are omitted in FIG. Texture merge candidate (T), Interview merge candidate (IvMC), Displacement merge candidate (IvDC), VSP merge candidate (VSP), Motion shift merge candidate (IvMCShift), Displacement shift merge candidate (IvDCShift) are derived as extended merge candidates. Derived in part 30370.
図12は、空間マージ候補が参照する隣接ブロックの位置を示す図である。A0、A1、B0、B1、B2は各々図12に示す位置に対応し、座標は以下の通りである。予測ユニットの左上座標をxPb、yPb、予測ユニットの幅と高さをnPbW、nPbHとする場合、隣接ブロックの位置は以下の通りとなる。 FIG. 12 is a diagram illustrating the positions of adjacent blocks to which spatial merge candidates refer. A0, A1, B0, B1, and B2 each correspond to the position shown in FIG. 12, and the coordinates are as follows. When the upper left coordinates of the prediction unit are xPb and yPb, and the width and height of the prediction unit are nPbW and nPbH, the positions of adjacent blocks are as follows.
A0:( xPb - 1, yPb + nPbH )
A1:( xPb - 1, yPb + nPbH - 1 )
B0:( xPb + nPbW, yPb - 1 )
B1:( xPb + nPbW - 1, yPb - 1 )
B2:( xPb - 1, yPb - 1 )
拡張マージ候補導出部30370は、レイヤ間マージ候補導出部30371(インタービューマージ候補導出部30371)、変位マージ候補導出部30373、VSPマージ候補導出部30374(VSP予測部30374)を含んで構成される。拡張マージ候補は、後述の基本マージ候補とは異なるマージ候補であり、少なくとも、テクスチャマージ候補(T)、インタービュ−マージ候補(IvMC)、変位マージ候補(IvDC)、VSPマージ候補(VSP)、動きシフトマージ候補(IvMCShift)、変位シフトマージ候補(IvDCShift)の何れかを含む。A0: (xPb-1, yPb + nPbH)
A1: (xPb-1, yPb + nPbH-1)
B0: (xPb + nPbW, yPb-1)
B1: (xPb + nPbW-1, 1, yPb-1)
B2: (xPb-1, yPb-1)
The extended merge candidate derivation unit 30370 includes an inter-layer merge candidate derivation unit 30371 (interview merge candidate derivation unit 30371), a displacement merge candidate derivation unit 30373, and a VSP merge candidate derivation unit 30374 (VSP prediction unit 30374). . The extended merge candidate is a merge candidate different from a basic merge candidate described later, and includes at least a texture merge candidate (T), an interview merge candidate (IvMC), a displacement merge candidate (IvDC), a VSP merge candidate (VSP), Either a motion shift merge candidate (IvMCShift) or a displacement shift merge candidate (IvDCShift) is included.
(テクスチャマージ候補)
レイヤ間マージ候補導出部30371は、テクスチャマージ候補(T)とインタービューマージ候補(IvMC)、動きシフトマージ候補(IvMCShift)を導出する。これらマージ候補は、対象ピクチャと同一POCを持つ別レイヤ(例えばベースレイヤ、ベースビュー)の参照ピクチャから、予測ユニットに対応するブロックを選択し、該ブロックが有する動きベクトルである予測パラメータを予測パラメータメモリ307から読み出すことで導出される。(Texture merge candidate)
The inter-layer merge candidate derivation unit 30371 derives a texture merge candidate (T), an inter-view merge candidate (IvMC), and a motion shift merge candidate (IvMCShift). For these merge candidates, a block corresponding to a prediction unit is selected from reference pictures of different layers (for example, a base layer and a base view) having the same POC as the target picture, and a prediction parameter that is a motion vector included in the block is selected as a prediction parameter. It is derived by reading from the
テクスチャマージ候補(T)は、レイヤ間マージ候補導出部30371において、対象ピクチャがデプスの場合に導出される。テクスチャマージ候補(T)は、対象ピクチャと同じビューIDを有するデプスピクチャから参照ブロックを特定し、参照ブロックの動きベクトルを読み出すことで導出される。
参照ブロックの座標(xRef, yRef)は、予測ユニットの左上座標をxPb、yPb、予測ユニットの幅と高さをnPbW、nPbHとする場合、以下の式から導出される。The texture merge candidate (T) is derived by the inter-layer merge candidate deriving unit 30371 when the target picture is depth. The texture merge candidate (T) is derived by specifying a reference block from a depth picture having the same view ID as the target picture and reading a motion vector of the reference block.
The coordinates (xRef, yRef) of the reference block are derived from the following equations when the upper left coordinates of the prediction unit are xPb and yPb, and the width and height of the prediction unit are nPbW and nPbH.
xRefFull = xPb + ( ( nPbW - 1 ) >> 1 )
yRefFull = yPb + ( ( nPbH - 1 ) >> 1 )
xRef = Clip3( 0, PicWidthInSamplesL - 1, ( xRefFull >> 3 ) << 3 )
yRef = Clip3( 0, PicHeightInSamplesL - 1,( yRefFull >> 3 ) << 3 )
なお、PicWidthInSamplesLとPicHeightInSamplesL は、それぞれ画像の幅と高さを表し、関数Clip3(x,y,z)は、zをx以上、y以下に制限(クリップ)し、その制限した結果を返す関数である。xRefFull = xPb + ((nPbW-1) >> 1)
yRefFull = yPb + ((nPbH-1) >> 1)
xRef = Clip3 (0, PicWidthInSamplesL-1, (xRefFull >> 3) << 3)
yRef = Clip3 (0, PicHeightInSamplesL-1, (yRefFull >> 3) << 3)
Note that PicWidthInSamples L and PicHeightInSamples L represent the width and height of the image, respectively, and the function Clip3 (x, y, z) restricts (clips) z to not less than x and not more than y, and returns the restricted result. It is a function.
参照ブロックの動きベクトルをtextMvLXとすると、テクスチャマージ候補の動きベクトルmvLXTは次の式で導出される。 If the motion vector of the reference block is textMvLX, the motion vector mvLXT of the texture merge candidate is derived by the following equation.
mvLXT[ 0 ] = ( textMvLX[ xRef ][ yRef ][ 0 ] + 2 ) >> 2
mvLXT[ 1 ] = ( textMvLX[ xRef ][ yRef ][ 1 ] + 2 ) >> 2
なお、テクスチャマージ候補では、予測ユニットをさらに分割したサブブロック単位で予測パラメータを割り当てても構わない。mvLXT [0] = (textMvLX [xRef] [yRef] [0] + 2) >> 2
mvLXT [1] = (textMvLX [xRef] [yRef] [1] + 2) >> 2
For texture merge candidates, prediction parameters may be assigned in units of sub-blocks obtained by further dividing the prediction unit.
(インタービューマージ候補)
インタービューマージ候補は、レイヤ間マージ候補導出部30371において、後述の変位ベクトル導出部352が特定した対象ピクチャと同一POCを有し、異なるビューID(refViewIdx)を有する参照ピクチャivRefPicの参照ブロックから動きベクトルなどの予測パラメータを読み出すことで導出される。この処理をテンポラルインタービュー動き候補導出処理と呼ぶ。レイヤ間マージ候補導出部30371は、テンポラルインタービュー動き候補導出処理として、まず、ブロックの左上座標を(xPb、yPb)、ブロックの幅と高さをnPbW、nPbH、変位ベクトル導出部352から導出される変位ベクトルを(mvDisp[0], mvDisp[1])とする場合に、参照座標(xRef, yRef)を以下の式から導出する。(Interview merge candidate)
The inter-view merge candidate moves from the reference block of the reference picture ivRefPic having the same POC as the target picture specified by the later-described displacement
xRefFull = xPb + ( nPbW >> 1 ) + ( ( mvDisp[ 0 ] + 2 ) >> 2 )
yRefFull = yPb + ( nPbH >> 1 ) + ( ( mvDisp[ 1 ] + 2 ) >> 2 )
xRef = Clip3( 0, PicWidthInSamplesL - 1, ( xRefFull >> 3 ) << 3 )
yRef = Clip3( 0, PicHeightInSamplesL - 1, ( yRefFull >> 3 ) << 3 )
次に、レイヤ間マージ候補導出部30371は、図示しないテンポラルインタービュー動き候補導出部303711において、テンポラルインタービュー動き候補導出処理を行う。xRefFull = xPb + (nPbW >> 1) + ((mvDisp [0] + 2) >> 2)
yRefFull = yPb + (nPbH >> 1) + ((mvDisp [1] + 2) >> 2)
xRef = Clip3 (0, PicWidthInSamplesL-1, (xRefFull >> 3) << 3)
yRef = Clip3 (0, PicHeightInSamplesL-1, (yRefFull >> 3) << 3)
Next, the inter-layer merge candidate derivation unit 30371 performs temporal inter-view motion candidate derivation processing in a temporal inter-view motion candidate derivation unit 303711 (not shown).
テンポラルインタービュー動き候補導出部303711は、ブロックの座標(xPb, yPb)、ブロックの幅nPbW, nPbH、ブロックの変位ベクトルmvDispから、上記処理により、参照ブロック位置(xRef, yRef)を導出し、さらに参照ブロック位置(xRef, yRef)に位置する参照ピクチャivRefPic上の予測ユニットのベクトルを参照し、テンポラルインタービュー動き候補のベクトルを導出する。まず、参照ブロック位置(xRef, yRef)
で示される座標を含む参照ピクチャivRefPic上の予測ユニット(輝度予測ブロック)の左上座標を(xIvRefPb,yIvRefPb)、参照ピクチャivRefPic上の予測ユニットが備える参照ピクチャリスト、予測リストフラグ、ベクトル、参照ピクチャインデックスを各々refPicListLYIvRef, predFlagLYIvRef[ x ][ y ], mvLYIvRef[ x ][ y ], refIdxLYIvRef[ x ][ y]と置く。The temporal inter-view motion candidate derivation unit 3037111 derives the reference block position (xRef, yRef) from the block coordinates (xPb, yPb), the block widths nPbW, nPbH, and the block displacement vector mvDisp by the above processing, and further A vector of a temporal inter-view motion candidate is derived by referring to the vector of the prediction unit on the reference picture ivRefPic located at the reference block position (xRef, yRef). First, reference block position (xRef, yRef)
(XIvRefPb, yIvRefPb) is the upper left coordinate of the prediction unit (luminance prediction block) on the reference picture ivRefPic including the coordinates indicated by the reference picture list, prediction list flag, vector, and reference picture index included in the prediction unit on the reference picture ivRefPic Are set as refPicListLYIvRef, predFlagLYIvRef [x] [y], mvLYIvRef [x] [y], and refIdxLYIvRef [x] [y], respectively.
テンポラルインタービュー動き候補導出部303711は、予測利用フラグpredFlagLYIvRef[ xIvRefPb ][ yIvRefPb ]が1の場合には、0から参照ピクチャリスト要素数−1(num_ref_idx_lX_active_minus1)のインデックスiについて、参照ピクチャivRefPic上の予測ユニットのPOCであるPicOrderCnt( refPicListLYIvRef[ refIdxLYIvRef[ xIvRefPb ][ yIvRefPb ] ])と対象予測ユニットの参照ピクチャのPOCであるPicOrderCnt( RefPicListLX[ i ] )が等しいか否かを判定し、等しい場合(すなわちmvLYIvRef[ xIvRefPb ][ yIvRefPb ]が変位ベクトルである場合に)、予測可能フラグavailableFlagLXInterView、ベクトルmvLXInterView、参照ピクチャインデックスrefIdxLXを以下の式により導出する。 When the prediction usage flag predFlagLYIvRef [xIvRefPb] [yIvRefPb] is 1, the temporal inter-view motion candidate derivation unit 3037111 performs prediction on the reference picture ivRefPic for the index i from 0 to the reference picture list element number −1 (num_ref_idx_lX_active_minus1). It is determined whether or not PicOrderCnt (RefPicListLYIvRef [refIdxLYIvRef [xIvRefPb] [yIvRefPb]]) that is the unit POC is equal to PicOrderCnt (RefPicListLX [i]) that is the POC of the reference picture of the target prediction unit (that is, mvLYIRef). When [xIvRefPb] [yIvRefPb] is a displacement vector), the predictable flag availableFlagLXInterView, the vector mvLXInterView, and the reference picture index refIdxLX are derived by the following equations.
availableFlagLXInterView = 1
mvLXInterView = mvLYIvRef[ xIvRefPb ][ yIvRefPb ]
refIdxLX = i
すなわち、テンポラルインタービュー動き候補導出部303711は、対象予測ユニットが参照する参照ピクチャと、参照ピクチャivRefPic上の予測ユニットが参照する参照ピクチャが同一の場合には、参照ピクチャivRefPic上の予測ユニットの予測パラメータを用いて、ベクトルmvLXInterViewと参照ピクチャインデックスrefIdxLXを導出する。なお、インタービューマージ候補では、予測ユニットをさらに分割したサブブロック単位で予測パラメータを割り当てても構わない。例えば、予測ユニットの幅と高さがnPbW、nPbH、サブブロックの最小サイズがSubPbSizeの場合には、サブブロックの幅nSbWと高さnSbHを以下の式により導出する。availableFlagLXInterView = 1
mvLXInterView = mvLYIvRef [xIvRefPb] [yIvRefPb]
refIdxLX = i
That is, the temporal inter-view motion candidate derivation unit 303711 predicts the prediction unit on the reference picture ivRefPic when the reference picture referred to by the target prediction unit and the reference picture referenced by the prediction unit on the reference picture ivRefPic are the same. A vector mvLXInterView and a reference picture index refIdxLX are derived using parameters. In the inter-view merge candidate, the prediction parameter may be assigned in units of sub-blocks obtained by further dividing the prediction unit. For example, when the width and height of the prediction unit are nPbW and nPbH, and the minimum size of the subblock is SubPbSize, the width nSbW and the height nSbH of the subblock are derived by the following equations.
nSbW = nPbW / SubPbSize <= 1 ? nPbW : SubPbSizen
nSbH = nPbH / SubPbSize <= 1 ? nPbH : SubPbSize
続いて、上述のテンポラルインタービュー動き候補導出部303711により各サブブロックに対して、ベクトルspMvLX[ xBlk ][ yBlk ]、参照ピクチャインデックスspRefIdxLX[ xBlk ][ yBlk ]、予測利用フラグspPredFlagLX[ xBlk ][ yBlk ]を導出する。nSbW = nPbW / SubPbSize <= 1? nPbW: SubPbSizen
nSbH = nPbH / SubPbSize <= 1? nPbH: SubPbSize
Subsequently, the temporal inter-view motion candidate derivation unit 3037111 described above applies the vector spMvLX [xBlk] [yBlk], the reference picture index spRefIdxLX [xBlk] [yBlk], and the prediction usage flag spPredFlagLX [xBlk] [yBlk] ] Is derived.
ここで(xBlk、yBlk)は、サブブロックの予測ユニット内の相対座標(予測ユニットの左上座標を基準とした座標)であり、各々0から( nPbW / nSbW - 1 )、0から( nPbH / nSbH- 1 )の整数値をとる。予測ユニットの座標を(xPb、yPb)、サブブロックの予測ユニット内の相対座標(xBlk、yBlk)とすると、サブブロックのピクチャ内座標は、(xPb+xBlk*nSbW,yPb+yBlk*nSbH)で表現される。 Where (xBlk, yBlk) is the relative coordinates in the prediction unit of the sub-block (coordinates based on the upper left coordinate of the prediction unit), from 0 (nPbW / nSbW-1), 0 to (nPbH / nSbH, respectively) -Takes an integer value of 1). If the coordinates of the prediction unit are (xPb, yPb) and the relative coordinates (xBlk, yBlk) in the prediction unit of the sub-block, the coordinates in the picture of the sub-block are (xPb + xBlk * nSbW, yPb + yBlk * nSbH) Expressed.
サブブロックのピクチャ内座標(xPb+xBlk*nSbW,yPb+yBlk*nSbH)、サブブロックの幅nSbWと高さnSbHを、テンポラルインタービュー動き候補導出部303711の入力の(xPb、yPb)、nPbW、nPbHとして、サブブロック単位で、テンポラルインタービュー動き候補導出処理を行う。 The intra-picture coordinates (xPb + xBlk * nSbW, yPb + yBlk * nSbH) of the sub-block, the width nSbW and the height nSbH of the sub-block, (xPb, yPb), nPbW, As nPbH, temporal inter-view motion candidate derivation processing is performed in units of sub-blocks.
テンポラルインタービュー動き候補導出部303711は、上記処理において、予測可能フラグavailableFlagLXInterViewが0となったサブブロックについては、インタービューマージ候補のベクトルmvLXInterView、参照ピクチャインデックスrefIdxLXInterView、予測利用フラグavailableFlagLXInterViewからサブブロックに対応するベクトルspMvLX、参照ピクチャインデックスspRefIdxLX、予測利用フラグspPredFlagLX、を以下の式により導出する。 In the above processing, the temporal interview motion candidate derivation unit 3037111 supports subblocks from the intermerge candidate vector mvLXInterView, the reference picture index refIdxLXInterView, and the prediction usage flag availableFlagLXInterView for the subblock for which the predictable flag availableFlagLXInterView is 0. A vector spMvLX, a reference picture index spRefIdxLX, and a prediction usage flag spPredFlagLX are derived by the following equations.
spMvLX[ xBlk ][ yBlk ] = mvLXInterView
spRefIdxLX[ xBlk ][ yBlk ] = refIdxLXInterView
spPredFlagLX[ xBlk ][ yBlk ] = availableFlagLXInterView
なお、xBlk、yBlkはサブブロックアドレスであり、各々0から( nPbW / nSbW - 1 )、0から( nPbH / nSbH - 1 )の値をとる。なお、インタービューマージ候補のベクトルmvLXInterView、参照ピクチャインデックスrefIdxLXInterView、予測利用フラグavailableFlagLXInterViewは、( xPb + ( nPbW / nSbW / 2 ) * nSbW, yPb + ( nPbH / nSbH / 2 ) * nSbH )を参照ブロック座標としてテンポラルインタービュー動き候補導出処理を行うことで導出する。spMvLX [xBlk] [yBlk] = mvLXInterView
spRefIdxLX [xBlk] [yBlk] = refIdxLXInterView
spPredFlagLX [xBlk] [yBlk] = availableFlagLXInterView
Note that xBlk and yBlk are sub-block addresses and take values from 0 to (nPbW / nSbW-1) and from 0 to (nPbH / nSbH-1), respectively. Note that the vector mvLXInterView, the reference picture index refIdxLXInterView, and the prediction usage flag availableFlagLXInterView are (xPb + (nPbW / nSbW / 2) * nSbW, yPb + (nPbH / nSbH / 2) * nSbH) with reference block coordinates As a temporal inter-view motion candidate derivation process.
(動きシフトマージ候補)
動きシフトマージ候補も、レイヤ間マージ候補導出部30371において、変位ベクトル導出部352が特定した対象ピクチャと同一POCを有し、異なるビューIDを有するピクチャの参照ブロックから動きベクトルなどの予測パラメータを読み出すことで導出される。参照ブロックの座標(xRef, yRef)、予測ユニットの左上座標をxPb、yPb、予測ユニットの幅と高さをnPbW、nPbH、変位ベクトル導出部352から導出される変位ベクトルが、mvDisp[0], mvDisp[1]とする場合、以下の式から導出される。(Motion shift merge candidate)
The motion shift merge candidate also reads a prediction parameter such as a motion vector from a reference block of a picture having the same POC as the target picture identified by the displacement
xRefFull = xPb + ( nPbW >> 1 ) + ( ( mvDisp[ 0 ] + nPbW * 2 + 4 + 2 ) >> 2
)
yRefFull = yPb + ( nPbH >> 1 ) + ( ( mvDisp[ 1 ] + nPbH * 2 + 4 + 2 ) >> 2
)
xRef = Clip3( 0, PicWidthInSamplesL - 1, ( xRefFull >> 3 ) << 3 )
yRef = Clip3( 0, PicHeightInSamplesL - 1, ( yRefFull >> 3 ) << 3 )
(変位マージ候補)
変位マージ候補導出部30373は、変位ベクトル導出部352から入力される変位ベクトルから、変位マージ候補(IvDC)、シフト変位マージ候補(IvDcShift)を導出する。変位マージ候補導出部30373は、変位マージ候補(IvDC)として水平成分が入力された変位ベクトル(mvDisp[0], mvDisp[1])の水平成分mvDisp[0]であり、垂直成分が0であるベクトルを以下の式により生成する。xRefFull = xPb + (nPbW >> 1) + ((mvDisp [0] + nPbW * 2 + 4 + 2) >> 2
)
yRefFull = yPb + (nPbH >> 1) + ((mvDisp [1] + nPbH * 2 + 4 + 2) >> 2
)
xRef = Clip3 (0, PicWidthInSamplesL-1, (xRefFull >> 3) << 3)
yRef = Clip3 (0, PicHeightInSamplesL-1, (yRefFull >> 3) << 3)
(Displacement merge candidate)
The displacement merge candidate derivation unit 30373 derives a displacement merge candidate (IvDC) and a shift displacement merge candidate (IvDcShift) from the displacement vector input from the displacement
mvL0IvDC[ 0 ] = DepthFlag ? ( mvDisp[ 0 ] + 2 ) >> 2 : mvDisp[ 0 ]
mvL0IvDC[ 1 ] = 0
ここで、DepthFlagは、デプスの場合に1となる変数である。mvL0IvDC [0] = DepthFlag? (mvDisp [0] + 2) >> 2: mvDisp [0]
mvL0IvDC [1] = 0
Here, DepthFlag is a variable that becomes 1 in the case of depth.
変位マージ候補導出部30373は、生成したベクトルと、変位ベクトルが指す先のレイヤ画像の参照ピクチャインデックスrefIdxLX(例えば、復号対象ピクチャと同一POCを持つベースレイヤ画像のインデックス)をマージ候補としてマージ候補格納部303611に出力する。 The displacement merge candidate derivation unit 30373 stores the generated vector and the reference picture index refIdxLX of the previous layer image pointed to by the displacement vector (for example, the index of the base layer image having the same POC as the decoding target picture) as a merge candidate. Output to the unit 303611.
変位マージ候補導出部30373は、シフト変位マージ候補(IvDC)として、変位マージ候補を水平方向にずらしたベクトルを有するマージ候補を以下の式により導出する。 The displacement merge candidate derivation unit 30373 derives, as a shift displacement merge candidate (IvDC), a merge candidate having a vector obtained by shifting the displacement merge candidate in the horizontal direction by the following expression.
mvLXIvDCShift[ 0 ] = mvL0IvDC[ 0 ] + 4
mvLXIvDCShift[ 1 ] = mvL0IvDC[ 1 ]
(VSPマージ候補)
VSPマージ候補導出部30374(以下、VSP予測部30374)は、VSP(視点合成予測:View Synthesis Prediction)マージ候補を導出する。VSP予測部30374は、予測ユニットを複数のサブブロック(サブ予測ユニット)に分割し、分割したサブブロック単位で、ベクトルmvLXと参照ピクチャインデックスrefIdxLX、ビューIDRefViewIdxを設定する。VSP予測部30374は、導出したVSPマージ候補をマージ候補格納部303611に出力する。mvLXIvDCShift [0] = mvL0IvDC [0] + 4
mvLXIvDCShift [1] = mvL0IvDC [1]
(VSP merge candidate)
The VSP merge candidate derivation unit 30374 (hereinafter, VSP prediction unit 30374) derives a VSP (View Synthesis Prediction) merge candidate. The
図14はVSP予測部30374と他の手段の関係を示すブロック図である。VSP予測部30374は、分割フラグ導出部353の導出する分割フラグhorSplitFlagと、デプスDV導出部351の導出する変位ベクトルdisparitySamplesを用いて動作する。
FIG. 14 is a block diagram showing the relationship between the
VSP予測部30374の図示しないパーティション分割部は、分割フラグ導出部353の導出した分割フラグhorSplitFlagに応じて、横長長方形(ここでは8×4)と縦長長方形(ここでは4×8)のいずれかを選択することでサブブロックサイズを決定する。具体的には、以下の式を用いてサブブロックの幅nSubBlkWと高さnSubBlkHを設定する。
The partition division unit (not shown) of the
nSubBlkW = horSplitFlag ? 8 : 4
nSubBlkH = horSplitFlag ? 4 : 8
VSP予測部30374の図示しないデプスベクトル導出部は、導出されたサブブロックサイズの各々のサブブロックに対して、デプスDV導出部351から導出された動きベクトルdisparitySamples[]を水平成分の動きベクトルmvLX[0]、0を垂直成分の動きベクトルmvLX[1]としてベクトルmvLX[]を導出し、VSPマージ候補の予測パラメータを導出する。nSubBlkW = horSplitFlag? 8: 4
nSubBlkH = horSplitFlag? 4: 8
The depth vector derivation unit (not shown) of the
また、VSP予測部30374は、インター予測パラメータ復号制御部3031から入力された残差予測インデックスiv_res_pred_weight_idx及び照度補償フラグic_flagに応じてVSPマージ候補をマージ候補リストmergeCandListに追加するか否かを制御してもよい。具体的には、VSP予測部30374は、残差予測インデックスiv_res_pred_weight_idxが0、かつ、照度補償フラグic_flagが0の場合のみ、マージ候補リストmergeCandListの要素にVSPマージ候補を追加しても良い。
Also, the
基本マージ候補導出部30380は、空間マージ候補導出部30381と時間マージ候補導出部30382と結合マージ候補導出部30383とゼロマージ候補導出部30384を含んで構成される。基本マージ候補は、ベースレイヤで用いられるマージ候補であり、すなわち、スケーラブルではなくHEVC(例えばHEVCメインプロファイル)で用いられるマージ候補であり、少なくとも空間マージ候補、時間マージ候補の何れかを含む。 The basic merge candidate derivation unit 30380 includes a spatial merge candidate derivation unit 30382, a temporal merge candidate derivation unit 30382, a combined merge candidate derivation unit 30383, and a zero merge candidate derivation unit 30384. The basic merge candidate is a merge candidate used in the base layer, that is, a merge candidate used in HEVC (for example, HEVC main profile) instead of scalable, and includes at least one of a spatial merge candidate and a temporal merge candidate.
空間マージ候補導出部30381は、所定の規則に従って、予測パラメータメモリ307が記憶している予測パラメータ(予測利用フラグpredFlagLX、ベクトルmvLX、参照ピクチャインデックスrefIdxLX)を読み出し、読み出した予測パラメータを空間マージ候補として導出する。読み出される予測パラメータは、予測ユニットから予め定めた範囲内にあるブロック(例えば、予測ユニットの左下端、左上端、右上端にそれぞれ接するブロックの全部又は一部)である隣接ブロックのそれぞれに係る予測パラメータである。導出された空間マージ候補はマージ候補格納部303611に格納される。
The spatial merge candidate derivation unit 30381 reads the prediction parameters (prediction usage flag predFlagLX, vector mvLX, reference picture index refIdxLX) stored in the
空間マージ候補導出部30381では、隣接ブロックのVSPモードフラグVspModeFlagを継承して導出するマージ候補のVSPモードフラグmergeCandIsVspFlagを設定する。すなわち、隣接ブロックのVSPモードフラグVspModeFlagが1の場合、対応する空間マージ候補のVSPモードフラグmergeCandIsVspFlagを1、それ以外の場合はVSPモードフラグmergeCandIsVspFlagを0とする。 The spatial merge candidate derivation unit 30381 sets a merge candidate VSP mode flag mergeCandIsVspFlag that is derived by inheriting the VSP mode flag VspModeFlag of the adjacent block. That is, when the VSP mode flag VspModeFlag of the adjacent block is 1, the VSP mode flag mergeCandIsVspFlag of the corresponding spatial merge candidate is 1, and otherwise, the VSP mode flag mergeCandIsVspFlag is 0.
以下、時間マージ候補導出部30382、結合マージ候補導出部30383、ゼロマージ候補導出部30384が導出するマージ候補では、VSPモードフラグVspModeFlagを0に設定する。 Hereinafter, the VSP mode flag VspModeFlag is set to 0 in the merge candidates derived by the time merge candidate derivation unit 30382, the merge merge candidate derivation unit 30383, and the zero merge candidate derivation unit 30384.
時間マージ候補導出部30382は、予測ユニットの右下の座標を含む参照画像中のブロックの予測パラメータを予測パラメータメモリ307から読みだしマージ候補とする。参照画像の指定方法は、例えば、スライスヘッダで指定されるコロケートピクチャcol_ref_idxと、参照ピクチャリストRefPicListXから指定されるRefPicListX[col_ref_idx]で指定される参照ピクチャインデックスrefIdxLXを用いればよい導出されたマージ候補はマージ候補格納部303611に格納される。
The temporal merge candidate derivation unit 30382 reads the prediction parameter of the block in the reference image including the lower right coordinate of the prediction unit from the
結合マージ候補導出部30383は、既に導出されマージ候補格納部303611に格納された2つの異なる導出済マージ候補のベクトルと参照ピクチャインデックスを、それぞれL0、L1のベクトルとして組み合わせることで結合マージ候補を導出する。導出されたマージ候補はマージ候補格納部303611に格納される。 The merge merge candidate derivation unit 30383 derives a merge merge candidate by combining two different derived merge candidate vectors and reference picture indexes that have already been derived and stored in the merge candidate storage unit 303611 as L0 and L1 vectors, respectively. To do. The derived merge candidates are stored in the merge candidate storage unit 303611.
ゼロマージ候補導出部30384は、参照ピクチャインデックスrefIdxLXがiであり、ベクトルmvLXのX成分、Y成分が共に0であるマージ候補を、導出したマージ候補数が最大値に達するまで導出する。参照ピクチャインデックスrefIdxLXを示すiの値は、0から順に割り振られる。導出されたマージ候補はマージ候補格納部303611に格納される。 The zero merge candidate derivation unit 30384 derives merge candidates whose reference picture index refIdxLX is i and whose X component and Y component of the vector mvLX are both 0 until the number of derived merge candidates reaches the maximum value. The value of i indicating the reference picture index refIdxLX is assigned in order from 0. The derived merge candidates are stored in the merge candidate storage unit 303611.
マージ候補選択部30362は、マージ候補格納部303611に格納されているマージ候補のうち、インター予測パラメータ復号制御部3031から入力されたマージインデックスmerge_idxに対応するインデックスが割り当てられたマージ候補を、対象PUのインター予測パラメータとして選択する。つまり、マージ候補リストをmergeCandListとするとmergeCandList[merge_idx]で示される予測パラメータを選択し、双予測制限部30363に出力する。 The merge candidate selection unit 30362 selects, from the merge candidates stored in the merge candidate storage unit 303611, a merge candidate to which an index corresponding to the merge index merge_idx input from the inter prediction parameter decoding control unit 3031 is assigned. As an inter prediction parameter. That is, when the merge candidate list is mergeCandList, the prediction parameter indicated by mergeCandList [merge_idx] is selected and output to the bi-prediction restriction unit 30363.
マージ候補選択部30362は、マージ候補としてインタービューマージ候補が選択された場合には、サブブロック動き補償フラグsubPbMotionFlagを1に設定する。また、マージ候補選択部30362は、マージ候補のVSPモードフラグvspModeFlagが1の場合にもサブブロック動き補償フラグsubPbMotionFlagを1に設定しても良い。それ以外の場合には、サブブロック動き補償フラグsubPbMotionFlagを0に設定する。 Merge candidate selection section 30362 sets subblock motion compensation flag subPbMotionFlag to 1 when an inter-view merge candidate is selected as a merge candidate. The merge candidate selection unit 30362 may set the sub-block motion compensation flag subPbMotionFlag to 1 even when the merge candidate VSP mode flag vspModeFlag is 1. In other cases, the sub-block motion compensation flag subPbMotionFlag is set to 0.
双予測制限部30363は、以下に示す双予測制限条件1の場合に、L1の参照ピクチャインデックスrefIdxL1とL1の予測利用フラグpredFlagL1に、
refIdxL1=-1、predFlagL1=0
を設定することにより、双予測(predFlagL0=1かつpredFlagL1=1)を単予測に変換する。The bi-prediction restriction unit 30363 sets the reference picture index refIdxL1 of L1 and the prediction use flag predFlagL1 of L1 in the case of the following
refIdxL1 = -1, predFlagL1 = 0
To convert bi-prediction (predFlagL0 = 1 and predFlagL1 = 1) to single prediction.
双予測制限条件1:選択された予測パラメータが双予測(predFlagL0=1かつpredFlagL1=1)かつ予測ユニットのサイズが所定のサイズより小さい(予測ユニットの幅nOrigPbWと高さnOrigPbHの和が12に等しい)
双予測制限部30363は、選択したマージ候補を予測パラメータメモリ307に記憶するとともに、予測画像生成部308に出力する。Bi-prediction restriction condition 1: The selected prediction parameter is bi-prediction (predFlagL0 = 1 and predFlagL1 = 1) and the size of the prediction unit is smaller than a predetermined size (the sum of the width nOrigPbW and height nOrigPbH of the prediction unit is equal to 12) )
The bi-prediction restriction unit 30363 stores the selected merge candidate in the
predSamplesLX´[x][y] = predSamplesLX[x][y]
図10は、本実施形態に係るAMVP予測パラメータ導出部3032の構成を示す概略図である。AMVP予測パラメータ導出部3032は、ベクトル候補導出部3033と予測ベクトル選択部3034、インター予測識別子導出部3035を備える。ベクトル候補導出部3033は、参照ピクチャインデックスrefIdxに基づいて予測パラメータメモリ307が記憶するベクトルを読み出し、ベクトル候補リストmvpListLXを生成する。参照ブロックは、予測ユニットの位置を基準として予め定めた位置にあるブロック(例えば、予測ユニットの左下端、右上端、時間的に隣接するブロック)である。predSamplesLX´ [x] [y] = predSamplesLX [x] [y]
FIG. 10 is a schematic diagram illustrating a configuration of the AMVP prediction parameter derivation unit 3032 according to the present embodiment. The AMVP prediction parameter derivation unit 3032 includes a vector candidate derivation unit 3033, a prediction vector selection unit 3034, and an inter prediction identifier derivation unit 3035. The vector candidate derivation unit 3033 reads a vector stored in the
予測ベクトル選択部3034は、ベクトル候補導出部3033が導出したベクトル候補mvpListLXのうち、インター予測パラメータ復号制御部3031から入力された予測ベクトルフラグmvp_LX_flagが示すベクトルmvpListLX[ mvp_lX_flag]を予測ベクトルmvpLXとして選択する。予測ベクトル選択部3034は、選択した予測ベクトルmvpLXを加算部3035に出力する。 The prediction vector selection unit 3034 selects the vector mvpListLX [mvp_lX_flag] indicated by the prediction vector flag mvp_LX_flag input from the inter prediction parameter decoding control unit 3031 as the prediction vector mvpLX from the vector candidates mvpListLX derived by the vector candidate derivation unit 3033. . The prediction vector selection unit 3034 outputs the selected prediction vector mvpLX to the addition unit 3035.
加算部3035は、予測ベクトル選択部3034から入力された予測ベクトルmvpLXとインター予測パラメータ復号制御部から入力された差分ベクトルmvdLXを加算してベクトルmvLXを算出する。加算部3035は、算出したベクトルmvLXを予測画像生成部308に出力する。
The addition unit 3035 adds the prediction vector mvpLX input from the prediction vector selection unit 3034 and the difference vector mvdLX input from the inter prediction parameter decoding control unit to calculate a vector mvLX. The adding unit 3035 outputs the calculated vector mvLX to the predicted
図15は、本発明の実施形態のインター予測パラメータ復号制御部3031の構成を示すブロック図である。図15に示すように、インター予測パラメータ復号制御部3031は、分割モード復号部30311、インター予測識別子復号部30312、DBBPフラグ復号部30313及び図示しない、マージフラグ復号部、マージインデックス復号部、インター予測識別子復号部、参照ピクチャインデックス復号部、ベクトル候補インデックス復号部、ベクトル差分復号部、残差予測インデックス復号部、照度補償フラグ復号部を含んで構成される。分割モード復号部、マージフラグ復号部、マージインデックス復号部、参照ピクチャインデックス復号部、ベクトル候補インデックス復号部、ベクトル差分復号部は各々、分割モードpart_mode、マージフラグmerge_flag、マージインデックスmerge_idx、インター予測識別子inter_pred_idc、参照ピクチャインデックスrefIdxLX、予測ベクトルフラグmvp_LX_flag、差分ベクトルmvdLXを復号する。
FIG. 15 is a block diagram illustrating a configuration of the inter prediction parameter decoding control unit 3031 according to the embodiment of this invention. As illustrated in FIG. 15, the inter prediction parameter decoding control unit 3031 includes a split
インター予測識別子復号部30312は、予測ユニットが、L0予測(PRED_L0)、L0予測(PRED_L1)、双予測(PRED_BI)を示すインター予測識別子inter_pred_flagを復号する。
The inter prediction
残差予測インデックス復号部は、エントロピー復号部301を用いて、符号化ユニットCUの分割モードPartMode(part_mode)が2Nx2Nの場合に符号化データから残差予測インデックスiv_res_pred_weight_idxを復号する。それ以外の場合には、残差予測インデックス復号部は、iv_res_pred_weight_idxに0を設定(infer)する。残差予測インデックス復号部は、復号された残差予測インデックスiv_res_pred_weight_idxをマージモードパラメータ導出部3036とインター予測画像生成部309に出力する。残差予測インデックスは、残差予測の動作を変更するためのパラメータである。本実施形態では、残差予測の重みを示すインデックスであり、0、1、2の値をとる。iv_res_pred_weight_idxが0の場合には、残差予測は行わない。なお、インデックスに応じて残差予測の重みを変化させるのではなく、残差予測に用いるベクトルを変化させても良い。なお、残差予測インデックスではなく、残差予測を行うか否かを示すフラグ(残差予測フラグ)としても良い。
The residual prediction index decoding unit uses the
照度補償フラグ復号部は、エントロピー復号部301を用いて、分割モードPartModeが2Nx2Nの場合に符号化データから照度補償フラグic_flagを復号する。それ以外の場合には、照度補償フラグ復号部は、ic_flagに0を設定(infer)する。照度補償フラグ復号部は、復号された照度補償フラグic_flagをマージモードパラメータ導出部3036とインター予測画像生成部309に出力する。
以下、予測パラメータ導出に用いる手段である変位ベクトル導出部352、分割フラグ導出部353、デプスDV導出部351を順に説明する。The illuminance compensation flag decoding unit uses the
Hereinafter, the displacement
(変位ベクトル導出部352)
変位ベクトル導出部352は、対象PUが属する符号化ユニット(対象CU)の変位ベクトル(以下、MvDisp[x][y]、もしくはmvDisp[x][y]と示す)を、符号化ユニットに空間的もしくは時間的に隣接するブロックから抽出する。具体的には、対象CUに時間的に隣接するブロックCol、時間的に隣接する第2のブロックAltCol、空間的に左に隣接するブロックA1、上に隣接するブロックB1を参照ブロックとして、その参照ブロックの予測フラグpredFlagLX、参照ピクチャインデックスrefIdxLXとベクトルmvLXを順に抽出する。抽出したベクトルmvLXが変位ベクトルである場合には、その隣接ブロックの変位ベクトルを出力する。隣接ブロックの予測パラメータに変位ベクトルが無い場合には、次の隣接ブロックの予測パラメータを読み出し同様に変位ベクトルを導出する。全ての隣接ブロックにおいて変位ベクトルが導出できない場合には、ゼロベクトルを変位ベクトルとして出力する。変位ベクトル導出部352は、また、変位ベクトルを導出したブロックの参照ピクチャインデックス及びビューID(RefViewIdx[x][y]、ここで(xP、yP)は座標)を出力する。(Displacement vector deriving unit 352)
The displacement
上記により得られた変位ベクトルはNBDV(Neighbour Base Disparity Vector)と呼ばれる。変位ベクトル導出部352は、さらに得られた変位ベクトルNBDVをデプスDV導出部351に出力する。デプスDV導出部351は、デプス由来の変位ベクトル(変位配列disparitySamples)を導出する。デプスDV導出部351は、デプスから得られた変位ベクトルdisparitySamplesを動きベクトルの水平成分mvLX[0]とすることにより変位ベクトルを更新(リファイン)する。更新された変位ベクトルは、DoNBDV(Depth Orientated Neighbour Base Disparity Vector)と呼ばれる。変位ベクトル導出部352は、変位ベクトル(DoNBDV)をレイヤ間マージ候補導出部30371、変位マージ候補導出部及び視点合成予測マージ候補導出部に出力する。さらに、得られた変位ベクトル(NBDV)を、インター予測画像生成部309に出力する。
The displacement vector obtained by the above is called NBDV (Neighbour Base Disparity Vector). The displacement
(VSP予測部30374およびDBBP予測部3095の変位ベクトル)
以下、VSP予測部30374およびDBBP予測部3095において、共通の変位ベクトル(視差ベクトル)を用いる構成の画像復号装置を説明する。図14に示すように、VSP予測部30374は、分割フラグ導出部353のパーティション分割およびデプスDV導出部351の変位ベクトル配列disparitySamples導出において、対象ブロックを変位ベクトルMvDispだけずらした座標(xTL, yTL)を導出し、座標(xTL, yTL)のデプスブロック上の点を参照する。DBBP予測部3095も同様にセグメンテーション部30952、DBBP分割モード導出部30954において、対象ブロックを変位ベクトルMvDispだけずらした座標(xTL, yTL)を導出し、座標(xTL, yTL)のデプスブロック上の点を参照する。(Displacement vector of
Hereinafter, an image decoding apparatus configured to use a common displacement vector (disparity vector) in the
これまでVSP予測部30374では、デプス参照による更新(リファイン)がされていない変位ベクトルNBDVを変位ベクトルmvDispに用いてデプスブロックの座標(xTL, yTL)を導出し、デプスDV導出部351により、サブブロックの変位ベクトルを導出する。この場合、変位ベクトルmvDispの導出にデプス参照は不要で、サブブロックの変位ベクトルを導出する際にデプス参照を行うため、デプス参照は一回で良い。それに対し、DBBP予測部3095では、デプス参照による更新がなされた変位ベクトルDoNBDVを変位ベクトルmvDispに用いて、デプスブロックの座標(xTL, yTL)を導出し、セグメンテーション部30952、DBBP分割モード導出部30954において、デプスを参照している。この場合、変位ベクトルmvDispの導出に変位ベクトルNBDVによるデプス参照を行い、さらに、セグメンテーション部30952、DBBP分割モード導出部30954のために別の変位ベクトルDoNBDVによるデプス参照(デプス転送)を行う。この場合、2回のデプス転送が必要であるためデプス画像の転送や処理量が大きい。また、VSP予測部30374とDBBP予測部3095が異なるデプス転送を行うと処理の共通化ができないため、一方の処理が複雑で、他方の処理は容易であるという設計上のアンバランスが生じる。全体の最悪ケースの複雑度は、2つの処理の最大値で定まるため、一方の処理が容易にしても、全体の複雑度は低減しない。よって、設計上は、最悪ケースの複雑度が共用できるものであるかぎり、同じ程度の複雑度を許容することが好ましい。従って、視点合成予測とDBBPでどの程度、更新された変位ベクトルを用いるのかという判定基準を共通化し、同じ変位ベクトルを用いることが好適である。
The
本実施形態では、VSP予測部30374とDBBP予測部3095の処理を共通化しながら、デプス参照の最悪ケースの処理量を削減する。最悪ケースの処理量とは小さいブロックで何度もデプス参照を行うことである。よって、本実施形態では、対象ブロックのサイズが所定のサイズより大きい場合には、デプスを参照して更新された変位ベクトル(DoNBDV)を用い、それ以外の場合には、デプスを参照して更新されていない変位ベクトル(NBDV)を用いる。
In this embodiment, the processing amount of the worst case of depth reference is reduced while making the processing of the
より具体的には、対象ブロックのサイズが所定のサイズより大きい場合には、VSP予測部30374では、デプス参照による更新がされた変位ベクトルDoNBDVを変位ベクトルmvDispに用いてデプスブロックの座標(xTL, yTL)を導出し、デプスDV導出部351により、サブブロックの変位ベクトルを導出する。逆に、対象ブロックのサイズが所定のサイズ以下の場合には、VSP予測部30374では、デプス参照による更新されていない変位ベクトルNBDVを変位ベクトルmvDispに用いてデプスブロックの座標(xTL, yTL)を導出し、デプスDV導出部351により、サブブロックの変位ベクトルを導出する。同様に、対象ブロックのサイズが所定のサイズより大きい場合には、DBBP予測部3095では、デプス参照による更新された変位ベクトルDoNBDVを変位ベクトルmvDispに用いて、デプスブロックの座標(xTL, yTL)を導出し、セグメンテーション部30952、DBBP分割モード導出部30954において、デプスを参照する。逆に、対象ブロックのサイズが所定のサイズ以下の場合には、DBBP予測部3095では、デプス参照による更新されていない変位ベクトルNBDVを変位ベクトルmvDispに用いて、デプスブロックの座標(xTL, yTL)を導出し、セグメンテーション部30952、DBBP分割モード導出部30954において、デプスを参照する。
More specifically, when the size of the target block is larger than a predetermined size, the
図29は、VSP予測部30374およびDBBP予測部3095として共通の変位ベクトルを用いる構成の画像復号装置31および画像符号化装置11の動作を説明するためのフローチャートである。
FIG. 29 is a flowchart for explaining operations of the image decoding device 31 and the
(S3001)対象ブロックである予測ユニットが所定のサイズより大きいな否かを判定する。YESの場合にはS3002に遷移する。NOの場合にはS3003に遷移する。 (S3001) It is determined whether or not the prediction unit that is the target block is larger than a predetermined size. If YES, the processing proceeds to S3002. If NO, the processing proceeds to S3003.
(S3002)予測ユニットが所定のサイズより大きい場合には、視差ベクトルとしてデプス画像によりリファインして得られる視差ベクトルDoNBDVを用いる。 (S3002) When the prediction unit is larger than the predetermined size, the disparity vector DoNBDV obtained by refining the depth image is used as the disparity vector.
(S3003)予測ユニットが所定のサイズより大きい場合には、視差ベクトルとしてデプス画像によりリファインすることなく得られる視差ベクトルNBDVを用いる。 (S3003) When the prediction unit is larger than the predetermined size, a disparity vector NBDV obtained without refining with a depth image is used as a disparity vector.
さらに具体的には、画像復号装置31および画像符号化装置11は以下の処理を行う。VSP予測部30374の備える分割フラグ導出部353のパーティション分割およびデプスDV導出部351のデプスDV導出において、以下の式A1のように、予測ブロックの幅nPbWと高さnPbHの和が所定の値(ここでは16)を超えた場合には、デプス画像を用いて更新された変位ベクトルMvRefinedDisp[ xPb ][ yPb ]、それ以外の場合には、デプス画像を用いて更新されていない変位ベクトルMvDisp[ xPb ][ yPb ]を用いて、デプスDV部351によるサブブロックの変位ベクトルmvLXを導出するための視差配列DisparitySamples導出、分割フラグ導出部353で導出される分割フラグを用いたhorSplitFlagによるパーティション分割部によるパーティション分割が行われる。
More specifically, the image decoding device 31 and the
mvLXVSP = nPbW + nPbH > 16 ? MvRefinedDisp[ xPb ][ yPb ] : MvDisp[ xPb ][ yPb ] 式A1
DBBP予測部3095も同様にセグメンテーション部30952、DBBP分割モード導出部30954において、予測ブロックの幅(ここではnTbS)と予測ブロックの高さ(ここではnTbS)の和が所定の値(ここでは16)を超えた場合には、デプス画像を用いてリファインされた変位ベクトルMvRefinedDisp[ xTb ][ yTb ]、それ以外の場合には、デプス画像を用いてリファインされていない変位ベクトルMvDisp[ xTb ][ yTb ]を用いて、セグメンテーションブ30952におけるsegMask導出、DBBP分割モード導出部30954における分割モードPartMode導出が行われる。mvLXVSP = nPbW + nPbH> 16? MvRefinedDisp [xPb] [yPb]: MvDisp [xPb] [yPb] Formula A1
Similarly, in the
nTbS + nTbS > 16 ? MvRefinedDisp[ xTb ][ yTb ] : MvDisp[ xTb ][ yTb ] 式A2
なお、所定のサイズを上記よりも大きな構成であっても構わない。例えば、式A1、式A2の代わりに以下の式A1´、式A2´のように所定のサイズを24とするのは好適である。nTbS + nTbS> 16? MvRefinedDisp [xTb] [yTb]: MvDisp [xTb] [yTb] Formula A2
The predetermined size may be larger than that described above. For example, instead of the expressions A1 and A2, it is preferable to set the predetermined size to 24 as in the following expressions A1 ′ and A2 ′.
mvLXVSP = nPbW + nPbH > 24 ? MvRefinedDisp[ xPb ][ yPb ] : MvDisp[ xPb ][ yPb ] 式A1´
nTbS + nTbS > 24 ? MvRefinedDisp[ xTb ][ yTb ] : MvDisp[ xTb ][ yTb ] 式A2´
図30は、VSP予測部30374およびDBBP予測部3095で共通の変位ベクトルを用いる例のデータフローを示す図である。既に説明したようにデプスDV導出部351は、参照ピクチャメモリ306から、ブロックの左上座標とデプス参照により更新される前の変位ベクトルMvDisp[][]より定まるデプスブロックであるデプス画像#1により、デプス参照により更新された変位ベクトルMvRefinedDisp[][]を導出する。スイッチ354は、ブロックサイズが所定のサイズよりも大きい場合にMvRefinedDisp[][]を選択し、それ以外の場合にMvDisp[][]を選択されるスイッチであり変位ベクトルmvDispに設定する。視点合成予測では、デプスDV導出部351が変位ベクトルmvDispを用いてサブブロック単位で導出する視差配列DispariytSamplesを導出し、VSP予測部30374により、視差配列DispariytSamplesで示される値を水平ベクトルとする動き変位補償により予測画像を生成する。このとき、デプスDV導出部351は変位ベクトルmvDispより定まるデプスブロックであるデプス画像#2を参照する。また、視点合成予測では、分割フラグ導出部353により変位ベクトルmvDispを用いて参照されるデプス画像#2を用いて、8×4もしくは4×8のサブブロックサイズを選択する。ここで変位ベクトルmvDispが、MvDisp[][]と等しい場合には、MvRefinedDisp[]を導出するために参照するデプスブロックと、視差配列DispariytSamplesおよび分割フラグhorSplitFlagを導出するためのデプスブロックは等しく、デプス画像#2はデプス画像#1と等しい。よって、1回のデプス画像の転送で、変位ベクトルMvRefinedDispと、視差配列DispariytSamplesおよび分割フラグhorSplitFlag導出という一連の処理を行うことができ、デプス画像を得るために2回のデプス転送は不要である。逆に、変位ベクトルmvDispが、MvRefinedDisp[][]の場合には、デプス画像#2はデプス画像#1と異なるブロックであるため、2回のデプス転送が必要である。同様に、DBBP予測においても、セグメンテーション部30952およびDBBP分割モード導出部30954は変位ベクトルmvDispを用いてセグメンテーション情報segMaskおよび分割モードPartModeを導出する。このとき、セグメンテーション部30952およびDBBP分割モード導出部30954は変位ベクトルmvDispより定まるデプスブロックであるデプス画像#2を参照する。ここでも変位ベクトルmvDispが、MvDisp[][]と等しい場合には、デプス画像#2はデプス画像#1と等しく2回のデプス転送は不要である。逆に、変位ベクトルmvDispが、MvRefinedDisp[][]の場合には、デプス画像#2はデプス画像#1と異なるため、2回のデプス転送が必要である。mvLXVSP = nPbW + nPbH> 24? MvRefinedDisp [xPb] [yPb]: MvDisp [xPb] [yPb] Formula A1 ′
nTbS + nTbS> 24? MvRefinedDisp [xTb] [yTb]: MvDisp [xTb] [yTb] Formula A2 ′
FIG. 30 is a diagram illustrating a data flow of an example in which a common displacement vector is used in the
なお、図30では、分割フラグ導出部353、セグメンテーション部30952、DBBP分割モード導出部30954などを用いる例を説明したが、各手段はこれに限定されず本明細書に記載の変形例であっても良い。例えば、DBBP分割モード導出部30954Cを用いる例は、視点合成予測と、DBBPで分割処理が共通化されるため好ましい。図31は、DBBP予測部3095(DBBP分割モード導出部30954)の代わりにDBBP予測部3095C(DBBP分割モード導出部30954C)を用いる場合の例である。この場合も、上記のように対象ブロックのサイズに応じてMvDispとMvRefinedDispを切り替えることにより、視点合成予測処理のデプスDV導出部351の視差配列DisparitySamples導出処理、分割フラグ導出部の分割フラグhorSplitFlag導出処理、セグメンテーション部30952のsegMask導出処理を共通の変位ベクトルを用いて導出する。以上の構成の画像復号装置31および画像符号化装置11は、デプスベースブロック予測画像生成手段(DBBP予測部3095)と、視点合成予測手段を備える画像復号装置において、上記デプスベースブロック予測画像生成手段は、デプス画像からセグメンテーション情報を導出するセグメンテーション導出部30952と、2つの動き補償画像を生成するDBBP画像補間部30951と、上記2つの補間画像を合成して1つの動き補償画像を生成する画像合成部30953と、分割モードPartModeを導出するDBBP分割モード導出部30954を備え、上記視点合成予測手段は、デプス画像から分割フラグhorSplitFlagを導出しサブブロックサイズを得るパーティション分割を行うパーティション分割部と、デプス画像から視差配列DisparitySamplesを導出し動きベクトルmvLXを得るデプス動きDV導出部351を備え、上記デプスベースブロック予測画像生成手段の上記セグメンテーション導出部30952および上記DBBP分割モード導出部30954で参照するデプス画像の位置を導出するのに用いる視差ベクトルと、上記視点合成予測手段の上記パーティション分割部と上記デプス動きDV導出部351でデプス画像の位置を導出するのに用いる視差ベクトルとを共通の視差ベクトルとする。以上の構成の変形例では、画像復号装置31および画像符号化装置11は、デプスベースブロック予測画像生成手段(DBBP予測部3095C)と、視点合成予測手段を備える画像復号装置において、上記デプスベースブロック予測画像生成手段は、デプス画像からセグメンテーション情報を導出するセグメンテーション導出部30952と、2つの動き補償画像を生成するDBBP画像補間部30951と、上記2つの補間画像を合成して1つの動き補償画像を生成する画像合成部30953と、分割モードPartModeを導出するDBBP分割モード導出部30954Cを備え、上記視点合成予測手段は、デプス画像から分割フラグhorSplitFlagを導出しサブブロックサイズを得るパーティション分割を行うパーティション分割部と、デプス画像から視差配列DisparitySamplesを導出し動きベクトルmvLXを得るデプス動きDV導出部351を備え、上記デプスベースブロック予測画像生成手段の上記セグメンテーション導出部30952で参照するデプス画像の位置を導出するのに用いる視差ベクトルと、上記視点合成予測手段の上記パーティション分割部と上記デプス動きDV導出部351でデプス画像の位置を導出するのに用いる視差ベクトルとを共通の視差ベクトルとする。また、および上記DBBP分割モード導出部30954Cおよびパーティション分割部は共通の分割フラグ導出部353の出力を用いて各々分割モードPartMode導出とサブブロックサイズ導出を行う。なお、分割フラグ導出部353の代わりに分割フラグ導出部353Aなどを用いても良い。
In addition, in FIG. 30, although the example using the division | segmentation flag derivation | leading-out
また、好適には、上記共通の視差ベクトルは、ブロックサイズが所定のサイズより大きい場合には、デプスによりリファインされる視差ベクトルであり、ブロックサイズが所定のサイズ以下の場合には、デプスによりリファインされる前の視差ベクトルである。 Preferably, the common disparity vector is a disparity vector refined by depth when the block size is larger than a predetermined size, and refined by depth when the block size is equal to or smaller than the predetermined size. This is the disparity vector before being processed.
また、さらに好適には、上記共通の視差ベクトルは、予測ブロックの幅と高さの和が16より大きい場合には、デプスによりリファインされる視差ベクトルであり、それ以外の場合にはデプスによりリファインされる前の視差ベクトルである。 More preferably, the common disparity vector is a disparity vector refined by depth when the sum of the width and height of the prediction block is larger than 16, and is refined by depth otherwise. This is the disparity vector before being processed.
また、上記共通の視差ベクトルは、予測ブロックの幅と高さの和が24より大きい場合には、デプスによりリファインされる視差ベクトルであり、それ以外の場合にはデプスによりリファインされる前の視差ベクトルであっても構わない。 The common disparity vector is a disparity vector refined by depth when the sum of the width and height of the prediction block is greater than 24. In other cases, the disparity before being refined by depth It may be a vector.
以上の構成の画像復号装置31および画像符号化装置11によれば、VSP予測部30374およびDBBP予測部3095として共通の変位ベクトルを用いるため、デプス転送の処理量および実装が簡略化されるという効果を奏する。
According to the image decoding device 31 and the
以上の構成の画像復号装置31および画像符号化装置11によれば、所定のサイズ以下の小さいブロックでは、デプス画像によるリファインが必要な視差ベクトルを用いないため、デプス画像のアクセスが減少し、デプス画像を転送するためのメモリバンド幅やデプス画像を参照する処理量が低下するという効果を奏する。
According to the image decoding device 31 and the
(分割フラグ導出部353)
分割フラグ導出部353は、対象ブロックに対応するデプス画像を参照し、分割フラグhorSplitFlagを導出する。分割フラグ導出部353の入力として設定される対象ブロックの座標を(xP, yP)、幅と高さをnPSW、nPSH、変位ベクトルをmvDispであるとして以下、説明する。分割フラグ導出部353は、対象ブロックの幅と高さが等しい場合にはデプス画像を参照するが、対象ブロックの幅と高さが等しくない場合には、デプス画像を参照せずに、分割フラグhorSplitFlagを導出するを導出しても良い。以下、分割フラグ導出部353の詳細を説明する。(Division flag deriving unit 353)
The division
分割フラグ導出部353は、参照ピクチャメモリ306から、復号対象ピクチャと同一POCを持ち、なお且つ、変位ベクトルmvDispが示す参照ピクチャのビューID(RefViewIdx)と同じビューIDであるデプス画像refDepPelsを読み出す。
The division
次に、分割フラグ導出部353は、対象ブロックの左上の座標(xP、yP)を変位ベクトルMvDispだけずらした座標(xTL, yTL)を、以下の式により導出する。
Next, the division
xTL = xP + ( ( mvDisp[ 0 ] + 2 ) >> 2 )
yTL = yP + ( ( mvDisp[ 1 ] + 2 ) >> 2 )
ここで、mvDisp[ 0 ]、mvDisp[ 1 ]は、それぞれ変位ベクトルMvDispのX成分とY成分である。導出する座標(xTL, yTL)は、デプス画像refDepPels上の対象ブロックに対応するブロックの座標を示すものである。xTL = xP + ((mvDisp [0] + 2) >> 2)
yTL = yP + ((mvDisp [1] + 2) >> 2)
Here, mvDisp [0] and mvDisp [1] are the X component and the Y component of the displacement vector MvDisp, respectively. The derived coordinates (xTL, yTL) indicate the coordinates of the block corresponding to the target block on the depth image refDepPels.
分割フラグ導出部353は、対象ブロックの幅nPSWもしくは高さnPSHが8の倍数以外の場合に、以下の式によりフラグminSubBlkSizeFlagを1に設定する。
The division
minSubBlkSizeFlag = ( nPSW % 8 != 0) | | ( nPSH % 8 != 0 )
分割フラグ導出部353は、フラグminSubBlkSizeFlagが1の場合、以下の式により、対象ブロックの高さが8の倍数以外の場合(nPSH % 8が真の場合)には、horSplitFlagに1、それ以外の場合には、0を設定する。minSubBlkSizeFlag = (nPSW% 8! = 0) | | (nPSH% 8! = 0)
When the flag minSubBlkSizeFlag is 1, the split
horSplitFlag = ( nPSH % 8 ! = 0 )
すなわち、対象ブロックの高さが8の倍数以外の場合(nPSH % 8が真の場合)には、horSplitFlagに1、対象ブロックの幅が8の倍数以外の場合(nPSW % 8が真の場合)には、horSplitFlagに0が設定される。horSplitFlag = (nPSH% 8! = 0)
In other words, when the target block height is not a multiple of 8 (when nPSH% 8 is true), horSplitFlag is 1, and when the target block width is other than a multiple of 8 (when nPSW% 8 is true) Is set to 0 in horSplitFlag.
分割フラグ導出部353は、デプス値からサブブロックサイズを導出する。予測ブロックのコーナーの4点(TL、TR、BL、BR)の比較から、サブブロックサイズを導出する。フラグminSubBlkSizeFlagが0の場合、対象ブロックの左上端(TL)の座標のデプス画像の画素値をrefDepPelsP0、右上端(TR)の画素値をrefDepPelsP1、左下端(BL)の画素値をrefDepPelsP2、右下端(BR)の画素値をrefDepPelsP3とした場合、
horSplitFlag=( refDepPelsP0 > refDepPelsP3 ) == ( refDepPelsP1 > refDepPelsP2 )
の条件式(horSplitFlag)が成立するかを判定する。
なお、horSplitFlagの導出には、符号を変更した以下の式を用いても良い。The division
horSplitFlag = (refDepPelsP0> refDepPelsP3) == (refDepPelsP1> refDepPelsP2)
It is determined whether the conditional expression (horSplitFlag) is satisfied.
In order to derive horSplitFlag, the following expression with a changed sign may be used.
horSplitFlag=( refDepPelsP0 < refDepPelsP3 ) == ( refDepPelsP1 < refDepPelsP2 )
分割フラグ導出部353は、horSplitFlagを、分割モード導出部30954CおよびVSP予測部30374に出力する。horSplitFlag = (refDepPelsP0 <refDepPelsP3) == (refDepPelsP1 <refDepPelsP2)
The split
なお、分割フラグ導出部353は、以下のように導出しても良い。対象ブロックの幅nPSWと高さnPSHが異なる場合には、対象ブロックの幅と高さに応じて以下の式により導出する。
The division
nPSW > nPSHであれば、horSplitFlag=1
それ以外でnPSH > nPSWであれば、horSplitFlag=0
それ以外、対象ブロックの幅と高さが等しい場合にはデプスを参照して以下の式に応じて導出する。If nPSW> nPSH, horSplitFlag = 1
Otherwise, if nPSH> nPSW, horSplitFlag = 0
Otherwise, when the width and height of the target block are equal, the depth is referred to and derived according to the following formula.
horSplitFlag=( refDepPelsP0 > refDepPelsP3 ) == ( refDepPelsP1 > refDepPelsP2 )
なお、分割フラグ導出部353の対象ブロックは、視点合成予測の場合には予測ユニット、DBBPの場合には幅と高さが等しいブロックである。DBBPの場合には幅と高さが等しいため、上記の導出方法では、デプス画像の4隅を参照して分割フラグhorSplitFlagが導出される。horSplitFlag = (refDepPelsP0> refDepPelsP3) == (refDepPelsP1> refDepPelsP2)
The target block of the division
(分割フラグ導出部353A)
以下、分割フラグ導出部353の変形例である分割フラグ導出部353Aを説明する。分割フラグ導出部353Aは、対象ブロックに対応するデプス画像を参照し、分割フラグhorSplitFlagを導出する。分割フラグ導出部353Aの入力として設定される対象ブロックの座標を(xP, yP)、幅と高さをnPSW、nPSH、変位ベクトルをmvDispであるとして以下、説明する。(Division flag deriving unit 353A)
Hereinafter, a split flag deriving unit 353A that is a modification of the split
分割フラグ導出部353Aは、参照ピクチャメモリ306から、復号対象ピクチャと同一POCを持ち、なお且つ、変位ベクトルmvDispが示す参照ピクチャのビューID(RefViewIdx)と同じビューIDであるデプス画像refDepPelsを読み出す。
The division flag deriving unit 353A reads out the depth image refDepPels having the same POC as the decoding target picture from the
次に、分割フラグ導出部353Aは、対象ブロックの左上の座標(xP、yP)を変位ベクトルMvDispだけずらした座標(xTL, yTL)を、以下の式により導出する。 Next, the division flag deriving unit 353A derives coordinates (xTL, yTL) obtained by shifting the upper left coordinates (xP, yP) of the target block by the displacement vector MvDisp by the following formula.
xTL = xP + ( ( mvDisp[ 0 ] + 2 ) >> 2 )
yTL = yP + ( ( mvDisp[ 1 ] + 2 ) >> 2 )
ここで、mvDisp[ 0 ]、mvDisp[ 1 ]は、それぞれ変位ベクトルMvDispのX成分とY成分である。導出する座標(xTL, yTL)は、デプス画像refDepPels上の対象ブロックに対応するブロックの座標を示すものである。xTL = xP + ((mvDisp [0] + 2) >> 2)
yTL = yP + ((mvDisp [1] + 2) >> 2)
Here, mvDisp [0] and mvDisp [1] are the X component and the Y component of the displacement vector MvDisp, respectively. The derived coordinates (xTL, yTL) indicate the coordinates of the block corresponding to the target block on the depth image refDepPels.
分割フラグ導出部353Aは、対象ブロックの幅nPSWもしくは高さnPSHが8の倍数以外の場合に、以下の式によりフラグminSubBlkSizeFlagを1に設定する。 The division flag deriving unit 353A sets the flag minSubBlkSizeFlag to 1 using the following expression when the width nPSW or the height nPSH of the target block is other than a multiple of 8.
minSubBlkSizeFlag = ( nPSW % 8 != 0) | | ( nPSH % 8 != 0 )
分割フラグ導出部353Aは、フラグminSubBlkSizeFlagが1の場合、以下の式により、対象ブロックの高さが8の倍数以外の場合(nPSH % 8が真の場合)には、horSplitFlagに1、それ以外の場合には、0を設定する。minSubBlkSizeFlag = (nPSW% 8! = 0) | | (nPSH% 8! = 0)
When the flag minSubBlkSizeFlag is 1, when the flag minSubBlkSizeFlag is 1, the split flag deriving unit 353A sets 1 to horSplitFlag when the height of the target block is not a multiple of 8 (when nPSH% 8 is true), otherwise In this case, 0 is set.
horSplitFlag = ( nPSH % 8 ! = 0 )
すなわち、対象ブロックの高さが8の倍数以外の場合(nPSH % 8が真の場合)には、horSplitFlagに1、対象ブロックの幅が8の倍数以外の場合(nPSW % 8が真の場合)には、horSplitFlagに0が設定される。horSplitFlag = (nPSH% 8! = 0)
In other words, when the target block height is not a multiple of 8 (when nPSH% 8 is true), horSplitFlag is 1, and when the target block width is other than a multiple of 8 (when nPSW% 8 is true) Is set to 0 in horSplitFlag.
分割フラグ導出部353Aは、対象ブロックの幅と対象ブロックの高さがいずれも8の倍数の場合、デプス値からサブブロックサイズを導出する。具体的には、予測ブロックのコーナーの3点(TL、TR、BL)の比較から、サブブロックサイズを導出する。フラグminSubBlkSizeFlagが0の場合、対象ブロックの左上端(TL)の座標のデプス画像の画素値をrefDepPelsP0、右上端(TR)の画素値をrefDepPelsP1、左下端(BL)の画素値をrefDepPelsP2とした場合、水平方向の絶対値差分abs (a-b)が、垂直方向の絶対値差分abs (a - c)より大きい場合(abs (a-b)>abs(a-c))に、縦長サブブロック(4×8)となるhorSplitFlag=0を導出し、それ以外の場合、つまり、水平方向の絶対値差分abs (a-b)が、垂直方向の絶対値差分abs (a - c)以下の場合(abs (a-b)<=abs(a-c))に、横長サブブロック(8×4)となるhorSplitFlag=1を導出する。具体的には、分割フラグ導出部353Aは、以下の式によりhorSplitFlagを導出する。 The division flag deriving unit 353A derives the sub-block size from the depth value when both the width of the target block and the height of the target block are multiples of 8. Specifically, the sub-block size is derived from a comparison of three points (TL, TR, BL) at the corners of the prediction block. When the flag minSubBlkSizeFlag is 0, the pixel value of the depth image at the upper left (TL) coordinates of the target block is refDepPelsP0, the upper right (TR) pixel value is refDepPelsP1, and the lower left (BL) pixel value is refDepPelsP2. When the horizontal absolute value difference abs (ab) is larger than the vertical absolute value difference abs (ac) (abs (ab)> abs (ac)), the vertical sub-block (4 × 8) is HorSplitFlag = 0 is derived, and in other cases, that is, when the absolute value difference abs (ab) in the horizontal direction is less than or equal to the absolute value difference abs (a-c) in the vertical direction (abs (ab) <= abs (ac)), horSplitFlag = 1 which is a horizontally long sub-block (8 × 4) is derived. Specifically, the split flag deriving unit 353A derives horSplitFlag by the following equation.
a = refDepPelsP0
b = refDepPelsP1
c = refDepPelsP2
horSplitFlag= abs( a - b) > abs( a - c) ? 0 : 1
なお、horSplitFlagの導出には、判定における等号の扱いを変更した以下の式を用いても良い。a = refDepPelsP0
b = refDepPelsP1
c = refDepPelsP2
horSplitFlag = abs (a-b)> abs (a-c)? 0: 1
In order to derive horSplitFlag, the following expression in which the handling of the equal sign in the determination is changed may be used.
horSplitFlag= abs( a - b) >= abs( a - c) ? 0 : 1
分割フラグ導出部353Aは、horSplitFlagを、分割モード導出部30954CおよびVSP予測部30374に出力する。horSplitFlag = abs (a-b)> = abs (a-c)? 0: 1
The split flag derivation unit 353A outputs the horSplitFlag to the split
(デプスDV導出部351)
デプスDV導出部351は、指定されたブロック単位(サブブロック)で、デプス由来の変位ベクトルの水平成分である視差配列disparitySamples(水平ベクトル)を導出する。デプスDV導出部351の入力は、デプスDV変換テーブルDepthToDisparityB、ブロックの幅nBlkWと高さnBlkHと、分割フラグsplitFlagと、デプス画像refDepPelsと、デプス画像refDepPels上の対応ブロックの座標(xTL, yTL)と、ビューIDrefViewIdx、出力は視差配列disparitySamples(水平ベクトル)である。(Depth DV deriving unit 351)
The depth DV deriving unit 351 derives disparity arrays disparitySamples (horizontal vectors), which are horizontal components of depth-derived displacement vectors, in designated block units (sub-blocks). The input of the depth DV derivation unit 351 includes the depth DV conversion table DepthToDisparityB, the block width nBlkW and height nBlkH, the split flag splitFlag, the depth image refDepPels, and the coordinates (xTL, yTL) of the corresponding block on the depth image refDepPels. , View IDrefViewIdx, output is disparity array disparitySamples (horizontal vector).
なお、デプス画像refDepPels上の対応ブロックの座標(xTL, yTL)は、変位ベクトルがmvDispである場合、以下の式により導出される。 Note that the coordinates (xTL, yTL) of the corresponding block on the depth image refDepPels are derived by the following equations when the displacement vector is mvDisp.
xTL = xP + ( ( mvDisp[ 0 ] + 2 ) >> 2 )
yTL = yP + ( ( mvDisp[ 1 ] + 2 ) >> 2 )
デプスDV導出部351は、対象ブロックごとにデプス代表値maxDep導出に用いる画素を設定する。具体的には、図13に示すように、対象ブロックの左上の予測ブロック(xTL, yTL)からの相対座標を(xSubB、ySubB)とした場合、サブブロックの左端のX座標xP0と、右端のX座標xP1と、上端のY座標yP0と、下端のY座標yP1を、以下の式より求める。xTL = xP + ((mvDisp [0] + 2) >> 2)
yTL = yP + ((mvDisp [1] + 2) >> 2)
The depth DV deriving unit 351 sets a pixel used for deriving the depth representative value maxDep for each target block. Specifically, as shown in FIG. 13, when the relative coordinates from the upper left prediction block (xTL, yTL) of the target block are (xSubB, ySubB), the X coordinate xP0 of the left end of the sub-block and the right end The X coordinate xP1, the upper end Y coordinate yP0, and the lower end Y coordinate yP1 are obtained from the following equations.
xP0 = Clip3( 0, pic_width_in_luma_samples - 1, xTL + xSubB )
yP0 = Clip3( 0, pic_height_in_luma_samples - 1, yTL + ySubB )
xP1 = Clip3( 0, pic_width_in_luma_samples - 1, xTL + xSubB + nBlkW - 1 )
yP1 = Clip3( 0, pic_height_in_luma_samples - 1, yTL + ySubB + nBlkH - 1 )
ここで、pic_width_in_luma_samplesとpic_height_in_luma_samplesは、それぞれ画像の幅と高さを表す。xP0 = Clip3 (0, pic_width_in_luma_samples-1, xTL + xSubB)
yP0 = Clip3 (0, pic_height_in_luma_samples-1, yTL + ySubB)
xP1 = Clip3 (0, pic_width_in_luma_samples-1, xTL + xSubB + nBlkW-1)
yP1 = Clip3 (0, pic_height_in_luma_samples-1, yTL + ySubB + nBlkH-1)
Here, pic_width_in_luma_samples and pic_height_in_luma_samples represent the width and height of the image, respectively.
次に、デプスDV導出部351は、対象ブロックのデプスの代表値maxDepを導出する。具体的には、サブブロックのコーナーおよびその付近4点のデプス画像の画素値refDepPels[ xP0 ][ yP0 ]、refDepPels[ xP0 ][ yP1 ]、refDepPels[ xP1 ][ yP0 ]、refDepPels[ xP1 ][ yP1 ]の最大値である代表デプス値maxDepを、以下の式より導出する。 Next, the depth DV deriving unit 351 derives the depth representative value maxDep of the target block. Specifically, the pixel values refDepPels [xP0] [yP0], refDepPels [xP0], refDepPels [xP1] [yP0], refDepPels [xP1] [yP1] of the depth image at the corner of the sub-block and in the vicinity thereof ], The representative depth value maxDep is derived from the following equation.
maxDep = 0
maxDep = Max( maxDep, refDepPels[ xP0 ][ yP0 ] )
maxDep = Max( maxDep, refDepPels[ xP0 ][ yP1 ] )
maxDep = Max( maxDep, refDepPels[ xP1 ][ yP0 ] )
maxDep = Max( maxDep, refDepPels[ xP1 ][ yP1 ] )
ここで、また、関数Max(x,y)は、第1引数xが第2引数y以上であればxを、そうでなければyを返す関数である。maxDep = 0
maxDep = Max (maxDep, refDepPels [xP0] [yP0])
maxDep = Max (maxDep, refDepPels [xP0] [yP1])
maxDep = Max (maxDep, refDepPels [xP1] [yP0])
maxDep = Max (maxDep, refDepPels [xP1] [yP1])
Here, the function Max (x, y) is a function that returns x if the first argument x is greater than or equal to the second argument y, and returns y otherwise.
デプスDV導出部351は、代表デプス値maxDepとデプスDV変換テーブルDepthToDisparityBと、変位ベクトル(NBDV)が示すレイヤのビューIDrefViewIdxを用いて、デプス由来の変位ベクトルの水平成分である視差配列disparitySamplesを、対象ブロック内の画素(x、y)(xは0からnBlkW-1、yは0からnBlkH-1の値を取る)ごとに、以下の式により導出する。 The depth DV deriving unit 351 uses the representative depth value maxDep, the depth DV conversion table DepthToDisparityB, and the view ID refViewIdx of the layer indicated by the displacement vector (NBDV) to target the disparity array disparitySamples that is the horizontal component of the displacement vector derived from the depth. For each pixel (x, y) in the block (where x is a value from 0 to nBlkW-1, and y is a value from 0 to nBlkH-1), it is derived by the following equation.
disparitySamples[x][y] = DepthToDisparityB[refViewIdx][maxDep]・・(式A)
デプスDV導出部351は、導出した視差配列disparitySamples[]を変位ベクトルDoNBDV(の水平成分)として、変位ベクトル導出部352に出力する。デプスDV導出部351は、また、VSP予測部30374に変位ベクトル(の水平成分)として出力する。disparitySamples [x] [y] = DepthToDisparityB [refViewIdx] [maxDep] ... (Formula A)
The depth DV deriving unit 351 outputs the derived parallax array disparitySamples [] to the displacement
(インター予測画像生成部309)
図16は、本実施形態に係るインター予測画像生成部309の構成を示す概略図である。インター予測画像生成部309は、動き変位補償部3091、残差予測部3092、照度補償部3093、DBBP予測部3095(デプスベースブロック予測画像生成装置3095)、重み付け予測部3096を含んで構成される。(Inter prediction image generation unit 309)
FIG. 16 is a schematic diagram illustrating a configuration of the inter predicted
インター予測画像生成部309は、インター予測パラメータ復号部303から入力されるサブブロック動き補償フラグsubPbMotionFlagが1の場合にはサブブロック単位で処理し、サブブロック動き補償フラグsubPbMotionFlagが0の場合には予測ユニット単位で以下の処理を行う。なお、サブブロック動き補償フラグsubPbMotionFlagはマージモードとして、インタービューマージ候補が選択された場合、もしくは、VSPマージ候補が選択された場合に1となる。インター予測画像生成部309は、予測パラメータを動き変位補償部3091により、予測画像predSamplesを導出する。また、インター予測画像生成部309は、残差予測インデックスiv_res_pred_weight_idxが0ではない場合に、残差予測実施フラグresPredFlagに残差予測を実行することを示す1を設定し、動き変位補償部3091と残差予測部3092に出力する。一方、残差予測インデックスiv_res_pred_weight_idxが0である場合に、残差予測実施フラグresPredFlagに0を設定し、動き変位補償部3091と残差予測部3092に出力する。
The inter prediction
動き変位補償部3091、残差予測部3092、照度予測部3093、DBBP予測部3095は各々、単予測(predFlagL0=1もしくはpredFlagL1=1)の場合にはL0の動き補償画像predSamplesL0もしくはL1の動き補償画像predSamplesL1を導出し、双予測(predFlagL0=1かつpredFlagL1=1)の場合には、L0の動き補償画像predSamplesL0とL1の動き補償画像predSamplesL1を導出し、重み付け予測部3096に出力する。重み付け予測部3096は単予測の場合には、1つの動き補償画像predSamplesL0もしくはpredSamplesL1から予測画像predSamplesを導出し、双予測の場合には、2つの2つの動き補償画像predSamplesL0とpredSamplesL1から予測画像predSamplesを導出する。
The motion displacement compensation unit 3091, the
(動き変位補償)
動き変位補償部3091は、予測利用フラグpredFlagLX、参照ピクチャインデックスrefIdxLX、ベクトルmvLX(動きベクトル、又は変位ベクトル)に基づいて、動き予測画像predSampleLXを生成する。動き変位補償部3091は、参照ピクチャメモリ306から、参照ピクチャインデックスrefIdxLXで指定された参照ピクチャの予測ユニットの位置を起点として、ベクトルmvLXだけずれた位置にあるブロックを読み出し補間することによって予測画像を生成する。ここで、ベクトルmvLXが整数ベクトルでない場合には、動き補償フィルタ(もしくは変位補償フィルタ)と呼ばれる小数位置の画素を生成するためのフィルタを施して、予測画像を生成する。一般に、ベクトルmvLXが動きベクトルの場合、上記処理を動き補償と呼び、変位ベクトルの場合は変位補償と呼ぶ。ここでは総称して動き変位補償と表現する。以下、L0予測の予測画像をpredSamplesL0、L1予測の予測画像をpredSamplesL1と呼ぶ。両者を区別しない場合predSamplesLXと呼ぶ。以下、動き変位補償部3091で得られた予測画像predSamplesLXに、さらに残差予測および照度補償が行われる例を説明するが、これらの出力画像もまた、予測画像predSamplesLXと呼ぶ。なお、以下の残差予測および照度補償において、入力画像と出力画像を区別する場合には、入力画像をpredSamplesLX、出力画像をpredSamplesLX´と表現する。(Motion displacement compensation)
The motion displacement compensation unit 3091 generates a motion prediction image predSampleLX based on the prediction use flag predFlagLX, the reference picture index refIdxLX, and the vector mvLX (motion vector or displacement vector). The motion displacement compensation unit 3091 reads out a block at a position shifted by the vector mvLX from the
動き変位補償部3091は、残差予測実施フラグresPredFlagが0の場合には、輝度成分は8タップ、色差成分は4タップの動き補償フィルタにより、動き補償画像predSamplesLXを生成する。残差予測実施フラグresPredFlagが1の場合には、輝度成分、色差成分ともに2タップの動き補償フィルタにより、動き補償画像predSamplesLXを生成する。 When the residual prediction execution flag resPredFlag is 0, the motion displacement compensation unit 3091 generates a motion compensated image predSamplesLX using a motion compensation filter having 8 taps for the luminance component and 4 taps for the chrominance component. When the residual prediction execution flag resPredFlag is 1, a motion compensation image predSamplesLX is generated by a 2-tap motion compensation filter for both the luminance component and the chrominance component.
なお、サブブロック動き補償フラグsubPbMotionFlagが1の場合に、動き変位補償部3091は、サブブロック単位で動き補償を行う。具体的には、座標(xCb, yCb)のサブブロックのベクトル、参照ピクチャインデックス、参照リスト利用フラグを、以下の式から導出する。 When the sub block motion compensation flag subPbMotionFlag is 1, the motion displacement compensation unit 3091 performs motion compensation in units of sub blocks. Specifically, a sub-block vector of coordinates (xCb, yCb), a reference picture index, and a reference list use flag are derived from the following equations.
MvL0[xCb+x][ yCb+y] = subPbMotionFlag ? SubPbMvL0[xCb+x][ yCb+y] : mvL0
MvL1[xCb+x][ yCb+y] = subPbMotionFlag ? SubPbMvL1[xCb+x][ yCb+y] : mvL1
RefIdxL0[xCb+x][ yCb+y] = subPbMotionFlag ? SubPbRefIdxL0[xCb+x][ yCb+y] : refIdxL0
RefIdxL1[xCb+x][ yCb+y] = subPbMotionFlag ? SubPbRefIdxL1[xCb+x][ yCb+y] : refIdxL1
PredFlagL0[xCb+x][ yCb+y] = subPbMotionFlag ? SubPbPredFlagL0[xCb+x][ yCb+y] : predFlagL0
PredFlagL1[xCb+x][ yCb+y] = subPbMotionFlag ? SubPbPredFlagL1[xCb+x][ yCb+y] : predFlagL1
ここで、SubPbMvLX、SubPbRefIdxLX、SubPbPredFlagLX(Xは0, 1)は、レイヤ間マージ候補導出部30371で説明したsubPbMvLX、subPbRefIdxLX、subPbPredFlagLXに対応する。MvL0 [xCb + x] [yCb + y] = subPbMotionFlag? SubPbMvL0 [xCb + x] [yCb + y]: mvL0
MvL1 [xCb + x] [yCb + y] = subPbMotionFlag? SubPbMvL1 [xCb + x] [yCb + y]: mvL1
RefIdxL0 [xCb + x] [yCb + y] = subPbMotionFlag? SubPbRefIdxL0 [xCb + x] [yCb + y]: refIdxL0
RefIdxL1 [xCb + x] [yCb + y] = subPbMotionFlag? SubPbRefIdxL1 [xCb + x] [yCb + y]: refIdxL1
PredFlagL0 [xCb + x] [yCb + y] = subPbMotionFlag? SubPbPredFlagL0 [xCb + x] [yCb + y]: predFlagL0
PredFlagL1 [xCb + x] [yCb + y] = subPbMotionFlag? SubPbPredFlagL1 [xCb + x] [yCb + y]: predFlagL1
Here, SubPbMvLX, SubPbRefIdxLX, and SubPbPredFlagLX (X is 0, 1) correspond to subPbMvLX, subPbRefIdxLX, and subPbPredFlagLX described in the inter-layer merge candidate derivation unit 30371.
(残差予測)
残差予測部3092は、残差予測実施フラグresPredFlagが1の場合に、残差予測を行う。残差予測部3092は、残差予測実施フラグresPredFlagが0の場合には、入力された予測画像predSamplesLXをそのまま出力する。refResSamples残差予測は、動き予測もしくは変位予測により生成される動き補償画像predSamplesLXの残差を推定し、対象レイヤの予測画像predSamplesLXに加えることにより行われる。具体的には、予測ユニットが動き予測の場合には、参照レイヤと同様の残差が対象レイヤにも生じると仮定して、既に導出された参照レイヤの残差を対象レイヤの残差の推定値として用いる。予測ユニットが変位予測の場合には、対象ピクチャとは異なる時刻(POC)の参照レイヤのピクチャと対象レイヤのピクチャの残差を、残差の推定値として用いる。(Residual prediction)
The
残差予測部3092も、動き変位補償部3091と同様、サブブロック動き補償フラグsubPbMotionFlagが1の場合に、サブブロック単位で残差予測を行う。
Similar to the motion displacement compensation unit 3091, the
図17は残差予測部3092の構成を示すブロック図である。残差予測部3092は、参照画像補間部30922と、残差合成部30923から構成される。
FIG. 17 is a block diagram showing a configuration of the
参照画像補間部30922は、残差予測実施フラグresPredFlagが1の場合には、インター予測パラメータ復号部303から入力されたベクトルmvLXと残差予測変位ベクトルmvDisp、参照ピクチャメモリ306に格納された参照ピクチャを用いて、2つの残差予測動き補償画像(対応ブロックrpSamplesLX、参照ブロックrpRefSamplesLX)を生成する。
When the residual prediction execution flag resPredFlag is 1, the reference
残差予測部3092は、対象ブロックが動き予測であるか変位予測であるかを示すフラグであるインタービュ予測フラグivRefFlagを( DiffPicOrderCnt( currPic, RefPicListX[ refIdxLX ] ) = = 0 )により導出する。ここでDiffPicOrderCnt(X, Y)はピクチャXとピクチャYのPOCの差分を示す(以下同様)。従って、対象ピクチャcurrPicのPOCと、参照ピクチャインデックスrefIdxLXと参照ピクチャリストRefPicListXで示される参照ピクチャRefPicListX[ refIdxLX ]のPOCが0である場合には、対象ブロックは変位予測が適用されるとしてivRefFlagを1に設定され、それ以外の場合には対象ブロックには動き予測が適用されるとしてivRefFlagを0に設定される。
The
図18は、ベクトルmvLXが動きベクトルである場合(インタービュ予測フラグivRefFlagが0の場合)の対応ブロックrpSamplesLXと参照ブロックrpRefSamplesLXを説明するための図である。図18に示すように、対象レイヤ上の予測ユニットに対応する対応ブロックは、参照レイヤ上の画像の予測ユニットの位置を起点として、参照レイヤと対象レイヤの位置関係を示すベクトルである変位ベクトルmvDispだけずれた位置になるブロックに位置する。 FIG. 18 is a diagram for describing the corresponding block rpSamplesLX and the reference block rpRefSamplesLX when the vector mvLX is a motion vector (when the interview prediction flag ivRefFlag is 0). As shown in FIG. 18, the corresponding block corresponding to the prediction unit on the target layer is a displacement vector mvDisp that is a vector indicating the positional relationship between the reference layer and the target layer, starting from the position of the prediction unit of the image on the reference layer. It is located in a block that is displaced by a certain amount.
図19は、ベクトルmvLXが変位ベクトルである場合(インタービュ予測フラグivRefFlagが1の場合)の対応ブロックrpSamplesLXと参照ブロックrpRefSamplesLXを説明するための図である。図19に示すように、対応ブロックrpSamplesLXは、対象ピクチャとは異なる時刻かつ対象ピクチャと同じビューIDである参照ピクチャrpPic上のブロックである。残差予測部3092は、対象ブロックのベクトルmvLX(=変位ベクトルmvDisp)が指し示す先のピクチャmvPicT上の予測ユニットのベクトルであるmvTを導出する。対応ブロックrpSamplesLXは、予測ユニット(対象ブロック)の位置を起点として、ベクトルmvTだけずれた位置になるブロックに位置する。
FIG. 19 is a diagram for explaining the corresponding block rpSamplesLX and the reference block rpRefSamplesLX when the vector mvLX is a displacement vector (when the interview prediction flag ivRefFlag is 1). As shown in FIG. 19, the corresponding block rpSamplesLX is a block on the reference picture rpPic that has a different time from the target picture and the same view ID as the target picture. The
(残差予測用参照ピクチャの導出)
残差予測部3092は、残差予測動き補償画像(rpSamplesLX、rpRefSamplesLX)の導出において参照する参照ピクチャである参照ピクチャrpPic、rpPicRefと、参照ブロックの位置(対象ブロックの座標を基準とした参照ブロックの相対座標)を示すベクトルmvRp、mvRpRefを導出する。(Derivation of reference picture for residual prediction)
The
残差予測部3092は、対象ブロックの属する対象ピクチャと同じ表示時刻(POC)もしくは同じビューIDであるピクチャをrpPicとして設定する。
The
具体的には、残差予測部3092は、対象ブロックが動き予測の場合(インタービュ予測フラグivRefFlagが0の場合)、参照ピクチャrpPicのPOCと対象ピクチャのPOCであるPicOrderCntValが等しく、かつ、参照ピクチャrpPicのビューIDと予測ユニットの参照ビューIDRefViewIdx[ xP ][ yP ](これは対象ピクチャのビューIDは異なる)が等しい。という条件から参照ピクチャrpPicを導出する。さらに、残差予測部3092は、上記rpPicのベクトルmvRpに、変位ベクトルMvDispを設定する。
Specifically, when the target block is motion prediction (when the interview prediction flag ivRefFlag is 0), the
残差予測部3092は、対象ブロックが変位予測の場合(インタービュ予測フラグivRefFlagが1の場合)、対象ブロックの予測画像生成に用いる参照ピクチャをrpPicに設定する。すなわち、対象ブロックの参照インデックスがRpRefIdxLY、参照ピクチャリストがRefPicListYの場合、参照ピクチャrpPicはRefPicListY[ RpRefIdxLY ]から導出される。さらに、残差予測部3092に含まれる図示しない残差予測用ベクトル導出部30924を含む。残差予測用ベクトル導出部30924は、上記rpPicのベクトルmvRpに、対象ブロックのベクトルmvLX(これは変位ベクトルMvDispと等しい)が指し示す先の、対象ピクチャと同一POCで、ビューIDの異なるピクチャ上の予測ユニットのベクトルであるmvTを導出し、その動きベクトルmvTをmvRpに設定する。
The
次に残差予測部3092は、対象ピクチャと異なる表示時刻(POC)かつ異なるビューIDを備える参照ピクチャをrpPicRefとして設定する。
Next, the
具体的には、残差予測部3092は、対象ブロックが動き予測の場合(インタービュ予測フラグivRefFlagが0の場合)、参照ピクチャrpPicRefのPOCと対象ブロックの参照ピクチャRefPicListY[ RpRefIdxLY ]のPOCが等しく、かつ、参照ピクチャrpPicRefのビューIDと変位ベクトルMvDispの参照ピクチャのビューIDRefViewIdx[ xP ][ yP ]が等しいという条件から参照ピクチャrpPicRefを導出する。さらに、残差予測部3092は、上記rpPicRefのベクトルmvRpRefに予測ブロックの動きベクトルをスケーリングしたベクトルmvLXと、ベクトルmvRpの和(mvRp+mvLX)を設定する。
Specifically, when the target block is motion prediction (when the interview prediction flag ivRefFlag is 0), the
残差予測部3092は、対象予測ユニットが変位予測の場合(インタービュ予測フラグivRefFlagが1の場合)、参照ピクチャrpPicRefのPOCが参照ピクチャrpPicのPOCと等しく、かつ、参照ピクチャrpPicRefのビューIDと予測ユニットのビューIDRefViewIdx[ xP ][ yP ]が等しいという条件から参照ピクチャrpPicRefを導出する。さらに、残差予測部3092は、上記rpPicRefのベクトルmvRpRefに予測ブロックの動きベクトルmvLXと、ベクトルmvRpの和(mvRp+mvLX)を設定する。
When the target prediction unit is displacement prediction (when the inter prediction prediction flag ivRefFlag is 1), the
すなわち、残差予測部3092では、mvRpとmvRpRefは、以下のように導出される。
That is, in the
インタービュ予測フラグivRefFlagが0の場合
mvRp = MvDisp 式(B−1)
mvRpRef = mvRp + mvLX (=mvLX + MvDisp) 式(B−2)
インタービュ予測フラグivRefFlagが1の場合
mvRp = mvT 式(B−3)
mvRpRef = mvRp + mvLX (=mvLX + mvT) 式(B−4)
(残差予測用ベクトル導出部30924)
残差予測用ベクトル導出部30924は、対象ピクチャと異なるピクチャ上の予測ユニットのベクトルmvTを導出する。残差予測用ベクトル導出部30924は、参照ピクチャ、対象ブロック座標(xP, yP)、対象ブロックサイズnPSW, nPSH、ベクトルmvLXを入力とし、参照ピクチャ上の予測ユニットの動き補償パラメータ(ベクトル、参照ピクチャインデックス、ビューID)からベクトルmvT及びビューIDを導出する。残差予測用ベクトル導出部30924は、入力として指示された参照ピクチャ上の、対象ブロックからベクトルmvLXだけずれた位置にあるブロックの中心座標として、参照座標(xRef, yRef)を以下の式により導出する。When the interview prediction flag ivRefFlag is 0
mvRp = MvDisp formula (B-1)
mvRpRef = mvRp + mvLX (= mvLX + MvDisp) Formula (B-2)
When interview prediction flag ivRefFlag is 1
mvRp = mvT formula (B-3)
mvRpRef = mvRp + mvLX (= mvLX + mvT) Formula (B-4)
(Residue prediction vector deriving unit 30924)
The residual prediction vector deriving unit 30924 derives a vector mvT of a prediction unit on a picture different from the current picture. The residual prediction vector deriving unit 30924 receives the reference picture, the target block coordinates (xP, yP), the target block size nPSW, nPSH, and the vector mvLX, and receives motion compensation parameters (vector, reference picture) of the prediction unit on the reference picture. The vector mvT and view ID are derived from the index and view ID). The residual prediction vector deriving unit 30924 derives the reference coordinates (xRef, yRef) as the center coordinates of the block at the position shifted by the vector mvLX from the target block on the reference picture instructed as an input by the following expression: To do.
xRef = Clip3( 0, PicWidthInSamplesL - 1, xP + ( nPSW >> 1 ) + ( ( mvDisp[ 0 ] + 2 ) >> 2 ) )
yRef = Clip3( 0, PicHeightInSamplesL - 1, yP + ( nPSH >> 1 ) + ( ( mvDisp[ 1 ] + 2 ) >> 2 ) )
残差予測用ベクトル導出部30924は、参照ブロック座標(xRef, yRef)を含む予測ユニットであるrefPUのベクトルmvLXと参照ピクチャインデックスrefPicLXを導出する。対象予測ユニットが変位予測(DiffPicOrderCnt (currPic, refPic)が0)かつ参照予測ユニットrefPUが動き予測の場合(DiffPicOrderCnt(refPic, refPicListRefX[ refIdxLX ])が0以外)の場合には、refPUのベクトルをmvTとし、参照可能フラグavailFlagTを1とする。上記処理により、対象ピクチャと同一POCで、ビューIDの異なるピクチャを参照ピクチャとするブロックのベクトルをmvTとして導出できる。xRef = Clip3 (0, PicWidthInSamplesL-1, xP + (nPSW >> 1) + ((mvDisp [0] + 2) >> 2))
yRef = Clip3 (0, PicHeightInSamplesL-1, yP + (nPSH >> 1) + ((mvDisp [1] + 2) >> 2))
The residual prediction vector deriving unit 30924 derives a refPU vector mvLX and a reference picture index refPicLX that are prediction units including reference block coordinates (xRef, yRef). If the target prediction unit is displacement prediction (DiffPicOrderCnt (currPic, refPic) is 0) and the reference prediction unit refPU is motion prediction (DiffPicOrderCnt (refPic, refPicListRefX [refIdxLX]) is non-zero), the refPU vector is mvT And the referable flag availFlagT is set to 1. With the above processing, a block vector having the same POC as the target picture and a picture with a different view ID as a reference picture can be derived as mvT.
残差予測用ベクトル導出部30924は、対象ピクチャと異なるピクチャ上の予測ユニットのベクトルを導出する。残差予測用ベクトル導出部30924は、対象ブロック座標(xP, yP)、対象ブロックサイズnPbW, nPbH、変位ベクトルmvDispを入力として、以下の参照ブロック座標(xRef, yRef)を導出する。 The residual prediction vector deriving unit 30924 derives a vector of prediction units on a picture different from the current picture. The residual prediction vector deriving unit 30924 derives the following reference block coordinates (xRef, yRef) using the target block coordinates (xP, yP), the target block sizes nPbW, nPbH, and the displacement vector mvDisp as inputs.
xRef = Clip3( 0, PicWidthInSamplesL - 1, xP + ( nPSW >> 1 ) + ( ( mvDisp[ 0 ] + 2 ) >> 2 ) )
yRef = Clip3( 0, PicHeightInSamplesL - 1, yP + ( nPSH >> 1 ) + ( ( mvDisp[ 1 ] + 2 ) >> 2 ) )
残差予測用ベクトル導出部30924は、参照ブロック座標(xRef, yRef)を含む予測ユニットであるrefPUのベクトルmvLXと参照ピクチャインデックスrefPicLXを導出する。対象予測ユニットが動き予測(DiffPicOrderCnt( currPic, refPic)が0以外)、参照予測ユニットrefPUが変位予測の場合(DiffPicOrderCnt( refPic, refPicListRefX[ refIdxLX ])が0)には、参照可能フラグavailFlagTを1とする。これにより、対象ピクチャと同一POCで、ビューIDの異なるピクチャを参照ピクチャとするブロックのベクトルをmvTとして導出できる。xRef = Clip3 (0, PicWidthInSamplesL-1, xP + (nPSW >> 1) + ((mvDisp [0] + 2) >> 2))
yRef = Clip3 (0, PicHeightInSamplesL-1, yP + (nPSH >> 1) + ((mvDisp [1] + 2) >> 2))
The residual prediction vector deriving unit 30924 derives a refPU vector mvLX and a reference picture index refPicLX that are prediction units including reference block coordinates (xRef, yRef). When the target prediction unit is motion prediction (DiffPicOrderCnt (currPic, refPic) is other than 0) and the reference prediction unit refPU is displacement prediction (DiffPicOrderCnt (refPic, refPicListRefX [refIdxLX]) is 0), the reference flag availFlagT is set to 1. To do. As a result, a block vector having the same POC as the target picture and a picture with a different view ID as a reference picture can be derived as mvT.
(参照画像補間部30922)
参照画像補間部30922は、参照ブロックrpSamplesLXの補間画像をベクトルmvLXに上記ベクトルmvCを設定して生成する。補間画像の画素の座標(x,y)を、予測ユニットのベクトルmvLXだけずらした位置の画素を線形補間(双線形補間)により導出する。変位ベクトルLXが1/4ペルの小数精度であることを考慮し、参照画像補間部30922は、予測ユニットの画素の座標が(xP、yP)である場合に対応する整数精度の画素R0のX座標xIntとY座標yInt、及び変位ベクトルmvDispのX成分の小数部分xFracとY成分の小数部分yFracを、以下の(式C−1)
xInt = xPb + ( mvLX[ 0 ] >> 2 )
yInt = yPb + ( mvLX[ 1 ] >> 2 )
xFrac = mvLX[ 0 ] & 3
yFrac = mvLX[ 1 ] & 3
の式により導出する。ここで、X & 3は、Xの下位2ビットのみを取り出す数式である。(Reference image interpolation unit 30922)
The reference
xInt = xPb + (mvLX [0] >> 2)
yInt = yPb + (mvLX [1] >> 2)
xFrac = mvLX [0] & 3
yFrac = mvLX [1] & 3
It is derived by the following formula. Here, X & 3 is a mathematical expression for extracting only the lower 2 bits of X.
次に、参照画像補間部30922は、ベクトルmvLXが1/4ペルの小数精度であることを考慮し、補間画素predPartLX[ x ][ y ]を生成する。まず、整数画素A(xA,yB)、B(xB,yB)、C(xC,yC)及びD(xD,yD)の座標を、以下の(式C−2)
xA = Clip3( 0, picWidthInSamples - 1, xInt )
xB = Clip3( 0, picWidthInSamples - 1, xInt + 1 )
xC = Clip3( 0, picWidthInSamples - 1, xInt )
xD = Clip3( 0, picWidthInSamples - 1, xInt + 1 )
yA = Clip3( 0, picHeightInSamples - 1, yInt )
yB = Clip3( 0, picHeightInSamples - 1, yInt )
yC = Clip3( 0, picHeightInSamples - 1, yInt + 1 )
yD = Clip3( 0, picHeightInSamples - 1, yInt + 1 )
の式により導出する。ここで、整数画素Aは画素R0に対応した画素であり、整数画素B,C,Dはそれぞれ整数画素Aの右、下、右下に隣接する整数精度の画素である。参照画像補間部30922は、各整数画素A、B、C、及びDに対応する参照画素refPicLX[ xA][ yA ]、refPicLX[ xB ][ yB ]、refPicLX[ xC ][ yC ]、及びrefPicLX[ xD ][ yD ]を参照ピクチャメモリ306から読み出す。Next, the reference
xA = Clip3 (0, picWidthInSamples-1, xInt)
xB = Clip3 (0, picWidthInSamples-1, xInt + 1)
xC = Clip3 (0, picWidthInSamples-1, xInt)
xD = Clip3 (0, picWidthInSamples-1, xInt + 1)
yA = Clip3 (0, picHeightInSamples-1, yInt)
yB = Clip3 (0, picHeightInSamples-1, yInt)
yC = Clip3 (0, picHeightInSamples-1, yInt + 1)
yD = Clip3 (0, picHeightInSamples-1, yInt + 1)
It is derived by the following formula. Here, the integer pixel A is a pixel corresponding to the pixel R0, and the integer pixels B, C, and D are integer precision pixels adjacent to the right, bottom, and bottom right of the integer pixel A, respectively. The reference
そして、参照画像補間部30922は、参照画素refPicLX[ xA ][ yA ]、refPicLX[ xB][ yB ]、refPicLX[ xC ][ yC ]、refPicLX[ xD ][ yD ]とベクトルmvLXのX成分の小数部分xFracとY成分の小数部分yFracを用いて、画素R0からベクトルmvLXの小数部分だけずらした位置の画素である補間画素predPartLX[ x ][ y ]を線形補間(双線形補間)により導出する。具体的には、以下の式(C−3)
predPartLX[ x ][ y ] = (refPicLX[ xA ][ yA ] * ( 8 - xFrac ) * ( 8 - yFrac )
+ refPicLX[ xB ][ yB ] * ( 8 - yFrac ) * xFrac
+ refPicLX[ xC ][ yC ] * ( 8 - xFrac ) * yFrac
+ refPicLX[ xD ][ yD ] * xFrac * yFrac ) >> 6
の式により導出する。The reference
predPartLX [x] [y] = (refPicLX [xA] [yA] * (8-xFrac) * (8-yFrac)
+ refPicLX [xB] [yB] * (8-yFrac) * xFrac
+ refPicLX [xC] [yC] * (8-xFrac) * yFrac
+ refPicLX [xD] [yD] * xFrac * yFrac) >> 6
It is derived by the following formula.
なお、上記では対象画素の周囲の4点の画素を用いて1ステップの双線形補間により導出しているが、水平方向の線形補間と垂直方向の線形補間を分離し2ステップの線形補間により残差予測補間画像を生成しても良い。 In the above description, the four-point pixels around the target pixel are used for deriving by one-step bilinear interpolation. However, horizontal linear interpolation and vertical linear interpolation are separated, and the remaining pixels are separated by two-step linear interpolation. A difference prediction interpolation image may be generated.
参照画像補間部30922は、上記の補間画素導出処理を、予測ユニット内の各画素に対して行い、補間画素の集合を補間ブロックpredPartLXとする。参照画像補間部30922は、導出した補間ブロックpredPartLXを、対応ブロックrpSamplesLXとして、残差合成部30923に出力する。
The reference
参照画像補間部30922は、対応ブロックrpSamplesLXを導出した処理と、変位ベクトルmvLXをベクトルmvRに置き換えている点を除いて、同様の処理を行うことで、参照ブロックrpRefSamplesLXを導出する。参照画像補間部30922は、参照ブロックrpRefSamplesLXを残差合成部30923に出力する。
The reference
(残差合成部30923)
残差合成部30923は、残差予測実施フラグresPredFlagが1の場合には、2つの残差予測動き補償画像(rpSamplesLX、rpRefSamplesLX)の差分から残差を導出し、動き補償画像にこの残差を加算することにより予測画像を導出する。具体的には、残差合成部30923は、予測画像predSamplesLX、対応ブロックrpSamplesLX、参照ブロックrpRefSamplesLX及び残差予測インデックスiv_res_pred_weight_idxから、補正予測画像predSamplesLX´を導出する。補正予測画像predSamplesLX´は、
predSamplesLX´[x][y] = predSamplesLX[x][y] + ((rpSamplesLX[x][y] - rpRefSamplesLX[x][y]) >> (iv_res_pred_weight_idx - 1))
の式を用いて求める。xは0から予測ブロックの幅-1、yは0から予測ブロックの高さ-1である。残差合成部30923は、残差予測実施フラグresPredFlagが0の場合には、以下の式のように予測画像predSamplesLXをそのまま出力する。(Residual synthesis unit 30923)
When the residual prediction execution flag resPredFlag is 1, the
predSamplesLX´ [x] [y] = predSamplesLX [x] [y] + ((rpSamplesLX [x] [y]-rpRefSamplesLX [x] [y]) >> (iv_res_pred_weight_idx-1))
It is calculated using the following formula. x is 0 to the width -1 of the prediction block, and y is 0 to the height of the prediction block -1. When the residual prediction execution flag resPredFlag is 0, the
predSamplesLX´[x][y] = predSamplesLX[x][y]
(照度補償)
照度補償部3093は、照度補償フラグic_flagが1の場合に、入力された予測画像predSamplesLXに対して、照度補償を行う。照度補償フラグic_flagが0の場合には、入力された予測画像predSamplesLXをそのまま出力する。predSamplesLX´ [x] [y] = predSamplesLX [x] [y]
(Illuminance compensation)
When the illumination compensation flag ic_flag is 1, the illumination compensation unit 3093 performs illumination compensation on the input predicted image predSamplesLX. When the illumination compensation flag ic_flag is 0, the input predicted image predSamplesLX is output as it is.
(重み付け予測)
重み付け予測部3096は、単予測の場合(predFlagL0=1/ predFlagL1=0もしくはpredFlagL0=0/ predFlagL1=1)には、L0の動き補償画像predSampleL0もしくはL1の動き補償画像predSampleL1から予測画像predSamplesを導出する。具体的には、L0からの予測、L1からの予測に対して各々、下記式を用いて導出する。(Weighted prediction)
In the case of single prediction (predFlagL0 = 1 / predFlagL1 = 0 or predFlagL0 = 0 / predFlagL1 = 1), the weighted prediction unit 3096 derives the predicted image predSamples from the L0 motion compensated image predSampleL0 or the L1 motion compensated image predSampleL1. . Specifically, the prediction from L0 and the prediction from L1 are respectively derived using the following equations.
predSamples[ x ][ y ] = Clip3( 0, ( 1 << bitDepth ) - 1, predSamplesL0[ x ][ y ] * w0 + o0 )
predSamples[ x ][ y ] = Clip3( 0, ( 1 << bitDepth ) - 1, predSamplesL1[ x ][ y ] * w1 + o1 )
)
ここで、w0, w1, o0, o1は、各々、パラメータセットで符号化されるウェイトおよびオフセットである。bitDepthはビットデプスを示す値である。重み付け予測部3096は、双予測の場合(predFlagL0=1/ predFlagL1=1)には、L0の動き補償画像predSampleL0とL1の動き補償画像predSampleL1の重み付き予測から予測画像を生成する。predSamples [x] [y] = Clip3 (0, (1 << bitDepth)-1, predSamplesL0 [x] [y] * w0 + o0)
predSamples [x] [y] = Clip3 (0, (1 << bitDepth)-1, predSamplesL1 [x] [y] * w1 + o1)
)
Here, w0, w1, o0, and o1 are weights and offsets encoded in the parameter set, respectively. bitDepth is a value indicating the bit depth. In the case of bi-prediction (predFlagL0 = 1 / predFlagL1 = 1), the weighted prediction unit 3096 generates a prediction image from the weighted prediction of the L0 motion compensated image predSampleL0 and the L1 motion compensated image predSampleL1.
( predSamplesL0 [ x ][ y ] * w0 + predSamplesL1[ x ][ y ] * w1 +
( ( o0 + o1 + 1 ) << log2Wd ) ) >> ( log2Wd + 1 ) )
ここで、w0, w1, o0, o1、log2Wdは、各々、パラメータセットで符号化されるウェイトおよびオフセットおよびシフト値。bitDepthはビットデプスを示す値である。(predSamplesL0 [x] [y] * w0 + predSamplesL1 [x] [y] * w1 +
((o0 + o1 + 1) << log2Wd)) >> (log2Wd + 1))
Here, w0, w1, o0, o1, and log2Wd are a weight, an offset, and a shift value encoded by the parameter set, respectively. bitDepth is a value indicating the bit depth.
(DBBP予測)
DBBP予測部3095は、DBBPモードフラグdbbp_flagが1の場合に、デプスベースブロック分割(Depth-based Block Partitioning、DBBP)により、予測画像predSamplesを生成する。デプスベースブロック分割は、対象ブロックに対応するデプス画像のセグメンテーションに基づいて、対象ブロックを2つの領域(領域1と領域2)に分割する。領域1の補間画像(以下predSamplesA)と、領域2の補間画像(以下predSamplesB)と領域分割を示すセグメンテーションを導出し、さらに2つの補間画像を、セグメンテーションに応じて合成することで、1つの補間画像(予測画像)を生成する。(DBBP prediction)
When the DBBP mode flag dbbp_flag is 1, the
DBBPでは、デプス画像に基づいて好適な分割を行うため、符号化データから復号された分割モード(PartMode)と実際に適用される分割(セグメンテーション)は異なる。符号化データから復号される動きベクトルなどの予測パラメータは、後続の予測ユニットや、別ピクチャの予測ユニットの予測パラメータの導出に用いられるため、できるだけ実際の分割(セグメンテーション)に近い分割モードを用いて、DBBPに適用される予測パラメータを格納することが適当である。従って、DBBP予測部3095は後述のDBBP分割モード導出部30954において、デプス画像から分割モードPartModeを導出する。DBBP予測部3095は、導出された分割モードPartModeで、復号して得られた分割モードを置き替える。また、インター予測パラメータ復号制御部3031で復号した予測パラメータは、置き換えらた分割モードPartModeに応じて、予測パラメータメモリ307に格納される。なお、セグメンテーションは画素単位の分割を示し、分割モードは予め皿められた矩形単位の分割を示す。
In DBBP, in order to perform suitable division based on the depth image, the division mode (PartMode) decoded from the encoded data is different from the division (segmentation) actually applied. Prediction parameters such as motion vectors decoded from the encoded data are used to derive prediction parameters of subsequent prediction units and prediction units of different pictures, so use a division mode that is as close to actual division (segmentation) as possible. It is appropriate to store the prediction parameters applied to the DBBP. Therefore, the
図1は、本発明の実施形態のDBBP予測部3095の構成を示すブロック図である。DBBP予測部3095は、DBBP画像補間部30951、セグメンテーション部30952、画像合成部30953、DBBP分割モード導出部30954から構成される。なお、セグメンテーション部30952、DBBP分割モード導出部30954は、予測画像生成部101ではなく、予測パラメータ復号部302で行っても良い。
FIG. 1 is a block diagram illustrating a configuration of the
(DBBP画像補間部30951)
DBBP画像補間部30951は、各参照ピクチャリストL0もしくはL1に対して、DBBP予測部3095に入力される2つのベクトルに基づいて双線形補間により、2つの補間画像(predSamplesA、predSampleB)を生成する。なお、双線形補間に関するDBBP画像補間部30951の動作は、ARP参照画像補間部30922の動作と等しく、まず、(式C−1)により動きベクトルmvLXから、整数位置xInt, yIntと位相xFrac、yFracを導出し、次に(式C−2)により4点の画素refPicLx[xA][yA]、refPicLx[xB][yB]、refPicLx[xC][yC]、refPicLx[xD][yD]の位置を導出する。最後に、位相xFrac、yFracに応じて(式C−3)により4点から画素を補間するなお、ARP参照画像補間部30922とDBBP画像補間部30951で、共通の双線形補間を行う画像補間部を用いても良い。(DBBP image interpolation unit 30951)
The DBBP
なお、2つの補間画像は0もしくは1をとるpartIdxにより区別される。すなわちDBBP画像補間部30951では、partIdx=0の補間画像predSampleもしくはpartIdx=1の補間画像predSampleが導出される。
Note that the two interpolated images are distinguished by partIdx taking 0 or 1. That is, the DBBP
セグメンテーション部30952は、参照ピクチャメモリ306から入力された対象ブロックに対応するデプスブロックからセグメンテーション情報segMaskを導出する。なお、対象ブロックに対応するデプスブロックは、復号対象ピクチャと同一POCを持ち、なお且つ、変位ベクトルMvDispが示す参照ピクチャのビューID(RefViewIdx)と同じビューIDであるデプスピクチャの上の画像上の、座標 (xP+mvDisp[0], xP+mvDisp[1])を左上座標とするブロックである。ここで、(xP, yP)は対象ブロックの座標、MvDispは対象ブロックの変位ベクトルがMvDispを示す。
The
具体的に、セグメンテーション部30952は、デプスブロックの画素値の代表値thresValを導出し、デプスブロックの各画素値が代表値thresValより大きい場合には1、代表値thresVal以下の場合には0としてsegMask[][]を導出する。
Specifically, the
具体的には、代表値thresValは、デプスブロックを構成する各画素(x=0.. nCbSL-1,y=0.. nCbSL-1の各x, y)について、デプス画素refSamples[ x ][ y ]の和sumRefValsを下記式のようにとして導出し、さらに、デプスブロックサイズの2の対数に相当する値で右シフトすることによりセグメンテーション部30952で導出される。
Specifically, the representative value thresVal is the depth pixel refSamples [x] [for each pixel (x = 0 .. nCbSL-1, y = 0 .. nCbSL-1 x, y) constituting the depth block. The sum SumVals of y] is derived as shown in the following equation, and is further derived by the
sumRefVals += refSamples[ x ][ y ]
threshVal = ( sumRefVals >> ( 2 * log2( nTbS ) ) )
segMask[][]は、デプスブロックを構成する各画素(x=0.. nCbSL-1,y=0.. nCbSL-1の各x, y)について、デプス画素refSamples[ x ][ y ]が代表値thresValを超えるか否かによって下記式によりセグメンテーション部30952で導出される。sumRefVals + = refSamples [x] [y]
threshVal = (sumRefVals >> (2 * log2 (nTbS)))
segMask [] [] is the depth pixel refSamples [x] [y] for each pixel (x = 0 .. nCbSL-1, y = 0 .. nCbSL-1 x, y) making up the depth block. Depending on whether or not the representative value thresVal is exceeded, it is derived by the
segMask[ x ][ y ] = ( refSamples[ x ][ y ] > threshVal )
segMask[ x ][ y ]は、対象ブロックと同じサイズを有し、各画素値が0もしくは1を有するブロックである。segMask [x] [y] = (refSamples [x] [y]> threshVal)
segMask [x] [y] is a block having the same size as the target block and each pixel value having 0 or 1.
画像合成部30953は、各参照ピクチャリストL0もしくはL1に対して、セグメンテーション部30952で導出されたsegMaskと、DBBP画像補間部30951で導出された2つの補間画像(predSamplesA、predSampleB)から、補間画像predSamplesLXを導出する。導出された補間画像predSamplesL0と補間画像predSamplesL1は、重み付け予測部3096に出力される。
For each reference picture list L0 or L1, the
図22は、画像合成部30953を説明する図である。画像合成部30953は、セグメンテーション情報segMaskに基づいて、画素単位で2つの補間画像のどちらか一方を選択し、さらにフィルタ処理を行うことにより予測画像predSamplesLX(ここではPredSamplesDbbp)を導出する。
FIG. 22 is a diagram illustrating the
具体的には、2つの補間画像を区別するpartIdxとセグメンテーション情報segMask[x][y]の値に応じて、predSamplesDbbpに補間画像predSamplesを設定する。 Specifically, the interpolated image predSamples is set in predSamplesDbbp according to the values of partIdx and segmentation information segMask [x] [y] that distinguish the two interpolated images.
画像合成部30953は、segMaskの左上画素segMask[0][0]に基づいて2つの補間画像から画素を選択しても良い。この場合、画像合成部30953は、以下のように、segMask[0][0]と異なるpartIdxに対応する補間画像から画素を選択する。画像合成部30953は、partIdxとsegMask[0][0]の値が等しいか否かを示すフラグcurSegmentFlagを以下の式により導出する。
The
curSegmentFlag = ( partIdx ! = segMask[ 0 ][ 0 ] ).
curSegmentFlagが1の場合には、segMask[ x ][ y ]がcurSegmentFlagと等しい画素について、predIdx=curSegmentFlagに対応する補間画像predSamplesを、補間画像predSamplesLXに割り当てる。例えば、partIdxが0でブロックの左上画像のセグメンテーション情報segMask[0][0]が0の場合、各画素のセグメンテーション情報segMask[ x ][ y ]が1( ( partIdx ! = segMask[ 0 ][ 0 ] )= (0!=0) = 1)であれば、そのpartIdx=0の補間画像predSamplesをPredSamplesDbbpに設定する。partIdxが0でブロックの左上画像のセグメンテーション情報segMask[0][0]が1の場合、各画素のセグメンテーション情報segMask[ x ][ y ]が0( ( partIdx ! = segMask[ 0 ][ 0 ] ) = (0!=1) = 0)であれば、そのpartIdx=0の補間画像predSamplesをPredSamplesDbbpに設定する。curSegmentFlag = (partIdx! = segMask [0] [0]).
When curSegmentFlag is 1, an interpolated image predSamples corresponding to predIdx = curSegmentFlag is assigned to the interpolated image predSamplesLX for pixels whose segMask [x] [y] is equal to curSegmentFlag. For example, if partIdx is 0 and the segmentation information segMask [0] [0] of the upper left image of the block is 0, the segmentation information segMask [x] [y] of each pixel is 1 ((partIdx! = SegMask [0] [0 ]) = (0! = 0) = 1), the interpolated image predSamples of partIdx = 0 is set to PredSamplesDbbp. When partIdx is 0 and the segmentation information segMask [0] [0] of the upper left image of the block is 1, the segmentation information segMask [x] [y] of each pixel is 0 ((partIdx! = segMask [0] [0]) If (0! = 1) = 0), the interpolated image predSamples of partIdx = 0 is set to PredSamplesDbbp.
まとめると、画像合成部30953は、以下の式により、各画素のセグメンテーション情報segMask[x][y]に応じて、補間画像predSamplesを予測画像PredSamplesDbbpに割り当てる。
In summary, the
for ( y = 0; y < nCbSL; y++ ) {
for( x = 0; x < nCbSL; x++ ) {
if( segMask[ x ][ y ] = = ( partIdx ! = segMask[ 0 ][ 0 ] ) )
PredSamplesDbbpL[ x ][ y ] = predSamplesL[ x ][ y ]
if( ( x % 2 = = 0 ) && ( y % 2 = = 0 ) ) {
PredSamplesDbbpCb[ x / 2 ][ y / 2 ] = predSamplesCb[ x / 2 ][ y / 2 ]
PredSamplesDbbpCr[ x / 2 ][ y / 2 ] = predSamplesCr[ x / 2 ][ y / 2 ]
}
}
}
画像合成部30953は、さらに各画素について、セグメンテーション情報segMask[x][y]に応じてフィルタをかけても良い。画像合成部30953は、具体的には、対象画素のセグメンテーション情報cFlag(=segMask[x][y])と、左に隣接する画素のセグメンテーション情報lFlag(=segMask[x-1][y])、右に隣接する画素のセグメンテーション情報rFlag(segMask[x+1][y])を参照し、それらが異なる場合(cFlag!=lFlag || cFlag!=rFlag)には、左画素p[x-1][y]、対象画素p[x][y]、右画素p[x+1][y]に対して1:2:1の重みを用いたフィルタをかける。さらに続いて、画像合成部30953は、対象画素のセグメンテーション情報cFlag(=segMask[x][y])と、上に隣接する画素のセグメンテーション情報tFlag(=segMask[x][y-1])、下に隣接する画素のセグメンテーション情報bFlag(segMask[x][y+1])を参照し、それらが異なる場合(cFlag!=tFlag || cFlag!=bFlag)には、上画素p[x][y-1]、対象画素p[x][y]、下画素p[x][y+1]に対して1:2:1の重みを用いたフィルタをかける。この処理の擬似コードは以下の通りである。for (y = 0; y <nCbS L ; y ++) {
for (x = 0; x <nCbS L ; x ++) {
if (segMask [x] [y] = = (partIdx! = segMask [0] [0]))
PredSamplesDbbp L [x] [y] = predSamples L [x] [y]
if ((x% 2 = = 0) && (
PredSamplesDbbp Cb [x / 2] [y / 2] = predSamples Cb [x / 2] [y / 2]
PredSamplesDbbp Cr [x / 2] [y / 2] = predSamples Cr [x / 2] [y / 2]
}
}
}
The
for ( y = 0; y < nCbSX; y++ )
for( x = 0; x < nCbSX; x++ ) {
tFlag = segMask[ n * x ][ Max( 0, n * ( y - 1 ) ) ]
lFlag = segMask[ Max( 0, (n * ( x - 1 ) ) ][ n * y ]
bFlag = segMask[ n * x ][ Min( n * ( y + 1 ), nCbSL - 1 ) ]
rFlag = segMask[ Min( n * ( x + 1 ), nCbSL - 1 ) ][ n*y ]
cFlag = segMask[ n * x ][ n * y ]
filt = p[ x ][ y ]
if( ( lFlag | | cFlag | | rFlag ) && ( !lFlag | | !cFlag | | !rFlag ) )
filt = ( p[ Max( 0, x - 1 ) ][ y ] + ( filt << 1 ) + p[ Min( x + 1, nCbSX - 1 ) ][ y ] ) >> 2
if( ( tFlag | | cFlag | | bFlag ) && ( !tFlag | | !cFlag | | !bFlag ) )
filt = ( p[ x ][ Max( 0, y - 1 ) ] + ( filt << 1 ) + p[ x ][ Min( y + 1, nCbSX - 1 ) ] ) >> 2
predSamples[ x ][ y ] = filt
}
DBBP分割モード導出部30954は、対象ブロックに対応するデプスブロックrefSamplesから分割モードpartModeを導出する。具体的には、デプスブロックrefSamplesから導出したセグメンテーション情報segMaskに基づいて、対象ブロックの各x, y(x=0..nCbS-1, y=0..nCbS-1)について、下記式のように各分割モードPartModeとして、2N×2Nを2つに分割する分割モードであるN×2N(SIZE_Nx2N)、2N×N(SIZE_2NxN)、2N×nU(SIZE_2NxnU)、2N×nD(SIZE_2NxnD)、nL×2N(SIZE_nLx2N)、nR×2N(SIZE_nRx2N)に対応する和partSum[0], partSum[1], partSum[2], partSum[3], partSum[4], partSum[5]を以下の擬似コードに基づいて導出する。for (y = 0; y <nCbS X ; y ++)
for (x = 0; x <nCbS X ; x ++) {
tFlag = segMask [n * x] [Max (0, n * (y-1))]
lFlag = segMask [Max (0, (n * (x-1))] [n * y]
bFlag = segMask [n * x] [Min (n * (y + 1), nCbS L -1)]
rFlag = segMask [Min (n * (x + 1), nCbS L -1)] [n * y]
cFlag = segMask [n * x] [n * y]
filt = p [x] [y]
if ((lFlag | | cFlag | | rFlag) && (! lFlag | |! cFlag | |! rFlag))
filt = (p [Max (0, x-1)] [y] + (filt << 1) + p [Min (x + 1, nCbS X -1)] [y]) >> 2
if ((tFlag | | cFlag | | bFlag) && (! tFlag | |! cFlag | |! bFlag))
filt = (p [x] [Max (0, y-1)] + (filt << 1) + p [x] [Min (y + 1, nCbS X -1)]) >> 2
predSamples [x] [y] = filt
}
The DBBP division
for( y = 0; y < nCbS ; y ++ )
for( x = 0; x < nCbS ; x ++ ) {
segFlag = segMask[ x ][ y ]
partSum[ 0 ][ ( x < ( nCbS >> 1 ) ) ? segFlag : !segFlag ]++
partSum[ 1 ][ ( y < ( nCbS >> 1 ) ) ? segFlag : !segFlag ]++
if( nCbS > 8 ) {
partSum[ 2 ][ ( y < ( nCbS >> 2 ) ) ? segFlag : !segFlag ]++
partSum[ 3 ][ ( y < ( nCbS >> 2 + nCbS >> 1 ) ) ? segFlag : !segFlag ]++
partSum[ 4 ][ ( x < ( nCbS >> 2 ) ) ? segFlag : !segFlag ]++
partSum[ 5 ][ ( x < ( nCbS >> 2 + nCbS >> 1 ) ) ? segFlag : !segFlag ]++
}
}
さらに、DBBP分割モード導出部30954は、p=0..5についてpartSum[p]が最大となるpを導出し、そのpに対応する分割モードを、p=0..5がSIZE_Nx2N、SIZE_2NxN、SIZE_2NxnU、SIZE_2NxnD、SIZE_nLx2N、SIZE_nRx2Nに対応するとして導出する。例えば、p=0でpartSum[p]が最大となる場合(partIdc=0の場合)には分割モードはSIZE_Nx2Nが導出される。for (y = 0; y <nCbS; y ++)
for (x = 0; x <nCbS; x ++) {
segFlag = segMask [x] [y]
partSum [0] [(x <(nCbS >> 1))? segFlag:! segFlag] ++
partSum [1] [(y <(nCbS >> 1))? segFlag:! segFlag] ++
if (nCbS> 8) {
partSum [2] [(y <(nCbS >> 2))? segFlag:! segFlag] ++
partSum [3] [(y <(nCbS >> 2 + nCbS >> 1))? segFlag:! segFlag] ++
partSum [4] [(x <(nCbS >> 2))? segFlag:! segFlag] ++
partSum [5] [(x <(nCbS >> 2 + nCbS >> 1))? segFlag:! segFlag] ++
}
}
Further, the DBBP partitioning
partIdc = 0
maxPartSum = 0
for( p = 0; p < 6; p++ )
for( i = 0; i < 2; i++ ) {
if( partSum[ p ][ i ] > maxPartSum ) {
maxPartSum = partSum[ p ][ i ]
partIdc = p
}
}
以上の構成のDBBP予測部3095によれば、DBBP画像補間部30951において、DBBP予測の合成に用いられる2つの補間画像を双線形予測により補間画像を生成するため、通常の動き変位補償部3091で用いられる8タップもしくは4タップで、DBBPの予測ユニットの補間画像を生成する場合と比較して、処理量および転送量を大幅に削減する効果を奏する。発明者の試算によれば、輝度で8タップ、色差で4タップを用いる動き変位補償部3091で動き補償を行う場合には、8×8ブロックの双予測における動き補償の場合と比較して、DBBPの動き補償は、乗算で最大170%、加算で最大170%、メモリバンド幅で最大119%の演算量および転送量であり、非常に複雑度が大きい。それに対して、DBBP予測ユニットに対して双線形予測を用いることにより、DBBPの最大複雑度は、乗算で最大44%、加算で最大26%、メモリバンド幅70%まで減らすことが可能である。また、発明者の実験によれば、この双線形補間を用いることによる符号化効率の低下は8シーケンス平均で0.00%であり、符号化効率を低下させることなく、処理量の低下が可能である。partIdc = 0
maxPartSum = 0
for (p = 0; p <6; p ++)
for (i = 0; i <2; i ++) {
if (partSum [p] [i]> maxPartSum) {
maxPartSum = partSum [p] [i]
partIdc = p
}
}
According to the
以上の構成のDBBP予測部3095によれば、セグメンテーション部30952において、各画素について0もしくは1をとるようなセグメンテーション情報segMaskを導出し、画像合成部30953は、セグメンテーション情報segMaskに基づいて対象ブロックの各画素において2つの動き補償画像のいずれかを選択することにより合成する。これにより、2つの動き補償画像を例えば重み1/2で重み付けして合成する画素がある場合に比べ、画像合成部30953の処理を低減する効果を奏する。また、各画素(x, y)毎に対応するセグメンテーション情報segMask[x][y]だけではなく、上下左右のセグメンテーション情報segMask[x][y-1]、segMask[x][y+1]、segMask[x-1][y]、segMask[x+1][y]も参照して合成する場合に比べ、画像合成部30953の処理を大幅に低減する効果を奏する。なお、DBBP予測部3095の備えるDBBP分割モード導出部30954は別の処理を用いることもできる。例えば、後述する、DBBP分割モード導出部30954A、DBBP分割モード導出部30954Bを用いても構わない。
According to the
(DBBP予測部3095A)
以下、DBBP予測部3095の別の構成であるDBBP予測部3095Aを説明する。DBBP予測部3095Aは、DBBP画像補間部30951、セグメンテーション部30952、画像合成部30953、DBBP分割モード導出部30954Aから構成される。DBBP予測部3095Aは基本的にはDBBP予測部3095と構成は同じであるが、DBBP分割モード導出部30954の代わりにDBBP分割モード導出部30954Aを備える。DBBP画像補間部30951、セグメンテーション部30952については既に説明済みであるので説明を省略する。(DBBP prediction unit 3095A)
Hereinafter, a DBBP prediction unit 3095A, which is another configuration of the
DBBP分割モード導出部30954Aは、対象ブロックに対応するデプスブロックrefSamplesから分割モードpartModeとして、SIZE_Nx2N、SIZE_2NxNの何れかを導出する。具体的には、デプスブロックrefSamplesから導出したセグメンテーション情報segMaskに基づいて、対象ブロックの各x, y(x=0..nCbS-1, y=0..nCbS-1)について、下記式のように各分割モード、SIZE_Nx2N、SIZE_2NxNに対応する和partSum[0], partSum[1]を以下の擬似コードに基づいて導出する。 The DBBP division mode deriving unit 30954A derives one of SIZE_Nx2N and SIZE_2NxN as the division mode partMode from the depth block refSamples corresponding to the target block. Specifically, based on the segmentation information segMask derived from the depth block refSamples, for each x and y (x = 0..nCbS-1, y = 0..nCbS-1) of the target block, Then, the sums partSum [0] and partSum [1] corresponding to the respective division modes, SIZE_Nx2N, and SIZE_2NxN are derived based on the following pseudo code.
for( y = 0; y < nCbS ; y ++ )
for( x = 0; x < nCbS ; x ++ ) {
segFlag = segMask[ x ][ y ]
partSum[ 0 ][ ( x < ( nCbS >> 1 ) ) ? segFlag : !segFlag ]++
partSum[ 1 ][ ( y < ( nCbS >> 1 ) ) ? segFlag : !segFlag ]++
}
さらに、DBBP分割モード導出部30954は、p=0..1についてpartSum[p]が最大となるpを導出し、そのpに対応する分割モードを、p=0..1がSIZE_Nx2N、SIZE_2NxNに対応するとして導出する。for (y = 0; y <nCbS; y ++)
for (x = 0; x <nCbS; x ++) {
segFlag = segMask [x] [y]
partSum [0] [(x <(nCbS >> 1))? segFlag:! segFlag] ++
partSum [1] [(y <(nCbS >> 1))? segFlag:! segFlag] ++
}
Further, the DBBP partition
partIdc = 0
maxPartSum = 0
for( p = 0; p < 2; p++ )
for( i = 0; i < 2; i++ ) {
if( partSum[ p ][ i ] > maxPartSum ) {
maxPartSum = partSum[ p ][ i ]
partIdc = p
}
}
DBBP予測部3095Aは、DBBP予測部3095と異なり、分割モードとして非対称分割(AMP分割、SIZE_2NxnU、SIZE_2NxnD、SIZE_nLx2N、SIZE_nRx2N)を導出せず、対称分割の2つの分割モードN×2N、2N×Nのみを対象とする。partIdc = 0
maxPartSum = 0
for (p = 0; p <2; p ++)
for (i = 0; i <2; i ++) {
if (partSum [p] [i]> maxPartSum) {
maxPartSum = partSum [p] [i]
partIdc = p
}
}
Unlike the
以上の構成のDBBP予測部3095Aによれば、DBBP分割モード導出部30954Aにおいて、分割モードとしてN×2Nもしくは2N×Nの何れかのみを用いるため、AMP分割を対象とする場合に比べ処理量を削減する効果を奏する。すなわち、合計値として、2つの分割モードに対する合計値partSum[0]、partSum[1]を導出するだけのであるので、6つの分割モードに対する合計値partSum[0]、partSum[1]、partSum[2]、partSum[3]、partSum[4]、partSum[5]を導出する場合に比べて処理量を3分の1に低下させることができる。 According to the DBBP predicting unit 3095A having the above configuration, the DBBP split mode deriving unit 30954A uses only N × 2N or 2N × N as the split mode. There is an effect to reduce. That is, since only the total values partSum [0] and partSum [1] for the two partition modes are derived as the total values, the total values partSum [0], partSum [1], and partSum [2] for the six partition modes are derived. ], PartSum [3], partSum [4], and partSum [5] can be reduced to a third of the processing amount.
(DBBP予測部3095B)
以下、DBBP予測部3095の別の構成であるDBBP予測部3095Bを説明する。DBBP予測部3095Bは基本的にはDBBP予測部3095と構成は同じであるが、DBBP分割モード導出部30954の代わりにDBBP分割モード導出部30954Bを備える。(DBBP prediction unit 3095B)
Hereinafter, a DBBP prediction unit 3095B, which is another configuration of the
DBBP分割モード導出部30954Bは、対象ブロックに対応するrefSamples(以下は、refDepPelsと記す)の図13に示す対象ブロックの4つのコーナー画素のみを参照して、分割モードPartModeを決定する。 The DBBP split mode deriving unit 30954B determines the split mode PartMode with reference to only the four corner pixels of the target block shown in FIG. 13 of refSamples (hereinafter referred to as refDepPels) corresponding to the target block.
具体的には、左上座標(xP0, yP0)、右上座標(xP1, yP0)、左下座標(xP0, xP1)、右下座標(xP1, yP1)に対応する座標xP0, xP0, yP0, yP1を下記式で導出する。 Specifically, the coordinates xP0, xP0, yP0, yP1 corresponding to the upper left coordinates (xP0, yP0), upper right coordinates (xP1, yP0), lower left coordinates (xP0, xP1), and lower right coordinates (xP1, yP1) are as follows: Derived by the formula.
xP0 = Clip3( 0, pic_width_in_luma_samples - 1, xTL )
yP0 = Clip3( 0, pic_height_in_luma_samples - 1, yTL )
xP1 = Clip3( 0, pic_width_in_luma_samples - 1, xTL + nPSW - 1 )
yP1 = Clip3( 0, pic_height_in_luma_samples - 1, yTL + nPSH - 1 )
さらに、左上画素TLrefDepPels[ xP0 ][ yP0 ]と右下画素BRの比較(refDepPels[ xP0 ][ yP0 ] < refDepPels[ xP1 ][ yP1 ])と左下画素BLrefDepPels[ xP0 ][ yP0 ]と右上TR画素の比較( refDepPels[ xP1 ][ yP0 ] < refDepPels[ xP0 ][ yP1] )から、下記の式により、分割フラグhorSplitFlagを導出する。xP0 = Clip3 (0, pic_width_in_luma_samples-1, x TL )
yP0 = Clip3 (0, pic_height_in_luma_samples-1, y TL )
xP1 = Clip3 (0, pic_width_in_luma_samples-1, xTL + nPSW-1)
yP1 = Clip3 (0, pic_height_in_luma_samples-1, y TL + nPSH-1)
Furthermore, the upper left pixel TLrefDepPels [xP0] [yP0] and the lower right pixel BR are compared (refDepPels [xP0] [yP0] <refDepPels [xP1] [yP1]) and the lower left pixel BLrefDepPels [xP0] [yP0] From the comparison (refDepPels [xP1] [yP0] <refDepPels [xP0] [yP1]), a split flag horSplitFlag is derived by the following equation.
horSplitFlag = ( refDepPels[ xP0 ][ yP0 ] < refDepPels[ xP1 ][ yP1 ] )
= = ( refDepPels[ xP1 ][ yP0 ] < refDepPels[ xP0 ][ yP1] ) )
DBBP分割モード導出部30954Bは、分割フラグhorSplitFlagに応じて2N×NもしくはN×2Nを割り当てる。具体的には、horSplitFlagが1の場合に2N×N、horSplitFlagが0の場合にN×2Nを割り当てることにより分割モードPartModeを導出する。horSplitFlag = (refDepPels [xP0] [yP0] <refDepPels [xP1] [yP1])
= = (refDepPels [xP1] [yP0] <refDepPels [xP0] [yP1]))
The DBBP split mode deriving unit 30954B assigns 2N × N or N × 2N according to the split flag horSplitFlag. Specifically, the split mode PartMode is derived by assigning 2N × N when horSplitFlag is 1 and N × 2N when horSplitFlag is 0.
以上の構成のDBBP予測部3095Bによれば、デプスブロックの限定された画素のみ(ここではブロックの内の4画素、ブロックの4隅の画素)のみを参照するため、全ての画素を参照する場合に比べて処理量を大幅に削減する効果を奏する。また、デプス代表ア値の算出や、分割モード毎の合計値partSum[]の導出が不要であるため、処理量をさらに削減できる。 According to the DBBP prediction unit 3095B having the above configuration, only the limited pixels of the depth block (here, the four pixels in the block and the pixels at the four corners of the block) are referred to. Compared to the above, the amount of processing is greatly reduced. Further, since it is not necessary to calculate the depth representative value or to derive the total value partSum [] for each division mode, the processing amount can be further reduced.
以上の構成のDBBP予測部3095Bによれば、デプスの左上画素と右下画素の比較と、デプスの右上画素と左下画素の比較という単純な処理により分割モードを導出するため、全ての画素について比較を行う場合に比べて処理量を大幅に削減する効果を奏する。 According to the DBBP prediction unit 3095B having the above configuration, the division mode is derived by a simple process of comparing the upper left pixel and the lower right pixel of the depth and comparing the upper right pixel and the lower left pixel of the depth. As compared with the case where the process is performed, the processing amount is greatly reduced.
また、以上の構成のDBBP予測部3095Bによれば、DBBP予測部3095Aと同様、分割モードとしてN×2Nもしくは2N×Nの何れかのみを用いるため、AMP分割を対象とする場合に比べ処理量を削減する効果を奏する。 Further, according to the DBBP prediction unit 3095B having the above configuration, as in the DBBP prediction unit 3095A, only N × 2N or 2N × N is used as the division mode. It has the effect of reducing
(DBBP予測部3095C)
以下、DBBP予測部3095の別の構成であるDBBP予測部3095Cを説明する。DBBP予測部3095Cは基本的にはDBBP予測部3095Bと構成は同じであるが、DBBP分割モード導出部30954Bの代わりにDBBP分割モード導出部30954Cを備える。(DBBP prediction unit 3095C)
Hereinafter, a DBBP prediction unit 3095C, which is another configuration of the
図21は、本発明の実施形態のDBBP予測部3095Cの構成を示すブロック図である。DBBP予測部3095Cは、DBBP画像補間部30951、セグメンテーション部30952、画像合成部30953、DBBP分割モード導出部30954Cから構成される。
FIG. 21 is a block diagram illustrating a configuration of the DBBP prediction unit 3095C according to the embodiment of this invention. The DBBP prediction unit 3095C includes a DBBP
DBBP分割モード導出部30954Cは、分割フラグ導出部353を用いて、0もしくは1の値をとる分割フラグhorSplitFlagを導出する。DBBP分割モード導出部30954Cは、horSplitFlagに基づいて分割モードを導出する。例えば、DBBP分割モード導出部30954Cは、horSplitFlagが1の場合に2N×N、horSplitFlagが0の場合にN×2Nを割り当てることにより分割モードを導出する。
The DBBP split
DBBP予測部3095CとVSP予測部30374を備える画像復号装置は、DBBP予測部3095Cとして、デプス画像からセグメンテーション情報を導出するセグメンテーション導出部30952と、2つの動き補償画像を生成するDBBP画像補間部30951と、上記2つの補間画像を合成して1つの動き補償画像を生成する画像合成部30953と、分割モードを導出するDBBP分割モード導出部30954Cを備える。VSP予測部30374は、デプスに応じてパーティション分割を行うパーティション分割部と、デプス画像から動きベクトルを導出するデプス動きDV導出部351を備える。また、分割モード導出部30954Cと、VSP予測部30374のパーティション分割部は、共通の分割モード導出部353を備える。
An image decoding apparatus including a DBBP prediction unit 3095C and a
以上の構成のDBBP予測部3095Cによれば、デプスブロックの限定された画素のみ(ここでは4隅の画素)のみを参照するため、全ての画素を参照する場合に比べて処理量を大幅に削減する効果を奏する。 According to the DBBP prediction unit 3095C having the above configuration, only the limited pixels of the depth block (here, the pixels at the four corners) are referred to, so that the processing amount is significantly reduced as compared with the case of referring to all the pixels. The effect to do.
以上の構成のDBBP予測部3095Cの備える画像復号装置によれば、DBBP予測部3095CとVSP予測部30374で共通の分割フラグ導出部353を用いるため、DBBP予測部とVSP予測部で異なる方法を用いて分割方法を導出する場合に比べて、実装を簡略化できる効果を奏する。
According to the image decoding apparatus included in the DBBP prediction unit 3095C having the above-described configuration, the DBBP prediction unit 3095C and the
以上の構成のDBBP予測部3095Cによれば、デプスブロックの左上画素と右下画素の比較と、デプスブロックの右上画素と左下画素の比較という単純な処理により分割モードPartModeを導出するため、全ての画素について比較を行う場合に比べて処理量を大幅に削減する効果を奏する。 According to the DBBP prediction unit 3095C having the above-described configuration, since the division mode PartMode is derived by a simple process of comparing the upper left pixel and the lower right pixel of the depth block and comparing the upper right pixel and the lower left pixel of the depth block, There is an effect that the amount of processing is significantly reduced as compared with the case of performing comparison with respect to pixels.
また、以上の構成のDBBP予測部3095Cによれば、DBBP予測部3095Aと同様、分割モードとしてN×2Nもしくは2N×Nの何れかのみを用いるため、AMP分割を出力対象とする場合に比べ処理量を削減する効果を奏する。 Further, according to the DBBP prediction unit 3095C having the above configuration, as in the case of the DBBP prediction unit 3095A, only N × 2N or 2N × N is used as the division mode. There is an effect of reducing the amount.
なお、DBBP予測部3095C及びVSP予測部30374は、共通の分割フラグ導出部として分割フラグ導出部353の代わりに、分割フラグ導出部353Aを用いても構わない。この場合も、DBBP予測部3095Cの備える画像復号装置によれば、DBBP予測部3095CとVSP予測部30374で共通の分割フラグ導出部353Aを用いるため、DBBP予測部とVSP予測部で異なる方法を用いて分割方法を導出する場合に比べて、実装を簡略化できる効果を奏する。
Note that the DBBP prediction unit 3095C and the
(DBBPの双予測制限)
本実施形態の変形例の画像復号装置では、DBBPの場合に双予測を適用しないように構成する。変形例の画像復号装置では、インター予測パラメータ復号制御部3031の代わりにインター予測パラメータ復号制御部3031A、マージモードパラメータ導出部3036の代わりにマージモードパラメータ導出部3036Aを備える。インター予測パラメータ復号制御部3031Aとマージモードパラメータ導出部3036Aを除く動作は、既に説明したとおりであるので説明を省略する。(DBBP bi-prediction restriction)
The image decoding apparatus according to the modification of the present embodiment is configured not to apply bi-prediction in the case of DBBP. The image decoding apparatus according to the modified example includes an inter prediction parameter
図23は、本実施形態に係るインター予測パラメータ復号制御復号部3031Aの構成を示す概略図である。インター予測パラメータ復号制御復号部3031Aは、インター予測パラメータ復号制御復号部3031と同様の構成であるが、インター予測識別子復号部30312の代わりにインター予測識別子復号部30312Aを備える。
FIG. 23 is a schematic diagram showing the configuration of the inter prediction parameter decoding
図24は、インター予測パラメータ復号制御部3031Aにおいて、inter_pred_flagの導出を説明する図である。inter_pred_flagは、スライスタイプがB(双予測が使用可能)の場合に復号される。図24(a)は、inter_pred_flagが取り得る値を示す図であり、図24(b)は、inter_pred_flagのCABAC復号後のビット列(バイナリゼーション)を示す。図に示すように、本実施形態のインター予測パラメータ復号制御部3031A(インター予測識別子復号部30312A)は、DBBPフラグが1の場合には、inter_pred_flag=2(PRED_BI)を復号しない。すなわち、本実施形態のインター予測パラメータ復号制御部3031A(インター予測識別子復号部30312A)は、予測ユニットが所定のサイズではなく(( nPbW + nPbH ) != 12)、かつ、DBBPフラグが0の場合(dbbp_flag == 0)に、inter_pred_flagとして0(PRED_L0)、1(PRED_L1)、2(PRED_BI)を復号し、それ以外、予測ユニットが所定のサイズ(( nPbW + nPbH ) != 12)、もしくは、DBBPフラグが1の場合(dbbp_flag == 1)、inter_pred_flagとして0(PRED_L0)、1(PRED_L1)を復号する。なお、予測ユニットが所定のサイズ(予測ユニットの幅と高さの和が12)の条件は、上述の双予測制限条件1に相当し、DBBPフラグが1の条件は、以下の双予測制限条件2に相当する。
FIG. 24 is a diagram illustrating derivation of inter_pred_flag in the inter prediction parameter
双予測制限条件2:DBBPフラグdbbp_flagが1である。 Bi-prediction restriction condition 2: DBBP flag dbbp_flag is 1.
また、図24(b)に示すように、inter_pred_flagは、予測ユニットが所定のサイズではなく(( nPbW + nPbH ) != 12)、かつ、DBBPフラグが0の場合(dbbp_flag == 0)に、inter_pred_flagのビット列は00、01、1であり、各々、0(PRED_L0)、1(PRED_L1)、2(PRED _BI)が対応する。インター予測パラメータ復号制御部3031A(インター予測識別子復号部30312A)は、上記場合に00、01、1のビット列を復号し、inter_pred_flagに0(PRED_L0)、1(PRED _L1)、2(PRED _BI)を割り当てることで復号する。それ以外、予測ユニットが所定のサイズ(( nPbW + nPbH ) != 12)、もしくは、DBBPフラグが1の場合(dbbp_flag == 1)、inter_pred_flagのビット列は0、1であり、各々、0(PRED_L0)、1(PRED_L1)が対応する。インター予測パラメータ復号制御部3031Aは、上記場合に0、1のビット列を復号し、inter_pred_flagに0(PRED_L0)、1(PRED_L1)を割り当てることで復号する。
Also, as shown in FIG. 24 (b), inter_pred_flag is calculated when the prediction unit is not a predetermined size ((nPbW + nPbH)! = 12) and the DBBP flag is 0 (dbbp_flag == 0). The bit string of inter_pred_flag is 00, 01, 1 and 0 (PRED_L0), 1 (PRED_L1), and 2 (PRED_BI) correspond to each. In the above case, the inter prediction parameter
図25は、マージモードパラメータ導出部3036Aの構成を示すブロック図である。マージモードパラメータ導出部3036は、マージ候補導出部30361とマージ候補選択部30362、双予測制限部30363Aを備える。なお、マージモードパラメータ導出部3036Aの一部動作と、双予測制限部30363Aを除く手段は既に説明した通りであるので説明を省略する。
FIG. 25 is a block diagram illustrating a configuration of the merge mode
マージモードパラメータ導出部3036Aは、双予測制限部30363に、マージ候補選択部30362で導出された予測パラメータと、予測ユニットの幅nOrigPbWと高さnOrigPbHに加え、DBBPフラグdbbp_flagを双予測制限部30363Aに出力する。
The merge mode
双予測制限部30363Aは、上述の双予測制限条件1もしくは双予測制限条件2の場合に、L1の参照ピクチャインデックスrefIdxL1とL1の予測利用フラグpredFlagL1に、refIdxL1=-1、predFlagL1=0を設定することにより、双予測(predFlagL0=1かつpredFlagL1=1)を単予測に変換する。
The bi-prediction restriction unit 30363A sets refIdxL1 = -1 and predFlagL1 = 0 to the reference picture index refIdxL1 of L1 and the prediction use flag predFlagL1 of L1 in the case of the above-described
以上の構成の双予測制限部30363Aによれば、DBBP予測部3095で導出される補間画像は、単予測(L0もしくはL1の参照ピクチャの場合)の場合に限定されるため、双予測において各々DBBP予測を用いて補間画像を生成する場合に比べて、処理量および転送量を大幅に削減する効果を奏する。
According to the bi-prediction restriction unit 30363A having the above-described configuration, the interpolation image derived by the
また、以上の構成のインター予測パラメータ復号制御部3031Aおよびマージモードパラメータ導出部3036Aをともにそなえる場合には、dbbp_flagが1の場合に行われるDBBP予測において、双予測が適用される場合を完全に禁止することができる。
Further, when both the inter prediction parameter
(画像符号化装置の構成)
次に、本実施形態に係る画像符号化装置11の構成について説明する。図26は、本実施形態に係る画像符号化装置11の構成を示すブロック図である。画像符号化装置11は、予測画像生成部101、減算部102、DCT・量子化部103、エントロピー符号化部104、逆量子化・逆DCT部105、加算部106、予測パラメータメモリ(予測パラメータ記憶部、フレームメモリ)108、参照ピクチャメモリ(参照画像記憶部、フレームメモリ)109、符号化パラメータ決定部110、予測パラメータ符号化部111、を含んで構成される。予測パラメータ符号化部111は、インター予測パラメータ符号化部112及びイントラ予測パラメータ符号化部113を含んで構成される。(Configuration of image encoding device)
Next, the configuration of the
予測画像生成部101は、外部から入力されたレイヤ画像Tの視点毎の各ピクチャについて、そのピクチャを分割した領域であるブロック毎に予測ピクチャブロックpredSamplesを生成する。ここで、予測画像生成部101は、予測パラメータ符号化部111から入力された予測パラメータに基づいて参照ピクチャメモリ109から参照ピクチャブロックを読み出す。予測パラメータ符号化部111から入力された予測パラメータとは、例えば、動きベクトル又は変位ベクトルである。予測画像生成部101は、符号化予測ユニットを起点として予測された動きベクトル又は変位ベクトルが示す位置にあるブロックの参照ピクチャブロックを読み出す。予測画像生成部101は、読み出した参照ピクチャブロックについて複数の予測方式のうちの1つの予測方式を用いて予測ピクチャブロックpredSamplesを生成する。予測画像生成部101は、生成した予測ピクチャブロックpredSamplesを減算部102と加算部106に出力する。なお、予測画像生成部101は、既に説明した予測画像生成部308と同じ動作であるため予測ピクチャブロックpredSamplesの生成の詳細は省略する。
The predicted image generation unit 101 generates predicted picture blocks predSamples for each block which is an area obtained by dividing the picture for each viewpoint of the layer image T input from the outside. Here, the predicted image generation unit 101 reads the reference picture block from the
予測画像生成部101は、予測方式を選択するために、例えば、レイヤ画像に含まれるブロックの画素毎の信号値と予測ピクチャブロックpredSamplesの対応する画素毎の信号値との差分に基づく誤差値を最小にする予測方式を選択する。なお、予測方式を選択する方法は、これには限られない。 In order to select a prediction method, the predicted image generation unit 101, for example, calculates an error value based on a difference between a signal value for each pixel of a block included in the layer image and a signal value for each corresponding pixel of the predicted picture block predSamples. Select the prediction method to minimize. Note that the method of selecting the prediction method is not limited to this.
符号化対象のピクチャがベースビューのピクチャである場合には、複数の予測方式とは、イントラ予測、動き予測及びマージモードである。動き予測とは、上述のインター予測のうち、表示時刻間の予測である。マージモードとは、既に符号化されたブロックであって、予測ユニットから予め定めた範囲内にあるブロックと同一の参照ピクチャブロック及び予測パラメータを用いる予測である。符号化対象のピクチャがベースビュー以外のピクチャである場合には、複数の予測方式とは、イントラ予測、動き予測、マージモード(視点合成予測を含む)、及び変位予測である。変位予測(視差予測)とは、上述のインター予測のうち、別レイヤ画像(別視点画像)間の予測である。変位予測(視差予測)に対して、追加予測(残差予測および照度補償)を行う場合と行わない場合の予測がある。 When the encoding target picture is a base view picture, the plurality of prediction methods are intra prediction, motion prediction, and merge mode. Motion prediction is prediction between display times among the above-mentioned inter predictions. The merge mode is a prediction that uses the same reference picture block and prediction parameter as a block that has already been encoded and is within a predetermined range from the prediction unit. When the encoding target picture is a picture other than the base view, the plurality of prediction methods are intra prediction, motion prediction, merge mode (including viewpoint synthesis prediction), and displacement prediction. The displacement prediction (disparity prediction) is prediction between different layer images (different viewpoint images) in the above-described inter prediction. For displacement prediction (disparity prediction), there are predictions with and without additional prediction (residual prediction and illuminance compensation).
予測画像生成部101は、イントラ予測を選択した場合、予測ピクチャブロックpredSamplesを生成する際に用いたイントラ予測モードを示す予測モードPredModeを予測パラメータ符号化部111に出力する。
When the intra prediction is selected, the predicted image generation unit 101 outputs a prediction mode PredMode indicating the intra prediction mode used when generating the predicted picture block predSamples to the prediction
予測画像生成部101は、動き予測を選択した場合、予測ピクチャブロックpredSamplesを生成する際に用いた動きベクトルmvLXを予測パラメータメモリ108に記憶し、インター予測パラメータ符号化部112に出力する。動きベクトルmvLXは、符号化予測ユニットの位置から予測ピクチャブロックpredSamplesを生成する際の参照ピクチャブロックの位置までのベクトルを示す。動きベクトルmvLXを示す情報には、参照ピクチャを示す情報(例えば、参照ピクチャインデックスrefIdxLX、ピクチャ順序番号POC)を含み、予測パラメータを表すものであっても良い。また、予測画像生成部101は、インター予測モードを示す予測モードPredModeを予測パラメータ符号化部111に出力する。
When motion prediction is selected, the predicted image generation unit 101 stores the motion vector mvLX used when generating the predicted picture block predSamples in the
予測画像生成部101は、変位予測を選択した場合、予測ピクチャブロックpredSamplesを生成する際に用いた変位ベクトルを予測パラメータメモリ108に記憶し、インター予測パラメータ符号化部112に出力する。変位ベクトルdvLXは、符号化予測ユニットの位置から予測ピクチャブロックpredSamplesを生成する際の参照ピクチャブロックの位置までのベクトルを示す。変位ベクトルdvLXを示す情報には、参照ピクチャを示す情報(例えば、参照ピクチャインデックスrefIdxLX、ビューIDview_id)を含み、予測パラメータを表すものであっても良い。また、予測画像生成部101は、インター予測モードを示す予測モードPredModeを予測パラメータ符号化部111に出力する。
When the prediction image generation unit 101 selects displacement prediction, the prediction image generation unit 101 stores the displacement vector used when generating the prediction picture block predSamples in the
予測画像生成部101は、マージモードを選択した場合、選択した参照ピクチャブロックを示すマージインデックスmerge_idxをインター予測パラメータ符号化部112に出力する。また、予測画像生成部101は、マージモードを示す予測モードPredModeを予測パラメータ符号化部111に出力する。
When the merge mode is selected, the predicted image generation unit 101 outputs a merge index merge_idx indicating the selected reference picture block to the inter prediction parameter encoding unit 112. Further, the predicted image generation unit 101 outputs a prediction mode PredMode indicating the merge mode to the prediction
上記の、マージモードにおいて、予測画像生成部101は、VSPモードフラグVspModeFlagが視点合成予測を行うことを示す場合には、既に説明したように予測画像生成部101に含まれるVSP予測部30374において視点合成予測を行う。また、動き予測、変位予測、マージモードにおいて、予測画像生成部101は、残差予測実施フラグresPredFlagが残差予測を行うことを示す場合には、既に説明したように予測画像生成部101に含まれる残差予測部3092において残差予測を行う。
In the merge mode described above, when the VSP mode flag VspModeFlag indicates that the viewpoint synthesis prediction is performed, the prediction image generation unit 101 performs the viewpoint in the
減算部102は、予測画像生成部101から入力された予測ピクチャブロックpredSamplesの信号値を、外部から入力されたレイヤ画像Tの対応するブロックの信号値から画素毎に減算して、残差信号を生成する。減算部102は、生成した残差信号をDCT・量子化部103と符号化パラメータ決定部110に出力する。
The
DCT・量子化部103は、減算部102から入力された残差信号についてDCTを行い、DCT係数を算出する。DCT・量子化部103は、算出したDCT係数を量子化して量子化係数を求める。DCT・量子化部103は、求めた量子化係数をエントロピー符号化部104及び逆量子化・逆DCT部105に出力する。
The DCT /
エントロピー符号化部104には、DCT・量子化部103から量子化係数が入力され、符号化パラメータ決定部110から符号化パラメータが入力される。入力される符号化パラメータには、例えば、参照ピクチャインデックスrefIdxLX、予測ベクトルフラグmvp_LX_flag、差分ベクトルmvdLX、予測モードPredMode、マージインデックスmerge_idx、残差予測インデックスiv_res_pred_weight_idx、及び照度補償フラグic_flag等の符号がある。
The entropy coding unit 104 receives the quantization coefficient from the DCT /
エントロピー符号化部104は、入力された量子化係数と符号化パラメータをエントロピー符号化して符号化ストリームTeを生成し、生成した符号化ストリームTeを外部に出力する。 The entropy encoding unit 104 generates an encoded stream Te by entropy encoding the input quantization coefficient and encoding parameter, and outputs the generated encoded stream Te to the outside.
逆量子化・逆DCT部105は、DCT・量子化部103から入力された量子化係数を逆量子化してDCT係数を求める。逆量子化・逆DCT部105は、求めたDCT係数について逆DCTを行い、復号残差信号を算出する。逆量子化・逆DCT部105は、算出した復号残差信号を加算部106、及び符号化パラメータ決定部110に出力する。
The inverse quantization / inverse DCT unit 105 inversely quantizes the quantization coefficient input from the DCT /
加算部106は、予測画像生成部101から入力された予測ピクチャブロックpredSamplesの信号値と逆量子化・逆DCT部105から入力された復号残差信号の信号値を画素毎に加算して、参照ピクチャブロックを生成する。加算部106は、生成した参照ピクチャブロックを参照ピクチャメモリ109に記憶する。
The
予測パラメータメモリ108は、予測パラメータ符号化部111が生成した予測パラメータを、符号化対象のピクチャ及びブロック毎に予め定めた位置に記憶する。
The
参照ピクチャメモリ109は、加算部106が生成した参照ピクチャブロックを、符号化対象のピクチャ及びブロック毎に予め定めた位置に記憶する。
The
符号化パラメータ決定部110は、符号化パラメータの複数のセットのうち、1つのセットを選択する。符号化パラメータとは、上述した予測パラメータやこの予測パラメータに関連して生成される符号化の対象となるパラメータである。予測画像生成部101は、これらの符号化パラメータのセットの各々を用いて予測ピクチャブロックpredSamplesを生成する。
The encoding
符号化パラメータ決定部110は、複数のセットの各々について情報量の大きさと符号化誤差を示すコスト値を算出する。コスト値は、例えば、符号量と二乗誤差に係数λを乗じた値との和である。符号量は、量子化誤差と符号化パラメータをエントロピー符号化して得られる符号化ストリームTeの情報量である。二乗誤差は、減算部102において算出された残差信号の残差値の二乗値についての画素間の総和である。係数λは、予め設定されたゼロよりも大きい実数である。符号化パラメータ決定部110は、算出したコスト値が最小となる符号化パラメータのセットを選択する。これにより、エントロピー符号化部104は、選択した符号化パラメータのセットを符号化ストリームTeとして外部に出力し、選択されなかった符号化パラメータのセットを出力しない。
The encoding
予測パラメータ符号化部111は、予測画像生成部101から入力されたパラメータに基づいて予測ピクチャを生成する際に用いる予測パラメータを導出し、導出した予測パラメータを符号化して符号化パラメータのセットを生成する。予測パラメータ符号化部111は、生成した符号化パラメータのセットをエントロピー符号化部104に出力する。
The prediction
予測パラメータ符号化部111は、生成した符号化パラメータのセットのうち符号化パラメータ決定部110が選択したものに対応する予測パラメータを予測パラメータメモリ108に記憶する。
The prediction
予測パラメータ符号化部111は、予測画像生成部101から入力された予測モードPredModeがインター予測モードを示す場合、インター予測パラメータ符号化部112を動作させる。予測パラメータ符号化部111は、予測モードPredModeがイントラ予測モードを示す場合、イントラ予測パラメータ符号化部113を動作させる。
The prediction
インター予測パラメータ符号化部112は、符号化パラメータ決定部110から入力された予測パラメータに基づいてインター予測パラメータを導出する。インター予測パラメータ符号化部112は、インター予測パラメータを導出する構成として、インター予測パラメータ復号部303がインター予測パラメータを導出する構成と同一の構成を含む。インター予測パラメータ符号化部112の構成については、後述する。
The inter prediction parameter encoding unit 112 derives an inter prediction parameter based on the prediction parameter input from the encoding
イントラ予測パラメータ符号化部113は、符号化パラメータ決定部110から入力された予測モードPredModeが示すイントラ予測モードIntraPredModeをインター予測パラメータのセットとして定める。
The intra prediction parameter encoding unit 113 determines the intra prediction mode IntraPredMode indicated by the prediction mode PredMode input from the encoding
(インター予測パラメータ符号化部の構成)
次に、インター予測パラメータ符号化部112の構成について説明する。インター予測パラメータ符号化部112は、インター予測パラメータ復号部303に対応する手段である。図27は、本実施形態に係るインター予測パラメータ符号化部112の構成を示す概略図である。インター予測パラメータ符号化部112は、マージモードパラメータ導出部1121、AMVP予測パラメータ導出部1122、減算部1123、及びインター予測パラメータ符号化制御部1126を含んで構成される。(Configuration of inter prediction parameter encoding unit)
Next, the configuration of the inter prediction parameter encoding unit 112 will be described. The inter prediction parameter encoding unit 112 is means corresponding to the inter prediction parameter decoding unit 303. FIG. 27 is a schematic diagram illustrating the configuration of the inter prediction parameter encoding unit 112 according to the present embodiment. The inter prediction parameter encoding unit 112 includes a merge mode parameter deriving unit 1121, an AMVP prediction parameter deriving unit 1122, a subtracting unit 1123, and an inter prediction parameter encoding control unit 1126.
マージモードパラメータ導出部1121は、上述のマージモードパラメータ導出部3036(図9参照)と同様な構成を有する。 The merge mode parameter deriving unit 1121 has the same configuration as the merge mode parameter deriving unit 3036 (see FIG. 9).
AMVP予測パラメータ導出部1122は、上述のAMVP予測パラメータ導出部3032(図10参照)と同様な構成を有する。 The AMVP prediction parameter derivation unit 1122 has the same configuration as the AMVP prediction parameter derivation unit 3032 (see FIG. 10).
減算部1123は、符号化パラメータ決定部110から入力されたベクトルmvLXからAMVP予測パラメータ導出部1122から入力された予測ベクトルmvpLXを減算して差分ベクトルmvdLXを生成する。差分ベクトルmvdLXはインター予測パラメータ符号化制御部1126に出力する。
The subtraction unit 1123 subtracts the prediction vector mvpLX input from the AMVP prediction parameter derivation unit 1122 from the vector mvLX input from the coding
インター予測パラメータ符号化制御部1126は、インター予測に関連する符号(シンタックス要素の復号をエントロピー符号化部104に指示し、符号化データに含まれる符号(シンタックス要素)を例えば、分割モードpart_mode、マージフラグmerge_flag、マージインデックスmerge_idx、インター予測識別子inter_pred_idc、参照ピクチャインデックスrefIdxLX、予測ベクトルフラグmvp_LX_flag、差分ベクトルmvdLXを符号化する。 The inter prediction parameter coding control unit 1126 instructs the entropy coding unit 104 to decode a code related to inter prediction (the syntax element) includes, for example, a code (syntax element) included in the coded data. , Merge flag merge_flag, merge index merge_idx, inter prediction identifier inter_pred_idc, reference picture index refIdxLX, prediction vector flag mvp_LX_flag, and difference vector mvdLX are encoded.
インター予測パラメータ符号化制御部1126は、残差予測インデックス符号化部10311、照度補償フラグ符号化部10312、マージインデックス符号化部、ベクトル候補インデックス符号化部、分割モード符号化部、マージフラグ符号化部、インター予測識別子符号化部、参照ピクチャインデックス符号化部、ベクトル差分符号化部を含んで構成される。分割モード符号化部、マージフラグ符号化部、マージインデックス符号化部、インター予測識別子符号化部、参照ピクチャインデックス符号化部、ベクトル候補インデックス符号化部、ベクトル差分符号化部は各々、分割モードpart_mode、マージフラグmerge_flag、マージインデックスmerge_idx、インター予測識別子inter_pred_idc、参照ピクチャインデックスrefIdxLX、予測ベクトルフラグmvp_LX_flag、差分ベクトルmvdLXを符号化する。 The inter prediction parameter encoding control unit 1126 includes a residual prediction index encoding unit 10311, an illumination compensation flag encoding unit 10312, a merge index encoding unit, a vector candidate index encoding unit, a split mode encoding unit, and a merge flag encoding. , An inter prediction identifier encoding unit, a reference picture index encoding unit, and a vector difference encoding unit. The division mode encoding unit, the merge flag encoding unit, the merge index encoding unit, the inter prediction identifier encoding unit, the reference picture index encoding unit, the vector candidate index encoding unit, and the vector difference encoding unit are respectively divided mode part_mode , Merge flag merge_flag, merge index merge_idx, inter prediction identifier inter_pred_idc, reference picture index refIdxLX, prediction vector flag mvp_LX_flag, and difference vector mvdLX are encoded.
残差予測インデックス符号化部10311は、残差予測が行われるか否かを示すために、残差予測インデックスiv_res_pred_weight_idxを符号化する。 The residual prediction index encoding unit 10311 encodes the residual prediction index iv_res_pred_weight_idx to indicate whether or not residual prediction is performed.
照度補償フラグ符号化部10312は、照度補償が行われるか否かを示すために、照度補償フラグic_flagを符号化する。 The illuminance compensation flag encoding unit 10312 encodes the illuminance compensation flag ic_flag to indicate whether or not illuminance compensation is performed.
インター予測パラメータ符号化制御部1126は、予測画像生成部101から入力された予測モードPredModeがマージモードを示す場合には、符号化パラメータ決定部110から入力されたマージインデックスmerge_idxをエントロピー符号化部104に出力し、符号化させる。
When the prediction mode PredMode input from the prediction image generation unit 101 indicates the merge mode, the inter prediction parameter encoding control unit 1126 uses the merge index merge_idx input from the encoding
また、インター予測パラメータ符号化制御部1126は、予測画像生成部101から入力された予測モードPredModeがインター予測モードを示す場合には、次の処理を行う。 Also, the inter prediction parameter encoding control unit 1126 performs the following process when the prediction mode PredMode input from the prediction image generation unit 101 indicates the inter prediction mode.
インター予測パラメータ符号化制御部1126は、符号化パラメータ決定部110から入力された参照ピクチャインデックスrefIdxLX及び予測ベクトルフラグmvp_LX_flag、減算部1123から入力された差分ベクトルmvdLXを統合する。インター予測パラメータ符号化制御部1126は、統合した符号をエントロピー符号化部104に出力し、符号化させる。インター予測パラメータ符号化制御部1126は図示しないDBBPフラグ符号化部dbbp_flagを備える。
The inter prediction parameter encoding control unit 1126 integrates the reference picture index refIdxLX and the prediction vector flag mvp_LX_flag input from the encoding
予測画像生成部101は、上述の予測画像生成部308に対応する手段であり、予測パラメータから、予測画像を生成する処理は同一である。
The predicted image generation unit 101 is means corresponding to the predicted
本実施形態では、予測画像生成部101も、予測画像生成部308と同様、本実施形態も上述の残差合成部30923を備える。すなわち、対象ブロック(予測ブロック)のサイズが所定のサイズ以下の場合には、残差予測を行わない。また、本実施形態の予測画像生成部101は、符号化ユニットCUの分割モードpart_modeが2N×2Nの場合にのみ、残差予測を行う。すなわち、残差予測インデックスiv_res_pred_weight_idxを0として処理する。また、本実施形態の残差予測インデックス符号化部10311では、符号化ユニットCUの分割モードpart_modeが2N×2Nの場合にのみ、残差予測インデックスiv_res_pred_weight_idxを符号化する。
In the present embodiment, the predicted image generation unit 101 also includes the above-described
残差予測部3092を備える画像符号化装置は、残差予測インデックスを符号化する残差予測インデックス符号化部を備える画像符号化装置において、対象対象ブロックを含む符号化ユニットの分割モードが2N×2Nの場合に、残差予測インデックスを符号化し、それ以外の場合には、残差予測インデックスを符号化せず、残差予測インデックスが0以外の場合に、残差予測を行う。
The image encoding device including the
(DBBP予測)
また、本実施形態の画像符号化装置11の備える予測画像生成部101は、DBBP予測部3095を備える。DBBP予測部3095の動作の詳細は既に説明済みであるので省略する。DBBP予測部3095は上述のDBBPフラグ符号化部dbbp_flagとして1を符号化する場合に、デプスベースブロック予測を行う。(DBBP prediction)
Further, the predicted image generation unit 101 included in the
以上の構成のDBBP予測部3095を備える画像符号化装置によれば、DBBP画像補間部30951において、2つの補間画像を双線形予測により補間画像を生成するため、処理量および転送量を大幅に削減する効果を奏する。
According to the image coding apparatus including the
以上の構成のDBBP予測部3095を備える画像符号化装置によれば、セグメンテーション部30952において、各画素について0もしくは1をとるようなセグメンテーション情報segMaskを導出し、画像合成部30953は、セグメンテーション情報segMaskに基づいて対象ブロックの各画素において2つの動き補償画像のいずれかを選択することにより合成する。これにより、2つの動き補償画像を例えば重み1/2で重み付けして合成する画素がある場合に比べ、画像合成部30953の処理を低減する効果を奏する。
According to the image coding apparatus including the
また、以上の構成のDBBP予測部3095を備える画像符号化装置によれば、各画素(x, y)毎に対応するセグメンテーション情報segMask[x][y]だけではなく、上下左右のセグメンテーション情報segMask[x][y-1]、segMask[x][y+1]、segMask[x-1][y]、segMask[x+1][y]も参照して合成する場合に比べ、画像合成部30953の処理を大幅に低減する効果を奏する。
In addition, according to the image coding apparatus including the
(DBBPの変形例)
また、画像符号化装置11の備える予測画像生成部101は、DBBP予測部3095の代わりに、DBBP予測部3095A、DBBP予測部3095B、DBBP予測部3095Cの何れかを備えても良い。(Modification of DBBP)
The predicted image generation unit 101 included in the
以上の構成のDBBP予測部3095A〜DBBP予測部3095Cを備える画像符号化装置によれば、デプスブロックの限定された画素のみ(ここでは4隅の画素)のみを参照するため、全ての画素を参照する場合に比べて処理量を大幅に削減する効果を奏する。 According to the image coding apparatus including the DBBP prediction units 3095A to 3095C having the above-described configuration, only the limited pixels of the depth block (here, the four corner pixels) are referred to, and thus all the pixels are referred to. Compared with the case where it does, there exists an effect which reduces a processing amount significantly.
以上の構成のDBBP予測部3095A〜DBBP予測部3095Cを備える画像符号化装置によれば、デプスの左上画素と右下画素の比較と、デプスの右上画素と左下画素の比較という単純な処理により分割モードを導出するため、全ての画素について比較を行う場合に比べて処理量を大幅に削減する効果を奏する。 According to the image coding apparatus including the DBBP prediction units 3095A to 3095C having the above configuration, the division is performed by a simple process of comparing the upper left pixel and the lower right pixel of the depth and comparing the upper right pixel and the lower left pixel of the depth. Since the mode is derived, the processing amount is greatly reduced as compared with the case where all the pixels are compared.
また、以上の構成のDBBP予測部3095B、DBBP予測部3095Cを備える画像符号化装置によれば、DBBP予測部3095Aと同様、分割モードとしてN×2Nもしくは2N×Nの何れかのみを用いるため、AMP分割を対象とする場合に比べ処理量を削減する効果を奏する。 In addition, according to the image encoding device including the DBBP prediction unit 3095B and the DBBP prediction unit 3095C having the above configuration, as in the DBBP prediction unit 3095A, only N × 2N or 2N × N is used as the division mode. There is an effect of reducing the processing amount as compared with the case where AMP division is targeted.
以上の構成のDBBP予測部3095Cの備える画像符号化装置によれば、DBBP予測部3095CとVSP予測部30374で共通の分割モード導出部3096を用いるため、DBBP予測部とVSP予測部で異なる方法を用いて分割方法を導出する場合に比べて、実装を簡略化できる効果を奏する。
According to the image coding apparatus included in the DBBP prediction unit 3095C having the above configuration, the DBBP prediction unit 3095C and the
(DBBPの双予測制限)
本実施形態の変形例の画像符号化装置11では、DBBPの場合に双予測を適用しないように構成する。具体的には、インター予測パラメータ符号化部103の代わりに図示しないインター予測パラメータ符号化部103A、マージモードパラメータ導出部3036の代わりに図示しないマージモードパラメータ符号化部1036Aおよびマージモードパラメータ導出部3036Aを備える。インター予測パラメータ符号化部103Aは上述のインター予測パラメータ復号制御部3031Aに対応する手段である。(DBBP bi-prediction restriction)
The
インター予測パラメータ符号化部103Aは、DBBPフラグが1の場合には、inter_pred_flag=2(PRED_BI)を符号化しない。すなわち、本実施形態のインター予測パラメータ符号化部103Aは、予測ユニットが所定のサイズではなく(( nPbW + nPbH ) != 12)、かつ、DBBPフラグが0の場合(dbbp_flag == 0)に、inter_pred_flagとして0(PRED_L0)、1(PRED_L1)、2(PRED_BI)を復号し、それ以外、予測ユニットが所定のサイズ(( nPbW + nPbH ) != 12)、もしくは、DBBPフラグが1の場合(dbbp_flag == 1)、inter_pred_flagとして0(PRED_L0)、1(PRED_L1)を符号化する。 When the DBBP flag is 1, the inter prediction parameter encoding unit 103A does not encode inter_pred_flag = 2 (PRED_BI). That is, the inter prediction parameter encoding unit 103A of the present embodiment, when the prediction unit is not a predetermined size ((nPbW + nPbH)! = 12) and the DBBP flag is 0 (dbbp_flag == 0), When 0 (PRED_L0), 1 (PRED_L1), and 2 (PRED_BI) are decoded as inter_pred_flag and the prediction unit has a predetermined size ((nPbW + nPbH)! = 12) or the DBBP flag is 1 (dbbp_flag == 1), 0 (PRED_L0) and 1 (PRED_L1) are encoded as inter_pred_flag.
また、inter_pred_flagは、予測ユニットが所定のサイズではなく(( nPbW + nPbH ) != 12)、かつ、DBBPフラグが0の場合(dbbp_flag == 0)に、インター予測パラメータ符号化部103Aは、inter_pred_flagのビット列として00、01、1を符号化する。それ以外、予測ユニットが所定のサイズ(( nPbW + nPbH ) != 12)、もしくは、DBBPフラグが1の場合(dbbp_flag == 1)、インター予測パラメータ符号化部103Aは、inter_pred_flagのビット列は0、1として符号化する。
Also, inter_pred_flag indicates that when the prediction unit is not a predetermined size ((nPbW + nPbH)! = 12) and the DBBP flag is 0 (dbbp_flag == 0), the inter prediction parameter encoding unit 103A sets
また、本実施形態の画像符号化装置は、マージモードパラメータ導出部3036Aを備えるため、上述の双予測制限条件1もしくは双予測制限条件2の場合に、L1の参照ピクチャインデックスrefIdxL1とL1の予測利用フラグpredFlagL1に、refIdxL1=-1、predFlagL1=0を設定することにより、双予測を単予測に変換する。
In addition, since the image coding apparatus according to the present embodiment includes the merge mode
すなわち本実施形態の画像符号化装置は、DBBP予測部3095とマージモードパラメータ導出部3036Aを備え、上記DBBP予測部3095は、デプス画像からセグメンテーション情報を導出するセグメンテーション導出部30952と、2つの動き補償画像を生成するDBBP画像補間部30951と、上記2つの補間画像を合成して1つの動き補償画像を生成する画像合成部30953を備え、上記画像符号化装置は、図示しないDBBPフラグを符号化するDBBPフラグ符号化部をさらに備え、上記マージモードパラメータ導出部3036Aは、上記DBBPフラグが1の場合に双予測から単予測に変換することを特徴とする画像符号化装置である。
That is, the image coding apparatus according to the present embodiment includes a
以上の構成のマージモードパラメータ導出部3036Aを備える画像符号化部によれば、によれば、DBBP予測部3095で導出される補間画像は、単予測(L0もしくはL1の参照ピクチャの場合。predFlagL0が1もしくはpredFlagL1が1)の場合に限定されるため、双予測において各々DBBP予測を用いて補間画像を生成することが可能な場合に比べて、処理量および転送量の最悪ケース大幅に削減する効果を奏する。
According to the image coding unit including the merge mode
同様に、以上の構成のインター予測パラメータ符号化部103Aを備える画像符号化部によれば、DBBPフラグdbbp_flagが1の場合には、インター予測識別子inter_pred_idcとして単予測(PRED_L0もしくはPRED_L1)の値を符号化し、双予測PRED_BIの値を符号化しないため、DBBP予測の場合に双予測を行うことを禁止している。そのため、双予測において各々DBBP予測を用いて補間画像を生成することが可能な場合に比べて、処理量および転送量の最悪ケースを大幅に削減する効果を奏する。 Similarly, according to the image encoding unit including the inter prediction parameter encoding unit 103A having the above configuration, when the DBBP flag dbbp_flag is 1, a single prediction (PRED_L0 or PRED_L1) value is encoded as the inter prediction identifier inter_pred_idc. Since the bi-prediction PRED_BI value is not encoded, it is prohibited to perform bi-prediction in the case of DBBP prediction. Therefore, the worst case of the processing amount and the transfer amount is greatly reduced as compared with the case where an interpolation image can be generated using DBBP prediction in bi-prediction.
また、以上の構成のインター予測パラメータ符号化部103Aおよびマージモードパラメータ導出部3036Aをともにそなえる場合には、dbbp_flagが1の場合に行われるDBBP予測において、双予測が適用される場合を完全に禁止することができる。
Further, when both the inter prediction parameter encoding unit 103A and the merge mode
なお、上述した実施形態における画像符号化装置11、画像復号装置31の一部、例えば、エントロピー復号部301、予測パラメータ復号部302、予測画像生成部101、DCT・量子化部103、エントロピー符号化部104、逆量子化・逆DCT部105、符号化パラメータ決定部110、予測パラメータ符号化部111、エントロピー復号部301、予測パラメータ復号部302、予測画像生成部308、逆量子化・逆DCT部311をコンピュータで実現するようにしても良い。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピュータシステム」とは、画像符号化装置11、画像復号装置31のいずれかに内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
Note that a part of the
また、上述した実施形態における画像符号化装置11、画像復号装置31の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現しても良い。画像符号化装置11、画像復号装置31の各機能ブロックは個別にプロセッサ化しても良いし、一部、または全部を集積してプロセッサ化しても良い。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現しても良い。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いても良い。
Moreover, you may implement | achieve part or all of the
以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。 As described above, the embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to the above, and various design changes and the like can be made without departing from the scope of the present invention. It is possible to
(付記事項)
本発明は、以下のように表すこともできる。(Additional notes)
The present invention can also be expressed as follows.
本発明の1つの形態は、デプス画像からセグメンテーション情報を導出するセグメンテーション導出部と、2つの動き補償画像を生成する画像補間部と、上記2つの補間画像を合成して1つの動き補償画像を生成する画像合成部を備えるデプスベースブロック予測画像生成装置において、上記画像補間部は、双線形予測により上記2つの動き補償画像を生成することを特徴とする。 According to one aspect of the present invention, a segmentation deriving unit that derives segmentation information from a depth image, an image interpolating unit that generates two motion compensation images, and a single motion compensation image are generated by combining the two interpolation images. In the depth-based block predicted image generation apparatus including the image synthesizing unit, the image interpolation unit generates the two motion compensation images by bilinear prediction.
本発明の1つの形態は、デプス画像からセグメンテーション情報を導出するセグメンテーション導出部と、2つの動き補償画像を生成する画像補間部と、上記2つの補間画像を合成して1つの動き補償画像を生成する画像合成部を備えるデプスベースブロック予測画像生成装置において、さらに、デプス画像から分割モードを導出するデプス分割モード導出部を備え、上記デプス分割モード導出部はデプスのブロックの4隅の画素から分割モードを導出することを特徴とする。 According to one aspect of the present invention, a segmentation deriving unit that derives segmentation information from a depth image, an image interpolating unit that generates two motion compensation images, and a single motion compensation image are generated by combining the two interpolation images. A depth-based block prediction image generation apparatus including an image synthesizing unit that further includes a depth division mode deriving unit for deriving a division mode from the depth image, wherein the depth division mode deriving unit is divided from pixels at four corners of the depth block A mode is derived.
本発明の1つの形態は、デプス分割モード導出部はデプスの左上と右下の比較と、デプスの右上と左下の比較から分割モードを導出することを特徴とする。 One aspect of the present invention is characterized in that the depth division mode deriving unit derives a division mode from a comparison of the upper left and lower right of the depth and a comparison of the upper right and lower left of the depth.
本発明の1つの形態は、デプス画像からセグメンテーション情報を導出するセグメンテーション導出部と、2つの動き補償画像を生成する画像補間部と、上記2つの補間画像を合成して1つの動き補償画像を生成する画像合成部を備えるデプスベースブロック予測画像生成装置において、さらに、デプス画像から分割モードを導出するデプス分割モード導出部を備え、デプス分割モード導出部は2N×NもしくはN×2Nの分割モードを導出することを特徴とする。 According to one aspect of the present invention, a segmentation deriving unit that derives segmentation information from a depth image, an image interpolating unit that generates two motion compensation images, and a single motion compensation image are generated by combining the two interpolation images. The depth-based block prediction image generation apparatus including the image synthesizing unit further includes a depth division mode deriving unit for deriving a division mode from the depth image, and the depth division mode deriving unit has a 2N × N or N × 2N division mode. It is derived.
本発明の1つの形態は、デプス画像からセグメンテーション情報を導出するセグメンテーション導出部と、2つの動き補償画像を生成する画像補間部と、上記2つの補間画像を合成して1つの動き補償画像を生成する画像合成部を備えるデプスベースブロック予測画像生成装置において、さらに、デプス画像から分割モードを導出するデプス分割モード導出部を備え、上記セグメンテーション導出部は各画素について0もしくは1をとるセグメンテーション情報を導出し、上記画像合成部は、ブロックの各画素において2つの上記補間画像のいずれかを選択することにより合成することを特徴とする。 According to one aspect of the present invention, a segmentation deriving unit that derives segmentation information from a depth image, an image interpolating unit that generates two motion compensation images, and a single motion compensation image are generated by combining the two interpolation images. A depth-based block prediction image generation apparatus including an image synthesis unit that further includes a depth division mode deriving unit that derives a division mode from a depth image, and the segmentation deriving unit derives segmentation information that takes 0 or 1 for each pixel. The image synthesizing unit synthesizes by selecting one of the two interpolated images at each pixel of the block.
本発明の1つの形態は、上記デプスベースブロック予測画像生成装置とDBBPフラグ復号部を備える画像復号装置であって、上記デプスベースブロック予測画像生成装置はDBBPフラグが1の場合に、DBBP予測を行うことを特徴とする。 One embodiment of the present invention is an image decoding device including the depth base block prediction image generation device and the DBBP flag decoding unit, and the depth base block prediction image generation device performs DBBP prediction when the DBBP flag is 1. It is characterized by performing.
本発明の1つの形態は、デプスベースブロック予測画像生成手段と、視点合成予測手段を備える画像復号装置において、上記デプスベースブロック予測画像生成手段は、デプス画像からセグメンテーション情報を導出するセグメンテーション導出部と、2つの動き補償画像を生成する画像補間部と、上記2つの補間画像を合成して1つの動き補償画像を生成する画像合成部と、分割モードを導出する分割モード導出部を備え、上記視点合成予測手段は、デプス画像からパーティション分割を行うパーティション分割部と、デプス画像から動きベクトルを導出するデプス動きベクトル導出部を備え、上記分割モード導出部と、上記パーティション分割部は、共通の分割モード導出部を備えることを特徴とする。 One aspect of the present invention is an image decoding apparatus including a depth base block prediction image generation unit and a view synthesis prediction unit, wherein the depth base block prediction image generation unit includes a segmentation derivation unit that derives segmentation information from a depth image, and An image interpolation unit that generates two motion compensation images, an image synthesis unit that generates one motion compensation image by synthesizing the two interpolation images, and a division mode deriving unit that derives a division mode. The composite prediction means includes a partition division unit that performs partition division from the depth image, and a depth motion vector derivation unit that derives a motion vector from the depth image, and the division mode derivation unit and the partition division unit include a common division mode. A derivation unit is provided.
本発明の1つの形態は、上記分割モード導出部は、デプス分割モード導出部は対象ブロックに対応するデプスブロックの左上画素と右下画素の比較と、上記デプスブロックの右上画素と左下画素の比較から分割モードを導出することを特徴とする。 In one aspect of the present invention, the division mode deriving unit is configured such that the depth division mode deriving unit compares the upper left pixel and the lower right pixel of the depth block corresponding to the target block, and compares the upper right pixel and the lower left pixel of the depth block. The division mode is derived from
本発明の1つの形態は、上記分割モード導出部は、対象ブロックに対応するデプスブロックから、垂直成分の座標が等しい2つのデプス画素から、水平方向同士の絶対値差分を導出し、水平成分の座標が等しい2つのデプス画素から、垂直方向同士の絶対値差分を導出し、上記水平方向の絶対値差分が、上記垂直方向の絶対値差分よりも大きい場合に、縦長に分割し、それ以外の場合に横長に分割することにより分割モードを導出し、上記パーティション分割部は、上記水平方向の絶対値差分が、上記垂直方向の絶対値差分よりも大きい場合に、4×8のサブブロックに分割し、それ以外の場合に8×4のサブブロック横長に分割することを特徴とする。 In one form of the present invention, the division mode deriving unit derives an absolute value difference between the horizontal directions from two depth pixels having the same vertical component coordinates from the depth block corresponding to the target block, and An absolute value difference between vertical directions is derived from two depth pixels having the same coordinates, and when the absolute value difference in the horizontal direction is larger than the absolute value difference in the vertical direction, the absolute value difference is divided vertically. In this case, a partition mode is derived by horizontally dividing, and the partition dividing unit divides into 4 × 8 sub-blocks when the absolute value difference in the horizontal direction is larger than the absolute value difference in the vertical direction. In other cases, it is divided into 8 × 4 sub-blocks horizontally long.
本発明の1つの形態は、デプスベースブロック予測画像生成手段とマージモードパラメータ導出部を備える画像復号装置において、上記デプスベースブロック予測画像生成手段は、デプス画像からセグメンテーション情報を導出するセグメンテーション導出部と、2つの動き補償画像を生成する画像補間部と、上記2つの補間画像を合成して1つの動き補償画像を生成する画像合成部を備え、上記画像復号装置は、DBBPフラグ復号部をさらに備え、上記マージモードパラメータ導出部は、上記DBBPフラグが1の場合に単予測から双予測に変換することを特徴とする。 One aspect of the present invention is an image decoding apparatus including a depth base block prediction image generation unit and a merge mode parameter derivation unit, wherein the depth base block prediction image generation unit includes a segmentation derivation unit that derives segmentation information from a depth image, and An image interpolation unit that generates two motion compensation images and an image synthesis unit that combines the two interpolation images to generate one motion compensation image. The image decoding apparatus further includes a DBBP flag decoding unit. The merge mode parameter deriving unit converts from single prediction to bi-prediction when the DBBP flag is 1.
本発明の1つの形態は、デプスベースブロック予測画像生成手段とインター予測パラメータ復号部を備える画像復号装置において、上記デプスベースブロック予測画像生成手段は、デプス画像からセグメンテーション情報を導出するセグメンテーション導出部と、2つの動き補償画像を生成する画像補間部と、上記2つの補間画像を合成して1つの動き補償画像を生成する画像合成部を備え、上記画像復号装置は、DBBPフラグ復号部をさらに備え、上記インター予測パラメータ復号部は、上記DBBPフラグが1の場合にインター予測識別子として双予測となる値を復号しないことを特徴とする画像復号装置。 One aspect of the present invention is an image decoding apparatus including a depth base block prediction image generation unit and an inter prediction parameter decoding unit, wherein the depth base block prediction image generation unit includes a segmentation deriving unit for deriving segmentation information from the depth image, An image interpolation unit that generates two motion compensation images and an image synthesis unit that combines the two interpolation images to generate one motion compensation image. The image decoding apparatus further includes a DBBP flag decoding unit. The inter prediction parameter decoding unit does not decode a bi-prediction value as an inter prediction identifier when the DBBP flag is 1.
本発明の1つの形態は、上記デプスベースブロック予測画像生成装置とDBBPフラグ符号化部を備える画像符号化装置であって、上記デプスベースブロック予測画像生成装置はDBBPフラグが1の場合に、DBBP予測を行うことを特徴とする画像符号化装置。 One embodiment of the present invention is an image encoding device including the depth base block prediction image generation device and the DBBP flag encoding unit, and the depth base block prediction image generation device is configured to perform DBBP when the DBBP flag is 1. An image encoding apparatus that performs prediction.
本発明の1つの形態は、デプスベースブロック予測画像生成手段と、視点合成予測手段を備える画像符号化装置において、上記デプスベースブロック予測画像生成手段は、デプス画像からセグメンテーション情報を導出するセグメンテーション導出部と、2つの動き補償画像を生成する画像補間部と、上記2つの補間画像を合成して1つの動き補償画像を生成する画像合成部と、分割モードを導出する分割モード導出部を備え、上記視点合成予測手段は、デプスにおうてパーティション分割を行うパーティション分割部と、デプス画像から動きベクトルを導出するデプス動きベクトル導出部を備え、上記、上記分割モード導出部と、上記パーティション分割部は、共通の分割モード導出部を備えることを特徴とする。 One embodiment of the present invention is an image encoding device including a depth base block prediction image generation unit and a viewpoint synthesis prediction unit, wherein the depth base block prediction image generation unit is a segmentation deriving unit that derives segmentation information from a depth image. An image interpolation unit that generates two motion compensation images, an image synthesis unit that combines the two interpolation images to generate one motion compensation image, and a division mode derivation unit that derives a division mode, The viewpoint synthesis prediction unit includes a partition division unit that performs partition division in the depth, and a depth motion vector derivation unit that derives a motion vector from the depth image, and the division mode derivation unit and the partition division unit include: A common division mode deriving unit is provided.
本発明の1つの形態は、デプスベースブロック予測画像生成手段とマージモードパラメータ導出部を備える画像符号化装置において、上記デプスベースブロック予測画像生成手段は、デプス画像からセグメンテーション情報を導出するセグメンテーション導出部と、2つの動き補償画像を生成する画像補間部と、上記2つの補間画像を合成して1つの動き補償画像を生成する画像合成部を備え、上記画像符号化装置は、DBBPフラグ符号化部をさらに備え、上記マージモードパラメータ導出部は、上記DBBPフラグが1の場合に単予測から双予測に変換することを特徴とする。 One aspect of the present invention is an image encoding device including a depth base block prediction image generation unit and a merge mode parameter derivation unit, wherein the depth base block prediction image generation unit derives segmentation information from the depth image. And an image interpolating unit for generating two motion compensated images, and an image synthesizing unit for synthesizing the two interpolated images to generate one motion compensated image, and the image encoding device includes a DBBP flag encoding unit And the merge mode parameter derivation unit converts from single prediction to bi-prediction when the DBBP flag is 1.
本発明の1つの形態は、デプスベースブロック予測画像生成手段と、視点合成予測手段を備える画像復号装置において、上記デプスベースブロック予測画像生成手段は、デプス画像からセグメンテーション情報を導出するセグメンテーション導出部と、2つの動き補償画像を生成する画像補間部と、上記2つの補間画像を合成して1つの動き補償画像を生成する画像合成部と、分割モードを導出する分割モード導出部を備え、上記視点合成予測手段は、デプス画像からパーティション分割を行うパーティション分割部と、デプス画像から動きベクトルを導出するデプス動きベクトル導出部を備え、上記デプスベースブロック予測画像生成手段の上記セグメンテーション導出部、上記分割モード導出部で参照するデプス画像の位置を導出するのに用いる視差ベクトルと、上記視点合成予測手段の上記パーティション分割部と上記デプス動きベクトル導出部でデプス画像の位置を導出するのに用いる視差ベクトルとを共通の視差ベクトルとすることを特徴とする。 One aspect of the present invention is an image decoding apparatus including a depth base block prediction image generation unit and a view synthesis prediction unit, wherein the depth base block prediction image generation unit includes a segmentation derivation unit that derives segmentation information from a depth image, and An image interpolation unit that generates two motion compensation images, an image synthesis unit that generates one motion compensation image by synthesizing the two interpolation images, and a division mode deriving unit that derives a division mode. The composite prediction unit includes a partition division unit that performs partition division from the depth image, and a depth motion vector derivation unit that derives a motion vector from the depth image. The segmentation derivation unit of the depth base block prediction image generation unit, the division mode The derivation unit derives the position of the depth image to be referenced. A disparity vector used, characterized by a common disparity vector and a disparity vector used to derive the position of the depth image in the partitioning portion of the view synthesized predicting means and the depth motion vector derivation unit.
本発明の1つの形態は、上記共通の視差ベクトルは、ブロックサイズが所定のサイズより大きい場合には、デプスによりリファインされる視差ベクトルであり、ブロックサイズが所定のサイズ以下の場合には、デプスによりリファインされる前の視差ベクトルであることを特徴とする。 According to one aspect of the present invention, the common disparity vector is a disparity vector refined by depth when the block size is larger than a predetermined size, and is reduced when the block size is equal to or smaller than the predetermined size. It is a disparity vector before being refined by.
本発明の1つの形態は、上記共通の視差ベクトルは、予測ブロックの幅と高さの和が16より大きい場合には、デプスによりリファインされる視差ベクトルであり、それ以外の場合にはデプスによりリファインされる前の視差ベクトルであることを特徴とする。 In one aspect of the present invention, the common disparity vector is a disparity vector refined by depth when the sum of the width and height of the prediction block is greater than 16, and by depth otherwise. It is a disparity vector before being refined.
本発明の1つの形態は、上記共通の視差ベクトルは、予測ブロックの幅と高さの和が24より大きい場合には、デプスによりリファインされる視差ベクトルであり、それ以外の場合にはデプスによりリファインされる前の視差ベクトルであることを特徴とする。 In one aspect of the present invention, the common disparity vector is a disparity vector refined by depth if the sum of the width and height of the prediction block is greater than 24, and by depth otherwise. It is a disparity vector before being refined.
本発明の1つの形態は、デプスベースブロック予測画像生成手段と、視点合成予測手段を備える画像符号化装置において、上記デプスベースブロック予測画像生成手段は、デプス画像からセグメンテーション情報を導出するセグメンテーション導出部と、2つの動き補償画像を生成する画像補間部と、上記2つの補間画像を合成して1つの動き補償画像を生成する画像合成部と、分割モードを導出する分割モード導出部を備え、上記視点合成予測手段は、デプス画像からパーティション分割を行うパーティション分割部と、デプス画像から動きベクトルを導出するデプス動きベクトル導出部を備え、上記デプスベースブロック予測画像生成手段の上記セグメンテーション導出部、上記分割モード導出部で参照するデプス画像の位置を導出するのに用いる視差ベクトルと、上記視点合成予測手段の上記パーティション分割部と上記デプス動きベクトル導出部でデプス画像の位置を導出するのに用いる視差ベクトルとを共通の視差ベクトルとすることを特徴とする。 One embodiment of the present invention is an image encoding device including a depth base block prediction image generation unit and a viewpoint synthesis prediction unit, wherein the depth base block prediction image generation unit is a segmentation deriving unit that derives segmentation information from a depth image. An image interpolation unit that generates two motion compensation images, an image synthesis unit that combines the two interpolation images to generate one motion compensation image, and a division mode derivation unit that derives a division mode, The viewpoint synthesis prediction unit includes a partition division unit that performs partition division from the depth image, and a depth motion vector derivation unit that derives a motion vector from the depth image, and the segmentation derivation unit of the depth base block prediction image generation unit, the division Deriving the position of the depth image referenced by the mode deriving unit Wherein the disparity vector, that a common disparity vector and a disparity vector used to derive the position of the depth image in the partitioning portion of the view synthesized predicting means and the depth motion vector derivation unit for use in.
本発明は、画像データが符号化された符号化データを復号する画像復号装置、および、画像データが符号化された符号化データを生成する画像符号化装置に好適に適用することができる。また、画像符号化装置によって生成され、画像復号装置によって参照される符号化データのデータ構造に好適に適用することができる。 The present invention can be suitably applied to an image decoding apparatus that decodes encoded data obtained by encoding image data and an image encoding apparatus that generates encoded data obtained by encoding image data. Further, the present invention can be suitably applied to the data structure of encoded data generated by an image encoding device and referenced by the image decoding device.
1…画像伝送システム
11…画像符号化装置
101…予測画像生成部
102…減算部
103…DCT・量子化部
10311…残差予測インデックス符号化部
10312…照度補償フラグ符号化部
104…エントロピー符号化部
105…逆量子化・逆DCT部
106…加算部
108…予測パラメータメモリ(フレームメモリ)
109…参照ピクチャメモリ(フレームメモリ)
110…符号化パラメータ決定部
111…予測パラメータ符号化部
112…インター予測パラメータ符号化部
1121…マージモードパラメータ導出部
1122…AMVP予測パラメータ導出部
1123…減算部
1126…インター予測パラメータ符号化制御部
113…イントラ予測パラメータ符号化部
21…ネットワーク
31…画像復号装置
301…エントロピー復号部
302…予測パラメータ復号部
303…インター予測パラメータ復号部
3031、3031A…インター予測パラメータ復号制御部
30311…分割モード復号部
30312、30312A…インター予測識別子復号部
30313…DBBPフラグ復号部
3032…AMVP予測パラメータ導出部
3035…加算部
3036…マージモードパラメータ導出部
30361…マージ候補導出部
303611…マージ候補格納部
30362…マージ候補選択部
30363、30363A…双予測制限部
30370…拡張マージ候補導出部
30371…レイヤ間マージ候補導出部
30373…変位マージ候補導出部
30374…VSPマージ候補導出部(VSP予測部、視点合成予測手段、パーティション分割部、デプスベクトル導出部)
30380…基本マージ候補導出部
30381…空間マージ候補導出部
30382…時間マージ候補導出部
30383…結合マージ候補導出部
30384…ゼロマージ候補導出部
304…イントラ予測パラメータ復号部
306…参照ピクチャメモリ(フレームメモリ)
307…予測パラメータメモリ(フレームメモリ)
308…予測画像生成部
309…インター予測画像生成部
3091…動き変位補償部
3092…残差予測部
30922…参照画像補間部
30923…残差合成部
30924…残差予測用ベクトル導出部
3093…照度補償部
3095、3095A、3095B、3095C…DBBP予測部(デプスベースブロック予測画像生成装置)
30951…DBBP画像補間部(画像補間部、画像補間手段)
30952…セグメンテーション部
30953…画像合成部
30954、30954A、30954B、30954C…DBBP分割モード導出部(デプス分割モード導出手段)
3096…重み付け予測部
310…イントラ予測画像生成部
311…逆量子化・逆DCT部
312…加算部
351…デプスDV導出部
352…変位ベクトル導出部
353…分割モード導出部
354…スイッチ
41…画像表示装置DESCRIPTION OF
109 ... Reference picture memory (frame memory)
DESCRIPTION OF
30380 ... Basic merge candidate derivation unit 30281 ... Spatial merge candidate derivation unit 30382 ... Temporal merge candidate derivation unit 30383 ... Combined merge candidate derivation unit 30384 ... Zero merge
307 ... Prediction parameter memory (frame memory)
308 ... Prediction
30951 ... DBBP image interpolation unit (image interpolation unit, image interpolation means)
30952 ...
3096 ...
Claims (19)
上記デプスベースブロック予測画像生成手段は、デプス画像からセグメンテーション情報を導出するセグメンテーション導出部と、2つの動き補償画像を生成する画像補間部と、上記2つの補間画像を合成して1つの動き補償画像を生成する画像合成部と、分割モードを導出する分割モード導出部を備え、上記視点合成予測手段は、デプス画像からパーティション分割を行うパーティション分割部と、デプス画像から動きベクトルを導出するデプス動きDV導出部を備え、上記、上記分割モード導出部と、上記パーティション分割部は、共通の分割モード導出部を備えることを特徴とする画像復号装置。In an image decoding apparatus including a depth-based block prediction image generation unit and a viewpoint synthesis prediction unit,
The depth-based block predicted image generation means includes a segmentation deriving unit for deriving segmentation information from the depth image, an image interpolation unit for generating two motion compensation images, and a single motion compensation image by combining the two interpolation images. An image synthesizing unit for generating a partition mode, and a partition mode deriving unit for deriving a division mode, wherein the viewpoint synthesis predicting means includes a partition division unit that performs partition division from a depth image, and a depth motion DV that derives a motion vector from the depth image. An image decoding apparatus comprising: a derivation unit, wherein the partition mode derivation unit and the partition division unit include a common partition mode derivation unit.
Applications Claiming Priority (5)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014054957 | 2014-03-18 | ||
| JP2014054957 | 2014-03-18 | ||
| JP2014126218 | 2014-06-19 | ||
| JP2014126218 | 2014-06-19 | ||
| PCT/JP2015/057953 WO2015141696A1 (en) | 2014-03-18 | 2015-03-17 | Image decoding device, image encoding device, and prediction device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPWO2015141696A1 true JPWO2015141696A1 (en) | 2017-04-13 |
Family
ID=54144661
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016508750A Pending JPWO2015141696A1 (en) | 2014-03-18 | 2015-03-17 | Image decoding apparatus, image encoding apparatus, and prediction apparatus |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JPWO2015141696A1 (en) |
| WO (1) | WO2015141696A1 (en) |
Families Citing this family (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11044493B2 (en) * | 2016-02-01 | 2021-06-22 | Sharp Kabushiki Kaisha | Prediction image generation device, moving image decoding device, and moving image coding device |
| CN114793279B (en) * | 2016-02-03 | 2024-12-27 | Oppo广东移动通信有限公司 | Video decoding device, video encoding device, and prediction image generation device |
| EP3813021A4 (en) * | 2018-06-14 | 2021-08-11 | Panasonic Intellectual Property Corporation of America | METHOD FOR CODING THREE-DIMENSIONAL DATA, METHOD FOR DECODING THREE-DIMENSIONAL DATA, DEVICE FOR CODING THREE-DIMENSIONAL DATA AND DEVICE FOR DECODING THREE-DIMENSIONAL DATA |
| WO2020098808A1 (en) | 2018-11-17 | 2020-05-22 | Beijing Bytedance Network Technology Co., Ltd. | Construction of merge with motion vector difference candidates |
| KR102662036B1 (en) * | 2018-12-21 | 2024-05-03 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | Motion vector precision when merging in motion vector difference mode |
| CN109788283B (en) * | 2019-01-08 | 2023-01-06 | 中南大学 | A coding unit segmentation method and its system, device, and storage medium |
-
2015
- 2015-03-17 JP JP2016508750A patent/JPWO2015141696A1/en active Pending
- 2015-03-17 WO PCT/JP2015/057953 patent/WO2015141696A1/en active Application Filing
Also Published As
| Publication number | Publication date |
|---|---|
| WO2015141696A1 (en) | 2015-09-24 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6469588B2 (en) | Residual prediction device, image decoding device, image coding device, residual prediction method, image decoding method, and image coding method | |
| JP6441236B2 (en) | Image decoding apparatus and image encoding apparatus | |
| WO2015194669A1 (en) | Image decoding apparatus, image coding apparatus, and prediction image generation device | |
| US10306235B2 (en) | Image decoding apparatus, image coding apparatus, and prediction-vector deriving device | |
| WO2015056719A1 (en) | Image decoding device and image coding device | |
| JP6225241B2 (en) | Image decoding apparatus, image decoding method, image coding apparatus and image coding method | |
| JP2018174567A (en) | Illuminance compensation device, image decoding device, image coding device | |
| WO2015141696A1 (en) | Image decoding device, image encoding device, and prediction device | |
| JP6118199B2 (en) | Image decoding apparatus, image encoding apparatus, image decoding method, image encoding method, and computer-readable recording medium | |
| WO2014103600A1 (en) | Encoded data structure and image decoding device | |
| JP6473078B2 (en) | Image decoding device | |
| WO2015056620A1 (en) | Image decoding device and image coding device | |
| JP2016066864A (en) | Image decoding device, image encoding device, and merge mode parameter derivation device | |
| JP2017135432A (en) | Viewpoint synthesis prediction apparatus, image decoding apparatus, and image encoding apparatus | |
| WO2016056587A1 (en) | Displacement arrangement derivation device, displacement vector derivation device, default reference view index derivation device, and depth lookup table derivation device | |
| WO2015190510A1 (en) | Viewpoint synthesis prediction device, image decoding device, and image coding device | |
| JP6401707B2 (en) | Image decoding apparatus, image decoding method, and recording medium | |
| JP2015080053A (en) | Image decoder and image encoder | |
| HK1225536A1 (en) | Merge-candidate derivation device, image decoding device, and image encoding device | |
| JP2014204327A (en) | Image decoding apparatus and image encoding apparatus |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180314 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180314 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190409 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190416 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20191015 |