WO2020231220A1 - 동영상 데이터의 병렬 부호화 및 복호화를 위한 방법 및 장치 - Google Patents
동영상 데이터의 병렬 부호화 및 복호화를 위한 방법 및 장치 Download PDFInfo
- Publication number
- WO2020231220A1 WO2020231220A1 PCT/KR2020/006424 KR2020006424W WO2020231220A1 WO 2020231220 A1 WO2020231220 A1 WO 2020231220A1 KR 2020006424 W KR2020006424 W KR 2020006424W WO 2020231220 A1 WO2020231220 A1 WO 2020231220A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- palette
- decoding
- sample
- coding block
- index
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/186—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/42—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
- H04N19/436—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
Definitions
- the present invention relates to encoding and decoding of moving picture data, and more particularly, to a method and apparatus for performing encoding or decoding of moving picture data in parallel.
- moving picture data Since moving picture data has a large amount of data compared to audio data or still image data, it requires a lot of hardware resources including memory in order to store or transmit itself without processing for compression.
- the moving picture data is generally compressed and stored or transmitted using an encoder, and the decoder receives the compressed moving picture data, decompresses and plays it.
- video compression technologies there are H.264/AVC and HEVC (High Efficiency Video Coding), which improves coding efficiency by about 40% compared to H.264/AVC.
- the present disclosure proposes a method and apparatus for parallel processing of encoding or decoding of moving picture data.
- techniques for supporting improved wavefront parallel processing that minimizes a decrease in coding efficiency while having a low latency time are proposed.
- a method of encoding video data includes encoding a syntax element indicating that a picture can be decoded using wavefront parallel processing, in a bitstream, and decoding using the wavefront parallel processing. And encoding the data of the picture so as to be possible.
- the palette table for the first coding block is predicted using the palette data from the first CTU of the previous CTU row for the first coding block of the current CTU row encoded in the palette mode. And encoding the first coding block in a palette mode using a palette table predicted for the first coding block.
- a method of decoding video data includes decoding a syntax element indicating that a picture can be decoded using wavefront parallel processing from a bitstream, and decoding coded data of the picture.
- the decoding of the coded data of the picture includes a palette table for the first coding block using palette data from the first CTU of the previous CTU row for the first coding block of the current CTU row encoded in the palette mode. And decoding the first coding block in a palette mode using the predicted palette table for the first coding block.
- an apparatus for encoding video data includes a memory and at least one processor, the at least one processor encoding a syntax element indicating that a picture can be decoded using wavefront parallel processing, and It is configured to encode the data of the picture so that it can be decoded using parallel processing.
- one or more processors use the palette data from the first CTU of the previous CTU row for the first coding block of the current CTU row to be encoded in the palette mode.
- the palette table for is predicted, and the first coding block is encoded in the palette mode using the predicted palette table for the first coding block.
- an apparatus for decoding video data includes a memory and at least one processor, and at least one processor decodes a syntax element indicating that a picture can be decoded using wavefront parallel processing from a bitstream. And, it is configured to decode the coded data of the picture.
- one or more processors use the palette data from the first CTU of the previous CTU row for the first coding block of the current CTU row coded in the palette mode.
- the palette table for the coding block is predicted, and the first coding block is decoded in the palette mode using the predicted palette table for the first coding block.
- FIG. 1 is an exemplary block diagram of an image encoding apparatus capable of implementing the techniques of the present disclosure.
- FIG. 2 is a diagram for explaining a method of dividing a block using a QTBTTT structure.
- 3A is a diagram illustrating a plurality of intra prediction modes.
- 3B is a diagram illustrating a plurality of intra prediction modes including wide-angle intra prediction modes.
- FIG. 4 is an exemplary block diagram of an image decoding apparatus capable of implementing the techniques of the present disclosure.
- FIG. 5 is a conceptual diagram illustrating a wavefront parallel encoding and decoding scheme of a 1-CTU (4-VPDU) delay structure according to an aspect of the present disclosure.
- FIG. 6 is a conceptual diagram illustrating a wavefront parallel encoding and decoding scheme of a 1.5-CTU (6-VPDU) delay structure according to an aspect of the present disclosure.
- FIG. 7 is a diagram for explaining a constraint added to an intra prediction mode or an intra block copy mode when a current block is larger than the size of a VPDU in a 1.5-CTU (6-VPDU) delay structure.
- FIG. 8 illustrates a picture divided into a plurality of subgroups.
- FIG. 9 is a flowchart illustrating a method of initializing CABAC context information of a first CTU of a subgroup in a picture by a video decoder according to an aspect of the present disclosure.
- FIG. 10 is a conceptual diagram illustrating an example of initializing a palette for coding video data according to an aspect of the present disclosure.
- 11 is for explaining initialization of a palette table when 2-CTU delay WPP is activated according to an aspect of the present disclosure.
- FIG. 13 is a diagram illustrating scanning sequences for coding a palette index map according to an aspect of the present disclosure.
- FIG. 14 is a flowchart illustrating a method by which a decoder determines a palette index for a current pixel, according to an aspect of the present disclosure.
- 15 is a conceptual diagram illustrating a method of coding a palette index map according to an aspect of the present disclosure.
- 16 is a flowchart illustrating a method of decoding video data according to an aspect of the present disclosure.
- FIG. 1 is an exemplary block diagram of an image encoding apparatus capable of implementing the techniques of the present disclosure.
- an image encoding apparatus and sub-elements of the apparatus will be described with reference to FIG. 1.
- the image encoding apparatus includes a picture segmentation unit 110, a prediction unit 120, a subtractor 130, a transform unit 140, a quantization unit 145, a rearrangement unit 150, an entropy encoding unit 155, an inverse quantization unit. (160), an inverse transform unit 165, an adder 170, a filter unit 180, and a memory 190 may be included.
- Each component of the image encoding apparatus may be implemented by hardware or software, or by a combination of hardware and software.
- functions of each component may be implemented as software, and a microprocessor may be implemented to execute a function of software corresponding to each component.
- One image is composed of a plurality of pictures. Each picture is divided into a plurality of regions, and encoding is performed for each region. For example, one picture is divided into one or more tiles or/and slices. Here, one or more tiles may be defined as a tile group. Each tile or/slice is divided into one or more Coding Tree Units (CTUs). And each CTU is divided into one or more CUs (Coding Units) by a tree structure. Information applied to each CU is encoded as the syntax of the CU, and information commonly applied to CUs included in one CTU is encoded as the syntax of the CTU.
- CTUs Coding Tree Units
- information commonly applied to all blocks in one slice is encoded as the syntax of the slice header, and information applied to all blocks constituting one picture is a picture parameter set (PPS) or picture. It is coded in the header. Further, information commonly referred to by a plurality of pictures is encoded in a sequence parameter set (SPS). In addition, information commonly referred to by one or more SPSs is encoded in a video parameter set (VPS). Also, information commonly applied to one tile or tile group may be encoded as syntax of a tile or tile group header.
- PPS picture parameter set
- SPS sequence parameter set
- VPS video parameter set
- information commonly applied to one tile or tile group may be encoded as syntax of a tile or tile group header.
- the picture dividing unit 110 determines the size of a coding tree unit (CTU).
- CTU size Information on the size of the CTU (CTU size) is encoded as the syntax of the SPS or PPS and transmitted to the video decoding apparatus.
- the picture dividing unit 110 After dividing each picture constituting an image into a plurality of CTUs (Coding Tree Units) having a predetermined size, the picture dividing unit 110 repetitively divides the CTU using a tree structure. (recursively) split. A leaf node in the tree structure becomes a coding unit (CU), which is a basic unit of coding.
- CU coding unit
- a quad tree (QuadTree, QT) in which an upper node (or parent node) is divided into four lower nodes (or child nodes) of the same size, or a binary tree (BinaryTree) in which an upper node is divided into two lower nodes. , BT), or a ternary tree (TT) in which an upper node is divided into three lower nodes in a 1:2:1 ratio, or a structure in which two or more of these QT structures, BT structures, and TT structures are mixed.
- QT quad tree
- BT binary tree
- TT ternary tree
- a QTBT QuadTree plus BinaryTree
- a QTBTTT QuadTree plus BinaryTree TernaryTree
- MTT Multiple-Type Tree
- the CTU may be first divided into a QT structure.
- the quadtree division may be repeated until the size of a splitting block reaches the minimum block size (MinQTSize) of a leaf node allowed in QT.
- a first flag (QT_split_flag) indicating whether each node of the QT structure is divided into four nodes of a lower layer is encoded by the entropy encoder 155 and signaled to the image decoding apparatus. If the leaf node of the QT is not larger than the maximum block size (MaxBTSize) of the root node allowed in BT, it may be further divided into one or more of a BT structure or a TT structure.
- MaxBTSize maximum block size
- a plurality of division directions may exist. For example, there may be two directions in which a block of a corresponding node is divided horizontally and a direction vertically divided.
- a second flag indicating whether nodes are split, and if split, a flag indicating a split direction (vertical or horizontal) and/or a split type (Binary or Ternary).
- a flag indicating) is encoded by the entropy encoder 155 and signaled to the image decoding apparatus.
- a CU split flag (split_cu_flag) indicating whether the node is divided is encoded. It could be.
- the block of the corresponding node becomes a leaf node in the split tree structure and becomes a coding unit (CU), which is a basic unit of encoding.
- CU coding unit
- a split flag indicating whether each node of the BT structure is divided into blocks of a lower layer and split type information indicating a type to be divided are encoded by the entropy encoder 155 and transmitted to the image decoding apparatus.
- a type of dividing the block of the corresponding node into two blocks having an asymmetric shape may further exist.
- the asymmetric form may include a form of dividing a block of a corresponding node into two rectangular blocks having a size ratio of 1:3, or a form of dividing a block of a corresponding node in a diagonal direction.
- the CU can have various sizes according to the QTBT or QTBTTT split from the CTU.
- a block corresponding to a CU to be encoded or decoded ie, a leaf node of QTBTTT
- a'current block' a block corresponding to a CU to be encoded or decoded
- the shape of the current block may be not only square but also rectangular.
- the prediction unit 120 predicts the current block and generates a prediction block.
- the prediction unit 120 includes an intra prediction unit 122 and an inter prediction unit 124.
- each of the current blocks in a picture can be predictively coded.
- prediction of the current block is performed using an intra prediction technique (using data from a picture containing the current block) or an inter prediction technique (using data from a picture coded before a picture containing the current block). Can be done.
- Inter prediction includes both one-way prediction and two-way prediction.
- the intra prediction unit 122 predicts pixels in the current block by using pixels (reference pixels) located around the current block in the current picture including the current block.
- the plurality of intra prediction modes may include two non-directional modes including a planar mode and a DC mode, and 65 directional modes.
- the surrounding pixels to be used and the equation are defined differently.
- directional modes (67 to 80, intra prediction modes -1 to -14) shown by dotted arrows in FIG. 3B may be additionally used. These may be referred to as "wide angle intra-prediction modes". Arrows in FIG. 3B indicate corresponding reference samples used for prediction, and do not indicate a prediction direction. The prediction direction is opposite to the direction indicated by the arrow.
- the wide-angle intra prediction modes when the current block is a rectangular shape, a specific directional mode is predicted in the opposite direction without additional bit transmission. In this case, among the wide-angle intra prediction modes, some wide-angle intra prediction modes available for the current block may be determined based on a ratio of the width and height of the rectangular current block.
- intra prediction modes 67 to 80 are available when the current block has a rectangular shape whose height is less than the width, and wide-angle with an angle greater than -135 degrees.
- the intra prediction modes can be used when the current block has a rectangular shape whose height is greater than the width.
- the intra prediction unit 122 may determine an intra prediction mode to be used to encode the current block.
- the intra prediction unit 122 may encode the current block using several intra prediction modes and select an appropriate intra prediction mode to use from the tested modes. For example, the intra prediction unit 122 calculates rate distortion values using rate-distortion analysis for several tested intra prediction modes, and has the best rate distortion characteristics among the tested modes. It is also possible to select an intra prediction mode.
- the intra prediction unit 122 selects one intra prediction mode from among a plurality of intra prediction modes, and predicts the current block using a neighboring pixel (reference pixel) determined according to the selected intra prediction mode and an equation.
- Information on the selected intra prediction mode is encoded by the entropy encoder 155 and transmitted to the image decoding apparatus.
- the inter prediction unit 124 generates a prediction block for the current block through a motion compensation process.
- the inter prediction unit 124 searches for a block most similar to the current block in the coded and decoded reference picture prior to the current picture, and generates a prediction block for the current block using the searched block. Then, a motion vector corresponding to a displacement between the current block in the current picture and the prediction block in the reference picture is generated.
- motion estimation is performed on a luma component, and a motion vector calculated based on the luma component is used for both the luma component and the chroma component.
- Motion information including information on a reference picture used to predict the current block and information on a motion vector is encoded by the entropy encoder 155 and transmitted to an image decoding apparatus.
- the prediction unit 120 may further use an intra block copy (IBC) mode.
- IBC intra block copy
- the prediction unit 120 searches for a prediction block in the same frame or picture as the current block as in the intra prediction mode, but the prediction unit 120 usually searches for a wider range of pixels as well as neighboring rows and columns. You can explore the area.
- the prediction unit 120 may determine a block vector (also referred to as a motion vector) to identify a prediction block in the same frame or picture as the current block.
- the block vector includes an x-component and a y-component, where the x-component identifies the horizontal displacement between the predicted current block and the predicted block, and the y-component identifies the vertical displacement between the predicted current block and the predicted block. Identify.
- the determined block vector is signaled in the bitstream so that the image decoding apparatus can identify the same prediction block selected by the image encoding apparatus.
- the image encoding apparatus may perform palette-based encoding on the current block and decode the encoded current block by using a palette-based coding technique to be described later.
- the image encoding apparatus may further include a palette-based encoding unit as, for example, a module of the prediction unit 120.
- the subtractor 130 generates a residual block by subtracting the prediction block generated by the intra prediction unit 122 or the inter prediction unit 124 from the current block.
- the transform unit 140 divides the residual block into one or more transform blocks, applies the transform to one or more transform blocks, and transforms residual values of the transform blocks from the pixel domain to the frequency domain.
- transformed blocks are referred to as coefficient blocks comprising one or more transform coefficient values.
- a 2D transformation kernel may be used for transformation, and a 1D transformation kernel may be used for each of the horizontal and vertical directions.
- the transform kernel may be based on discrete cosine transform (DCT), discrete sine transform (DST), or the like.
- the transform unit 140 may transform residual signals in the residual block by using the entire size of the residual block as a transform unit.
- the transform unit 140 may divide the residual block into two sub-blocks in a horizontal or vertical direction, and may perform transformation on only one of the two sub-blocks, as described later with reference to FIGS. 5A to 5D. . Accordingly, the size of the transform block may be different from the size of the residual block (and thus the size of the prediction block).
- Non-zero residual sample values may not exist or may be very sparse in a subblock on which transformation is not performed.
- the residual samples of the subblock on which the transformation is not performed are not signaled, and may be regarded as "0" by the image decoding apparatus.
- the transform unit 140 includes information on the coding mode (or transform mode) of the residual block (e.g., information indicating whether the residual block is transformed or the residual subblock is transformed, and a partition type selected to divide the residual block into subblocks)
- the entropy encoding unit 155 may be provided with information indicating information and information identifying a subblock on which transformation is performed.
- the entropy encoder 155 may encode information about a coding mode (or transform mode) of the residual block.
- the quantization unit 145 quantizes the transform coefficients output from the transform unit 140 and outputs the quantized transform coefficients to the entropy encoding unit 155.
- the quantization unit 145 may immediately quantize a related residual block for a certain block or frame without transformation.
- the rearrangement unit 150 may rearrange coefficient values on the quantized residual values.
- the rearrangement unit 150 may change a two-dimensional coefficient array into a one-dimensional coefficient sequence through coefficient scanning. For example, the rearrangement unit 150 may scan from a DC coefficient to a coefficient in a high frequency region using a zig-zag scan or a diagonal scan to output a one-dimensional coefficient sequence. .
- zig-zag scan instead of zig-zag scan, a vertical scan that scans a two-dimensional coefficient array in a column direction or a horizontal scan that scans a two-dimensional block shape coefficient in a row direction may be used. That is, a scan method to be used may be determined from among zig-zag scan, diagonal scan, vertical scan, and horizontal scan according to the size of the transform unit and the intra prediction mode.
- the entropy encoding unit 155 uses various encoding methods such as Context-based Adaptive Binary Arithmetic Code (CABAC), Exponential Golomb, and the like, and the quantized transform coefficients of 1D output from the reordering unit 150 are A bitstream is generated by encoding the sequence.
- CABAC Context-based Adaptive Binary Arithmetic Code
- Exponential Golomb Exponential Golomb
- the entropy encoder 155 encodes information such as a CTU size related to block division, a CU division flag, a QT division flag, an MTT division type, and an MTT division direction, so that the video decoding apparatus performs the same block as the video encoding apparatus. Make it possible to divide.
- the entropy encoder 155 encodes information on a prediction type indicating whether the current block is encoded by intra prediction or inter prediction, and intra prediction information (ie, intra prediction) according to the prediction type. Mode information) or inter prediction information (reference picture and motion vector information) is encoded.
- the inverse quantization unit 160 inverse quantizes the quantized transform coefficients output from the quantization unit 145 to generate transform coefficients.
- the inverse transform unit 165 converts transform coefficients output from the inverse quantization unit 160 from the frequency domain to the spatial domain to restore the residual block.
- the addition unit 170 restores the current block by adding the restored residual block and the prediction block generated by the prediction unit 120.
- the pixels in the reconstructed current block are used as reference pixels when intra-predicting the next block.
- the filter unit 180 filters reconstructed pixels to reduce blocking artifacts, ringing artifacts, blurring artifacts, etc. that occur due to block-based prediction and transformation/quantization. Perform.
- the filter unit 180 may include a deblocking filter 182 and a sample adaptive offset (SAO) filter 184.
- the deblocking filter 180 filters the boundary between reconstructed blocks to remove blocking artifacts caused by block-based encoding/decoding, and the SAO filter 184 adds additional information to the deblocking-filtered image. Filtering is performed.
- the SAO filter 184 is a filter used to compensate for a difference between a reconstructed pixel and an original pixel caused by lossy coding.
- the reconstructed block filtered through the deblocking filter 182 and the SAO filter 184 is stored in the memory 190.
- the reconstructed picture may be used as a reference picture for inter prediction of a block in a picture to be encoded later. Meanwhile, when deblocking is performed, deblocking filtering is not applied to the palette-coded block on one side of the block boundary.
- FIG. 4 is an exemplary functional block diagram of an image decoding apparatus capable of implementing the techniques of the present disclosure.
- an image decoding apparatus and sub-components of the apparatus will be described with reference to FIG. 4.
- the image decoding apparatus includes an entropy decoding unit 410, a rearrangement unit 415, an inverse quantization unit 420, an inverse transform unit 430, a prediction unit 440, an adder 450, a filter unit 460, and a memory 470. ) Can be included.
- each component of the image decoding apparatus may be implemented as hardware or software, or may be implemented as a combination of hardware and software.
- functions of each component may be implemented as software, and a microprocessor may be implemented to execute a function of software corresponding to each component.
- the entropy decoding unit 410 determines the current block to be decoded by decoding the bitstream generated by the image encoding apparatus and extracting information related to block division, and predicting information and residual signals necessary to restore the current block. Extract information, etc.
- the entropy decoding unit 410 determines the size of the CTU by extracting information on the CTU size from a sequence parameter set (SPS) or a picture parameter set (PPS), and divides the picture into CTUs of the determined size. Then, the CTU is determined as the uppermost layer of the tree structure, that is, the root node, and the CTU is divided using the tree structure by extracting partition information for the CTU.
- SPS sequence parameter set
- PPS picture parameter set
- a first flag (QT_split_flag) related to the splitting of the QT is extracted and each node is split into four nodes of a lower layer.
- the second flag (MTT_split_flag) related to the splitting of the MTT is extracted to MTT Divide into structure.
- each node may have 0 or more repetitive MTT segmentation after 0 or more repetitive QT segmentation.
- MTT division may occur immediately, or, conversely, only multiple QT divisions may occur.
- each node is divided into four nodes of a lower layer by extracting the first flag (QT_split_flag) related to the division of the QT.
- QT_split_flag the first flag related to the division of the QT.
- a split flag indicating whether or not the node corresponding to the leaf node of the QT is further split into BT and split direction information are extracted.
- the entropy decoder 410 extracts information on a prediction type indicating whether the current block is intra prediction or inter prediction.
- the prediction type information indicates intra prediction
- the entropy decoder 410 extracts a syntax element for intra prediction information (intra prediction mode) of the current block.
- the prediction type information indicates inter prediction
- the entropy decoder 410 extracts a syntax element for the inter prediction information, that is, information indicating a motion vector and a reference picture referenced by the motion vector.
- the entropy decoder 410 includes information on the coding mode of the residual block (e.g., information on whether the residual block is encoded or only the subblocks of the residual block are encoded, and is selected to divide the residual block into subblocks). Information indicating the partition type, information identifying the encoded residual subblock, quantization parameters, etc.) are extracted from the bitstream. In addition, the entropy decoder 410 extracts information on quantized transform coefficients of the current block as information on the residual signal.
- information on the coding mode of the residual block e.g., information on whether the residual block is encoded or only the subblocks of the residual block are encoded, and is selected to divide the residual block into subblocks.
- Information indicating the partition type, information identifying the encoded residual subblock, quantization parameters, etc. are extracted from the bitstream.
- the entropy decoder 410 extracts information on quantized transform coefficients of the current block as information on the residual signal.
- the rearrangement unit 415 in the reverse order of the coefficient scanning order performed by the image encoding apparatus, reconverts the sequence of one-dimensional quantized transform coefficients entropy-decoded by the entropy decoder 410 into a two-dimensional coefficient array (ie, Block).
- the inverse quantization unit 420 inverse quantizes the quantized transform coefficients, and the inverse transform unit 430 inversely transforms the inverse quantized transform coefficients from the frequency domain to the spatial domain based on information on the coding mode of the residual block By reconstructing the signals, a reconstructed residual block for the current block is generated.
- the inverse transform unit 430 determines the size of the current block (and thus, to be reconstructed) with respect to the inverse quantized transformation coefficients.
- a reconstructed residual block for the current block is generated by performing inverse transformation using the residual block size) as a transformation unit.
- the inverse transform unit 430 performs the transformed sub-blocks on the inverse quantized transform coefficients.
- the size of the block as a transformation unit, performing inverse transformation to restore residual signals for the transformed subblock, and filling the residual signals for untransformed subblocks with a value of "0", the reconstructed current block Create a residual block.
- the prediction unit 440 may include an intra prediction unit 442 and an inter prediction unit 444.
- the intra prediction unit 442 is activated when the prediction type of the current block is intra prediction
- the inter prediction unit 444 is activated when the prediction type of the current block is inter prediction.
- the intra prediction unit 442 determines an intra prediction mode of the current block among a plurality of intra prediction modes from the syntax element for the intra prediction mode extracted from the entropy decoding unit 410, and references around the current block according to the intra prediction mode. Predict the current block using pixels.
- the inter prediction unit 444 determines a motion vector of the current block and a reference picture referenced by the motion vector using the syntax element for the intra prediction mode extracted from the entropy decoding unit 410, and determines the motion vector and the reference picture. Is used to predict the current block.
- the prediction unit 440 may further use an intra block copy (IBC) mode.
- the predictor 440 may use a block vector decoded by the entropy decoder 410 from a bitstream in order to identify the same predictive block selected by the image encoding apparatus.
- IBC intra block copy
- the image decoding apparatus may reconstruct the current block by performing palette-based decoding on the current block using a palette-based coding technique to be described later.
- the image decoding apparatus may further include a palette-based decoding unit as, for example, a module of the prediction unit 440.
- the adder 450 restores the current block by adding the residual block output from the inverse transform unit and the prediction block output from the inter prediction unit or the intra prediction unit.
- the pixels in the reconstructed current block are used as reference pixels for intra prediction of a block to be decoded later.
- the filter unit 460 may include a deblocking filter 462 and an SAO filter 464.
- the deblocking filter 462 performs deblocking filtering on the boundary between reconstructed blocks in order to remove blocking artifacts caused by decoding in units of blocks.
- the SAO filter 464 performs additional filtering on the reconstructed block after deblocking filtering in order to compensate for the difference between the reconstructed pixel and the original pixel caused by lossy coding.
- the reconstructed block filtered through the deblocking filter 462 and the SAO filter 464 is stored in the memory 470. When all blocks in one picture are reconstructed, the reconstructed picture is used as a reference picture for inter prediction of a block in a picture to be encoded later.
- deblocking filtering may not be applied to blocks decoded in the palette mode on one side of the block boundary.
- decoding technique that is, an operation of an image decoding apparatus
- descriptions of encoding techniques are simplified because they are opposite to the comprehensively described decoding technique.
- One aspect of the present disclosure relates to improving the parallel coding of blocks of video data.
- HEVC High Efficiency Video Coding
- VPDU Virtual Pipeline Data Unit
- WPP Wavefront Parallel Processing
- the decoder may be designed to configure the decoding process into several pipelines and process them in parallel, where the data unit input or output from each pipeline stage is VPDU (Virtual Pipeline Data Unit). ).
- the size of the VPDU is determined by the largest transform block. In the case of other blocks such as prediction blocks, it is possible to divide a given block into arbitrary small blocks and design them to operate, but in the case of transform blocks, this method cannot be applied.
- a transform having a size of up to 64 ⁇ 64 is used based on the luma component, and pipelines operating in a 64 ⁇ 64 block size can be used in a hardware decoder.
- Tiles provide partitioning for dividing a picture into a plurality of independently decodeable rectangular regions so that a video decoding apparatus can decode a plurality of tiles in parallel.
- each row of CTUs in a picture is referred to as a “wavefront”.
- wavefronts are not independently decodeable, but a video decoder can decode several wavefronts in parallel by sequentially delaying the time point at which decoding of several wavefronts starts. For example, when the video decoder uses WPP to decode a picture, the video decoder starts decoding the second wavefront below the first wavefront after decoding two consecutive CTUs of the first wavefront. Accordingly, it can be ensured that arbitrary information on the first wavefront required for decoding the second wavefront is available at the time of decoding the second wavefront.
- each CTU row is processed using a delay of two consecutive CTUs based on the upper CTU row.
- CABAC context information is from the second CTU of the preceding CTU row (i.e., upper right CTU) to the current CTU row. Is propagated to the first CTU of
- an improved WPP structure that minimizes deterioration of coding efficiency while having a lower waiting time compared to the 2-CTU delay structure of HEVC is proposed.
- a 1-CTU (4-VPDU) delayed WPP structure may be considered.
- 5 is a conceptual diagram illustrating a wavefront parallel encoding and decoding scheme of a 1-CTU (4-VPDU) delay structure according to an aspect of the present disclosure.
- the pipeline delay of WPP is reduced from 2 CTUs to 4 VPDUs (1 CTU).
- the CABAC context information of the block corresponding to the first VPDU of each CTU row can be updated by getting the CABAC context information from the bottom-right VPDU in the first CTU of the preceding CTU row that has already been decoded.
- This 1-CTU (4-VPDU) delay structure has higher parallelism than the 2-CTU delay structure of the HEVC framework, but the pixel reference and intra block copy (or intra line) for intra prediction for the upper-right block A restriction on block vectors for copy) should be added.
- a 1.5-CTU (6-VPDU) delayed WPP structure may be considered.
- 6 is a conceptual diagram illustrating a wavefront parallel encoding and decoding scheme of a 1.5-CTU (6-VPDU) delay structure according to an aspect of the present disclosure.
- the restrictions on the pixel reference for intra prediction and the block vector for intra block copy are relaxed compared to the 1-CTU (4-VPDU) delay structure.
- More efficient encoding and decoding is possible by setting CABAC context information of the first CTU of each CTU row by using the CABAC context information updated more than the CTU (4-VPDU) delay structure.
- CABAC context information of the block corresponding to the first VPDU of each CTU row is top-right in the second CTU of the preceding CTU row that has already been decoded. right) CABAC context information can be retrieved from the VPDU and updated.
- the use of a block vector for intra block copies (or intra line copies) in those directions may be allowed.
- a restriction may be added to the intra prediction mode or the intra block copy mode.
- FIG. 7 is a diagram for explaining a constraint added to an intra prediction mode or an intra block copy mode when a current block is larger than the size of a VPDU in a 1.5-CTU (6-VPDU) delay structure.
- O/X indicated in the VPDU indicates the availability of the VPDU when coding the current block.
- the video encoder may exclude blocks corresponding to the lower two VPDUs in the upper-right CTU from the motion search area for intra-block copy.
- the video encoder has an offset of an unusable size from the block vector ( A block vector (or a block vector scaled by 1/2) minus the offset) may be signaled.
- the video decoder may restore the original block vector by adding an offset to the decoded block vector.
- a video encoder and a decoder may determine whether to apply WPP in units of sequences, typically.
- whether to apply WPP may be determined in units of subgroups of pictures (eg, which may be subpictures, slices, tiles, CTU groups, etc.).
- the video encoder may signal a flag for whether to apply WPP (eg, wpp_enable_flag ) for each of the aforementioned units, and the video decoder may determine whether to perform WPP for each unit by parsing the flag from the bitstream.
- the video encoder and decoder may not apply WPP to the corresponding subgroup. Accordingly, in this case, encoding and decoding of the WPP flag is omitted, and the video decoder may implicitly disable WPP.
- dependency between subgroups may be controlled at a higher level or a subgroup level.
- Such dependency possibility may be signaled through one or more syntax elements at a higher level, and may be signaled through a flag for each subgroup.
- a picture may be encoded so that all subgroups of the picture (eg, CTU groups, tiles, tile groups, slices, subpictures, etc.) do not have dependence, and only some subgroups It may be coded so as not to have this dependency.
- each subgroup in a picture may be decoded independently (or in parallel) with other subgroups, and some subgroups may be decoded depending on information of another subgroup that has already been decoded.
- initializing the CABAC context information of the first CTU of the current subgroup by using the CABAC context information of the CTU of another subgroup previously encoded and decoded may provide a gain in encoding efficiency.
- each subgroup is independently decoded (or sequentially decoded) may be signaled as a bitstream through a flag in the encoder.
- the encoder and decoder may search for preceding subgroups in reverse order of the Z-scan order to search whether or not a subgroup that has already been encoded and decoded exists.
- the encoder and decoder may initialize the context information of the current CTU by using the CABAC context information of the last CTU of the subgroup that is already coded before the coding of the first CTU of subgroup A. For example, if subgroup B and subgroup A, which are preceding subgroups adjacent to subgroup A, are encoded so that two subgroups are sequentially decoded (i.e., if subgroup B is a subgroup that cannot be independently decoded), decoding The group may obtain the CABAC context information of the CTU decoded last of subgroup B and initialize the context information of the first CTU of subgroup A.
- FIG. 9 is a flowchart illustrating a method of initializing CABAC context information of a first CTU of a subgroup in a picture by a video decoder according to an aspect of the present disclosure.
- the video decoder may parse the flag from the bitstream and determine whether the current subgroup is a subgroup that can be independently decoded (S910 to S920).
- a subgroup that cannot be independently decoded may be searched for subgroups preceding in the reverse order of the Z-scanning order (S940).
- the video decoder uses the CABAC context information of the CTU (or VPDU) last decoded in the subgroup, and the first CTU of the current subgroup ( Alternatively, CABAC context information of (VPDU) may be set (S960).
- context information of the first CTU (or VPDU) of the current subgroup may be initialized to a preset value (eg, 0 or 0.5). (S930).
- information eg, a specific value or table and/or index
- a video encoder and decoder derive a palette table (also simply referred to as a "palette") for a block of pixels.
- Each entry in the palette table contains color component (eg, RGB, YUV, or the like) values or luma component values identified by indexes.
- the video encoder and decoder first determine the palette table to be used for the block. Then, the palette indices for each pixel (or sample) of the block can be coded to indicate which entry in the palette should be used to predict or reconstruct the pixel (sample).
- Initializing a palette prediction list generally refers to the process of generating a palette prediction list for the first block of a group of video blocks (eg, subpicture, slice or tile, etc.).
- the palette prediction list for subsequent blocks is typically generated by updating the previously used palette prediction list. That is, after coding a given block in a palette mode, the encoder and decoder update the palette prediction list using the current palette. Entries used in the current palette are inserted into the new palette prediction list, and entries in the previous palette prediction list that are not used in the current palette are new entries in the new palette prediction list until the maximum allowed size of the palette prediction list is reached.
- the palette prediction list for the first block is initialized to 0 in the prior art.
- the entries in the palette table for the first block are new entries explicitly signaled by the encoder.
- the present disclosure proposes a technique for efficiently generating or initializing a palette table for a block that is first encoded/decoded from a group of video blocks (eg, picture, slice, tile, etc.).
- a group of video blocks eg, picture, slice, tile, etc.
- a video encoder sets a default palette table having a plurality of palette colors at a higher level (Picture Parameter Set (PPS), Sequence Parameter Set (SPS), Adaptation Parameter Set (APS), slice header, etc.)). Can signal.
- the default palette table may be used to generate (ie, initialize) a palette table for sub-unit palette coding when a previously configured palette prediction list is not available.
- the video decoder may determine entries of the palette table for the first block of the lower unit based on the default palette table signaled from the upper unit.
- the palette table for the first block of the lower unit may be referred to as “initial palette table” or “initial palette”.
- a binary flag may be signaled for each entry to indicate which of the entries in the default palette table should be used for initialization of the palette table.
- a binary flag with a value of "1" may indicate that the related entry is used in the palette, and a binary flag with a value of "0" may indicate that the related entry is not used in the initial palette.
- the string of binary flags may also be referred to as an index vector.
- the index vector may be transmitted using run-length coding (of bins of 0 or 1).
- the video decoder may construct a palette table for palette decoding of the first CU by parsing a default palette table signaled in a higher unit and an index vector signaled in a lower unit.
- FIG. 10 is a conceptual diagram illustrating an example of initializing a palette for coding video data according to an aspect of the present disclosure.
- the default palette table signaled in the upper unit has 8 entries.
- the first entry, the third entry, and the eighth entry i.e., entries mapped to index 0, 2, 7 of the default palette table are included in the initial palette table of the lower unit, and the remaining entries (i.e. It indicates that entries mapped to indexes 1, 3 to 6) are not included in the initial palette table.
- the number of entries reused from the default palette table may be signaled in an upper unit or a lower unit.
- the size of the initial palette table to be used in the lower unit ie, the maximum number of entries
- an initial palette table of a fixed size may be used, and thus signaling about the size of the initial palette table to be used in a lower unit may not be required.
- the palette for coding the current block may also contain one or more new palette entries that are explicitly coded (eg, separate from the index vector).
- new palette entries that are explicitly coded in the initial palette table illustrated in FIG. 10, (r', g', b') corresponding to indices 3 and 4 are not palette entries of the upper unit, but new entries explicitly signaled in the lower unit by the encoder. .
- coding of syntax elements indicating a new palette entry ie, color values
- a flag indicating the presence or absence of new palette entries may be coded.
- a palette for each color component e.g., Y palette, Cb palette, Cr palette
- two palettes e.g., Y palette
- Cb/Cr palette a palette for each color component
- a single palette including all color component (Y, Cb, Cr) values in each entry may be used.
- a single palette may be used.
- the palette table may need to be initialized at the first CTU (or VPDU) of each CTU row for parallel processing.
- the palette prediction list for the first CTU (or VPDU) of the current CTU row may be initialized using the pallet data of the CTU or VPDU that has already been decoded located at the top of the current CTU row.
- a palette prediction list of the upper-right CTU of the current CTU that has already been decoded is obtained and the first of the current CTU row It is also possible to initialize the palette prediction list for configuring the palette table of the CTU.
- the palette prediction of VPDUs that have already been decoded in the previous CTU row i.e., the upper CTU of the current CTU
- the list may be used to initialize the palette prediction list for constructing the palette table of the first CTU in the current CTU row.
- the palette prediction list of the already decoded CTU of the upper CTU row may be used as the palette prediction list of the first CTU of the current CTU row.
- the palette table of the first CTU of the current CTU row may be configured using a palette prediction list through signaling of an index vector and signaling of additional color component values, similar to the method illustrated in FIG. 10.
- the pallet table of the already decoded upper CTU in case of 1-CTU delayed WPP
- the upper right CTU in case of 1-CTU delayed WPP
- the encoder and decoder may be configured to code and/or determine a flag (which may be referred to as a block-level escape flag) indicating whether any sample of a block is coded in an escape mode described below.
- a flag value of 0 may indicate that no samples of the block are coded using the escape mode. That is, values of all samples of a block may be determined based on a color value included in a palette for coding a block.
- a flag value of 1 may indicate that at least one sample of the block is coded using the escape mode. In other words, the value of at least one sample is coded as an escape sample.
- a CU level escape flag indicating whether the current CU has an escape sample may be signaled in the bitstream.
- the presence of the escape sample in the CU may affect the number of palette indices for the CU.
- the palette of the CU generated from the palette prediction list may have N entry indices so that, for example, an entry index for a sample can be selected from ⁇ 0, 1, ⁇ , N-1 ⁇ . If the CU-level escape flag indicates that there is an escape sample in the current block, the encoder and decoder will be able to ensure that the possible index values in the current block are ⁇ 0, 1, Z, N-1, N ⁇ . It is also possible to add an unrelated) index to the palette for the current block.
- an index equal to N indicates that the associated sample is an escape sample. Indexes less than N may indicate that the associated sample is represented in a color from the palette associated with that index.
- the two-dimensional block of palette indices for each pixel (sample) in the CU is referred to as a palette index map.
- the video encoder may convert a 2D block of palette indices into a 1D array by scanning the palette indices using a scanning order.
- the video decoder may reconstruct a block of palette indices using a scanning order.
- the previous sample refers to a sample that precedes the sample currently being coded in the scanning order.
- the horizontal traverse scanning sequence illustrated in FIG. 13A and the vertical traverse scanning sequence illustrated in FIG. 13B. scanning) order can be used selectively.
- a horizontal scanning sequence and a vertical scanning sequence may be selectively used.
- the encoder may signal a flag indicating the selected scanning order for a given CU.
- to scan the palette index of a CU given the diagonal scanning sequence illustrated in FIG. 13(c) or the zigzag scanning sequence illustrated in FIG. 13(d) Can be used.
- Each sample in a block coded with a palette-based coding mode may be coded using one of two index coding modes as disclosed below.
- COPY_ABOVE mode In this mode, the palette index for the current sample is copied from the same position sample from the previous line (top row or left column) in the scanning order in the block.
- INDEX mode In this mode, the palette index is explicitly signaled in the bitstream using a syntax element, expressed by the encoder, for example as truncated binary code, or inferred by the decoder. .
- the INDEX mode includes a first INDEX mode in which the palette index of a previous sample position preceding in the scan order is copied, that is, inferred by the decoder, and a second INDEX mode in which the palette index is explicitly signaled.
- the encoder and decoder set the index coding mode of the previous sample of the current sample and/or the same-positioned samples (ie, the upper sample or the left sample) in the previous line in the CABAC context. Can be used as information.
- the palette index coding scheme proposed in the present disclosure for each sample position in a block, one or two flags for determining a mode are parsed. For each sample position, a first flag having a value of 0 or 1 is parsed, and a second flag having a value of 0 or 1 is parsed depending at least in part on the value of the first flag.
- One of the COPY_ABOVE mode, the first INDEX mode, and the second INDEX mode is determined according to a value derived from one or more flags parsed for each pixel position.
- the palette index for the corresponding pixel position is signaled by the encoder only when the determined mode is the second INDEX mode and parsed by the decoder. That is, in the present disclosure, a block map in which index coding modes are allocated according to one or two flags for each pixel position in a block, and a palette index for each pixel position is determined according to the block map.
- a first flag e.g., run_copy_flag indicating whether the index coding mode of the current sample and the previous sample are both COPY_ABOVE mode, or both the current sample and the previous sample are INDEX mode and have the same index or not
- a first flag e.g., run_copy_flag
- a second flag (eg, copy_above_palette_indices_flag ) indicating whether the index coding mode of the current sample is INDEX or COPY_ABOVE may be additionally coded.
- a variable Copy_Above_Flag representing the index coding mode of the sample is introduced.
- Table 1 shows how the palette index of the related sample is determined according to the values of the syntax element run_copy_flag and the variable Copy_Above_Flag.
- FIG. 14 is a flowchart illustrating a method for a decoder to determine a palette index for a current sample according to an aspect of the present disclosure.
- the decoder determines whether the current sample is in the same index coding mode as the previous sample (that is, whether the current sample and the previous sample are both COPY_ABOVE, or whether the current sample and the previous sample are both INDEX and have the same index or not.
- the first flag ( run_copy_flag ) indicating ) may be parsed (S1611 ).
- the decoder sets Copy_Above_Flag of the current sample to the same value as Copy_Above_Flag of the previous sample (S1414). That is, if Copy_Above_Flag of the previous sample is 0, Copy_Above_Flag of the current sample is set to 0, and thus, referring to Table 1, the palette index of the current sample is copied from the previous sample.
- the Copy_Above_Flag of the previous sample is 1
- the Copy_Above_Flag of the current sample is set to 1, and thus, referring to Table 1, the palette index of the current sample is copied from the sample at the same position in the previous line (upper row or left column) ( In other words, the palette index of the current sample is copied from the sample at the same position in the upper row for the horizontal transverse scanning of FIG. 13(a), and in the left column for the vertical transverse scanning of FIG. 13(b). The palette index of the current sample is copied from the sample at the same position).
- the decoder parses a syntax element ( palette_idx_idc ) representing the palette index of the current sample from the bitstream (S1420). If Copy_Above_Flag of the previous sample has a value of 0 ("Yes" in S1416), the decoder further parses the second flag ( copy_above_palette_indices_flag ) (S1422).
- copy_above_palette_indices_flag 0 (No" in S1412)
- the decoder parses a syntax element ( palette_idx_idc ) indicating the palette index of the current sample from the bitstream (S1430).
- the index coding mode of samples located in the first row of FIG. 13A and the first column of FIG. 13B is regarded as the INDEX mode by default.
- the encoder can also code the palette index for each sample of the block substantially the same as the order illustrated in FIG. 14.
- the encoder and decoder may perform the above-described palette index coding by dividing the one-dimensional array of palette indices into sample groups of a predefined size (eg, 16 samples). When palette index coding for one sample group is finished, palette index coding for the next sample group may start. In addition, in palette index coding for one sample group, after coding of the first flag ( run_copy_flag ) and the second flag ( copy_above_palette_indices_flag ) is completed, a syntax element ( palette_idx_idc ) for necessary samples may be coded.
- a syntax element palette_idx_idc
- FIG. 15 is a conceptual diagram illustrating a method of coding a palette index map according to an aspect of the present disclosure.
- a palette index map 1510 for an 8 ⁇ 8 coding block is illustrated, and it is assumed that the horizontal transverse scanning order is used to scan the palette indices.
- the palette table has two entries associated with index 0 and 1, and index 3 as an escape index for the escape sample.
- values of the first flag ( run_copy_flag ) and the second flag ( copy_above_palette_indices_flag ) signaled for the palette indices in the second row 1512 of the palette index map 1510 are shown.
- the samples indicated in bold in the second row 1512 refer to samples in which a syntax element (palette_idx_idc) expressly expressing a related palette index is coded.
- the INDEX mode is used for all samples of the first row 1511 in a given palette index map, and all of the samples in the given index map have a 0 value palette index, and as described above, the first row in the given index map Since the INDEX mode is used for all samples in (1511), the last sample in the first row (1511) (the variable Copy_Above_Flag for the rightmost sample has a value of 0.
- the encoder codes the palette index of the first sample in the second row 1512.
- the index coding mode to be used can be selected from INDEX mode and COPY_ABOVE mode, which can be based on R/D testing.
- a run_copy_flag with a value of 0 is signaled for the first sample in the second row 1512, and an additional value of 1.
- the copy_above_palette_indices_flag of is signaled.
- the encoder may select an index coding mode to be used for coding the palette index of the second sample in the second row 1512 from the INDEX mode and the COPY_ABOVE mode. This choice can be based on R/D testing. If the COPY_ABOVE mode is selected, the second sample and the previous sample (first sample) in the scan order in the second row 1512 are the COPY_ABOVE mode. Accordingly, the encoder signals run_copy_flag of a value of 1 for the first sample in the second row 1512.
- index_pred_flag indicating whether the palette index of the current sample is the same as the palette index of the left or upper sample
- a flag ( left_or_above_flag ) indicating whether the palette index of the current sample is the same as the palette index of the left sample or the palette index of the upper sample may be additionally coded.
- the value of the associated palette index is determined by the encoder, e.g., truncated binary code. code) is explicitly signaled in the bitstream.
- the encoder and decoder are coded as escape samples (e.g., samples that do not have color values represented in the palette for coding the block), the index is 1 It is also possible to code data representing the last index (ie, escape index) of the palette increased by. For example, if the index for the sample is the same as the escape index (eg, the last index in the above-mentioned palette), the decoder may infer the sample to be decoded as the escape sample.
- the encoder and decoder may restore the current block by determining color components corresponding to the palette index of each sample by referring to the palette table for the current block.
- the quantized sample value can be explicitly signaled in the bitstream for all color components by the encoder.
- the sample value is already decoded in a non-directional mode (DC, Planar, etc.) or a directional mode, similar to the intra-predicted sample. It may be predicted from neighboring blocks.
- the encoder may determine whether to explicitly signal the quantized sample value by calculating the RD-cost for explicitly signaling the quantized sample value and predicting from the neighboring block. have.
- the encoder may signal a 1-bit flag indicating whether the quantized sample value for the escape sample is explicitly signaled in the bitstream.
- the decoder parses the 1-bit flag, selects whether to decode the quantized sample value from the bitstream for the escape sample, an escape mode or (non-directional or directional mode), and escapes from the already decoded neighboring blocks. It is possible to determine whether to predict the sample value of the sample.
- an encoder and a decoder may be configured to always predict an escape sample from an already decoded neighboring block. In this case, signaling of the aforementioned 1-bit flag is not required.
- the encoder may signal a syntax element indicating the mode number of the intra prediction mode selected for the escape pixel, and when one preset intra prediction mode is used, signaling of the syntax element indicating the mode number may not be required. .
- the palette prediction list is updated using the palette table for the current CU. Entries used in the current palette are inserted into the new palette prediction list, and subsequently, entries from the previous palette prediction list that are not used in the current palette are added to the new palette prediction list until the maximum allowed size of the palette prediction list is reached. do.
- 16 is a flowchart illustrating a method for a decoder to decode video data according to an aspect of the present disclosure.
- step S1610 the decoder decodes a syntax element indicating that the picture can be decoded using wavefront parallel processing (WPP) from the bitstream.
- the syntax element may be signaled at a sequence parameter set (SPS) level.
- the decoder decodes the coded data of the picture.
- the decoder may use wavefront parallel processing to decode the coded data of the picture.
- the decoder may decode multiple CTU rows in parallel in a manner that starts decoding of the first CTU of each CTU row, after the first CTU of the previous CTU row is decoded.
- Wavefront parallel processing may be performed in units of slices or units of tiles.
- the decoder may not decode multiple CTU rows in parallel. Even in such a case, the decoding of the first CTU of each CTU row can be started after the first CTU of the previous CTU row is decoded.
- the decoder uses the palette data from the first CTU of the previous CTU row for the first coding block of the current CTU row to be decoded in the palette mode.
- the palette table for the coding block may be predicted (S1621).
- the decoder may decode the first coding block in the palette mode by using the predicted palette table for the first coding block (S1622).
- the decoder determines whether to reuse one or more entries of the palette data from the first CTU of the previous CTU row in the palette table for the first coding block. You can decide. Also, the decoder may determine new entries to be added to the palette table for the first coding block.
- the decoder may decode an escape flag indicating whether one or more escape samples exist in the first coding block from the bitstream. .
- the decoder may add an additional index to the predicted palette table for the first coding block.
- the decoder may decode at least one syntax element from the bitstream for each sample of the first coding block in order to reconstruct the palette index map for the first coding block.
- the encoder may identify one or more escape samples having an additional index based on the reconstructed palette index map, and decode a syntax element representing quantized color component values for the identified escape samples from the bitstream.
- At least one syntax element decoded to reconstruct the palette index map of the coding block includes a first flag (eg, run_copy_flag ) indicating whether the related sample is in the same index coding mode as the previous sample preceding in the scanning order.
- the first flag may be decoded for each sample of the coding block.
- the at least one syntax element further includes a second flag (eg, copy_above_palette_indices_flag ) indicating whether the palette index of the related sample is copied from the sample at the same position in the previous line in the scanning order.
- the second flag is indicated by the first flag that the related sample is not the same index coding mode as the previous sample, and may be decoded when the index coding mode of the previous sample is the INDEX mode.
- the second flag may be omitted for samples located in the first row of the coding block for the horizontal transverse scanning order and samples located in the first column of the coding block for the vertical transverse scanning order.
- the at least one syntax element further includes a syntax element (eg, palette_idx_idc ) explicitly expressing a palette index of a related sample.
- the syntax element explicitly expressing the palette index is indicated by the first flag that the related sample is not the same index coding mode as the previous sample, and may be decoded when the index coding mode of the related sample is not the COPY ABOVE mode.
- the encoder may also perform encoding of video data in substantially the same manner as in the order illustrated in FIG.
- the encoder may encode a syntax element indicating that a picture of video data can be encoded and decoded using wavefront parallel processing, and may encode data of the picture to enable decoding using wavefront parallel processing.
- the encoder for the first coding block of the current CTU row encoded in the palette mode using the palette data from the first CTU of the previous CTU row, for the first coding block.
- a palette table may be predicted, and the first coding block may be encoded in a palette mode by using the predicted palette table for the first coding block.
- the non-transitory recording medium includes, for example, all kinds of recording devices in which data is stored in a form readable by a computer system.
- the non-transitory recording medium includes a storage medium such as an erasable programmable read only memory (EPROM), a flash drive, an optical drive, a magnetic hard drive, and a solid state drive (SSD).
- EPROM erasable programmable read only memory
- SSD solid state drive
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
동영상 데이터의 병렬 부호화 및 복호화를 위한 방법 및 장치를 개시한다. 비디오 데이터의 복호화 방법은 픽쳐가 파면 병렬 프로세싱(wavefront parallel processing)을 이용하여 복호화 가능함을 지시하는 신택스 엘리먼트를 비트스트림으로부터 복호화하는 단계 및 상기 픽쳐의 부호화된 데이터를 복호화하는 단계를 포함한다. 상기 픽쳐의 부호화된 데이터를 복호화하는 단계는 팔레트 모드로 부호화된 현재 CTU 행의 첫 번째 코딩 블록에 대해, 이전 CTU 행의 첫 번째 CTU로부터의 팔레트 데이터를 이용하여 상기 첫 번째 코딩 블록에 대한 팔레트 테이블을 예측하는 단계, 및 상기 첫 번째 코딩 블록에 대해 예측된 팔레트 테이블을 이용하여, 상기 첫 번째 코딩 블록을 팔레트 모드로 복호화하는 단계를 포함한다.
Description
본 발명은 동영상 데이터의 부호화 및 복호화에 관한 것으로서, 더욱 구체적으로는 동영상 데이터의 부호화 혹은 복호화를 병렬적으로 처리하는 방법 및 장치에 관한 것이다.
동영상 데이터는 음성 데이터나 정지 영상 데이터 등에 비하여 많은 데이터량을 가지기 때문에, 압축을 위한 처리 없이 그 자체를 저장하거나 전송하기 위해서는 메모리를 포함하여 많은 하드웨어 자원을 필요로 한다.
따라서, 통상적으로 동영상 데이터를 저장하거나 전송할 때에는 부호화기를 사용하여 동영상 데이터를 압축하여 저장하거나 전송하며, 복호화기에서는 압축된 동영상 데이터를 수신하여 압축을 해제하고 재생한다. 이러한 동영상 압축 기술로는 H.264/AVC를 비롯하여, H.264/AVC에 비해 약 40% 정도의 부호화 효율을 향상시킨 HEVC(High Efficiency Video Coding)가 존재한다.
그러나, 픽쳐의 크기 및 해상도, 프레임율이 점차 증가하고 있고, 이에 따라 부호화해야 하는 데이터량도 증가하고 있으므로 기존의 압축 기술보다 더 부호화 효율이 좋고 화질 개선 효과도 높은 새로운 압축 기술이 요구된다.
본 개시는 동영상 데이터의 부호화 혹은 복호화를 병렬적으로 처리하는 방법 및 장치를 제시하고자 한다. 특히, 적은 대기 시간을 가지면서도 코딩 효율의 저하를 최소화한 개선된 파면 병렬 프로세싱(wavefront parallel processing)을 지원하기 위한 기법들이 제시된다.
본 개시의 일 측면에 따르면, 비디오 데이터의 부호화 방법은 픽쳐가 파면 병렬 프로세싱(wavefront parallel processing)을 이용하여 복호화 가능함을 지시하는 신택스 엘리먼트를 비트스트림에서 부호화하는 단계 및 상기 파면 병렬 프로세싱을 이용하여 복호화 가능하도록, 상기 픽쳐의 데이터를 부호화하는 단계를 포함한다. 상기 픽쳐의 데이터를 부호화하는 단계는 팔레트 모드로 부호화되는 현재 CTU 행의 첫 번째 코딩 블록에 대해, 이전 CTU 행의 첫 번째 CTU로부터의 팔레트 데이터를 이용하여 상기 첫 번째 코딩 블록에 대한 팔레트 테이블을 예측하는 단계 및 상기 첫 번째 코딩 블록에 대해 예측된 팔레트 테이블을 이용하여, 상기 첫 번째 코딩 블록을 팔레트 모드로 부호화하는 단계를 포함한다.
본 개시의 다른 측면에 따르면, 비디오 데이터의 복호화 방법은 픽쳐가 파면 병렬 프로세싱을 이용하여 복호화 가능함을 지시하는 신택스 엘리먼트를 비트스트림으로부터 복호화하는 단계 및 상기 픽쳐의 부호화된 데이터를 복호화하는 단계를 포함한다. 상기 픽쳐의 부호화된 데이터를 복호화하는 단계는 팔레트 모드로 부호화된 현재 CTU 행의 첫 번째 코딩 블록에 대해, 이전 CTU 행의 첫 번째 CTU로부터의 팔레트 데이터를 이용하여 상기 첫 번째 코딩 블록에 대한 팔레트 테이블을 예측하는 단계 및 상기 첫 번째 코딩 블록에 대해 예측된 팔레트 테이블을 이용하여, 상기 첫 번째 코딩 블록을 팔레트 모드로 복호화하는 단계를 포함한다.
본 개시의 또 다른 측면에 따르면, 비디오 데이터를 부호화하기 위한 장치는 메모리 및 하나 이상의 프로세서를 포함하며, 하나 이상의 프로세서는 픽쳐가 파면 병렬 프로세싱을 이용하여 복호화 가능함을 지시하는 신택스 엘리먼트를 부호화하고, 파면 병렬 프로세싱을 이용하여 복호화 가능하도록, 상기 픽쳐의 데이터를 부호화하도록 구성된다. 상기 픽쳐의 데이터를 부호화하는 것의 일부로서, 하나 이상의 프로세서는 팔레트 모드로 부호화되는 현재 CTU 행의 첫 번째 코딩 블록에 대해, 이전 CTU 행의 첫 번째 CTU로부터의 팔레트 데이터를 이용하여 상기 첫 번째 코딩 블록에 대한 팔레트 테이블을 예측하고, 첫 번째 코딩 블록에 대해 예측된 팔레트 테이블을 이용하여, 첫 번째 코딩 블록을 팔레트 모드로 부호화한다.
본 개시의 또 다른 측면에 따르면, 비디오 데이터를 복호화하기 위한 장치는 메모리 및 하나 이상의 프로세서를 포함하며, 하나 이상의 프로세서는 픽쳐가 파면 병렬 프로세싱을 이용하여 복호화 가능함을 지시하는 신택스 엘리먼트를 비트스트림으로부터 복호화하고, 상기 픽쳐의 부호화된 데이터를 복호화하도록 구성된다. 상기 픽쳐의 부호화된 데이터를 복호화하는 것의 일부로서, 하나 이상의 프로세서는 팔레트 모드로 부호화된 현재 CTU 행의 첫 번째 코딩 블록에 대해, 이전 CTU 행의 첫 번째 CTU로부터의 팔레트 데이터를 이용하여 상기 첫 번째 코딩 블록에 대한 팔레트 테이블을 예측하고, 첫 번째 코딩 블록에 대해 예측된 팔레트 테이블을 이용하여, 첫 번째 코딩 블록을 팔레트 모드로 복호화한다.
도 1은 본 개시의 기술들을 구현할 수 있는 영상 부호화 장치에 대한 예시적인 블록도이다.
도 2는 QTBTTT 구조를 이용하여 블록을 분할하는 방법을 설명하기 위한 도면이다.
도 3a는 복수의 인트라 예측 모드들을 나타낸 도면이다.
도 3b는 광각 인트라 예측모드들을 포함한 복수의 인트라 예측 모드들을 나타낸 도면이다.
도 4는 본 개시의 기술들을 구현할 수 있는 영상 복호화 장치의 예시적인 블록도이다.
도 5는 본 개시의 일 측면에 따른, 1-CTU (4-VPDU) 지연 구조의 파면 병렬 부호화 및 복호화 기법을 예시하는 개념도이다.
도 6은 본 개시의 일 측면에 따른, 1.5-CTU (6-VPDU) 지연 구조의 파면 병렬 부호화 및 복호화 기법을 예시하는 개념도이다.
도 7은 1.5-CTU (6-VPDU) 지연 구조에서, 현재 블록이 VPDU의 크기보다 큰 경우에 인트라 예측 모드 혹은 인트라 블록 카피 모드에 부가되는 제약을 설명하기 위한 도면이다.
도 8은 복수의 서브그룹들로 나뉘어진 픽쳐를 예시한다.
도 9는 본 개시의 일 측면에 따른, 비디오 복호화기가 픽쳐내 서브그룹의 첫 번째 CTU의 CABAC 문맥정보를 초기화하는 방법을 예시하는 흐름도이다.
도 10은 본 개시의 일 측면에 따른, 비디오 데이터를 코딩하기 위한 팔레트를 초기화하는 일 예를 예시하는 개념도이다.
도 11은, 본 개시의 일 측면에 따른, 2-CTU 지연 WPP가 활성화된 경우에 팔레트 테이블의 초기화를 설명하기 위한 것이다.
도 12는, 본 개시의 일 측면에 따른, 1-CTU 지연 WPP가 활성화된 경우에 팔레트 테이블의 초기화를 설명하기 위한 것이다.
도 13은 본 개시의 일 측면에 따른, 팔레트 인덱스 맵을 코딩을 위한 스캐닝 순서들을 예시하는 도면이다.
도 14는 본 개시의 일 측면에 따른, 복호화기가 현재의 픽셀에 대한 팔레트 인덱스를 결정하는 방법을 예시하는 흐름도이다.
도 15는 본 개시의 일 측면에 따른, 팔레트 인덱스 맵을 코딩하는 방법을 예시하는 개념도이다.
도 16은 본 개시의 일 측면에 따른, 비디오 데이터를 복호화하는 방법을 도시한 흐름도이다.
이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성 요소들에 식별 부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
도 1은 본 개시의 기술들을 구현할 수 있는 영상 부호화 장치에 대한 예시적인 블록도이다. 이하에서는 도 1을 참조하여 영상 부호화 장치와 이 장치의 하위 구성들에 대하여 설명하도록 한다.
영상 부호화 장치는 픽처 분할부(110), 예측부(120), 감산기(130), 변환부(140), 양자화부(145), 재정렬부(150), 엔트로피 부호화부(155), 역양자화부(160), 역변환부(165), 가산기(170), 필터부(180) 및 메모리(190)를 포함하여 구성될 수 있다.
영상 부호화 장치의 각 구성요소는 하드웨어 또는 소프트웨어로 구현되거나, 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, 각 구성요소의 기능이 소프트웨어로 구현되고 마이크로프로세서가 각 구성요소에 대응하는 소프트웨어의 기능을 실행하도록 구현될 수도 있다.
하나의 영상(비디오)는 복수의 픽처들로 구성된다. 각 픽처들은 복수의 영역으로 분할되고 각 영역마다 부호화가 수행된다. 예를 들어, 하나의 픽처는 하나 이상의 타일(Tile) 또는/및 슬라이스(Slice)로 분할된다. 여기서, 하나 이상의 타일을 타일 그룹(Tile Group)으로 정의할 수 있다. 각 타일 또는/슬라이스는 하나 이상의 CTU(Coding Tree Unit)로 분할된다. 그리고 각 CTU는 트리 구조에 의해 하나 이상의 CU(Coding Unit)들로 분할된다. 각 CU에 적용되는 정보들은 CU의 신택스로서 부호화되고, 하나의 CTU에 포함된 CU들에 공통적으로 적용되는 정보는 CTU의 신택스로서 부호화된다. 또한, 하나의 슬라이스 내의 모든 블록들에 공통적으로 적용되는 정보는 슬라이스 헤더의 신택스로서 부호화되며, 하나의 픽처들을 구성하는 모든 블록들에 적용되는 정보는 픽처 파라미터 셋(PPS, Picture Parameter Set) 혹은 픽처 헤더에 부호화된다. 나아가, 복수의 픽처가 공통으로 참조하는 정보들은 시퀀스 파라미터 셋(SPS, Sequence Parameter Set)에 부호화된다. 그리고, 하나 이상의 SPS가 공통으로 참조하는 정보들은 비디오 파라미터 셋(VPS, Video Parameter Set)에 부호화된다. 또한, 하나의 타일 또는 타일 그룹에 공통으로 적용되는 정보는 타일 또는 타일 그룹 헤더의 신택스로서 부호화될 수도 있다.
픽처 분할부(110)는 CTU(Coding Tree Unit)의 크기를 결정한다. CTU의 크기에 대한 정보(CTU size)는 SPS 또는 PPS의 신택스로서 부호화되어 영상 복호화 장치로 전달된다.
픽처 분할부(110)는 영상을 구성하는 각 픽처(picture)를 미리 결정된 크기를 가지는 복수의 CTU(Coding Tree Unit)들로 분할한 이후에, 트리 구조(tree structure)를 이용하여 CTU를 반복적으로(recursively) 분할한다. 트리 구조에서의 리프 노드(leaf node)가 부호화의 기본 단위인 CU(coding unit)가 된다.
트리 구조로는 상위 노드(혹은 부모 노드)가 동일한 크기의 네 개의 하위 노드(혹은 자식 노드)로 분할되는 쿼드트리(QuadTree, QT), 또는 상위 노드가 두 개의 하위 노드로 분할되는 바이너리트리(BinaryTree, BT), 또는 상위 노드가 1:2:1 비율로 세 개의 하위 노드로 분할되는 터너리트리(TernaryTree, TT), 또는 이러한 QT 구조, BT 구조 및 TT 구조 중 둘 이상을 혼용한 구조일 수 있다. 예컨대, QTBT(QuadTree plus BinaryTree) 구조가 사용될 수 있고, 또는 QTBTTT(QuadTree plus BinaryTree TernaryTree) 구조가 사용될 수 있다. 여기서, BTTT를 합쳐서 MTT(Multiple-Type Tree)라 지칭될 수 있다.
도 2는 QTBTTT 분할 트리 구조를 보인다. 도 2에서 보는 바와 같이, CTU는 먼저 QT 구조로 분할될 수 있다. 쿼드트리 분할은 분할 블록(splitting block)의 크기가 QT에서 허용되는 리프 노드의 최소 블록 크기(MinQTSize)에 도달할 때까지 반복될 수 있다. QT 구조의 각 노드가 하위 레이어의 4개의 노드들로 분할되는지 여부를 지시하는 제1 플래그(QT_split_flag)는 엔트로피 부호화부(155)에 의해 부호화되어 영상 복호화 장치로 시그널링된다. QT의 리프 노드가 BT에서 허용되는 루트 노드의 최대 블록 크기(MaxBTSize)보다 크지 않은 경우, BT 구조 또는 TT 구조 중 어느 하나 이상으로 더 분할될 수 있다. BT 구조 및/또는 TT 구조에서는 복수의 분할 방향이 존재할 수 있다. 예컨대, 해당 노드의 블록이 가로로 분할되는 방향과 세로로 분할되는 방향 두 가지가 존재할 수 있다. 도 2와 같이, MTT 분할이 시작되면, 노드들이 분할되었는지 여부를 지시하는 제2 플래그(mtt_split_flag)와, 분할이 되었다면 추가적으로 분할 방향(vertical 혹은 horizontal)을 나타내는 플래그 및/또는 분할 타입(Binary 혹은 Ternary)을 나타내는 플래그가 엔트로피 부호화부(155)에 의해 부호화되어 영상 복호화 장치로 시그널링된다. 대안적으로, 각 노드가 하위 레이어의 4개의 노드들로 분할되는지 여부를 지시하는 제1 플래그(QT_split_flag)를 부호화하기에 앞서, 그 노드가 분할되는지 여부를 지시하는 CU 분할 플래그(split_cu_flag)가 부호화될 수도 있다. CU 분할 플래그(split_cu_flag) 값이 분할되지 않았음을 지시하는 경우, 해당 노드의 블록이 분할 트리 구조에서의 리프 노드(leaf node)가 되어 부호화의 기본 단위인 CU(coding unit)가 된다. CU 분할 플래그(split_cu_flag) 값이 분할됨을 지시하는 경우, 영상 부호화 장치는 전술한 방식으로 제1 플래그부터 부호화를 시작한다.
트리 구조의 다른 예시로서 QTBT가 사용되는 경우, 해당 노드의 블록을 동일 크기의 두 개 블록으로 가로로 분할하는 타입(즉, symmetric horizontal splitting)과 세로로 분할하는 타입(즉, symmetric vertical splitting) 두 가지가 존재할 수 있다. BT 구조의 각 노드가 하위 레이어의 블록으로 분할되는지 여부를 지시하는 분할 플래그(split_flag) 및 분할되는 타입을 지시하는 분할 타입 정보가 엔트로피 부호화부(155)에 의해 부호화되어 영상 복호화 장치로 전달된다. 한편, 해당 노드의 블록을 서로 비대칭 형태의 두 개의 블록으로 분할하는 타입이 추가로 더 존재할 수도 있다. 비대칭 형태에는 해당 노드의 블록을 1:3의 크기 비율을 가지는 두 개의 직사각형 블록으로 분할하는 형태가 포함될 수 있고, 혹은 해당 노드의 블록을 대각선 방향으로 분할하는 형태가 포함될 수도 있다.
CU는 CTU로부터의 QTBT 또는 QTBTTT 분할에 따라 다양한 크기를 가질 수 있다. 이하에서는, 부호화 또는 복호화하고자 하는 CU(즉, QTBTTT의 리프 노드)에 해당하는 블록을 '현재블록'이라 칭한다. QTBTTT 분할의 채용에 따라, 현재블록의 모양은 정사각형뿐만 아니라 직사각형일 수도 있다.
예측부(120)는 현재블록을 예측하여 예측블록을 생성한다. 예측부(120)는 인트라 예측부(122)와 인터 예측부(124)를 포함한다.
일반적으로, 픽처 내 현재블록들은 각각 예측적으로 코딩될 수 있다. 일반적으로 현재블록의 예측은 (현재블록을 포함하는 픽처로부터의 데이터를 사용하는) 인트라 예측 기술 또는 (현재블록을 포함하는 픽처 이전에 코딩된 픽처로부터의 데이터를 사용하는) 인터 예측 기술을 사용하여 수행될 수 있다. 인터 예측은 단방향 예측과 양방향 예측 모두를 포함한다.
인트라 예측부(122)는 현재블록이 포함된 현재 픽처 내에서 현재블록의 주변에 위치한 픽셀(참조 픽셀)들을 이용하여 현재블록 내의 픽셀들을 예측한다. 예측 방향에 따라 복수의 인트라 예측모드가 존재한다. 예컨대, 도 3a에서 보는 바와 같이, 복수의 인트라 예측모드는 planar 모드와 DC 모드를 포함하는 2개의 비방향성 모드와 65개의 방향성 모드를 포함할 수 있다. 각 예측모드에 따라 사용할 주변 픽셀과 연산식이 다르게 정의된다.
직사각형 모양의 현재블록에 대한 효율적인 방향성 예측을 위해, 도 3b에 점선 화살표로 도시된 방향성 모드들(67 ~ 80번, -1 ~ -14 번 인트라 예측모드들)이 추가로 사용될 수 있다. 이들은 "광각 인트라 예측모드들(wide angle intra-prediction modes)"로 지칭될 수 있다. 도 3b에서 화살표들은 예측에 사용되는 대응하는 참조샘플들을 가리키는 것이며, 예측 방향을 나타내는 것이 아니다. 예측 방향은 화살표가 가리키는 방향과 반대이다. 광각 인트라 예측모드들은 현재블록이 직사각형일 때 추가적인 비트 전송 없이 특정 방향성 모드를 반대방향으로 예측을 수행하는 모드이다. 이때 광각 인트라 예측모드들 중에서, 직사각형의 현재블록의 너비와 높이의 비율에 의해, 현재블록에 이용 가능한 일부 광각 인트라 예측모드들이 결정될 수 있다. 예컨대, 45도보다 작은 각도를 갖는 광각 인트라 예측모드들(67 ~ 80번 인트라 예측모드들)은 현재블록이 높이가 너비보다 작은 직사각형 형태일 때 이용 가능하고, -135도보다 큰 각도를 갖는 광각 인트라 예측모드들(-1 ~ -14 번 인트라 예측모드들)은 현재블록이 높이가 너비보다 큰 직사각형 형태일 때 이용 가능하다.
인트라 예측부(122)는 현재블록을 부호화하는데 사용할 인트라 예측모드를 결정할 수 있다. 일부 예들에서, 인트라 예측부(122)는 여러 인트라 예측모드들을 사용하여 현재블록을 인코딩하고, 테스트된 모드들로부터 사용할 적절한 인트라 예측모드를 선택할 수도 있다. 예를 들어, 인트라 예측부(122)는 여러 테스트된 인트라 예측모드들에 대한 레이트 왜곡(rate-distortion) 분석을 사용하여 레이트 왜곡 값들을 계산하고, 테스트된 모드들 중 최선의 레이트 왜곡 특징들을 갖는 인트라 예측모드를 선택할 수도 있다.
인트라 예측부(122)는 복수의 인트라 예측모드 중에서 하나의 인트라 예측모드를 선택하고, 선택된 인트라 예측모드에 따라 결정되는 주변 픽셀(참조 픽셀)과 연산식을 사용하여 현재블록을 예측한다. 선택된 인트라 예측모드에 대한 정보는 엔트로피 부호화부(155)에 의해 부호화되어 영상 복호화 장치로 전달된다.
인터 예측부(124)는 움직임 보상 과정을 통해 현재블록에 대한 예측블록을 생성한다. 인터 예측부(124)는 현재 픽처보다 먼저 부호화 및 복호화된 참조픽처 내에서 현재블록과 가장 유사한 블록을 탐색하고, 그 탐색된 블록을 이용하여 현재블록에 대한 예측블록을 생성한다. 그리고, 현재 픽처 내의 현재블록과 참조픽처 내의 예측블록 간의 변위(displacement)에 해당하는 움직임벡터(motion vector)를 생성한다. 일반적으로, 움직임 추정은 루마(luma) 성분에 대해 수행되고, 루마 성분에 기초하여 계산된 모션 벡터는 루마 성분 및 크로마 성분 모두에 대해 사용된다. 현재블록을 예측하기 위해 사용된 참조픽처에 대한 정보 및 움직임벡터에 대한 정보를 포함하는 움직임 정보는 엔트로피 부호화부(155)에 의해 부호화되어 영상 복호화 장치로 전달된다.
예측부(120)는 인트라 블록 카피(intra block copy; IBC) 모드를 더 사용할 수도 있다. IBC 모드에서, 예측부(120)는 인트라 예측 모드에서와 같이 현재블록과 동일한 프레임 또는 픽처내에서 예측블록을 탐색하지만, 예측부(120)는 보통 픽셀들의 이웃하는 행들 및 열들 뿐만 아니라 더 넓은 탐색 영역을 탐색할 수 있다. IBC 모드에서, 예측부(120)는 현재블록과 동일한 프레임 또는 픽처 내의 예측블록을 식별하기 위해, (모션 벡터로도 지칭되는) 블록 벡터를 결정할 수도 있다. 블록 벡터는 x-컴포넌트 및 y-컴포넌트를 포함하고, 여기서 x-컴포넌트는 예측되고 있는 현재블록과 예측 블록 간의 수평 변위를 식별하며, y-컴포넌트는 예측되고 있는 현재블록과 예측 블록 간의 수직 변위를 식별한다. 영상 복호화 장치가 영상 부호화 장치에 의해 선택된 동일한 예측 블록을 식별할 수 있도록, 결정된 블록 벡터는 비트스트림에서 시그널링된다.
영상 부호화 장치는 후술하는 팔레트 기반의 코딩 기법을 이용하여 현재블록에 대해 팔레트 기반의 부호화를 수행하고 부호화된 현재블록에 대해 복호화를 수행할 수도 있다. 이를 위해 영상 부호화 장치는, 예컨대 예측부(120)의 일 모듈로서, 팔레트 기반의 부호화부를, 더 포함할 수 있다.
감산기(130)는 현재블록으로부터 인트라 예측부(122) 또는 인터 예측부(124)에 의해 생성된 예측블록을 감산하여 잔차블록을 생성한다.
변환부(140)는 잔차블록을 하나 이상의 변환블록들로 나누고, 변환을 하나 이상의 변환 블록들에 적용하여, 변환블록들의 잔차 값들을 픽셀 도메인에서 주파수 도메인으로 변환한다. 주파수 도메인에서, 변환된 블록들은 하나 이상의 변환 계수 값들을 포함하는 계수 블록들이라고 지칭된다. 변환에는 2차원 변환 커널이 사용될 수 있으며, 수평 방향 변환과 수직 방향 방향에 각각 1차원 변환 커널이 사용될 수도 있다. 변환 커널은 이산 코사인 변환(DCT), 이산 사인 변환(DST) 등에 기반할 수 있다.
변환부(140)는 잔차블록의 전체 크기를 변환 단위로 사용하여 잔차블록 내의 잔차 신호들을 변환할 수 있다. 또한, 변환부(140)는 도 5a 내지 도 5d를 참조하여 후술하는 것과 같이, 잔차블록을 수평 혹은 수직 방향으로 2개의 서브블록으로 분할하고, 변환을 2개의 서브블록 중 하나에만 수행할 수 있다. 따라서, 변환 블록의 사이즈는 잔차 블록의 사이즈(따라서 예측블록의 사이즈)와 상이할 수도 있다. 변환이 수행되지 않는 서브블록에는 논-제로 잔차 샘플 값들이 존재하지 않거나 매우 희소할 수 있다. 변환이 수행되지 않는 서브블록의 잔차 샘플들은 시그널링되지 않으며, 영상 복호화 장치에 의해 모두 "0"으로 간주될 수 있다. 분할 방향과 분할 비율에 따라 여러 파티션 타입들이 존재할 수 있다. 변환부(140)는 잔차블록의 코딩 모드(혹은 변환 모드)에 관한 정보(예컨대, 잔차 블록을 변환하였는지 아니면 잔차 서브블록을 변환하였는지를 나타내는 정보, 잔차블록을 서브블록들로 분할하기 위해 선택된 파티션 타입을 나타내는 정보, 변환이 수행되는 서브블록을 식별하는 정보 등을 포함하는 정보)를 엔트로피 부호화부(155)에 제공할 수 있다. 엔트로피 부호화부(155)는 잔차블록의 코딩 모드(혹은 변환 모드)에 관한 정보를 부호화할 수 있다.
양자화부(145)는 변환부(140)로부터 출력되는 변환 계수들을 양자화하고, 양자화된 변환 계수들을 엔트로피 부호화부(155)로 출력한다. 양자화부(145)는, 어떤 블록 혹은 프레임에 대해, 변환 없이, 관련된 잔차 블록을 곧바로 양자화할 수도 있다.
재정렬부(150)는 양자화된 잔차값에 대해 계수값의 재정렬을 수행할 수 있다. 재정렬부(150)는 계수 스캐닝(coefficient scanning)을 통해 2차원의 계수 어레이를 1차원의 계수 시퀀스로 변경할 수 있다. 예를 들어, 재정렬부(150)에서는 지그-재그 스캔(zig-zag scan) 또는 대각선 스캔(diagonal scan)을 이용하여 DC 계수부터 고주파수 영역의 계수까지 스캔하여 1차원의 계수 시퀀스를 출력할 수 있다. 변환 단위의 크기 및 인트라 예측모드에 따라 지그-재그 스캔 대신 2차원의 계수 어레이를 열 방향으로 스캔하는 수직 스캔, 2차원의 블록 형태 계수를 행 방향으로 스캔하는 수평 스캔이 사용될 수도 있다. 즉, 변환 단위의 크기 및 인트라 예측모드에 따라 지그-재그 스캔, 대각선 스캔, 수직 방향 스캔 및 수평 방향 스캔 중에서 사용될 스캔 방법이 결정될 수도 있다.
엔트로피 부호화부(155)는, CABAC(Context-based Adaptive Binary Arithmetic Code), 지수 골롬(Exponential Golomb) 등의 다양한 부호화 방식을 사용하여, 재정렬부(150)로부터 출력된 1차원의 양자화된 변환 계수들의 시퀀스를 부호화함으로써 비트스트림을 생성한다.
또한, 엔트로피 부호화부(155)는 블록 분할과 관련된 CTU size, CU 분할 플래그, QT 분할 플래그, MTT 분할 타입, MTT 분할 방향 등의 정보를 부호화하여, 영상 복호화 장치가 영상 부호화 장치와 동일하게 블록을 분할할 수 있도록 한다. 또한, 엔트로피 부호화부(155)는 현재블록이 인트라 예측에 의해 부호화되었는지 아니면 인터 예측에 의해 부호화되었는지 여부를 지시하는 예측 타입에 대한 정보를 부호화하고, 예측 타입에 따라 인트라 예측정보(즉, 인트라 예측모드에 대한 정보) 또는 인터 예측정보(참조픽처 및 움직임벡터에 대한 정보)를 부호화한다.
역양자화부(160)는 양자화부(145)로부터 출력되는 양자화된 변환 계수들을 역양자화하여 변환 계수들을 생성한다. 역변환부(165)는 역양자화부(160)로부터 출력되는 변환 계수들을 주파수 도메인으로부터 공간 도메인으로 변환하여 잔차블록을 복원한다.
가산부(170)는 복원된 잔차블록과 예측부(120)에 의해 생성된 예측블록을 가산하여 현재블록을 복원한다. 복원된 현재블록 내의 픽셀들은 다음 순서의 블록을 인트라 예측할 때 참조 픽셀로서 사용된다.
필터부(180)는 블록 기반의 예측 및 변환/양자화로 인해 발생하는 블록킹 아티팩트(blocking artifacts), 링잉 아티팩트(ringing artifacts), 블러링 아티팩트(blurring artifacts) 등을 줄이기 위해 복원된 픽셀들에 대한 필터링을 수행한다. 필터부(180)는 디블록킹 필터(182)와 SAO(Sample Adaptive Offset) 필터(184)를 포함할 수 있다.
디블록킹 필터(180)는 블록 단위의 부호화/복호화로 인해 발생하는 블록킹 현상(blocking artifact)을 제거하기 위해 복원된 블록 간의 경계를 필터링하고, SAO 필터(184)는 디블록킹 필터링된 영상에 대해 추가적인 필터링을 수행한다. SAO 필터(184)는 손실 부호화(lossy coding)로 인해 발생하는 복원된 픽셀과 원본 픽셀 간의 차이를 보상하기 위해 사용되는 필터이다.
디블록킹 필터(182) 및 SAO 필터(184)를 통해 필터링된 복원블록은 메모리(190)에 저장된다. 한 픽처 내의 모든 블록들이 복원되면, 복원된 픽처는 이후에 부호화하고자 하는 픽처 내의 블록을 인터 예측하기 위한 참조 픽처로 사용될 수 있다. 한편, 디블록킹 수행 시, 블록 경계의 한쪽 측면에 있는 팔레트 부호화된 블록에 대하여는 디블로킹 필터링을 적용하지 않는다.
도 4는 본 개시의 기술들을 구현할 수 있는 영상 복호화 장치의 예시적인 기능 블록도이다. 이하에서는 도 4를 참조하여 영상 복호화 장치와 이 장치의 하위 구성들에 대하여 설명하도록 한다.
영상 복호화 장치는 엔트로피 복호화부(410), 재정렬부(415), 역양자화부(420), 역변환부(430), 예측부(440), 가산기(450), 필터부(460) 및 메모리(470)를 포함하여 구성될 수 있다.
도 1의 영상 부호화 장치와 마찬가지로, 영상 복호화 장치의 각 구성요소는 하드웨어 또는 소프트웨어로 구현되거나, 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, 각 구성요소의 기능이 소프트웨어로 구현되고 마이크로프로세서가 각 구성요소에 대응하는 소프트웨어의 기능을 실행하도록 구현될 수도 있다.
엔트로피 복호화부(410)는 영상 부호화 장치에 의해 생성된 비트스트림을 복호화하여 블록 분할과 관련된 정보를 추출함으로써 복호화하고자 하는 현재블록을 결정하고, 현재블록을 복원하기 위해 필요한 예측정보와 잔차신호에 대한 정보 등을 추출한다.
엔트로피 복호화부(410)는 SPS(Sequence Parameter Set) 또는 PPS(Picture Parameter Set)로부터 CTU size에 대한 정보를 추출하여 CTU의 크기를 결정하고, 픽처를 결정된 크기의 CTU로 분할한다. 그리고, CTU를 트리 구조의 최상위 레이어, 즉, 루트 노드로 결정하고, CTU에 대한 분할정보를 추출함으로써 트리 구조를 이용하여 CTU를 분할한다.
예컨대, QTBTTT 구조를 사용하여 CTU를 분할하는 경우, 먼저 QT의 분할과 관련된 제1 플래그(QT_split_flag)를 추출하여 각 노드를 하위 레이어의 네 개의 노드로 분할한다. 그리고, QT의 리프 노드에 해당하는 노드에 대해서는 MTT의 분할과 관련된 제2 플래그(MTT_split_flag) 및 분할 방향(vertical / horizontal) 및/또는 분할 타입(binary / ternary) 정보를 추출하여 해당 리프 노드를 MTT 구조로 분할한다. 이를 통해 QT의 리프 노드 이하의 각 노드들을 BT 또는 TT 구조로 반복적으로(recursively) 분할한다.
또 다른 예로서, QTBTTT 구조를 사용하여 CTU를 분할하는 경우, 먼저 CU의 분할 여부를 지시하는 CU 분할 플래그(split_cu_flag)를 추출하고, 해당 블록이 분할된 경우, 제1 플래그(QT_split_flag)를 추출할 수도 있다. 분할 과정에서 각 노드는 0번 이상의 반복적인 QT 분할 후에 0번 이상의 반복적인 MTT 분할이 발생할 수 있다. 예컨대, CTU는 바로 MTT 분할이 발생하거나, 반대로 다수 번의 QT 분할만 발생할 수도 있다.
다른 예로서, QTBT 구조를 사용하여 CTU를 분할하는 경우, QT의 분할과 관련된 제1 플래그(QT_split_flag)를 추출하여 각 노드를 하위 레이어의 네 개의 노드로 분할한다. 그리고, QT의 리프 노드에 해당하는 노드에 대해서는 BT로 더 분할되는지 여부를 지시하는 분할 플래그(split_flag) 및 분할 방향 정보를 추출한다.
한편, 엔트로피 복호화부(410)는 트리 구조의 분할을 통해 복호화하고자 하는 현재블록을 결정하게 되면, 현재블록이 인트라 예측되었는지 아니면 인터 예측되었는지를 지시하는 예측 타입에 대한 정보를 추출한다. 예측 타입 정보가 인트라 예측을 지시하는 경우, 엔트로피 복호화부(410)는 현재블록의 인트라 예측정보(인트라 예측모드)에 대한 신택스 엘리먼트를 추출한다. 예측 타입 정보가 인터 예측을 지시하는 경우, 엔트로피 복호화부(410)는 인터 예측정보에 대한 신택스 엘리먼트, 즉, 움직임벡터 및 그 움직임벡터가 참조하는 참조픽처를 나타내는 정보를 추출한다.
한편, 엔트로피 복호화부(410)는 잔차블록의 코딩 모드에 관한 정보(예컨대, 잔차블록이 부호화되었는지 잔차블록의 서브블록만이 부호화되었는지 여부에 관한 정보, 잔차블록을 서브블록들로 분할하기 위해 선택된 파티션 타입을 나타내는 정보, 부호화된 잔차 서브블록을 식별하는 정보, 양자화 파라미터 등)를 비트스트림으로부터 추출한다. 또한, 엔트로피 복호화부(410)는 잔차신호에 대한 정보로서 현재블록의 양자화된 변환계수들에 대한 정보를 추출한다.
재정렬부(415)는, 영상 부호화 장치에 의해 수행된 계수 스캐닝 순서의 역순으로, 엔트로피 복호화부(410)에서 엔트로피 복호화된 1차원의 양자화된 변환계수들의 시퀀스를 다시 2차원의 계수 어레이(즉, 블록)로 변경할 수 있다.
역양자화부(420)는 양자화된 변환계수들을 역양자화하고, 역변환부(430)는, 잔차블록의 코딩 모드에 관한 정보를 기초로, 역양자화된 변환계수들을 주파수 도메인으로부터 공간 도메인으로 역변환하여 잔차신호들을 복원함으로써 현재블록에 대한 복원된 잔차블록을 생성한다.
역변환부(430)는, 잔차블록의 코딩 모드에 관한 정보가 영상 부호화 장치에서 현재블록의 잔차블록이 부호화되었다고 지시하는 경우에, 역양자화된 변환계수들에 대해 현재블록의 사이즈(따라서, 복원될 잔차블록의 사이즈)를 변환 단위로 사용하여 역변환을 수행하여 현재블록에 대한 복원된 잔차블록을 생성한다.
또한, 역변환부(430)는, 잔차블록의 코딩 모드에 관한 정보가 영상 부호화 장치에서 잔차블록의 하나의 서브블록만이 부호화되었다고 지시하는 경우에, 역양자화된 변환계수들에 대해, 변환된 서브블록의 사이즈를 변환 단위로 사용하여, 역변환을 수행하여 변환된 서브블록에 대한 잔차신호들을 복원하고, 비변환된 서브블록에 대한 잔차신호들을 "0" 값으로 채움으로써, 현재블록에 대한 복원된 잔차블록을 생성한다.
예측부(440)는 인트라 예측부(442) 및 인터 예측부(444)를 포함할 수 있다. 인트라 예측부(442)는 현재블록의 예측 타입이 인트라 예측일 때 활성화되고, 인터 예측부(444)는 현재블록의 예측 타입이 인터 예측일 때 활성화된다.
인트라 예측부(442)는 엔트로피 복호화부(410)로부터 추출된 인트라 예측모드에 대한 신택스 엘리먼트로부터 복수의 인트라 예측모드 중 현재블록의 인트라 예측모드를 결정하고, 인트라 예측모드에 따라 현재블록 주변의 참조 픽셀들을 이용하여 현재블록을 예측한다.
인터 예측부(444)는 엔트로피 복호화부(410)로부터 추출된 인트라 예측모드에 대한 신택스 엘리먼트를 이용하여 현재블록의 움직임벡터와 그 움직임벡터가 참조하는 참조픽처를 결정하고, 움직임벡터와 참조픽처를 이용하여 현재블록을 예측한다.
예측부(440)는 인트라 블록 카피(IBC) 모드를 더 사용할 수도 있다. 예측부(440)는 영상 부호화 장치에 의해 선택된 동일한 예측 블록을 식별하기 위해, 엔트로피 복호화부(410)가 비트스트림으로부터 복호화한 블록 벡터를 이용할 수도 있다.
영상 복호화 장치는 후술하는 팔레트 기반의 코딩 기법을 이용하여 현재블록에 대해 팔레트 기반으로 복호화를 수행하여 현재블록을 복원할 수도 있다. 영상 복호화 장치는, 예컨대 예측부(440)의 일 모듈로서, 팔레트 기반의 복호화부를, 더 포함할 수 있다.
가산기(450)는 역변환부로부터 출력되는 잔차블록과 인터 예측부 또는 인트라 예측부로부터 출력되는 예측블록을 가산하여 현재블록을 복원한다. 복원된 현재블록 내의 픽셀들은 이후에 복호화할 블록을 인트라 예측할 때의 참조픽셀로서 활용된다.
필터부(460)는 디블록킹 필터(462) 및 SAO 필터(464)를 포함할 수 있다. 디블록킹 필터(462)는 블록 단위의 복호화로 인해 발생하는 블록킹 현상(blocking artifact)를 제거하기 위해, 복원된 블록 간의 경계를 디블록킹 필터링한다. SAO 필터(464)는 손실 부호화(lossy coding)으로 인해 발생하는 복원된 픽셀과 원본 픽셀 간의 차이를 보상하기 위해, 디블록킹 필터링 이후의 복원된 블록에 대해 추가적인 필터링을 수행한다. 디블록킹 필터(462) 및 SAO 필터(464)를 통해 필터링된 복원블록은 메모리(470)에 저장된다. 한 픽처 내의 모든 블록들이 복원되면, 복원된 픽처는 이후에 부호화하고자 하는 픽처 내의 블록을 인터 예측하기 위한 참조 픽처로 사용된다. 디블록킹 수행 시, 블록 경계의 한쪽 측면에 있는 팔레트 모드로 복호화된 블록에 대하여는 디블로킹 필터링을 적용하지 않을 수 있다.
이하의 설명은 주로 복호화 기술, 즉 영상 복호화 장치의 동작에 초점이 맞춰져 있으며, 부호화 기술들에 대한 설명은, 포괄적으로 설명된 복호화 기술과 반대이므로, 간략화된다.
본 개시의 일 측면은 비디오 데이터의 블록들의 병렬적인 코딩을 개선하는 것과 관련되어 있다.
High Efficiency Video Coding (HEVC) 표준을 포함하는 다양한 비디오 코딩 표준들은 동일한 픽처 내의 상이한 블록들이 동시에 복호화될 수 있도록 VPDU(Virtual Pipeline Data Unit), 타일들, 및 파면 병렬 프로세싱(Wavefront Parallel Processing: WPP)과 같은 병렬 프로세싱 메커니즘들을 지원한다.
복호화기의 하드웨어 구현 관점에서, 복호화 프로세스를 여러 파이프라인(pipeline)으로 구성하여 병렬 처리하도록 복호화기를 설계될 수 있으며, 여기서, 각 파이프라인 스테이지에서 입력되거나 출력되는 데이터 단위는 VPDU(Virtual Pipeline Data Unit)로 지칭된다. VPDU의 크기는 최대 변환 블록(Transform block)에 의해 결정된다. 예측 블록과 같은 다른 블록들의 경우 주어진 블록을 임의의 작은 블록으로 분할하여 동작하도록 설계하는 것이 가능하지만, 변환 블록의 경우 이런 방법의 적용이 불가능하기 때문이다. 현재의 VVC 표준화 논의에서는 루마 성분 기준으로 최대 64×64 크기의 변환을 사용하는 바, 하드웨어 복호화기에서는 64×64 블록 크기로 동작하는 파이프라인들을 사용할 수 있다.
타일들은, 비디오 복호화 장치가 다수의 타일들을 병렬로 복호화할 수 있도록, 다수의 독립적으로 복호화 가능한 직사각형 영역들로 픽처를 분할하는 파티셔닝을 제공한다.
WPP에서, 픽처에서 CTU들의 각각의 행(row)은 "파면(wavefront)"으로 지칭된다. 타일들과 달리, 파면들은 독립적으로 복호화 가능하지 않지만, 비디오 복호화기는 여러 파면들의 복호화가 시작되는 시점을 순차적으로 지연시킴으로써 여러 파면들을 병렬로 복호화할 수 있다. 예를 들어, 비디오 복호화기가 픽처를 복호화하기 위해 WPP를 이용하는 경우, 비디오 복호화기는 제 1 파면의 두 개의 연속적인 CTU들을 복호화한 후에 제 1 파면 아래의 제 2 파면의 복호화를 시작한다. 따라서, 제 2 파면을 복호화하기 위해 필요한 제 1 파면의 임의의 정보가 제 2 파면을 복호화하는 시점에 이용 가능하다는 것이 보장될 수 있다. N-1 번째 CTU 행을 복호화하기 시작한 후 N 번째 CTU 행을 복호화하기 전까지, 비디오 복호화기가 대기하여야 하는 시간은 지연으로 지칭될 수 있다. HEVC의 WPP 구조에서, 각 CTU 행은 상측 CTU 행을 기준으로 두 개의 연속적인 CTU의 지연을 사용하여 처리된다. 각 CTU 행의 시작점에서 종래의 CABAC 초기화로 인한 코딩 효율의 잠재적 손실을 완화하기 위해, WPP에서, CABAC 문맥(context) 정보는 선행 CTU 행의 두 번째 CTU(즉, upper right CTU)로부터 현재 CTU 행의 첫 번째 CTU로 전파된다.
HEVC에서 최대 CTU 사이즈가 64×64 였던 반면에, VVC 표준화 논의에서 최대 CTU 사이즈는 128×128로 증가하였으며, 그에 따라 2-CTU 지연을 가진 WPP 구조가 제공할 수 있는 병렬 프로세싱 능력은 급격히 감소하게 되었다.
WPP 모드에서 CTU 행 간의 지연을 줄일수록, 병렬 처리 성능은 높아지지만, 인트라 예측에서의 픽셀 참조와 인트라 블록 카피(intra block copy; IBC)에서의 블록 벡터에 대한 탐색범위가 제한되며, 비교적 적게 업데이트된 CABAC 문맥 정보가 다음 파면(wavefront)의 첫 CTU에 전파되므로 코딩 효율이 떨어지게 된다. 즉, WPP 구조에서 코딩 효율과 병렬처리 성능 사이에 트레이드-오프(trade-off)가 존재한다.
본 개시의 일 측면에 따르면, HEVC의 2-CTU 지연 구조에 비해 적은 대기 시간을 가지면서도 코딩 효율의 저하를 최소화한 개선된 WPP 구조를 제안한다.
일 예로, 1-CTU (4-VPDU) 지연 방식의 WPP 구조가 고려될 수 있다. 도 5는 본 개시의 일 측면에 따른, 1-CTU (4-VPDU) 지연 구조의 파면 병렬 부호화 및 복호화 기법을 예시하는 개념도이다. 제안된 1-CTU (4-VPDU) 지연 방식의 WPP 구조에 따르면, HEVC 프레임워크에 비해, WPP의 파이프라인 지연이 2 CTU에서 4 VPDU(1 CTU)로 경감된다. 각 CTU 행의 첫 번째 VPDU에 해당하는 블록의 CABAC 문맥 정보는 이미 복호화된 선행 CTU 행의 첫 번째 CTU 내 좌하측(bottom-right) VPDU에서 CABAC 문맥 정보를 가져와 업데이트할 수 있다. 이러한 1-CTU (4-VPDU) 지연 구조는 HEVC 프레임워크의 2-CTU 지연 구조보다 높은 병렬성을 갖지만 우상측(above-right) 블록에 대한 인트라 예측을 위한 픽셀 참조 및 인트라 블록 카피(혹은 인트라 라인 카피)를 위한 블록 벡터에 대한 제한이 부가되어야 한다.
다른 일 예로, 1.5-CTU (6-VPDU) 지연 방식의 WPP 구조가 고려될 수 있다. 도 6은 본 개시의 일 측면에 따른, 1.5-CTU (6-VPDU) 지연 구조의 파면 병렬 부호화 및 복호화 기법을 예시하는 개념도이다.
제안된 1.5-CTU (6-VPDU) 지연 구조에 따르면, 인트라 예측을 위한 픽셀 참조 및 인트라 블록 카피를 위한 블록 벡터에 대한 제한이 1-CTU (4-VPDU) 지연 구조에 비해 완화되며, 1-CTU (4-VPDU) 지연 구조보다 더 많이 업데이트된 CABAC 문맥정보를 이용하여 각 CTU 행의 첫 CTU의 CABAC 문맥정보를 설정함으로써 더 효율적인 부호화 및 복호화를 가능하게 한다.
도 6을 참조하면, 1.5-CTU (6-VPDU) 지연 구조에서, 각 CTU 행의 첫 번째 VPDU에 해당하는 블록의 CABAC 문맥 정보는 이미 복호화된 선행 CTU 행의 두 번째 CTU 내 우상측(top-right) VPDU에서 CABAC 문맥 정보를 가져와 업데이트할 수 있다.
도 6의 예시에서, VPDU의 크기 = N, CTU의 크기 = 2N 인 경우를 예시하고 있으며, 이러한 경우에, 좌측, 좌상측, 상측, 우상측 방향으로의 인트라 예측을 위한 픽셀 참조가 허용될 수 있으며, 그 방향들로의 인트라 블록 카피(혹은 인트라 라인 카피)를 위한 블록 벡터의 사용이 허용될 수 있다.
만약, 현재 블록(CU)의 크기가 VPDU의 크기보다 큰 경우에, 인트라 예측 모드 혹은 인트라 블록 카피 모드에 제약이 부가될 수 있다.
도 7은 1.5-CTU (6-VPDU) 지연 구조에서, 현재 블록이 VPDU의 크기보다 큰 경우에 인트라 예측 모드 혹은 인트라 블록 카피 모드에 부가되는 제약을 설명하기 위한 도면이다. 도 7에서 VPDU 내에 표시된 O/X는 현재 블록을 코딩할 때 VPDU의 이용 가능성을 나타낸다.
도 7의 (a)와 같이, 현재 CU가 VPDU의 크기보다 큰 경우에, 좌상(above-right) 방향의 X 표시된 VPDU들에 포함된 참조 픽셀들은 이용 불가능하다. 이 경우, 이용 불가능한 참조 픽셀들을 이용가능한 위쪽(above) 참조 픽셀들 중 최우측 픽셀 값으로 채워 넣음으로써, 현재 CU의 인트라 예측에 좌상측 (above-right) 방향의 픽셀을 참조하는 인트라 예측 모드의 사용이 허용될 수도 있다.
현재 CU의 예측 모드가 인트라 블록 카피(혹은 인트라 라인 카피)인 경우에, 우상단(above-right) CTU 내 아래쪽 2개 VPDU에 해당하는 블록들을 향하는 블록 벡터의 사용이 제한된다. 따라서, 비디오 부호화기는 우상단(above-right) CTU 내 아래쪽 2개 VPDU에 해당하는 블록들을 인트라 블록 카피를 위한 움직임 탐색 영역에서 배제할 수 있다. 또한, 비디오 부호화기는 우상단(above-right) CTU 내 위쪽 2개 VPDU에 해당하는 블록들을 가리키는 우상측(above-right) 방향의 블록 벡터가 선택되었을 경우, 그 블록 벡터에서 사용 불가능한 크기만큼의 오프셋(offset)을 뺀 크기의 블록 벡터(혹은 1/2만큼 스케일링된 블록 벡터)를 시그널링할 수도 있다. 비디오 복호화기는 비트스트림으로부터 좌상(above-right) 방향의 블록 벡터를 복호화한 경우에, 복호화된 블록 벡터에 오프셋(offset)을 더하여, 원래의 블록 벡터를 복원할 수도 있다.
유사하게, 도 7의 (b)와 같이, 현재 CU가 VPDU의 크기보다 큰 경우에, 좌상(above-right) 방향의 X 표시된 VPDU에 포함된 참조샘플들은 이용 불가능하다. 이 경우, 이용 불가능한 참조 픽셀들을 이용 가능한 위쪽 참조 픽셀들 중 최우측 픽셀 값으로 채워 넣음으로써, 현재 CU의 인트라 예측에 좌상(above-right) 방향의 픽셀을 참조하는 인트라 예측 모드의 사용이 허용될 수도 있다.
일부 실시예에서, CTU의 크기가 VPDU의 크기와 같거나 작은 경우(즉, CTU의 크기 <= VPDU의 크기)에, 비디오 부호화기와 복호화기는 1.5-CTU 지연이 아닌 2-CTU 지연을 가진 WPP 구조를 통해 부호화 및 복호화를 진행할 수도 있다. 이에 따라 부호화기 및 복호화기는 우상단(above-right) CTU의 CABAC 문맥정보를 이용하여 현재의 CTU 행의 첫 번째 CTU의 CABAC 문맥정보를 초기화할 수 있다. 이 경우, 2-CTU 지연을 가진 WPP 구조로 부호화됨을 알리는 플래그와 같은 별도의 시그널링은 요구되지 않을 수도 있다.
한편, 비디오 부호화기 및 복호화기는, 전형적으로, 시퀀스 단위로 WPP 적용 여부를 결정할 수 있다. 일부 실시예에서, (예컨대, 서브 픽처, 슬라이스, 타일, CTU 그룹 등일 수 있는) 픽쳐의 서브그룹 단위로 WPP 적용 여부를 결정할 수도 있다. 비디오 부호화기는 WPP 적용 여부에 대한 플래그(예컨대,
wpp_enable_flag)를 전술한 단위 별로 시그널링할 수 있으며, 비디오 복호화기는 비트스트림으로부터 그 플래그를 파싱하여 각 단위 별로 WPP 수행 여부를 결정할 수도 있다. 일부의 경우에, 부호화 또는 복호화되는 픽처의 서브그룹의 너비(width)가 미리 설정된 특정 너비보다 작은 경우에(예컨대, "(서브그룹의 너비/CTU의 너비) < 임계값" 인 경우에), 비디오 부호화기와 복호화기는 WPP를 해당 서브그룹에 적용하지 않을 수 있다. 따라서, 이러한 경우에, WPP 플래그의 부호화 및 복호화가 생략되며, 비디오 복호화기는 암시적으로 WPP를 비활성화할 수도 있다.
픽쳐가 복수의 서브그룹들로 나뉘어 부호화 및 복호화 될 때, 서브그룹들 간의 의존성(dependency)이 상위 레벨 혹은 서브그룹 레벨에서 제어될 수도 있다. 그러한 의존성 가능성은 상위 레벨에서 하나 이상의 신택스 엘리먼트를 통해 시그널링될 수도 있으며, 각 서브그룹별로 플래그를 통해 시그널링될 수도 있다. 예를 들어, 픽쳐는 픽쳐의 모든 서브그룹들(예컨대, CTU 그룹들, 타일들, 타일 그룹들, 슬라이스들, 서브픽쳐들 등)이 의존성을 가지지 않도록 부호화가 수행될 수도 있으며, 일부 서브그룹들만이 의존성을 가지지 않도록 부호화될 수도 있다.
따라서, 픽쳐 내에서 각 서브그룹이 다른 서브그룹과 독립적으로(혹은 병렬적으로) 복호화될 수도 있으며, 일부 서브그룹이 이미 복호화된 다른 서브그룹의 정보에 의존하여 복호화될 수도 있다. 이러한 경우에, 이전에 부호화 및 복호화된 다른 서브그룹의 CTU의 CABAC 문맥정보를 사용해 현재의 서브그룹의 첫 번째 CTU의 CABAC 문맥정보를 초기화하는 것이 부호화 효율에 이득을 제공할 수도 있다.
도 8은 복수의 서브그룹들로 나뉘어진 픽쳐를 예시한다. 도 8에서, 서브그룹 A는 독립적으로 복호화 가능하지 않는 서브그룹이고 나머지 서브그룹들 중 일부는 독립적으로(혹은 병렬적으로) 복호화될 수 있다고 가정하자. 각각의 서브그룹이 독립적으로 복호화되는지 여부(혹은, 순차적으로 복호화 되는지 여부)는 부호화기에서 플래그를 통해 비트스트림으로 시그널링될 수 있다. 부호화기 및 복호화기는 서브그룹 A의 첫 번째 CTU의 CABAC 문맥정보를 초기화하기 위해, Z-스캔 오더의 역순으로 선행 서브그룹들을 탐색하여 이미 부호화 및 복호화된 서브그룹이 존재하는지 여부를 탐색할 수 있다. 부호화기 및 복호화기는 서브그룹 A의 첫 번째 CTU의 코딩 이전에 이미 코딩된 서브그룹의 마지막 CTU의 CABAC 문맥정보를 사용해 현재 CTU의 문맥정보를 초기화 할 수 있다. 예를 들어, 서브그룹 A에 인접한 선행 서브그룹인 서브그룹 B와 서브그룹 A가 두 서브그룹이 순차적으로 복호화되도록 부호화되었다면(즉, 서브그룹 B가 독립적으로 복호화 가능하지 않는 서브그룹이라면), 복호화기는 서브그룹 B의 마지막으로 복호화된 CTU의 CABAC 문맥정보를 가져와 서브그룹 A의 첫 번째 CTU의 문맥 정보를 초기화 할 수도 있다.
도 9는 본 개시의 일 측면에 따른, 비디오 복호화기가 픽쳐내 서브그룹의 첫 번째 CTU의 CABAC 문맥정보를 초기화하는 방법을 예시하는 흐름도이다.
비디오 복호화기는 비트스트림으로부터 플래그를 파싱하여, 현재 서브그룹이 독립적으로 복호화 가능한 서브그룹인지 여부를 판단할 수 있다(S910~S920).
현재 서브그룹이 독립적으로 복호화 가능한 서브그룹이 아니면(S920에서 "No"), Z-스캐닝 순서의 역순으로 선행하는 서브그룹들에 대해 독립적으로 복호화 가능하지 않은 서브그룹을 탐색할 수 있다(S940). 독립적으로 복호화 가능하지 않은 서브그룹이 발견되면(S950에서 "No"), 비디오 복호화기는 해당 서브그룹에서 마지막으로 복호화된 CTU(혹은 VPDU)의 CABAC 문맥 정보를 이용하여 현재 서브그룹의 첫 번째 CTU(혹은 VPDU)의 CABAC 문맥정보를 설정할 수 있다(S960).
현재 서브그룹이 독립적으로 복호화 가능한 서브그룹이라면(S920에서 "Yes"), 현재 서브그룹의 첫 번째 CTU(혹은 VPDU)의 문맥정보는 미리 설정된 값(예컨대, 0 혹은 0.5 등)으로 초기화될 수 있다(S930). 일부 실시예에서, 독립적으로(혹은 병렬적으로) 복호화 가능한 서브그룹의 첫 번째 CTU(혹은 VPDU)의 CABAC 문맥정보에 대한 초기화를 위한 정보(예컨대 특정 값 혹은 테이블 및/또는 인덱스)가 부호화기에 의해 비트스트림으로 시그널링될 수도 있다.
이하에서는 본 개시에서 제안하는 비디오 데이터의 팔레트-기반 코딩을 위한 기법들을 설명한다.
A. 팔레트 테이블의 초기화 및 생성
팔레트-기반 비디오 코딩에서, 비디오 부호화기 및 복호화기는 픽셀들의 블록에 대한 팔레트 테이블(또한, 간단히 "팔레트" 로도 지칭됨)을 유도한다. 팔레트 테이블에서의 각각의 엔트리는 인덱스들에 의해 식별되는 컬러 성분(예를 들어, RGB, YUV, 또는 기타 등등) 값들 혹은 루마 성분 값들을 포함한다.
팔레트 모드에서 블록을 코딩하는 것의 일부로서, 비디오 부호화기 및 복호화기는 블록에 대해 이용되어야 할 팔레트 테이블을 먼저 결정한다. 그 다음으로, 블록의 각각의 픽셀(또는 샘플)에 대한 팔레트 인덱스들은 팔레트의 어느 엔트리가 픽셀(샘플)을 예측하거나 복원하기 위하여 이용되어야 하는지를 표시하기 위하여 코딩 될 수 있다.
팔레트 예측 리스트(팔레트 예측자로도 지칭됨)를 초기화하는 것은 일반적으로, 비디오 블록들의 그룹(예컨대, 서브픽처, 슬라이스 혹은 타일 등)의 첫 번째 블록에 대한 팔레트 예측 리스트를 생성하는 프로세스를 지칭한다. 후속 블록들에 대한 팔레트 예측 리스트는 전형적으로, 이전에 이용된 팔레트 예측 리스트를 업데이트함으로써 생성된다. 즉, 부호화기와 복호화기는 주어진 블록을 팔레트 모드로 코딩한 후, 현재의 팔레트를 사용하여 팔레트 예측 리스트를 업데이트한다. 현재의 팔레트에서 사용된 엔트리들이 새로운 팔레트 예측 리스트에 삽입되며, 현재의 팔레트에서 사용되지 않는 이전 팔레트 예측 리스트의 엔트리들은 팔레트 예측 리스트의 허용된 최대 크기에 도달할 때까지 새로운 팔레트 예측 리스트의 새로운 엔트리 다음 위치에 추가될 수 있다. 그러나, 첫 번째 블록의 경우, 이전에 이용된 팔레트 예측 리스트는 이용가능하지 않으므로, 종래의 기술에서는 첫 번째 블록을 위한 팔레트 예측 리스트는 0으로 초기화된다. 따라서, 첫 번째 블록을 위한 팔레트 테이블의 엔트리들은 부호화기에 의해 명시적으로 시그널링되는 새로운 엔트리들이다.
본 개시는 비디오 블록들의 그룹(예컨대, 픽처, 슬라이스, 타일 등)에서 첫 번째로 부/복호화되는 블록을 위한 팔레트 테이블을 효율적으로 생성 혹은 초기화하기 위한 기법을 제시한다.
본 개시의 일 측면에 따르면, 비디오 부호화기는 복수의 팔레트 컬러를 갖는 디폴트 팔레트 테이블을 상위 레벨(PPS(Picture Parameter Set), SPS(Sequence Parameter Set), APS(Adaptation Parameter Set) 또는 슬라이스 헤더 등)에서 시그널링할 수 있다. 디폴트 팔레트 테이블은 이전에 구성된 팔레트 예측 리스트가 이용가능하지 않을 때에 하위 단위의 팔레트 코딩을 위한 팔레트 테이블을 생성(즉, 초기화)하기 위하여 이용될 수 있다.
비디오 복호화기는 상위 단위에서 시그널링된 디폴트 팔레트 테이블에 기초하여 하위 단위의 첫 번째 블록을 위한 팔레트 테이블의 엔트리들을 결정할 수 있다. 하위 단위의 첫 번째 블록을 위한 팔레트 테이블은 "초기 팔레트 테이블" 혹은 "초기 팔레트"로 지칭될 수도 있다. 예를 들어, 초기 팔레트 테이블을 생성할 때, 디폴트 팔레트 테이블 내 엔트리들 중 어느 엔트리들이 팔레트 테이블의 초기화를 위하여 이용되어야 하는지를 표시하기 위하여, 엔트리마다 2진 플래그가 시그널링될 수 있다. "1" 값의 2진 플래그는 관련된 엔트리가 팔레트에 사용됨을 표시하며, "0" 값의 2진 플래그는 관련된 엔트리가 초기 팔레트에 사용되지 않음을 표시할 수 있다. 2진 플래그들의 스트링은 인덱스 벡터(index vector)로 지칭될 수도 있다. 인덱스 벡터는 (0 또는 1의 빈들의) 연속-길이 부호화(run-length coding)를 이용하여 전송될 수 있다. 비디오 복호화기는 상위 단위에서 시그널링되는 디폴트 팔레트 테이블을 파싱하고, 하위 단위에서 시그널링되는 인덱스 벡터를 파싱하여, 첫 번째 CU의 팔레트 디코딩을 위한 팔레트 테이블을 구성할 수 있다.
도 10은 본 개시의 일 측면에 따른, 비디오 데이터를 코딩하기 위한 팔레트를 초기화하는 일 예를 예시하는 개념도이다.
도 10의 예시에서, 상위 단위에서 시그널링되는 디폴트 팔레트 테이블은 8개의 엔트리를 가진다. 인덱스 벡터는, 디폴트 팔레트 테이블의 첫 번째 엔트리, 세 번째 엔트리 및 여덟 번째 엔트리(즉, 인덱스 0, 2, 7에 매핑된 엔트리들)가 하위 단위의 초기 팔레트 테이블에 포함되며 나머지 엔트리들(즉, 인덱스 1, 3 내지 6에 매핑된 엔트리들)이 초기 팔레트 테이블에 포함되는 않는다는 것을 표시한다.
일부의 경우에, 디폴트 팔레트 테이블로부터 재사용되는 엔트리 개수는 상위 단위 혹은 하위 단위에서 시그널링될 수도 있다. 또한, 하위 단위에서 사용할 초기 팔레트 테이블의 크기(즉, 엔트리들의 최대 개수)가 시그널링될 수도 있다. 일부의 경우에, 고정된 크기의 초기 팔레트 테이블이 사용될 수도 있으며, 따라서 하위 단위에서 사용할 초기 팔레트 테이블의 크기에 대한 시그널링은 필요하지 않을 수도 있다.
현재의 블록을 코딩하기 위한 팔레트는 또한 (예컨대, 인덱스 벡터와는 별개로) 명시적으로 코딩되는 하나 이상의 새로운 팔레트 엔트리들을 포함할 수도 있다. 도 10에 예시된 초기 팔레트 테이블에서, 인덱스 3과 4에 대응되는 (r', g', b')는 상위 단위의 팔레트 엔트리가 아닌, 부호화기에 의해 하위 단위에서 명시적으로 시그널링되는 새로운 엔트리들이다. 인덱스 벡터에 의해 초기 팔레트 테이블의 모든 엔트리들이 채워지는 경우에는 새로운 팔레트 엔트리(즉, 컬러 값들)을 표시하는 신택스 엘리먼트들의 코딩은 스킵될 수 있다. 일부의 경우에, 새로운 팔레트 엔트리들의 존부를 표시하는 플래그가 코딩될 수도 있다.
루마와 크로마 성분 간에 CU 파티셔닝이 상이한 듀얼트리(Dual Tree)를 사용하는 슬라이스의 경우, 각 컬러 성분별 팔레트(예컨대, Y 팔레트, Cb 팔레트, Cr 팔레트)가 사용되거나 두 개의 팔레트(예컨대, Y 팔레트, Cb/Cr 팔레트)가 사용될 수도 있다. 또한, 단일트리(Single Tree)의 경우 각 엔트리에 모든 컬러 성분(Y, Cb, Cr) 값이 포함된 하나의 팔레트가 사용될 수도 있다. 모노크롬(monochrome)의 경우 하나의 팔레트가 사용될 수도 있다.
B. WPP가 활성화된 경우에 팔레트 테이블의 초기화
WPP(Wavefront Parallel Processing)이 활성화된 경우에, 병렬 처리를 위해 각 CTU 행(row)의 첫 CTU(또는 VPDU)에서 팔레트 테이블이 초기화되어야 할 수 있다. 이때, 현재 CTU 행의 상단에 위치한 이미 복호화가 완료된 CTU 또는 VPDU의 팔레트 데이터를 사용하여 현재 CTU 행의 첫 CTU(또는 VPDU)을 위한 팔레트 예측 리스트가 초기화될 수도 있다.
일 예로, 도 11과 같이, 2-CTU 지연 WPP가 사용되는 경우에, 이전 CTU 행에서, 이미 복호화가 완료된 현재 CTU의 우상단(above-right) CTU의 팔레트 예측 리스트를 가져와 현재 CTU행의 첫 번째 CTU의 팔레트 테이블을 구성하기 위한 팔레트 예측 리스트를 초기화 할 수도 있다. 다른 일 예로, 도 12와 같이, 4-VPDU 지연 WPP(즉, 1-CTU 지연 WPP)가 사용된 경우에, 이전 CTU 행에서 이미 복호화가 완료된 VPDU(즉, 현재 CTU의 상단 CTU)의 팔레트 예측 리스트를 사용하여 현재 CTU행의 첫 번째 CTU의 팔레트 테이블을 구성하기 위한 팔레트 예측 리스트를 초기화 할 수도 있다.
일부 실시예에서, 상단 CTU 행의 이미 복호화된 CTU의 팔레트 예측 리스트가 그대로 현재 CTU 행의 첫 번째 CTU의 팔레트 예측 리스트로 사용될 수도 있다. 이 경우, 현재 CTU 행의 첫 번째 CTU의 팔레트 테이블은, 도 10에 예시된 방식과 유사하게, 인덱스 벡터의 시그널링 및 추가 컬러 성분 값들의 시그널링을 통해, 팔레트 예측 리스트를 이용하여 구성될 수 있다. 다른 일부 실시예에서, 이미 복호화된 상단 CTU(1-CTU 지연 WPP의 경우) 혹은 우상단 CTU(1-CTU 지연 WPP의 경우)의 팔레트 테이블이 그대로 현재 CTU행의 첫 번째 CTU의 팔레트 테이블로 사용될 수도 있다. 블록을 코딩하기 위한 팔레트에 표현된 칼라 값을 가지지 않는 샘플
한편, 부호화기 및 복호화기는 블록의 임의의 샘플이 후술하는 이스케이프 모드에서 코딩되는지 여부를 표시하는 (블록-레벨 이스케이프 플래그로서 지칭될 수도 있는) 플래그를 코딩하거나 및/또는 결정하도록 구성될 수도 있다. 예를 들어, 0 의 플래그 값은 블록의 어떤 샘플들도 이스케이프 모드를 이용하여 코딩되지 않는다는 것을 표시할 수도 있다. 즉, 블록의 모든 샘플들의 값이 블록을 코딩하기 위한 팔레트에 포함된 칼라 값에 기초하여 결정될 수도 있다. 1 의 플래그 값은 블록의 적어도 하나의 샘플이 이스케이프 모드를 이용하여 코딩된다는 것을 표시할 수도 있다. 즉, 적어도 하나의 샘플의 값이 이스케이프 샘플로서 코딩된다.
일부 예들에서, 현재의 CU가 이스케이프 샘플을 가지는지 여부를 지시하는 CU 레벨 이스케이프 플래그가 비트스트림으로 시그널링될 수도 있다. CU에서의 이스케이프 샘플의 존재는 CU에 대한 팔레트 인덱스들의 개수에 영향을 미칠 수도 있다. 예를 들어, 팔레트 예측 리스트로부터 생성된 CU의 팔레트는 예컨대, 샘플에 대한 엔트리 인덱스가 {0, 1, 쪋, N-1} 중에서 선택될 수 있도록, N개의 엔트리 인덱스들을 가질 수도 있다. 현재의 블록에 이스케이프 샘플이 있다는 것을 CU 레벨 이스케이프 플래그가 표시하면, 부호화기 및 복호화기는 현재의 블록에서의 가능한 인덱스 값들이 {0, 1, 쪋, N-1, N} 일 수 있도록, (엔트리와 연관되지 않은) 1개의 인덱스를 현재의 블록에 대한 팔레트에 추가할 수도 있다. 여기서, (이스케이프 인덱스로도 지칭되는) N과 동일한 인덱스는 관련된 샘플이 이스케이프 샘플이라는 것을 표시한다. N 미만의 인덱스들은 관련된 샘플이 그 인덱스와 연관된 팔레트로부터의 칼라로 표현된다는 것을 표시할 수도 있다.
C. 팔레트 인덱스의 스캐닝 순서
CU 내 각 픽셀(샘플)에 대한 팔레트 인덱스들의 2차원 블록은 팔레트 인덱스 맵이라고 지칭된다. 비디오 부호화기는 스캐닝 순서를 이용하여 팔레트 인덱스들을 스캐닝함으로써 팔레트 인덱스들의 2차원 블록을 1차원 어레이로 변환할 수도 있다. 이와 유사하게, 비디오 복호화기는 스캐닝 순서를 이용하여 팔레트 인덱스들의 블록을 복원할 수도 있다. 이전 샘플은 스캐닝 순서에서 현재 코딩중인 샘플에 선행하는 샘플을 지칭한다.
일부 실시예에서, 주어진 CU의 팔레트 인덱스를 스캔하기 위해, 도 13의 (a)에 예시된 수평 횡단 스캔닝(horizontal traverse scanning) 순서와 도 13의 (b)에 예시된 수직 횡단 스캐닝(vertical traverse scanning) 순서가 선택적으로 사용될 수 있다. 다른 실시예에서, 수평 스캐닝(horizontal scanning) 순서와 수직 스캐닝(vertical scanning) 순서가 선택적으로 사용될 수도 있다. 부호화기는 주어진 CU에 대해 선택된 스캐닝 순서를 나타내는 플래그를 시그널링할 수도 있다. 또 다른 일부 실시예에서, 도 13의 (c)에 예시된 대각 스캐닝(diagonal scanning) 순서 혹은 도 13의 (d)에 예시된 지그재그 스캐닝(zigzag scanning) 순서가 주어진 CU의 팔레트 인덱스를 스캔하기 위해 사용될 수 있다.
D. 팔레트 인덱스의 코딩
팔레트-기반의 코딩 모드로 코딩된 블록에서의 각각의 샘플은 아래에 개시된 바와 같은 2개의 인덱스 코딩 모드들 중 하나를 이용하여 코딩될 수도 있다.
COPY_ABOVE 모드: 이 모드에서, 현재의 샘플에 대한 팔레트 인덱스는 블록에서 스캐닝 순서상 이전 라인(상측 행 혹은 좌측 열)로부터의 동일 위치의 샘플로부터 복사된다.
INDEX 모드: 이 모드에서, 팔레트 인덱스는, 부호화기에 의해 예를 들어 절삭된 2진 코드(truncated binary code)로 표현되는, 신택스 엘리먼트를 이용하여 비트스트림에서 명시적으로 시그널링되거나, 복호화기에 의해 추론된다.
INDEX 모드는 스캔 순서상 선행하는 이전 샘플 위치의 팔레트 인덱스를 복사하는, 즉 복호화기에 의해 추론되는 제1 INDEX 모드와 팔레트 인덱스를 명시적으로 시그널링하는 제2 INDEX 모드를 포함한다.
부호화기와 복호화기는 현재의 샘플의 팔레트 인덱스를 효율적으로 코딩하기 위해, 현재의 샘플의 이전 샘플 및/또는 이전 라인에서의 동일 위치의 샘플(즉, 상측 샘플 혹은 좌측 샘플)들의 인덱스 코딩 모드를 CABAC 문맥 정보로 사용할 수 있다.
본 개시에서 제안하는 팔레트 인덱스 코딩 기법에서는, 블록 내의 각 샘플 위치에 대해, 모드를 결정하기 위한 하나 또는 두 개의 플래그가 파싱된다. 각 샘플 위치에 대해, 0 또는 1의 값을 가지는 제1 플래그가 파싱되고, 제1 플래그의 값에 적어도 부분적으로 의존하여 0 또는 1의 값을 가지는 제2 플래그가 파싱된다. 픽셀 위치별로 파싱된 하나 이상의 플래그로부터 유도된 값에 따라 COPY_ABOVE 모드, 제1 INDEX 모드, 및 제2 INDEX 모드들 중 하나의 모드가 결정된다. 해당 픽셀 위치에 대한 팔레트 인덱스는 결정된 모드가 제2 INDEX 모드일 때에만 부호화기에 의해 시그널링되고, 복호화기에 의해 파싱된다. 즉, 본 개시에서는 블록 내의 각 픽셀 위치마다 하나 또는 두 개의 플래그에 따라 인덱스 코딩 모드들을 할당한 블록 맵을 구성하고, 그 블록 맵에 따라 각 픽셀 위치에 대한 팔레트 인덱스를 결정한다.
도 13의 (a)와 도 13의 (b)에 예시된 스캐닝 순서가 선택적으로 사용될 수도 있는 일부 실시예에서, 현재의 블록 내 각 샘플에 대해, 현재 샘플이 이전 샘플과 동일한 인덱스 코딩 모드인지 여부(즉, 현재 샘플과 이전 샘플의 인덱스 코딩 모드가 모두 COPY_ABOVE 모드이거나 혹은 현재 샘플과 이전 샘플 모두 INDEX 모드이면서 동일한 인덱스를 가지는지 그렇지 않은지 여부)를 지시하는 제1플래그(예컨대,
run_copy_flag)가 코딩된다. 제1플래그가 0 값을 가지며 이전 샘플이 INDEX 모드인 경우에, 현재 샘플의 인덱스 코딩 모드가 INDEX 인지 COPY_ABOVE 인지 여부를 지시하는 제2플래그(예컨대,
copy_above_palette_indices_flag)가 추가로 코딩될 수도 있다. 또한, 샘플의 인덱스 코딩 모드를 표현하는 변수 Copy_Above_Flag가 도입된다.
표 1은 신택스 엘리먼트
run_copy_flag와 변수 Copy_Above_Flag의 값들에 따라 관련된 샘플의 팔레트 인덱스가 어떻게 결정되는지를 보인다.
도 14는 본 개시의 일 측면에 따른, 복호화기가 현재의 샘플에 대한 팔레트 인덱스를 결정하는 방법을 예시하는 흐름도이다.
도 14를 참조하면, 복호화기는 현재 샘플이 이전 샘플과 동일한 인덱스 코딩 모드인지 여부(즉, 현재 샘플과 이전 샘플이 모두 COPY_ABOVE 이거나 혹은 현재 샘플과 이전 샘플이 모두 INDEX 이면서 동일한 인덱스를 가지는지 그렇지 않은지 여부)를 지시하는 제1플래그(
run_copy_flag)를 파싱할 수 있다(S1611).
제1플래그(
run_copy_flag)가 1 값을 가지면(S1412에서 "Yes"), 복호화기는 현재 샘플의 Copy_Above_Flag를 이전 샘플의 Copy_Above_Flag와 동일한 값으로 설정한다(S1414). 즉, 이전 샘플의 Copy_Above_Flag가 0이면 현재 샘플의 Copy_Above_Flag은 0으로 설정되고, 따라서, 표 1을 참조하면, 현재 샘플의 팔레트 인덱스는 이전 샘플로부터 카피된다. 이전 샘플의 Copy_Above_Flag가 1이면 현재 샘플의 Copy_Above_Flag은 1로 설정되며, 따라서, 표 1을 참조하면, 현재 샘플의 팔레트 인덱스는 이전 라인(상측 행 혹은 좌측 열)에서의 동일 위치의 샘플로부터 카피된다(다시 말해, 도 13의 (a)의 수평 횡단 스캔닝에 대해 상측 행에서의 동일 위치의 샘플로부터 현재 샘플의 팔레트 인덱스가 카피되고, 도 13의 (b)의 수직 횡단 스캐닝에 대해 좌측 열에서의 동일 위치의 샘플로부터 현재 샘플의 팔레트 인덱스가 카피된다).
제1플래그(
run_copy_flag)가 0 값을 가지면(S1412에서 "No"), 복호화기는 이전 샘플의 Copy_Above_Flag가 1 값을 가지는지 여부를 판단한다(S1416). 이전 샘플의 Copy_Above_Flag가 1 값을 가지면(S1416에서 "Yes"), 복호화기는 현재 샘플의 Copy_Above_Flag를 0 값으로 설정한다(S1418). 따라서, 현재 샘플에 대해 run_copy_flag = 0 이고 Copy_Above_Flag = 0 이므로, 표 1을 참조하면, 현재 샘플의 팔레트 인덱스는 비트스트림에서 명시적으로 시그널링된다. 복호화기는 비트스트림으로부터 현재 샘플의 팔레트 인덱스를 나타내는 신택스 엘리먼트(
palette_idx_idc)를 파싱한다(S1420). 이전 샘플의 Copy_Above_Flag가 0 값을 가지면(S1416에서 "Yes"), 복호화기는 제2플래그(
copy_above_palette_indices_flag)를 더 파싱한다(S1422).
copy_above_palette_indices_flag = 1이면(S1424에서 "Yes"), 복호화기는 현재 샘플의 Copy_Above_Flag 를 1 값으로 설정한다(S1426). 따라서, 현재 샘플에 대해 run_copy_flag = 0 이고 Copy_Above_Flag = 1 이므로, 표 1을 참조하면, 현재 샘플의 팔레트 인덱스는 스캔 순서상 이전 라인(상측 행 혹은 좌측 열)에서의 동일 위치의 샘플로부터 카피된다.
copy_above_palette_indices_flag = 0이면(S1412에서 "No"), 복호화기는 현재 샘플의 Copy_Above_Flag 를 0 값으로 설정한다(S1428). 따라서, 현재 샘플에 대해 run_copy_flag = 0 이고 Copy_Above_Flag = 0 이므로, 표 1을 참조하면, 현재 샘플의 팔레트 인덱스는 비트스트림에서 명시적으로 시그널링된다. 복호화기는 비트스트림으로부터 현재 샘플의 팔레트 인덱스를 나타내는 신택스 엘리먼트(
palette_idx_idc)를 파싱한다(S1430).
여기서, 도 13의 (a)의 첫 번째 행과 도 13의 (b)의 첫 번째 열에 위치한 샘플들에 대해서는, 이전 스캔 라인이 존재하지 않는 바, 제2플래그(copy_above_palette_indices_flag)는, 시그널링되지 않고, 0 값으로 추론된다. 즉, 도 13의 (a)의 첫 번째 행과 도 13의 (b)의 첫 번째 열에 위치한 샘플들의 인덱스 코딩 모드는 디폴트로 INDEX 모드로 간주된다.
부호화기 또한 도 14에 예시된 순서와 실질적으로 동일하게 블록의 각 샘플에 대한 팔레트 인덱스를 코딩할 수 있음을 이해하여야 한다.
부호화기 및 복호화기는 팔레트 인덱스들의 1차원 어레이를, 미리 정의된 크기(예컨대, 16 샘플)의 샘플 그룹 단위로 분할하여, 전술한 팔레트 인덱스 코딩을 수행할 수도 있다. 하나의 샘플 그룹에 대한 팔레트 인덱스 코딩이 끝나면, 다음 샘플 그룹에 대한 팔레트 인덱스 코딩이 시작될 수도 있다. 또한, 하나의 샘플 그룹에 대한 팔레트 인덱스 코딩에서, 제1플래그(
run_copy_flag)와 제2플래그(
copy_above_palette_indices_flag)의 코딩이 완료된 후에, 필요한 샘플들에 대한 신택스 엘리먼트(
palette_idx_idc)이 코딩될 수도 있다.
도 15는 본 개시의 일 측면에 따른, 팔레트 인덱스 맵을 코딩하는 방법을 예시하는 개념도이다. 도 15에는 8×8 코딩 블록에 대한 팔레트 인덱스 맵(1510)이 예시되어 있으며, 팔레트 인덱스들을 스캔하는 데에 수평 횡단 스캔닝 순서를 사용하는 것을 전제한다. 팔레트 테이블은 인덱스 0과 1에 연관된 2개의 엔트리를 가지며, 이스케이프 샘플을 위한 이스케이프 인덱스로서 인덱스 3을 가진다.
도 15에는 팔레트 인덱스 맵(1510)의 두 번째 행(1512)에서의 팔레트 인덱스들에 대해 시그널링되는 제1플래그(
run_copy_flag) 및 제2플래그(
copy_above_palette_indices_flag)의 값들을 보인다. 두 번째 행(1512)에서 굵게 표시된 샘플들은 관련된 팔레트 인덱스를 명시적으로 표현하는 신택스 엘리먼트(palette_idx_idc)가 코딩되는 샘플들을 의미한다.
전술한 바와 같이, 주어진 팔레트 인덱스 맵에서 첫 번째 행(1511)의 모든 샘플들에는 INDEX 모드가 사용되고 주어진 인덱스 맵에서 모두 0 값의 팔레트 인덱스를 가지고, 전술한 바와 같이, 주어진 인덱스 맵에서 첫 번째 행(1511)의 모든 샘플들에는 INDEX 모드가 사용되므로, 첫 번째 행(1511)의 마지막 샘플(최우측 샘플에 대한 변수 Copy_Above_Flag는 0 값을 가진다. 두 번째 행(1512)에서 스캔닝 순서상 첫 번째 샘플(최우측 샘플)에 대해, 첫 번째 행(1511)의 마지막 샘플(최우측 샘플)은 이전 샘플이면서 이전 라인의 동일 위치의 샘플이다. 예시된 팔레트 인덱스 맵(1510)에서, 두 번째 행(1512)에서 스캔 순서상 첫 번째 샘플의 팔레트 인덱스는 이전 샘플과 동일하고 이전 라인의 동일 위치의 샘플과도 동일하다. 따라서, 부호화기는 두 번째 행(1512)에서 첫 번째 샘플의 팔레트 인덱스를 코딩하는 데에 사용할 인덱스 코딩 모드를 INDEX 모드와 COPY_ABOVE 모드 중에서 선택할 수 있다. 이러한 선택은 R/D 테스트에 기초할 수 있다.
만약 부호화기가 두 번째 행(1512)에서 스캔 순서상 첫 번째 샘플의 팔레트 인덱스를 COPY_ABOVE 모드로 부호화하였다면, 두 번째 행(1512)에서 첫 번째 샘플에 대해 0 값의
run_copy_flag가 시그널링되고, 추가로 1 값의
copy_above_palette_indices_flag가 시그널링된다. 복호화기는 run_copy_flag를 파싱하고, run_copy_flag = 0이고 이전 샘플(즉, 첫 번째 행(1511)의 샘플)의 Copy_Above_Flag가 0 값을 가지므로,
copy_above_palette_indices_flag를 추가로 파싱한다. 복호화기는 copy_above_palette_indices_flag = 1 이므로,
현재 샘플에 대한 Copy_Above_Flag를 1 값으로 설정한다. 그리고, 현재 샘플에 대해 run_copy_flag = 0이고 Copy_Above_Flag = 1이므로, 복호화기는 현재 샘플의 인덱스 코딩 모드를 Above Copy로 결정(추론)할 수 있다. 즉, 두 번째 행(1512)에서 첫 번째 샘플의 팔레트 인덱스는 이전 라인인 첫 번째 행에서의 동일 위치의 샘플로부터 카피된다.
두 번째 행(1512)에서 스캔 순서상 두 번째 샘플의 팔레트 인덱스는 이전 샘플과 동일하고 이전 라인의 동일 위치의 샘플과도 동일하다. 따라서, 부호화기는 두 번째 행(1512)에서 두 번째 샘플의 팔레트 인덱스를 코딩하는 데에 사용할 인덱스 코딩 모드를 INDEX 모드와 COPY_ABOVE 모드 중에서 선택할 수 있다. 이러한 선택은 R/D 테스트에 기초할 수 있다. 만약 COPY_ABOVE 모드를 선택하였다면, 두 번째 행(1512)에서 스캔 순서상 두 번째 샘플과 이전 샘플(첫 번째 샘플)은 COPY_ABOVE 모드이다. 따라서, 부호화기는 두 번째 행(1512)에서 첫 번째 샘플에 대해 1 값의
run_copy_flag를 시그널링한다. 복호화기는 현재 샘플(즉, 두 번째 행(1512)의 두 번째 샘플)에 대한 run_copy_flag를 파싱하고, run_copy_flag = 1이므로, 현재 샘플의 Copy_Above_Flag를 이전 샘플의 동일한 값(즉, 1)로 설정한다. 따라서, 현재 샘플에 대해 run_copy_flag = 0이고 Copy_Above_Flag = 1이므로, 복호화기는 현재 샘플(즉, 두 번째 행(1512)의 두 번째 샘플)의 인덱스 코딩 모드를 Above Copy로 결정(추론)할 수 있다.
두 번째 행(1512)에서 스캔 순서상 세 번째 샘플의 팔레트 인덱스는 이전 샘플의 팔레트 인덱스와 상이하고, 상측 샘플의 팔레트 인덱스와도 상이하다. 따라서, 부호화기는 두 번째 샘플의 인덱스 코딩 모드를 INDEX 모드로 선택한다. 두 번째 샘플과 첫 번째 샘플의 인덱스 코딩 모드가 상이하므로, 0 값의 run_copy_flag가 시그널링되며, 이전 샘플인 첫 번째 샘플의 Copy_Above_Flag = 1이므로, 두 번째 샘플의 Copy_Above_Flag를 0 값으로 설정한다. 두 번째 샘플에 대한 run_copy_flag = 0이고 Copy_Above_Flag = 0이므로, 부호화기는 두 번째 샘플의 팔레트 인덱스 값을 특정하는 신택스 엘리먼트(
palette_idx_idc)를 추가로 시그널링한다.
두 번째 행의 나머지 샘플들에 대해서도 유사한 방식으로 처리되며, 구체적인 설명은 생략된다.
도 13의 (c) 혹은 도 13의 (d)에 예시된 스캐닝 순서가 사용될 수도 있는 다른 일부 실시예에서, 현재 샘플의 팔레트 인덱스가 좌측 또는 상측 샘플의 팔레트 인덱스로부터 예측(카피)되는지 여부(즉, 현재 샘플의 팔레트 인덱스가 좌측 또는 상측 샘플의 팔레트 인덱스와 같은지 여부)를 지시하는 플래그(예컨대,
index_pred_flag)가 코딩될 수 있다. index_pred_flag=1은 현재 샘플의 팔레트 인덱스가 좌측 또는 상측 샘플의 팔레트 인덱스로부터 예측(카피)됨을 지시할 수 있으며, index_pred_flag=0은 예측(카피)되지 않음을 지시할 수 있다.
index_pred_flag=1인 경우에, 현재 샘플의 팔레트 인덱스가 좌측 샘플의 팔레트 인덱스과 동일한지 아니면 상측 샘플의 팔레트 인덱스와 동일한 지를 지시하는 플래그(
left_or_above_flag)가 추가로 코딩될 수도 있다. left_or_above_flag=0은 좌측 샘플의 팔레트 인덱스와 동일함을 지시하고, left_or_above_flag=1은 상측 샘플의 팔레트 인덱스와 동일함을 지시할 수 있다. 도 13의 (c) 와 도 13의 (d)에서, 현재 블록의 좌상측(uppermost-left) 샘플에 대해, index_pred_flag=0으로 추론될 수 있으며, 좌상측(uppermost-left) 샘플을 제외한 좌측 열의 샘플들에 대해 관련된 left_or_top_flag은 1으로 추론되고, 상측 열의 샘플들에 대해 관련된 left_or_top_flag은 0으로 추론될 수 있다.
좌측 또는 상측 샘플의 팔레트 인덱스로부터 관련된 팔레트 인덱스가 예측되지 않는(즉, index_pred_flag=0 인) 샘플들에 대해서는, 관련된 팔레트 인덱스의 값은 부호화기에 의해, 예를 들어, 절삭된 2진 코드(truncated binary code)로 표현되는 신택스 엘리먼트를 이용하여, 비트스트림에서 명시적으로 시그널링된다.
전술한 바와 같이, 부호화기 및 복호화기는 블록의 특정의 샘플 값에 대해, 이스케이프 샘플(예컨대, 블록을 코딩하기 위한 팔레트에 표현된 칼라 값을 가지지 않는 샘플)로서 코딩된다는 것을 표시하기 위해, 인덱스가 1 만큼 증가된 팔레트의 마지막 인덱스(즉, 이스케이프 인덱스)를 나타내는 데이터를 코딩할 수도 있다. 예를 들어, 샘플에 대한 인덱스가 이스케이프 인덱스(예컨대, 위에서 언급한 팔레트에서 마지막 인덱스)와 동일하면, 복호화기는 복호화할 샘플을 이스케이프 샘플로서 추론할 수도 있다.
인덱스 맵이 결정되면, 부호화기와 복호화기는 현재의 블록에 대한 팔레트 테이블을 참조하여 각 샘플의 팔레트 인덱스에 대응되는 컬러 성분들을 결정하여, 현재의 블록을 복원할 수 있다.
E. 이스케이프 샘플의 샘플 값 예측
그 샘플 값이 팔레트에 팔레트 엔트리로서 포함되지 않는 이스케이프 샘플에 대해, 전형적으로, 양자화된 샘플 값이 부호화기에 의해 모든 칼라 성분들에 대해 명시적으로 비트스트림에서 시그널링될 수 있다.
본 개시에 따르면, 샘플 값이 팔레트에 팔레트 엔트리로서 포함되지 않는 이스케이프 샘플에 대해, 해당 샘플 값은, 인트라 예측되는 샘플과 유사하게, 무방향성 모드(DC, Planar 등) 또는 방향성 모드로 이미 복호화된 주변블록으로부터 예측될 수도 있다.
일 예로, 이스케이프 샘플에 대해, 부호화기는 양자화된 샘플값을 명시적으로 시그널링하는 것과 주변블록으로부터 예측하는 것에 대해 RD-cost를 계산하여, 양자화된 샘플값을 명시적으로 시그널링할 지 여부를 결정할 수 있다. 그리고 부호화기는 이스케이프 샘플에 대해 양자화된 샘플값이 명시적으로 시그널링되는지 여부를 나타내는 1-비트 플래그를 비트스트림에서 시그널링할 수도 있다. 복호화기는 상기 1-비트 플래그를 파싱하여, 이스케이프 샘플에 대해 비트스트림으로부터 양자화된 샘플값을 복호화할 지, 이스케이프 모드 또는 (무방향성 또는 방향성 모드) 중 하나를 선택하고, 이미 복호화된 주변블록으로부터 이스케이프 샘플의 샘플값을 예측할지 여부를 결정할 수 있다.
다른 일 예로, 부호화기와 복호화기는 이스케이프 샘플에 대해, 그 샘플값을 이미 복호화된 주변블록으로부터 항상 예측하도록 구성될 수도 있다. 이 경우, 전술한 1-비트 플래그의 시그널링은 요구되지 않는다.
부호화기는 이스케이프 픽셀에 대해 선택된 인트라 예측 모드의 모드 번호를 나타내는 신택스 엘리먼트를 시그널링할 수 있으며, 미리 설정된 하나의 인트라 예측 모드가 사용되는 경우에, 모드 번호를 나타내는 신택스 엘리먼트의 시그널링은 요구되지 않을 수 있다.
현재 CU를 코딩한 후 팔레트 예측 리스트는 현재 CU에 대한 팔레트 테이블을 사용하여 업데이트된다. 현재 팔레트에서 사용된 엔트리들이 새로운 팔레트 예측 리스트에 삽입되며, 후속하여, 현재 팔레트에서 사용되지 않는 이전 팔레트 예측 리스트의 엔트리들은 팔레트 예측 리스트의 허용된 최대 크기에 도달할 때까지 새로운 팔레트 예측 리스트에 추가된다.
도 16은 본 개시의 일 측면에 따른, 복호화기가 비디오 데이터를 복호화하는 방법을 도시한 흐름도이다.
단계 S1610에서, 복호화기는 픽쳐가 파면 병렬 프로세싱(WPP)을 이용하여 복호화 가능함을 지시하는 신택스 엘리먼트를 비트스트림으로부터 복호화한다. 상기 신택스 엘리먼트는 SPS(Sequence parameter set) 레벨에서 시그널링될 수 있다.
단계 S1620에서, 복호화기는 픽쳐의 부호화된 데이터를 복호화한다. 복호화기는 픽쳐의 부호화된 데이터를 복호화하기 위해 파면 병렬 프로세싱을 이용할 수도 있다. 예를 들어, 복호화기는 각 CTU 행의 첫 번째 CTU의 복호화를, 이전 CTU 행의 첫 번째 CTU가 복호화된 이후에, 시작하는 방식으로, 다수의 CTU 행을 병렬적으로 복호화할 수 있다. 파면 병렬 프로세싱은 슬라이스 단위로 혹은 타일 단위로 수행될 수도 있다. 또한, 픽쳐가 파면 병렬 프로세싱을 이용하여 복호화 가능하다록 부호화되었다고 하더라도, 픽쳐의 부호화된 데이터는 반드시 다수의 CTU 행을 병렬적으로 복호화되어야 하는 것은 아니다. 따라서, 복호화기는 다수의 CTU 행을 병렬적으로 복호화하지 않을 수도 있다. 그러한 경우에도 각 CTU 행의 첫 번째 CTU의 복호화는, 이전 CTU 행의 첫 번째 CTU가 복호화된 이후에, 시작될 수 있다.
픽쳐의 부호화된 데이터를 복호화하는 것(S1620)의 일부로서, 복호화기는 팔레트 모드로 복호화되는 현재 CTU 행의 첫 번째 코딩 블록에 대해, 이전 CTU 행의 첫 번째 CTU로부터의 팔레트 데이터를 이용하여 첫 번째 코딩 블록에 대한 팔레트 테이블을 예측할 수 있다(S1621). 그리고 복호화기는 첫 번째 코딩 블록에 대해 예측된 팔레트 테이블을 이용하여, 첫 번째 코딩 블록을 팔레트 모드로 복호화할 수 있다(S1622).
첫 번째 코딩 블록에 대한 팔레트 테이블을 예측하는 것(S1621)의 일부로서, 복호화기는 이전 CTU 행의 첫 번째 CTU로부터의 팔레트 데이터의 하나 이상의 엔트리들을 첫 번째 코딩 블록에 대한 팔레트 테이블에 재사용할지 여부를 결정할 수 있다. 또한, 복호화기는 첫 번째 코딩 블록에 대한 팔레트 테이블에 추가될 새로운 엔트리들을 결정할 수도 있다.
현재 CTU 행의 첫 번째 코딩 블록을 팔레트 모드로 복호화하는 것(S1622)의 일부로서, 복호화기는 첫 번째 코딩 블록에 하나 이상의 이스케이프 샘플이 존재하는지 여부를 지시하는 이스케이프 플래그를 비트스트림으로부터 복호화할 수 있다. 복호화기는 이스케이프 플래그가 첫 번째 코딩 블록에 적어도 하나의 이스케이프 샘플이 존재함을 지시하는 경우에, 첫 번째 코딩 블록에 대해 예측된 팔레트 테이블에 추가적인 인덱스를 추가할 수 있다. 복호화기는 첫 번째 코딩 블록에 대한 팔레트 인덱스 맵을 재구성하기 위해, 첫 번째 코딩 블록의 각 샘플들에 대해 적어도 하나의 신택스 엘리먼트를 비트스트림으로부터 복호화할 수 있다. 나아가, 부호화기는 재구성된 팔레트 인덱스 맵을 기초로 추가적인 인덱스를 가지는 하나 이상의 이스케이프 샘플을 식별하고, 식별된 이스케이프 샘플에 대한 양자화된 컬러 성분 값들을 나타내는 신택스 엘리먼트를 비트스트림으로부터 복호화할 수 있다.
코딩 블록의 팔레트 인덱스 맵을 재구성하기 위해 복호화되는 적어도 하나의 신택스 엘리먼트는 관련된 샘플이 스캐닝 순서상 선행하는 이전 샘플과 동일한 인덱스 코딩 모드인지 여부를 지시하는 제1플래그(예컨대,
run_copy_flag)를 포함한다. 제1플래그는 코딩 블록의 각 샘플마다 복호화될 수 있다. 상기 적어도 하나의 신택스 엘리먼트는 관련된 샘플의 팔레트 인덱스가 스캐닝 순서상 이전 라인에서의 동일 위치의 샘플로부터 카피되는지 여부를 지시하는 제2플래그(예컨대,
copy_above_palette_indices_flag)를 더 포함한다. 제2플래그는 관련된 샘플이 이전 샘플과 동일한 인덱스 코딩 모드가 아니라고 상기 제1플래그에 의해 지시되며 상기 이전 샘플의 인덱스 코딩 모드가 INDEX 모드인 경우에 복호화될 수 있다. 또한 제2플래그는 수평 횡단 스캐닝 순서에 대해 코딩 블록의 첫 번째 행에 위치한 샘플들과 수직 횡단 스캐닝 순서에 대해 코딩 블록의 첫 번째 열에 위치한 샘플들에 대해 생략될 수 있다. 상기 적어도 하나의 신택스 엘리먼트는 관련된 샘플의 팔레트 인덱스를 명시적으로 표현하는 신택스 엘리먼트(예컨대,
palette_idx_idc)를 더 포함한다. 팔레트 인덱스를 명시적으로 표현하는 신택스 엘리먼트는 관련된 샘플이 이전 샘플과 동일한 인덱스 코딩 모드가 아니라고 제1플래그에 의해 지시되며, 관련된 샘플의 인덱스 코딩 모드가 COPY ABOVE 모드가 아닌 경우에 복호화될 수 있다.
부호화기 또한 도 16에 예시된 순서와 실질적으로 동일하게 비디오 데이터의 부호화를 수행할 수도 있음을 이해하여야 한다. 예를 들어, 부호화기는 비디오 데이터의 픽쳐가 파면 병렬 프로세싱을 이용하여 부복호화 가능함을 지시하는 신택스 엘리먼트를 부호화하고, 파면 병렬 프로세싱을 이용하여 복호화하는 것이 가능하도록 상기 픽쳐의 데이터를 부호화할 수 있다. 상기 픽쳐의 데이터를 부호화하는 것의 일부로서, 부호화기는 팔레트 모드로 부호화되는 현재 CTU 행의 첫 번째 코딩 블록에 대해, 이전 CTU 행의 첫 번째 CTU로부터의 팔레트 데이터를 이용하여 상기 첫 번째 코딩 블록에 대한 팔레트 테이블을 예측할 수 있으며, 상기 첫 번째 코딩 블록에 대해 예측된 팔레트 테이블을 이용하여, 상기 첫 번째 코딩 블록을 팔레트 모드로 부호화할 수 있다.
이상의 설명에서 예시적인 실시예들은 많은 다른 방식으로 구현될 수 있다는 것을 이해해야 한다. 하나 이상의 예시들에서 설명된 기능들 혹은 방법들은 하드웨어, 소프트웨어, 펌웨어 또는 이들의 임의의 조합으로 구현될 수 있다. 본 명세서에서 설명된 기능적 컴포넌트들은 그들의 구현 독립성을 특히 더 강조하기 위해 "...부(unit)" 로 라벨링되었음을 이해해야 한다.
한편, 본 개시에서 설명된 다양한 기능들 혹은 방법들은 하나 이상의 프로세서에 의해 판독되고 실행될 수 있는 비일시적 기록매체에 저장된 명령어들로 구현될 수도 있다. 비일시적 기록매체는, 예를 들어, 컴퓨터 시스템에 의하여 판독가능한 형태로 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 예를 들어, 비일시적 기록매체는 EPROM(erasable programmable read only memory), 플래시 드라이브, 광학 드라이브, 자기 하드 드라이브, 솔리드 스테이트 드라이브(SSD)와 같은 저장매체를 포함한다.
이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
CROSS-REFERENCE TO RELATED APPLICATION
본 특허출원은, 본 명세서에 그 전체가 참고로서 포함되는, 2019년 05월 15일 한국에 출원한 특허출원번호 제10-2019-0056975호, 2019년 09월 30일 한국에 출원한 특허출원번호 제10-2019-0120806호 및 2020년 05월 15일 한국에 출원한 특허출원번호 제10-2020-0058318호에 대해 우선권을 주장한다.
Claims (15)
- 비디오 데이터의 복호화 방법으로서,픽쳐가 파면 병렬 프로세싱(wavefront parallel processing)을 이용하여 복호화 가능함을 지시하는 신택스 엘리먼트를 비트스트림으로부터 복호화하는 단계; 및상기 픽쳐의 부호화된 데이터를 복호화하는 단계를 포함하고,상기 픽쳐의 부호화된 데이터를 복호화하는 단계는,팔레트 모드로 부호화된 현재 CTU 행의 첫 번째 코딩 블록에 대해, 이전 CTU 행의 첫 번째 CTU로부터의 팔레트 데이터를 이용하여 상기 첫 번째 코딩 블록에 대한 팔레트 테이블을 예측하는 단계; 및상기 첫 번째 코딩 블록에 대해 예측된 팔레트 테이블을 이용하여, 상기 첫 번째 코딩 블록을 팔레트 모드로 복호화하는 단계를 포함하는, 복호화 방법.
- 제1항에 있어서,상기 픽쳐의 부호화된 데이터를 복호화하는 단계는,각 CTU 행의 첫 번째 CTU의 복호화를, 이전 CTU 행의 첫 번째 CTU가 복호화된 이후에, 시작하는 방식으로, 복수의 CTU 행을 병렬적으로 복호화하는 단계를 포함하는, 복호화 방법.
- 제1항에 있어서,상기 팔레트 테이블을 예측하는 단계는,상기 이전 CTU 행의 첫 번째 CTU로부터의 팔레트 데이터의 하나 이상의 엔트리들을 상기 첫 번째 코딩 블록에 대한 팔레트 테이블에 재사용할지 여부를 결정하는 단계; 및상기 첫 번째 코딩 블록에 대한 팔레트 테이블에 추가될 새로운 엔트리들을 결정하는 단계를 포함하는, 복호화 방법.
- 제1항에 있어서,상기 현재 CTU 행의 첫 번째 코딩 블록을 팔레트 모드로 복호화하는 단계는,상기 비트스트림으로부터, 상기 첫 번째 코딩 블록에 하나 이상의 이스케이프 샘플이 존재하는지 여부를 지시하는 이스케이프 플래그를 복호화하는 단계;상기 이스케이프 플래그가 상기 첫 번째 코딩 블록에 적어도 하나의 이스케이프 샘플이 존재함을 지시하는 경우에, 상기 첫 번째 코딩 블록에 대해 예측된 팔레트 테이블에 추가적인 인덱스를 추가하는 단계;상기 첫 번째 코딩 블록에 대한 팔레트 인덱스 맵을 재구성하기 위해, 상기 비트스트림으로부터 상기 첫 번째 코딩 블록의 각 샘플마다 적어도 하나의 신택스 엘리먼트를 복호화하는 단계; 및상기 재구성된 팔레트 인덱스 맵을 기초로 상기 추가적인 인덱스를 가지는 하나 이상의 이스케이프 샘플을 식별하고, 식별된 이스케이프 샘플에 대한 양자화된 컬러 성분 값들을 나타내는 신택스 엘리먼트를 상기 비트스트림으로부터 복호화하는 단계를 포함하는, 복호화 방법.
- 제4항에 있어서,상기 적어도 하나의 신택스 엘리먼트는,관련된 샘플이 스캐닝 순서상 선행하는 이전 샘플과 동일한 인덱스 코딩 모드인지 여부를 지시하며, 상기 첫 번째 코딩 블록의 각 샘플마다 복호화되는 제1플래그;상기 관련된 샘플의 팔레트 인덱스가 스캐닝 순서상 이전 라인에서의 동일 위치의 샘플로부터 카피되는지 여부를 지시하는 제2플래그, 여기서 상기 관련된 샘플이 상기 이전 샘플과 동일한 인덱스 코딩 모드가 아니라고 상기 제1플래그에 의해 지시되며 상기 이전 샘플의 인덱스 코딩 모드가 INDEX 모드인 경우에 상기 제2 플래그가 복호화됨; 및상기 관련된 샘플이 상기 이전 샘플과 동일한 인덱스 코딩 모드가 아니라고 상기 제1플래그에 의해 지시되며, 상기 관련된 샘플의 인덱스 코딩 모드가 COPY ABOVE 모드가 아닌 경우에, 상기 관련된 샘플의 팔레트 인덱스를 명시적으로 표현하는 신택스 엘리먼트를 포함하는, 복호화 방법.
- 제4항에 있어서,상기 현재 CTU 행의 첫 번째 코딩 블록을 팔레트 모드로 복호화하는 단계는,상기 현재 CTU 행의 첫 번째 코딩 블록을 위한 팔레트 테이블로부터의 팔레트 데이터를 사용하여 상기 현재 CTU 행의 후속 코딩 블록에 대한 팔레트 테이블을 예측하는 단계를 더 포함하는, 복호화 방법.
- 제1항에 있어서,상기 픽쳐가 파면 병렬 프로세싱을 이용하여 복호화 가능함을 지시하는 상기 신택스 엘리먼트는 SPS(Sequence parameter set) 레벨에서 시그널링되는 것을 특징으로 하는, 복호화 방법.
- 비디오 데이터를 복호화하기 위한 장치로서,메모리; 및하나 이상의 프로세서를 포함하며,상기 하나 이상의 프로세서는,픽쳐가 파면 병렬 프로세싱을 이용하여 복호화 가능함을 지시하는 신택스 엘리먼트를 비트스트림으로부터 복호화하는 단계; 및상기 픽쳐의 부호화된 데이터를 복호화하는 단계를 수행하도록 구성되며,상기 픽쳐의 부호화된 데이터를 복호화하는 단계는,팔레트 모드로 부호화된 현재 CTU 행의 첫 번째 코딩 블록에 대해, 이전 CTU 행의 첫 번째 CTU로부터의 팔레트 데이터를 이용하여 상기 첫 번째 코딩 블록에 대한 팔레트 테이블을 예측하는 단계; 및상기 첫 번째 코딩 블록에 대해 예측된 팔레트 테이블을 이용하여, 상기 첫 번째 코딩 블록을 팔레트 모드로 복호화하는 단계을 포함하는, 복호화 장치.
- 제8항에 있어서,상기 픽쳐의 부호화된 데이터를 복호화하는 단계는,각 CTU 행의 첫 번째 CTU의 복호화를, 이전 CTU 행의 첫 번째 CTU가 복호화된 이후에, 시작하는 방식으로, 복수의 CTU 행을 병렬적으로 복호화하는 단계를 포함하는, 복호화 장치.
- 제8항에 있어서,상기 팔레트 테이블을 예측하는 단계는,상기 이전 CTU 행의 첫 번째 CTU로부터의 팔레트 데이터의 하나 이상의 엔트리들을 상기 첫 번째 코딩 블록에 대한 팔레트 테이블에 재사용할지 여부를 결정하는 단계; 및상기 첫 번째 코딩 블록에 대한 팔레트 테이블에 추가될 새로운 엔트리들을 결정하는 단계을 포함하는, 복호화 장치.
- 제8항에 있어서,상기 현재 CTU 행의 첫 번째 코딩 블록을 팔레트 모드로 복호화하는 단계는,상기 비트스트림으로부터, 상기 첫 번째 코딩 블록에 하나 이상의 이스케이프 샘플이 존재하는지 여부를 지시하는 이스케이프 플래그를 복호화하는 단계;상기 이스케이프 플래그가 상기 첫 번째 코딩 블록에 적어도 하나의 이스케이프 샘플이 존재함을 지시하는 경우에, 상기 첫 번째 코딩 블록에 대해 예측된 팔레트 테이블에 추가적인 인덱스를 추가하는 단계;상기 첫 번째 코딩 블록에 대한 팔레트 인덱스 맵을 재구성하기 위해, 상기 비트스트림으로부터 상기 첫 번째 코딩 블록의 각 샘플마다 적어도 하나의 신택스 엘리먼트를 복호화하는 단계; 및상기 재구성된 팔레트 인덱스 맵을 기초로 상기 추가적인 인덱스를 가지는 하나 이상의 이스케이프 샘플을 식별하고, 식별된 이스케이프 샘플에 대한 양자화된 컬러 성분 값들을 나타내는 신택스 엘리먼트를 상기 비트스트림으로부터 복호화하는 단계를 포함하는, 복호화 장치.
- 제11항에 있어서,상기 적어도 하나의 신택스 엘리먼트는,관련된 샘플이 스캐닝 순서상 선행하는 이전 샘플과 동일한 인덱스 코딩 모드인지 여부를 지시하며, 상기 첫 번째 코딩 블록의 각 샘플마다 복호화되는 제1플래그;상기 관련된 샘플의 팔레트 인덱스가 스캐닝 순서상 이전 라인에서의 동일 위치의 샘플로부터 카피되는지 여부를 지시하는 제2플래그, 여기서 상기 관련된 샘플이 상기 이전 샘플과 동일한 인덱스 코딩 모드가 아니라고 상기 제1플래그에 의해 지시되며 상기 이전 샘플의 인덱스 코딩 모드가 INDEX 모드인 경우에 상기 제2 플래그가 복호화됨; 및상기 관련된 샘플이 상기 이전 샘플과 동일한 인덱스 코딩 모드가 아니라고 상기 제1플래그에 의해 지시되며, 상기 관련된 샘플의 인덱스 코딩 모드가 COPY ABOVE 모드가 아닌 경우에, 상기 관련된 샘플의 팔레트 인덱스를 명시적으로 표현하는 신택스 엘리먼트를 포함하는, 복호화 장치.
- 제11항에 있어서,상기 현재 CTU 행의 첫 번째 코딩 블록을 팔레트 모드로 복호화하는 단계는,상기 현재 CTU 행의 첫 번째 코딩 블록을 위한 팔레트 테이블로부터의 팔레트 데이터를 사용하여 상기 현재 CTU 행의 후속 코딩 블록에 대한 팔레트 테이블을 예측하는 단계를 더 포함하는, 복호화 장치.
- 제8항에 있어서,상기 픽쳐가 파면 병렬 프로세싱을 이용하여 복호화 가능함을 지시하는 상기 신택스 엘리먼트는 SPS(Sequence parameter set) 레벨에서 시그널링되는 것을 특징으로 하는, 복호화 장치.
- 비디오 데이터의 부호화 방법으로서,픽쳐가 파면 병렬 프로세싱을 이용하여 부복호화 가능함을 지시하는 신택스 엘리먼트를 부호화하는 단계; 및상기 파면 병렬 프로세싱을 이용하여 복호화하는 것이 가능하도록 상기 픽쳐의 데이터를 부호화하는 단계를 포함하고,상기 픽쳐의 데이터를 부호화하는 단계는,팔레트 모드로 부호화되는 현재 CTU 행의 첫 번째 코딩 블록에 대해, 이전 CTU 행의 첫 번째 CTU로부터의 팔레트 데이터를 이용하여 상기 첫 번째 코딩 블록에 대한 팔레트 테이블을 예측하는 단계; 및상기 첫 번째 코딩 블록에 대해 예측된 팔레트 테이블을 이용하여, 상기 첫 번째 코딩 블록을 팔레트 모드로 부호화하는 단계를 포함하는, 부호화 방법.
Priority Applications (10)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202410624938.4A CN118646885A (zh) | 2019-05-15 | 2020-05-15 | 用于运动图像数据的并行编码和解码的方法 |
| CN202410625453.7A CN118646884A (zh) | 2019-05-15 | 2020-05-15 | 用于运动图像数据的并行编码和解码的方法 |
| US17/277,936 US11553209B2 (en) | 2019-05-15 | 2020-05-15 | Method and apparatus for parallel encoding and decoding of moving picture data |
| CN202080036152.0A CN113853789B (zh) | 2019-05-15 | 2020-05-15 | 用于运动图像数据的并行编码和解码的方法 |
| CN202410624681.2A CN118678086A (zh) | 2019-05-15 | 2020-05-15 | 用于运动图像数据的并行编码和解码的方法 |
| CN202410625276.2A CN118678087A (zh) | 2019-05-15 | 2020-05-15 | 用于运动图像数据的并行编码和解码的方法 |
| US18/078,978 US11889120B2 (en) | 2019-05-15 | 2022-12-11 | Method and apparatus for parallel encoding and decoding of moving picture data |
| US18/078,981 US11895337B2 (en) | 2019-05-15 | 2022-12-11 | Method and apparatus for parallel encoding and decoding of moving picture data |
| US18/078,983 US11902591B2 (en) | 2019-05-15 | 2022-12-11 | Method and apparatus for parallel encoding and decoding of moving picture data |
| US18/078,986 US11910023B2 (en) | 2019-05-15 | 2022-12-11 | Method and apparatus for parallel encoding and decoding of moving picture data |
Applications Claiming Priority (6)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR10-2019-0056975 | 2019-05-15 | ||
| KR20190056975 | 2019-05-15 | ||
| KR10-2019-0120806 | 2019-09-30 | ||
| KR20190120806 | 2019-09-30 | ||
| KR10-2020-0058318 | 2020-05-15 | ||
| KR1020200058318A KR20200132761A (ko) | 2019-05-15 | 2020-05-15 | 동영상 데이터의 병렬 부호화 및 복호화를 위한 방법 및 장치 |
Related Child Applications (5)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| US17/277,936 A-371-Of-International US11553209B2 (en) | 2019-05-15 | 2020-05-15 | Method and apparatus for parallel encoding and decoding of moving picture data |
| US18/078,983 Continuation US11902591B2 (en) | 2019-05-15 | 2022-12-11 | Method and apparatus for parallel encoding and decoding of moving picture data |
| US18/078,986 Continuation US11910023B2 (en) | 2019-05-15 | 2022-12-11 | Method and apparatus for parallel encoding and decoding of moving picture data |
| US18/078,978 Continuation US11889120B2 (en) | 2019-05-15 | 2022-12-11 | Method and apparatus for parallel encoding and decoding of moving picture data |
| US18/078,981 Continuation US11895337B2 (en) | 2019-05-15 | 2022-12-11 | Method and apparatus for parallel encoding and decoding of moving picture data |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2020231220A1 true WO2020231220A1 (ko) | 2020-11-19 |
Family
ID=73289704
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/KR2020/006424 Ceased WO2020231220A1 (ko) | 2019-05-15 | 2020-05-15 | 동영상 데이터의 병렬 부호화 및 복호화를 위한 방법 및 장치 |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2020231220A1 (ko) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN119071510A (zh) * | 2021-11-11 | 2024-12-03 | Oppo广东移动通信有限公司 | 用于视频编码的初始化处理 |
| CN119071510B (zh) * | 2021-11-11 | 2025-10-10 | Oppo广东移动通信有限公司 | 用于视频编码的初始化处理 |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20170002512A (ko) * | 2014-06-30 | 2017-01-06 | 인텔 코포레이션 | 비디오 인코더에 의해 비디오 프레임을 프로세싱하기 위한 기술 |
| KR20170008285A (ko) * | 2014-05-23 | 2017-01-23 | 퀄컴 인코포레이티드 | 팔레트 기반 비디오 코딩에서의 예측자 팔레트 초기화 |
| KR20170063885A (ko) * | 2014-09-30 | 2017-06-08 | 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 | 파면 병렬 프로세싱이 인에이블되는 경우의 인트라 픽쳐 예측 모드에 대한 규칙 |
| KR20180059571A (ko) * | 2012-01-20 | 2018-06-04 | 지이 비디오 컴프레션, 엘엘씨 | 병렬 처리, 전송 디멀티플렉서 및 비디오 비트스트림을 허용하는 코딩 개념 |
-
2020
- 2020-05-15 WO PCT/KR2020/006424 patent/WO2020231220A1/ko not_active Ceased
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20180059571A (ko) * | 2012-01-20 | 2018-06-04 | 지이 비디오 컴프레션, 엘엘씨 | 병렬 처리, 전송 디멀티플렉서 및 비디오 비트스트림을 허용하는 코딩 개념 |
| KR20170008285A (ko) * | 2014-05-23 | 2017-01-23 | 퀄컴 인코포레이티드 | 팔레트 기반 비디오 코딩에서의 예측자 팔레트 초기화 |
| KR20170002512A (ko) * | 2014-06-30 | 2017-01-06 | 인텔 코포레이션 | 비디오 인코더에 의해 비디오 프레임을 프로세싱하기 위한 기술 |
| KR20170063885A (ko) * | 2014-09-30 | 2017-06-08 | 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 | 파면 병렬 프로세싱이 인에이블되는 경우의 인트라 픽쳐 예측 모드에 대한 규칙 |
Non-Patent Citations (1)
| Title |
|---|
| IKAI, TOMOHIRO ET AL.: "AHG12: One CTU delay wavefront parallel processing", JVET-N0150. JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11. 14TH MEETING, 21 March 2019 (2019-03-21), Geneva, CH, XP030204065 * |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN119071510A (zh) * | 2021-11-11 | 2024-12-03 | Oppo广东移动通信有限公司 | 用于视频编码的初始化处理 |
| CN119071510B (zh) * | 2021-11-11 | 2025-10-10 | Oppo广东移动通信有限公司 | 用于视频编码的初始化处理 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| WO2021025478A1 (ko) | 동영상 데이터의 인트라 예측 코딩을 위한 방법 및 장치 | |
| WO2020185004A1 (ko) | 예측 유닛을 서브 유닛들로 분할하여 예측하는 인트라 예측 방법 및 장치 | |
| WO2017057953A1 (ko) | 비디오 코딩 시스템에서 레지듀얼 신호 코딩 방법 및 장치 | |
| WO2018080135A1 (ko) | 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체 | |
| WO2020185009A1 (ko) | 잔차블록을 효율적으로 코딩하는 방법 및 장치 | |
| WO2017159901A1 (ko) | 비디오 코딩 시스템에서 블록 구조 도출 방법 및 장치 | |
| WO2020231228A1 (ko) | 영상 복호화 장치에서 이용하는 역양자화장치 및 방법 | |
| WO2021060804A1 (ko) | 크로마블록의 잔차블록 복원 방법 및 복호화 장치 | |
| WO2021025485A1 (ko) | 비디오 부호화 및 복호화를 위한 엔트로피 코딩 | |
| WO2020242181A1 (ko) | 인트라 모드 후보 구성 방법 및 영상 복호화 장치 | |
| WO2020190077A1 (ko) | 예측모드 추정에 기반하는 인트라 예측장치 및 방법 | |
| WO2019135630A1 (ko) | 변환 계수의 부호 데이터 은닉 | |
| WO2022186616A1 (ko) | 인트라 예측모드 유도를 이용하는 비디오 코딩방법 및 장치 | |
| WO2020185027A1 (ko) | 데이터 블록에 변환 생략 모드를 효율적으로 적용하기 위한 방법 및 장치 | |
| WO2020256510A1 (ko) | 코딩 툴들을 제어하는 방법 및 장치 | |
| WO2024237502A1 (ko) | 외삽 기반의 인트라 예측을 위한 방법 | |
| WO2020190084A1 (ko) | 서브블록 단위 복원 방법 및 영상 복호화 장치 | |
| WO2023224280A1 (ko) | 혼합 성분간 예측을 사용하는 비디오 코딩을 위한 방법 및 장치 | |
| WO2023191332A1 (ko) | 적응적 다중변환선택을 이용하는 비디오 코딩을 위한 방법 및 장치 | |
| WO2022177317A1 (ko) | 서브블록 분할 기반 인트라 예측을 이용하는 비디오 코딩방법 및 장치 | |
| WO2022197138A1 (ko) | 영상 특성 기반 콘텍스트 모델을 이용하는 비디오 코딩방법 및 장치 | |
| WO2023038444A1 (ko) | 비디오 부호화/복호화 방법 및 장치 | |
| WO2021040430A1 (ko) | 차등 부호화를 이용하는 비디오 부호화 및 복호화 | |
| WO2022030980A1 (ko) | 비디오 데이터의 패치북 기반 부호화 및 복호화를 위한 방법 및 장치 | |
| WO2022119333A1 (ko) | 블록 기반 딥러닝 모델을 이용하는 비디오 코덱 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 20806731 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 20806731 Country of ref document: EP Kind code of ref document: A1 |
|
| WWG | Wipo information: grant in national office |
Ref document number: 202117058018 Country of ref document: IN |