BR122023023080A2 - IMAGE/VIDEO CODING METHOD AND DEVICE - Google Patents
IMAGE/VIDEO CODING METHOD AND DEVICE Download PDFInfo
- Publication number
- BR122023023080A2 BR122023023080A2 BR122023023080-9A BR122023023080A BR122023023080A2 BR 122023023080 A2 BR122023023080 A2 BR 122023023080A2 BR 122023023080 A BR122023023080 A BR 122023023080A BR 122023023080 A2 BR122023023080 A2 BR 122023023080A2
- Authority
- BR
- Brazil
- Prior art keywords
- information
- flag
- header
- current
- slice
- Prior art date
Links
Abstract
Trata-se de um método de decodificação de vídeo realizado por um dispositivo de decodificação de vídeo de acordo com o presente documento que compreende as etapas de: adquirir informações de imagem a partir de um fluxo de bits, sendo que as informações de imagem incluem um cabeçalho de figura associado à figura atual incluindo uma pluralidade de fatias; analisar, a partir do cabeçalho de figura, um primeiro sinalizador que indica se as informações necessárias para uma operação de interpredição para um processo de decodificação estão presentes no cabeçalho de figura; analisar, a partir do cabeçalho de figura, um segundo sinalizador que indica se as informações necessárias para uma operação de intrapredição para o processo de decodificação estão presentes no cabeçalho de figura; e gerar amostras de predição realizando-se pelo menos uma dentre intrapredição ou interpredição para as fatias na figura atual com base no primeiro sinalizador ou no segundo sinalizador.This is a video decoding method performed by a video decoding device in accordance with this document which comprises the steps of: acquiring image information from a bit stream, wherein the image information includes a figure header associated with the current figure including a plurality of slices; analyzing, from the figure header, a first flag that indicates whether information necessary for an interprediction operation for a decoding process is present in the figure header; analyzing, from the figure header, a second flag that indicates whether information necessary for an intraprediction operation for the decoding process is present in the figure header; and generating prediction samples by performing at least one of intraprediction or interprediction for the slices in the current figure based on the first flag or the second flag.
Description
[001] A presente tecnologia refere-se a um método e a um aparelho para codificar uma imagem/vídeo.[001] The present technology relates to a method and apparatus for encoding an image/video.
[002] Recentemente, a demanda por imagem/vídeo de alta resolução e alta qualidade, como 4K, 8K ou mais imagem/vídeo de Ultra Alta Definição (UHD), está aumentando em vários campos. À medida que a resolução ou qualidade da imagem/vídeo se torna mais alta, uma quantidade relativamente maior de informações ou bits é transmitida do que para os dados convencionais de imagem/vídeo. Portanto, se os dados de imagem/vídeo forem transmitidos por meio de um meio como uma linha de banda larga com/sem fio existente ou armazenados em um meio de armazenamento legado, os custos de transmissão e armazenamento aumentam rapidamente.[002] Recently, the demand for high-resolution and high-quality image/video, such as 4K, 8K or more Ultra High Definition (UHD) image/video, is increasing in various fields. As the image/video resolution or quality becomes higher, a relatively greater amount of information or bits is transmitted than for conventional image/video data. Therefore, if image/video data is transmitted over a medium such as an existing wired/wireless broadband line or stored on a legacy storage medium, transmission and storage costs increase rapidly.
[003] Além disso, os interesses e a demanda estão crescendo por conteúdo de realidade virtual (VR) e realidade artificial (AR) e meios imersivos, como holograma; e a transmissão de imagens/vídeos exibindo características de imagem/vídeo diferentes daqueles de uma imagem/vídeo real, como imagens/vídeos de jogos, também estão crescendo.[003] Additionally, interests and demand are growing for virtual reality (VR) and artificial reality (AR) content and immersive media such as hologram; and the transmission of images/videos exhibiting image/video characteristics different from those of a real image/video, such as game images/videos, are also growing.
[004] Portanto, uma técnica de compressão de imagem/vídeo altamente eficiente é necessária para comprimir e transmitir, armazenar ou reproduzir imagens/vídeos de alta resolução e alta qualidade com eficácia, conforme descrito acima.[004] Therefore, a highly efficient image/video compression technique is required to effectively compress and transmit, store, or reproduce high-resolution, high-quality images/videos as described above.
[005] Um assunto técnico da presente documento consiste em proporcionar um método e um aparelho para acentuar a eficiência de codificação de imagem/vídeo.[005] A technical subject of the present document is to provide a method and apparatus for enhancing the efficiency of image/video coding.
[006] Outro assunto técnico da presente documento consiste em proporcionar um método e um aparelho para realizar eficientemente interpredição e/ou intrapredição em codificação de imagem/vídeo.[006] Another technical subject of this document is to provide a method and apparatus for efficiently performing interprediction and/or intraprediction in image/video coding.
[007] Ainda outro assunto técnico da presente documento consiste em proporcionar um método e um aparelho para omitir uma sinalização desnecessária para interpredição e/ou intrapredição em transferir informações de imagem/vídeo.[007] Yet another technical subject of the present document is to provide a method and apparatus for omitting unnecessary signaling for interprediction and/or intraprediction in transferring image/video information.
[008] De acordo com uma modalidade do presente documento, um método de decodificação de vídeo realizado por um aparelho de decodificação de vídeo pode incluir: obter informações de imagem a partir de um fluxo de bits, sendo que as informações de imagem incluem um cabeçalho de figura relacionado a uma figura atual, sendo que a figura atual inclui uma pluralidade de fatias; analisar, a partir do cabeçalho de figura, um primeiro sinalizador que representa se informações necessárias para uma operação de interpredição para um processo de decodificação estão presentes no cabeçalho de figura; analisar, a partir do cabeçalho de figura, um segundo sinalizador que representa se informações necessárias para uma operação de intrapredição para o processo de decodificação estão presentes no cabeçalho de figura; e gerar amostras de predição realizando-se pelo menos uma dentre uma intrapredição ou uma interpredição para as fatias na figura atual com base no primeiro sinalizador e no segundo sinalizador.[008] According to an embodiment of the present document, a video decoding method performed by a video decoding apparatus may include: obtaining image information from a bit stream, wherein the image information includes a header figure related to a current figure, wherein the current figure includes a plurality of slices; analyzing, from the figure header, a first flag representing whether information necessary for an interprediction operation for a decoding process is present in the figure header; analyzing, from the figure header, a second flag representing whether information necessary for an intraprediction operation for the decoding process is present in the figure header; and generating prediction samples by performing at least one of an intraprediction or an interprediction for the slices in the current figure based on the first flag and the second flag.
[009] De acordo com outra modalidade da presente documento, um método de codificação de vídeo realizado por um aparelho de codificação de vídeo pode incluir: determinar um modo de predição de um bloco atual em uma figura atual, sendo que a figura atual inclui uma pluralidade de fatias; gerar primeiras informações que representam se informações necessárias para uma operação de interpredição para um processo de decodificação estão presentes em um cabeçalho de figura relacionado à figura atual com base no modo de predição; gerar segundas informações que representam se informações necessárias para uma operação de intrapredição para o processo de decodificação estão presentes no cabeçalho de figura com base no modo de predição; e codificar informações de imagem que incluem as primeiras informações e as segundas informações, em que as primeiras informações e as segundas informações estão incluídas no cabeçalho de figura das informações de imagem.[009] According to another embodiment of the present document, a video coding method performed by a video coding apparatus may include: determining a prediction mode of a current block in a current figure, wherein the current figure includes a plurality of slices; generating first information representing whether information necessary for an interprediction operation for a decoding process is present in a figure header related to the current figure based on the prediction mode; generating second information representing whether information necessary for an intraprediction operation for the decoding process is present in the figure header based on the prediction mode; and encoding image information that includes the first information and the second information, wherein the first information and the second information are included in the figure header of the image information.
[010] De acordo com ainda outra modalidade do presente documento, uma mídia de armazenamento digital legível por computador incluindo informações que induzem um aparelho de decodificação a executar um método de decodificação de vídeo, em que o método de decodificação pode incluir: obter informações de imagem a partir de um fluxo de bits, sendo que as informações de imagem incluem um cabeçalho de figura relacionado a uma figura atual, sendo que a figura atual inclui uma pluralidade de fatias; analisar, a partir do cabeçalho de figura, um primeiro sinalizador que representa se informações necessárias para uma operação de interpredição para um processo de decodificação estão presentes no cabeçalho de figura; analisar, a partir do cabeçalho de figura, um segundo sinalizador que representa se informações necessárias para uma operação de intrapredição para o processo de decodificação estão presentes no cabeçalho de figura; e gerar amostras de predição realizando-se pelo menos uma dentre uma intrapredição ou uma interpredição para as fatias na figura atual com base no primeiro sinalizador e no segundo sinalizador.[010] According to yet another embodiment of the present document, a computer-readable digital storage medium including information that induces a decoding apparatus to perform a video decoding method, wherein the decoding method may include: obtaining information from image from a bit stream, wherein the image information includes a picture header relating to a current picture, wherein the current picture includes a plurality of slices; analyzing, from the figure header, a first flag representing whether information necessary for an interprediction operation for a decoding process is present in the figure header; analyzing, from the figure header, a second flag representing whether information necessary for an intraprediction operation for the decoding process is present in the figure header; and generating prediction samples by performing at least one of an intraprediction or an interprediction for the slices in the current figure based on the first flag and the second flag.
[011] De acordo com uma modalidade da presente documento, a eficiência de compactação de imagem/vídeo geral pode ser acentuada.[011] According to one embodiment of the present document, the overall image/video compression efficiency can be enhanced.
[012] De acordo com uma modalidade do presente documento, a interpredição e/ou a intrapredição podem ser eficientemente realizadas durante codificação de imagem/vídeo.[012] According to an embodiment of the present document, interprediction and/or intraprediction can be efficiently performed during image/video coding.
[013] De acordo com uma modalidade do presente documento, a sinalização de um elemento de sintaxe desnecessário para a interpredição ou a intrapredição pode ser evitada durante transmissão de imagem/vídeo.[013] According to an embodiment of the present document, signaling of a syntax element unnecessary for interprediction or intraprediction can be avoided during image/video transmission.
[014] A Figura 1 mostra, de modo esquemático, um exemplo de um sistema de codificação de vídeo/imagem ao qual as modalidades da presente revelação podem ser aplicadas.[014] Figure 1 shows, schematically, an example of a video/image coding system to which the modalities of the present disclosure can be applied.
[015] A Figura 2 é um diagrama que ilustra, de modo esquemático, uma configura de um aparelho de codificação de vídeo/imagem ao qual as modalidades da presente revelação podem ser aplicadas.[015] Figure 2 is a diagram that schematically illustrates a configuration of a video/image coding apparatus to which the modalities of the present disclosure can be applied.
[016] A Figura 3 é um diagrama que ilustra, de modo esquemático, uma configura de um aparelho de decodificação de vídeo/imagem ao qual as modalidades da presente revelação podem ser aplicadas.[016] Figure 3 is a diagram that schematically illustrates a configuration of a video/image decoding apparatus to which the modalities of the present disclosure can be applied.
[017] A Figura 4 mostra um exemplo de um método de codificação de vídeo/imagem com base em intrapredição.[017] Figure 4 shows an example of a video/image coding method based on intraprediction.
[018] A Figura 5 mostra um exemplo de um método de decodificação de vídeo/imagem com base em intrapredição.[018] Figure 5 shows an example of a video/image decoding method based on intraprediction.
[019] A Figura 6 ilustra um exemplo de um método de codificação de vídeo/imagem com base em interpredição.[019] Figure 6 illustrates an example of an interprediction-based video/image coding method.
[020] A Figura 7 ilustra um exemplo de um método de decodificação de vídeo/imagem com base em interpredição.[020] Figure 7 illustrates an example of an interprediction-based video/image decoding method.
[021] As Figuras 8 e 9 ilustram, de modo esquemático, um método de codificação de vídeo/imagem e um exemplo de componentes relacionados de acordo com uma modalidade do presente documento.[021] Figures 8 and 9 schematically illustrate a video/image coding method and an example of related components according to an embodiment of the present document.
[022] As Figuras 10 e 11 ilustram, de modo esquemático, um método de decodificação de vídeo/imagem e um exemplo de componentes relacionados de acordo com uma modalidade do presente documento.[022] Figures 10 and 11 schematically illustrate a video/image decoding method and an example of related components according to an embodiment of the present document.
[023] A Figura 12 ilustra um exemplo de um sistema de streaming de conteúdos ao qual as modalidades reveladas no presente documento são aplicáveis.[023] Figure 12 illustrates an example of a content streaming system to which the modalities disclosed in this document are applicable.
[024] A divulgação da presente divulgação pode ser modificada em várias formas e modalidades específicas da mesma serão descritas e ilustradas nos desenhos. Os termos usados na presente revelação são usados apenas para descrever modalidades específicas, mas não se destinam a limitar o método revelado na presente revelação. Uma expressão de um número singular inclui uma expressão de “pelo menos um”, desde que seja claramente lida de forma diferente. Os termos como “incluir” e “ter” destinam-se a indicar que as características, números, etapas, operações, elementos, componentes ou combinações dos mesmos usados no documento existem e deve ser assim entendido que a possibilidade de existência ou adição de um ou mais diferentes recursos, números, etapas, operações, elementos, componentes ou combinações dos mesmos não são excluídos.[024] The disclosure of the present disclosure may be modified in various ways and specific embodiments thereof will be described and illustrated in the drawings. Terms used in the present disclosure are used only to describe specific embodiments, but are not intended to limit the method disclosed in the present disclosure. An expression of a singular number includes an expression of “at least one” as long as it is clearly read differently. Terms such as “include” and “have” are intended to indicate that the features, numbers, steps, operations, elements, components or combinations thereof used in the document exist and it should be understood that the possibility of the existence or addition of a or more different features, numbers, steps, operations, elements, components or combinations thereof are not excluded.
[025] Além disso, cada configura dos desenhos descritos no presente documento é uma ilustração independente para explicar funções como características que são diferentes umas das outras, e não significa que cada configura seja implementada por hardware ou software diferente mutuamente. Por exemplo, duas ou mais configurações podem ser combinadas para formar uma configura e uma configura também pode ser dividida em várias configurações. Sem se afastar da essência do método revelado da presente revelação, modalidades nas quais as configurações são combinadas e/ou separadas estão incluídas no escopo da divulgação da presente revelação.[025] Furthermore, each configuration of the drawings described in this document is an independent illustration to explain functions such as characteristics that are different from each other, and does not mean that each configuration is implemented by mutually different hardware or software. For example, two or more configurations can be combined to form a configuration, and a configuration can also be divided into multiple configurations. Without departing from the essence of the disclosed method of the present disclosure, embodiments in which configurations are combined and/or separate are included within the scope of the disclosure of the present disclosure.
[026] Doravante, modalidades da presente revelação serão descritas em detalhes com referência aos desenhos anexos. Além disso, numerais de referência semelhantes são usados para indicar elementos semelhantes ao longo dos desenhos, e as mesmas descrições nos elementos semelhantes podem ser omitidas.[026] Hereinafter, embodiments of the present disclosure will be described in detail with reference to the attached drawings. Furthermore, similar reference numerals are used to indicate similar elements throughout the drawings, and the same descriptions on similar elements may be omitted.
[027] A Figura 1 ilustra um exemplo de um sistema de codificação de vídeo/imagem ao qual as modalidades da presente revelação podem ser aplicadas.[027] Figure 1 illustrates an example of a video/image coding system to which the modalities of the present disclosure can be applied.
[028] Referindo-se à Figura 1, um sistema de codificação de vídeo/imagem pode incluir um primeiro dispositivo (um dispositivo de origem) e um segundo dispositivo (um dispositivo de recepção). O dispositivo de origem pode transmitir informações ou dados de vídeo/imagem codificados para o dispositivo de recepção por meio de um meio de armazenamento digital ou rede na forma de um arquivo ou transmissão.[028] Referring to Figure 1, a video/image coding system may include a first device (a source device) and a second device (a receiving device). The source device may transmit information or encoded video/image data to the receiving device via a digital storage medium or network in the form of a file or transmission.
[029] O dispositivo de origem pode incluir uma fonte de vídeo, um aparelho de codificação e um transmissor. O dispositivo receptor pode incluir um receptor, um aparelho de decodificação, e um processador. O aparelho de codificação pode ser denominado aparelho de codificação de vídeo/imagem, e o aparelho de decodificação pode ser denominado aparelho de decodificação de vídeo/imagem. O transmissor pode ser incluído no aparelho de codificação. O receptor pode ser incluído no aparelho de decodificação. O renderizador pode incluir uma tela, e a tela pode ser configurada como um dispositivo separado ou um componente externo.[029] The source device may include a video source, an encoding apparatus and a transmitter. The receiving device may include a receiver, a decoding apparatus, and a processor. The encoding apparatus may be called a video/image encoding apparatus, and the decoding apparatus may be called a video/image decoding apparatus. The transmitter may be included in the coding apparatus. The receiver may be included in the decoding apparatus. The renderer can include a canvas, and the canvas can be configured as a separate device or an external component.
[030] A fonte de vídeo pode adquirir vídeo/imagem por meio de um processo de captura, sintetização ou geração do vídeo/imagem. A fonte de vídeo pode incluir um dispositivo de captura de vídeo/imagem e/ou um dispositivo gerador de vídeo/imagem. O dispositivo de captura de vídeo/imagem pode incluir, por exemplo, uma ou mais câmeras, arquivos de vídeo/imagem incluindo vídeo/imagens capturados anteriormente e semelhantes. O dispositivo de geração de vídeo/imagem pode incluir, por exemplo, computadores, tablets e telefones inteligentes e pode (eletronicamente) gerar vídeo/imagens. Por exemplo, um vídeo/imagem virtual pode ser gerado através de um computador ou similar. Neste caso, o processo de captura de vídeo/imagem pode ser substituído por um processo de geração de dados relacionados.[030] The video source can acquire video/image through a process of capturing, synthesizing or generating the video/image. The video source may include a video/image capture device and/or a video/image generating device. The video/image capture device may include, for example, one or more cameras, video/image files including previously captured video/images, and the like. The video/image generating device may include, for example, computers, tablets and smart phones and may (electronically) generate video/images. For example, a virtual video/image can be generated using a computer or similar. In this case, the video/image capture process can be replaced by a related data generation process.
[031] O aparelho de codificação pode codificar vídeo/imagem de entrada. O aparelho de codificação pode executar uma série de procedimentos, como predição, transformada e quantização para compactação e eficiência de codificação. Os dados codificados (vídeo codificado/informações de imagem) podem ser produzidos na forma de um fluxo de bits.[031] The encoding apparatus can encode input video/image. The coding apparatus can perform a series of procedures such as prediction, transform, and quantization for compression and coding efficiency. The encoded data (encoded video/image information) can be output in the form of a bit stream.
[032] O transmissor pode transmitir a imagem/informações de imagem codificada ou saída de dados na forma de um fluxo de bits para o receptor do dispositivo receptor por meio de um meio de armazenamento digital ou uma rede na forma de um arquivo ou transmissão. O meio de armazenamento digital pode incluir vários meios de armazenamento, como USB, SD, CD, DVD, Blu-ray, HDD, SSD e semelhantes. O transmissor pode incluir um elemento para gerar um arquivo de mídia através de um formato de arquivo predeterminado e pode incluir um elemento para transmissão através de uma rede de difusão/comunicação. O receptor pode receber/extrair o fluxo de bits e transmitir o fluxo de bits recebido para o aparelho de decodificação.[032] The transmitter may transmit the encoded image/image information or data output in the form of a bit stream to the receiver of the receiving device via a digital storage medium or a network in the form of a file or transmission. Digital storage medium can include various storage media such as USB, SD, CD, DVD, Blu-ray, HDD, SSD and the like. The transmitter may include an element for generating a media file via a predetermined file format and may include an element for transmission over a broadcast/communication network. The receiver can receive/extract the bit stream and transmit the received bit stream to the decoding apparatus.
[033] O aparelho de decodificação pode decodificar o vídeo/imagem realizando uma série de procedimentos como desquantização, transformada inversa e predição correspondente ao funcionamento do aparelho de codificação.[033] The decoding device can decode the video/image by performing a series of procedures such as dequantization, inverse transform and prediction corresponding to the operation of the coding device.
[034] O renderizador pode renderizar o vídeo/imagem decodificado. O vídeo/imagem renderizado pode ser exibido na tela.[034] The renderer can render the decoded video/image. The rendered video/image can be displayed on the screen.
[035] O presente documento se refere à codificação de vídeo/imagem. Por exemplo, um método/modalidade revelado no presente documento pode ser aplicado a um método revelado em um padrão de codificação de vídeo versátil (VVC). Além disso, o método/modalidade revelado no presente documento pode ser aplicado a um método revelado em um padrão de codificação de vídeo essencial (EVC), padrão AOMedia Video 1 (AV1), 2a geração de padrão de codificação de áudio e vídeo (AVS2), ou um padrão de codificação de vídeo/imagem de próxima geração (por exemplo, H.267, H.268, etc.).[035] This document refers to video/image coding. For example, a method/embodiment disclosed herein may be applied to a method disclosed in a versatile video coding (VVC) standard. Furthermore, the method/embodiment disclosed herein can be applied to a method disclosed in an essential video coding (EVC) standard, AOMedia Video 1 (AV1) standard, 2nd generation audio and video coding standard (AVS2 ), or a next-generation video/image coding standard (e.g. H.267, H.268, etc.).
[036] Várias modalidades relacionadas à codificação de vídeo/imagem são apresentadas no presente documento, e as modalidades podem ser combinadas entre si exceto onde declarado em contrário.[036] Various modalities related to video/image coding are presented in this document, and the modalities may be combined with each other except where stated otherwise.
[037] No presente documento, um vídeo pode se referir a um série de imagens com o passar do tempo. Uma figura se refere, em geral, à unidade que representa uma imagem em um quadro de tempo particular, e uma fatia/ladrilho se refere à unidade que constitui uma parte da figura em termos de codificação. Uma fatia/ladrilho pode incluir uma ou mais unidades de árvore de codificação (CTUs). Uma figura pode consistir em uma ou mais fatias/ladrilhos. Uma figura pode consistir em um ou mais grupos de ladrilho. Um grupo de ladrilho pode incluir um ou mais ladrilhos. Um tijolo pode representar uma região retangular de fileiras de CTU em um ladrilho em uma figura). Um ladrilho pode ser particionado em múltiplos tijolos, sendo que cada um desses consiste em uma ou mais fileiras de CTU no ladrilho. Um ladrilho que não é particionado em múltiplos tijolos também pode ser referido como um tijolo. Uma varredura de tijolo é uma ordenação sequencial específica de CTUs que particionam uma figura onde os CTUs são ordenados consecutivamente em uma varredura rasterizada de CTU em um tijolo, tijolos em um ladrilho são ordenados consecutivamente em uma varredura rasterizada dos tijolos do ladrilho, e os ladrilhos em uma figura são ordenados consecutivamente em uma varredura rasterizada dos ladrilhos da figura. Um ladrilho é uma região retangular de CTUs em uma coluna de ladrilho particular e uma fileira de ladrilho particular em uma figura. A coluna de ladrilho é uma região retangular de CTUs tendo uma altura igual à altura da figura e uma largura especificada por elementos de sintaxe no conjunto de parâmetros de figura. A fileira de ladrilho é uma região retangular de CTUs tendo uma altura especificada por elementos de sintaxe no conjunto de parâmetros de figura e uma largura igual à largura da figura). Uma varredura de ladrilho é uma ordenação sequencial específica de CTUs particionando uma figura onde os CTUs são ordenados consecutivamente em uma varredura rasterizada de CTU em um ladrilho enquanto ladrilhos em uma figura são ordenados consecutivamente em uma varredura rasterizada dos ladrilhos da figura. Uma fatia inclui um número inteiro de tijolos de uma figura que pode estar exclusivamente contida em uma unidade de NAL única. Uma fatia pode ser composta por uma série de ladrilhos completos ou apenas uma sequência consecutiva de tijolos completos de um ladrilho. No presente documento, um grupo de ladrilho e fatia pode ser usado de modo intercambiável. Por exemplo, no presente documento, um grupo de ladrilho/cabeçalho de grupo de ladrilho pode ser referido como uma fatia/cabeçalho de fatia.[037] In this document, a video may refer to a series of images over time. A figure refers, in general, to the unit that represents an image in a particular time frame, and a slice/tile refers to the unit that constitutes a part of the figure in terms of coding. A slice/tile can include one or more coding tree units (CTUs). A figure can consist of one or more slices/tiles. A figure can consist of one or more tile groups. A tile group can include one or more tiles. A brick can represent a rectangular region of CTU rows on a tile in a figure). A tile can be partitioned into multiple bricks, each of which consists of one or more rows of CTU in the tile. A tile that is not partitioned into multiple bricks can also be referred to as a brick. A brick scan is a specific sequential ordering of CTUs that partition a figure where CTUs are ordered consecutively in a raster scan of the CTU in a brick, bricks in a tile are ordered consecutively in a raster scan of the tile's bricks, and the tiles in a figure are ordered consecutively in a raster scan of the figure's tiles. A tile is a rectangular region of CTUs in a particular tile column and a particular tile row in a figure. The tile column is a rectangular region of CTUs having a height equal to the figure height and a width specified by syntax elements in the figure parameter set. The tile row is a rectangular region of CTUs having a height specified by syntax elements in the figure parameter set and a width equal to the figure width). A tile scan is a specific sequential ordering of CTUs partitioning a figure where CTUs are ordered consecutively in a raster scan of the CTU in a tile while tiles in a figure are ordered consecutively in a raster scan of the figure's tiles. A slice includes an integer number of bricks of a figure that can be uniquely contained in a single NAL unit. A slice can be made up of a series of complete tiles or just a consecutive sequence of complete bricks of a tile. In this document, a tile and slice group may be used interchangeably. For example, in this document, a tile group/tile group header may be referred to as a slice/slice header.
[038] Um pixel ou um pel pode significar uma menor unidade que constitui uma figura (ou imagem). Da mesma forma, ‘amostra’ pode ser usada como um termo correspondente a um pixel. Uma amostra pode, em geral, representar um pixel ou um valor de um pixel, e pode representar apenas um pixel/valor de pixel de um componente de luma ou apenas um pixel/valor de pixel de um componente de croma.[038] A pixel or a pel can mean a smaller unit that constitutes a figure (or image). Similarly, ‘sample’ can be used as a term corresponding to a pixel. A swatch may, in general, represent a pixel or a value of a pixel, and may represent only a pixel/pixel value of a luma component or only a pixel/pixel value of a chroma component.
[039] Uma unidade pode representar uma unidade básica de processamento de imagem. A unidade pode incluir pelo menos uma dentre uma região específica da figura e informações relacionadas à região. Uma unidade pode incluir um bloco de luma e dois blocos de croma (por exemplo, cb, cr). A unidade pode ser usada de modo intercambiável com termos como bloco ou área em alguns casos. Em um caso geral, um bloco M*N pode incluir amostras (ou arranjos de amostra) ou um conjunto (ou arranjo) de coeficientes de transformada de M colunas e N fileiras. Alternativamente, a amostra pode significar um valor de pixel no domínio espacial, e quando esse valor de pixel for transformada ao domínio de frequência, pode significar um coeficiente de transformada no domínio de frequência.[039] A unit may represent a basic image processing unit. The unit may include at least one of a specific region of the figure and information related to the region. A unit may include one luma block and two chroma blocks (e.g. cb, cr). The unit can be used interchangeably with terms such as block or area in some cases. In a general case, an M*N block may include samples (or sample arrays) or a set (or array) of M column and N row transform coefficients. Alternatively, the sample may mean a pixel value in the spatial domain, and when that pixel value is transformed to the frequency domain, it may mean a transform coefficient in the frequency domain.
[040] No presente documento, o termo “/” “e”, deve ser interpretado para indicar “e/ou.” Por exemplo, a expressão “A/B” pode significar “A e/ou B.” Além disso, “A, B” pode significar “A e/ou B”. Além disso, “A/B/C” pode significar “pelo menos um de A, B e/ou C”. Além disso, “A/B/C” pode significar “pelo menos um de A, B e/ou C”.[040] In this document, the term “/” “and” should be interpreted to indicate “and/or.” For example, the expression “A/B” can mean “A and/or B.” Furthermore, “A, B” can mean “A and/or B”. Furthermore, “A/B/C” can mean “at least one of A, B and/or C”. Furthermore, “A/B/C” can mean “at least one of A, B and/or C”.
[041] Além disso, no documento, o termo “ou” deve ser interpretado para indicar “e/ou”. Por exemplo, a expressão “A ou B” pode compreender 1) apenas A, 2) apenas B e/ou 3) A e B. Em outras palavras, o termo “ou” neste documento deve ser interpretado para indicar “ adicional ou alternativamente”.[041] Furthermore, in the document, the term “or” must be interpreted to indicate “and/or”. For example, the expression “A or B” may comprise 1) A only, 2) B only, and/or 3) A and B. In other words, the term “or” in this document should be interpreted to indicate “additionally or alternatively ”.
[042] Ademais, os parênteses usados no presente relatório descritivo podem significar “por exemplo”. De modo específico, no caso onde “predição (intrapredição)” é expressada, pode-se indicar que “intrapredição” é proposta como um exemplo de “predição”. Em outras palavras, o termo “predição” no presente relatório descritivo não se limita à “intrapredição”, e pode-se indicar que “intrapredição” é proposta como um exemplo de “predição”. Ademais, mesmo no caso onde a “predição (isto é, intrapredição)” é expressada, pode-se indicar que “intrapredição” é proposta como um exemplo de “predição”.[042] Furthermore, the parentheses used in this specification may mean “for example”. Specifically, in the case where “prediction (intraprediction)” is expressed, it can be indicated that “intraprediction” is proposed as an example of “prediction”. In other words, the term “prediction” in the present specification is not limited to “intraprediction”, and it may be indicated that “intraprediction” is proposed as an example of “prediction”. Furthermore, even in the case where “prediction (i.e., intraprediction)” is expressed, it can be indicated that “intraprediction” is proposed as an example of “prediction”.
[043] No presente relatório descritivo, recursos técnicos individualmente explicados em um desenho podem ser individualmente implementados, ou podem ser simultaneamente implementados.[043] In this specification, technical resources individually explained in a drawing can be individually implemented, or can be simultaneously implemented.
[044] A Figura 2 é um diagrama que ilustra esquematicamente a configura de um aparelho de codificação de vídeo/imagem ao qual as modalidades da presente revelação podem ser aplicadas. Doravante, o que é referido como aparelho de codificação de vídeo pode incluir um aparelho de codificação de imagem.[044] Figure 2 is a diagram that schematically illustrates the configuration of a video/image coding apparatus to which the modalities of the present disclosure can be applied. Hereinafter, what is referred to as a video coding apparatus may include an image coding apparatus.
[045] Referindo-se à Figura 2, o aparelho de codificação 200 pode incluir e ser configurado com um particionador de imagem 210, um preditor 220, um processador residual 230, um codificador de entropia 240, um adicionador 250, um filtro 260 e uma memória 270. o preditor 220 pode incluir um interpreditor 221 e um intrapreditor 222. O processador residual 230 pode incluir um transformador 232, um quantizador 233, um desquantizador 234 e um transformador inverso 235. O processador residual 230 pode ainda incluir um subtrator 231. O adicionador 250 pode ser chamado de reconstrutor ou gerador de bloco reconstruído. O particionador de imagem 210, o preditor 220, o processador residual 230, o codificador de entropia 240, o adicionador 250 e o filtro 260, que foram descritos acima, podem ser configurados por um ou mais componentes de hardware (por exemplo, conjuntos de chips codificadores ou processadores) de acordo com uma modalidade. Além disso, a memória 270 pode incluir um armazenamento temporário de imagem decodificada (DPB), e também pode ser configurada por um meio de armazenamento digital. O componente de hardware pode ainda incluir a memória 270 como um componente interno/externo.[045] Referring to Figure 2, the coding apparatus 200 may include and be configured with an image partitioner 210, a predictor 220, a residual processor 230, an entropy encoder 240, an adder 250, a filter 260 and a memory 270. the predictor 220 may include an interpredictor 221 and an intrapredictor 222. The residual processor 230 may include a transformer 232, a quantizer 233, a dequantizer 234, and an inverse transformer 235. The residual processor 230 may further include a subtractor 231 The adder 250 may be called a rebuilder or a rebuilt block generator. Image partitioner 210, predictor 220, residual processor 230, entropy encoder 240, adder 250, and filter 260, which have been described above, may be configured by one or more hardware components (e.g., sets of encoder chips or processors) according to one embodiment. Furthermore, memory 270 may include a temporary decoded picture store (DPB), and may also be configured by a digital storage medium. The hardware component may further include memory 270 as an internal/external component.
[046] O particionador de imagem 210 pode dividir uma imagem de entrada (ou, imagem, quadro) de entrada para o aparelho de codificação 200 em uma ou mais unidades de processamento. Como exemplo, a unidade de processamento pode ser chamada de unidade de codificação (CU). Neste caso, a unidade de codificação pode ser dividida recursivamente de acordo com uma estrutura de árvore ternária de árvore binária Quad-tree (QTBTTT) de uma unidade de árvore de codificação (CTU) ou a maior unidade de codificação (LCU). Por exemplo, uma unidade de codificação pode ser dividida em uma pluralidade de unidades de codificação de uma profundidade mais profunda com base em uma estrutura de árvore quádrupla, uma estrutura de árvore binária e/ou uma estrutura de árvore ternária. Neste caso, por exemplo, a estrutura de árvore quádrupla é aplicada primeiro e a estrutura de árvore binária e/ou a estrutura de árvore ternária podem ser aplicadas posteriormente. Alternativamente, a estrutura de árvore binária também pode ser aplicada primeiro. Um procedimento de codificação de acordo com a divulgação do presente pode ser realizado com base em uma unidade de codificação final que não é mais dividida. Neste caso, com base na eficiência de codificação de acordo com características de imagem ou semelhantes, a unidade de codificação máxima pode ser usada diretamente como a unidade de codificação final ou, conforme necessário, a unidade de codificação pode ser dividida recursivamente em unidades de codificação de uma profundidade mais profunda, tal que uma unidade de codificação com um tamanho ideal pode ser usada como a unidade de codificação final. Aqui, o procedimento de codificação pode incluir um procedimento como predição, transformada e reconstrução a ser descrito posteriormente. Como outro exemplo, a unidade de processamento pode incluir ainda uma unidade de previsão (PU) ou uma unidade de transformada (TU). Neste caso, cada unidade de previsão e unidade de transformada podem ser divididas ou particionadas da unidade de codificação final mencionada anteriormente. A unidade de predição pode ser uma unidade de predição de amostra e a unidade de transformada pode ser uma unidade para induzir um coeficiente de transformada e/ou uma unidade para induzir um sinal residual do coeficiente de transformada.[046] The image partitioner 210 may divide an input image (or, image, frame) input to the encoding apparatus 200 into one or more processing units. As an example, the processing unit may be called the coding unit (CU). In this case, the coding unit can be divided recursively according to a Quad-tree binary tree ternary tree (QTBTTT) structure of a coding tree unit (CTU) or the largest coding unit (LCU). For example, a coding unit may be divided into a plurality of coding units of a deeper depth based on a quadruple tree structure, a binary tree structure, and/or a ternary tree structure. In this case, for example, the quadruple tree structure is applied first and the binary tree structure and/or the ternary tree structure can be applied later. Alternatively, the binary tree structure can also be applied first. A coding procedure in accordance with the disclosure herein may be performed based on a final coding unit that is not further divided. In this case, based on the coding efficiency according to image characteristics or the like, the maximum coding unit can be directly used as the final coding unit, or as necessary, the coding unit can be recursively divided into coding units of a deeper depth, such that an optimally sized encoding unit can be used as the final encoding unit. Here, the coding procedure may include a procedure such as prediction, transform and reconstruction to be described later. As another example, the processing unit may further include a prediction unit (PU) or a transform unit (TU). In this case, each prediction unit and transform unit can be divided or partitioned from the aforementioned final coding unit. The prediction unit may be a sample prediction unit and the transform unit may be a unit for inducing a transform coefficient and/or a unit for inducing a residual signal of the transform coefficient.
[047] A unidade pode ser usada alternadamente com o termo, como um bloco ou uma área em alguns casos. Geralmente, um bloco MxN pode representar samples compostos por M colunas e N linhas ou um conjunto de coeficientes de transformada. A amostra pode geralmente representar um pixel ou um valor do pixel e também pode representar apenas o valor de pixel/pixel de um componente luma e também representar apenas o valor de pixel/pixel de um componente croma. A amostra pode ser usada como o termo correspondente a um pixel ou um pel configurando uma imagem (ou imagem).[047] Unit can be used interchangeably with the term, as a block or an area in some cases. Generally, an MxN block can represent samples composed of M columns and N rows or a set of transform coefficients. The sample can generally represent a pixel or a pixel value and can also represent just the pixel/pixel value of a luma component and also represent just the pixel/pixel value of a chroma component. Sample can be used as the term corresponding to a pixel or a pel configuring an image (or image).
[048] O aparelho de codificação 200 pode subtrair o sinal de predição (bloco predito, arranjo de amostra de predição) emitido a partir do interpreditor 221 ou o intrapreditor 222 a partir do sinal de imagem de entrada (bloco original, arranjo de amostra original) para gerar um sinal residual (bloco residual, arranjo de amostra residual), e o sinal residual gerado é transmitido ao transformador 232. Nesse caso, conforme ilustrado, uma unidade para subtrair o sinal de predição (bloco de predição, arranjo de amostra de predição) a partir de um sinal de imagem de entrada (bloco original, arranjo de amostra original) no codificador 200 pode ser referido como um subtrator 231. O preditor 220 pode realizar predição em um bloco alvo de processamento (doravante, referido como um bloco atual) e gerar um bloco predito incluindo amostras de predição para o bloco atual. O preditor 220 pode determinar se intrapredição ou interpredição é aplicada em unidades de um bloco atual ou CU. O preditor 220 pode gerar várias informações sobre predição, tais como informações de modo de predição, e transmitir as informações geradas ao codificador de entropia 240, conforme será descrito abaixo na descrição de cada modo de predição. As informações sobre predição podem ser codificadas pelo codificador de entropia 240 e emitir sob a forma de um fluxo de bits.[048] The coding apparatus 200 may subtract the prediction signal (predicted block, prediction sample array) emitted from the interpredictor 221 or the intrapredictor 222 from the input image signal (original block, original sample array ) to generate a residual signal (residual block, residual sample array), and the generated residual signal is transmitted to transformer 232. In this case, as illustrated, a unit for subtracting the prediction signal (prediction block, sample array from prediction) from an input image signal (original block, original sample array) in the encoder 200 may be referred to as a subtractor 231. The predictor 220 may perform prediction on a processing target block (hereinafter referred to as a block current) and generate a predicted block including prediction samples for the current block. The predictor 220 can determine whether intraprediction or interprediction is applied on units of a current block or CU. The predictor 220 may generate various prediction information, such as prediction mode information, and transmit the generated information to the entropy encoder 240, as will be described below in the description of each prediction mode. The prediction information may be encoded by the entropy encoder 240 and output in the form of a bit stream.
[049] O intrapreditor 222 pode predizer um bloco atual com referência a amostras dentro de uma imagem atual. As amostras referenciadas podem estar localizadas vizinhas ao bloco atual, ou também podem estar localizadas fora do bloco atual de acordo com o modo de predição. Os modos de predição na intrapredição podem incluir uma pluralidade de modos não direcionais e uma pluralidade de modos direcionais. O modo não direcional pode incluir, por exemplo, um modo DC ou um modo planar. O modo direcional pode incluir, por exemplo, 33 modos de predição direcional ou 65 modos de predição direcional de acordo com o grau fino da direção de predição. No entanto, isso é ilustrativo e os modos de previsão direcional que são mais ou menos do que o número acima podem ser usados de acordo com a configura. O intrapreditor 222 também pode determinar o modo de predição aplicado ao bloco atual usando o modo de predição aplicado ao bloco vizinho.[049] The intrapredictor 222 can predict a current block with reference to samples within a current image. The referenced samples can be located neighboring the current block, or they can also be located outside the current block according to the prediction mode. The prediction modes in intraprediction may include a plurality of non-directional modes and a plurality of directional modes. The non-directional mode may include, for example, a DC mode or a planar mode. The directional mode may include, for example, 33 directional prediction modes or 65 directional prediction modes according to the fine degree of the prediction direction. However, this is illustrative and directional prediction modes that are more or less than the above number can be used according to the configuration. The intrapredictor 222 may also determine the prediction mode applied to the current block using the prediction mode applied to the neighboring block.
[050] O interpreditor 221 pode induzir um bloco do bloco atual predito com base em um bloco de referência (matriz de amostra de referência) especificado por um vetor de movimento em uma imagem de referência. Neste momento, a fim de diminuir a quantidade de informações de movimento transmitidas no modo de interpredição, as informações de movimento podem ser preditas em unidades de um bloco, um sub-bloco ou uma amostra com base na correlação das informações de movimento entre as bloco vizinho e bloco atual. As informações de movimento podem incluir um vetor de movimento e um índice de imagem de referência. As informações de movimento podem incluir ainda informações de direção de interpredição (predição de L0, predição de L1, predição de Bi ou semelhantes). No caso da interpredição, o bloco vizinho pode incluir um bloco vizinho espacial existente na imagem atual e um bloco vizinho temporal existente na imagem de referência. A imagem de referência incluindo o bloco de referência e a imagem de referência incluindo o bloco vizinho temporal também podem ser iguais entre si e também podem ser diferentes um do outro. O bloco vizinho temporal pode ser denominado como um bloco de referência colocado, um CU colocado (colCU) ou semelhante, e a imagem de referência incluindo o bloco vizinho temporal também pode ser chamada de uma imagem colocada (colPic). Por exemplo, o interpreditor 221 pode configurar uma lista de candidatos de informações de movimento com base nos blocos vizinhos e gerar informações indicando qual candidato é usado para derivar o vetor de movimento e/ou o índice de imagem de referência do bloco atual. A interpredição pode ser realizada com base em vários modos de predição e, por exemplo, no caso de um modo de omissão e um modo de mesclagem, o interpreditor 221 pode usar as informações de movimento do bloco vizinho como as informações de movimento do bloco atual. No caso do modo de omissão, o sinal residual não pode ser transmitido ao contrário do modo de fusão. Um modo de predição de vetor de movimento (MVP) pode indicar o vetor de movimento do bloco atual usando o vetor de movimento do bloco vizinho como um preditor de vetor de movimento e sinalizando uma diferença de vetor de movimento.[050] The interpredictor 221 may induce a block from the predicted current block based on a reference block (reference sample array) specified by a motion vector in a reference image. At this time, in order to decrease the amount of motion information transmitted in interprediction mode, motion information can be predicted in units of a block, a sub-block or a sample based on the correlation of motion information between the blocks neighbor and current block. The motion information may include a motion vector and a reference image index. The motion information may further include interprediction direction information (L0 prediction, L1 prediction, Bi prediction, or the like). In the case of interprediction, the neighboring block may include a spatial neighboring block existing in the current image and a temporal neighboring block existing in the reference image. The reference image including the reference block and the reference image including the temporal neighboring block may also be the same as each other and may also be different from each other. The temporal neighbor block may be called a collocated reference block, a collocated CU (colCU) or the like, and the reference image including the temporal neighbor block may also be called a collocated image (colPic). For example, interpredictor 221 may configure a candidate list of motion information based on neighboring blocks and generate information indicating which candidate is used to derive the motion vector and/or reference image index of the current block. Interprediction can be performed based on various prediction modes, and for example, in the case of an omit mode and a merge mode, the interpredictor 221 can use the movement information of the neighboring block as the movement information of the current block. . In case of skip mode, the residual signal cannot be transmitted unlike in melting mode. A motion vector prediction (MVP) mode can indicate the motion vector of the current block by using the motion vector of the neighboring block as a motion vector predictor and signaling a motion vector difference.
[051] O preditor 220 pode gerar um sinal de predição baseado em vários métodos de predição que serão descritos abaixo. Por exemplo, o preditor 220 pode aplicar intrapredição ou interpredição para predição de um bloco e pode aplicar simultaneamente intrapredição e interpredição. Isso pode ser denominado como inter e intrapredição combinadas (CIIP). Além disso, o preditor pode se basear em um modo de predição de cópia de bloco intra (IBC) ou se basear em um modo de paleta para predição de um bloco. O modo de predição de IBC ou o modo de paleta podem ser usados para codificação de imagem/vídeo de conteúdos como jogos, por exemplo, codificação de conteúdo em tela (SCC). IBC basicamente realiza predição em uma figura atual, mas pode ser realizado similarmente à interpredição pelo fato de que um bloco de referência é derivado na figura atual. Ou seja, IBC pode usar pelo menos uma das técnicas de interpredição descritas no presente documento. O modo de paleta pode ser visualizado como um exemplo de intracodificação ou intrapredição. Quando o modo de paleta for aplicado, um valor amostral na figura pode ser sinalizado com base nas informações sobre a tabela de paleta e índice de paleta.[051] The predictor 220 can generate a prediction signal based on various prediction methods that will be described below. For example, the predictor 220 may apply intraprediction or interprediction to predict a block and may simultaneously apply intraprediction and interprediction. This can be termed as combined inter- and intra-prediction (CIIP). Furthermore, the predictor may be based on an intra block copy (IBC) prediction mode or based on a palette mode for single-block prediction. IBC prediction mode or palette mode can be used for image/video coding of content such as games, for example, on-screen content coding (SCC). IBC basically performs prediction on a current figure, but it can be performed similarly to interprediction by the fact that a reference block is derived on the current figure. That is, IBC can use at least one of the interprediction techniques described in this document. Palette mode can be viewed as an example of intracoding or intraprediction. When palette mode is applied, a sample value in the figure can be flagged based on information about the palette table and palette index.
[052] O sinal de predição gerado pelo preditor (incluindo o interpreditor 221 e/ou o intrapreditor 222) pode ser usado para gerar um sinal reconstruído ou pode ser usado para gerar um sinal residual.[052] The prediction signal generated by the predictor (including the interpredictor 221 and/or the intrapredictor 222) can be used to generate a reconstructed signal or can be used to generate a residual signal.
[053] O transformador 232 pode gerar coeficientes de transformada aplicando-se uma técnica de transformada ao sinal residual. Por exemplo, a técnica de transformada pode incluir pelo menos uma dentre uma transformada de cosseno discreta (DCT), uma transformada de seno discreta (DST), uma transformada baseada em gráfico (GBT), ou uma transformada condicionalmente não linear (CNT). No presente documento, GBT se refere à transformação obtida a partir de um gráfico ao expressar informações de relação entre pixels no gráfico. CNT se refere à transformação obtida com base em um sinal de predição gerado usando todos os pixels previamente reconstruídos. Da mesma forma, o processo de transformação pode ser aplicado a um bloco de pixels tendo o mesmo tamanho que um quadrado ou pode ser aplicado a um bloco de um tamanho variável que não seja um quadrado.[053] Transformer 232 can generate transform coefficients by applying a transform technique to the residual signal. For example, the transform technique may include at least one of a discrete cosine transform (DCT), a discrete sine transform (DST), a graph-based transform (GBT), or a conditionally nonlinear transform (CNT). In this document, GBT refers to the transformation obtained from a graph by expressing relationship information between pixels in the graph. CNT refers to the transformation obtained based on a prediction signal generated using all previously reconstructed pixels. Likewise, the transformation process can be applied to a block of pixels having the same size as a square or can be applied to a block of a variable size that is not a square.
[054] O quantizador 233 quantiza os coeficientes de transformada e transmite os mesmos ao codificador de entropia 240, e o codificador de entropia 240 codifica o sinal quantizado (informações sobre os coeficientes de transformada quantizada) e emite o sinal codificado como um fluxo de bits. Informações sobre coeficientes de transformada quantizada podem ser referidos como informações residuais. O quantizador 233 pode rearranjar os coeficientes de transformada quantizada no bloco sob a forma de um vetor unidimensional com base em uma ordem de varredura de coeficiente e pode gerar informações sobre os coeficientes de transformada nos coeficientes de transformada quantizada sob a forma de vetor unidimensional.[054] The quantizer 233 quantizes the transform coefficients and transmits them to the entropy encoder 240, and the entropy encoder 240 encodes the quantized signal (information about the quantized transform coefficients) and outputs the encoded signal as a bit stream . Information about quantized transform coefficients can be referred to as residual information. The quantizer 233 can rearrange the quantized transform coefficients in the block in the form of a one-dimensional vector based on a coefficient sweep order and can generate information about the transform coefficients in the quantized transform coefficients in the form of a one-dimensional vector.
[055] O codificador de entropia 240 pode realizar vários métodos de codificação como, por exemplo, Golomb exponencial, codificação de comprimento variável adaptativa em contexto (CAVLC), e codificação aritmética binária adaptativa em contexto (CABAC). O codificador de entropia 240 pode codificar informações necessárias para reconstrução de vídeo/imagem (por exemplo, valores de elementos de sintaxe, etc.) além dos coeficientes de transformada quantizada juntos ou separadamente. Informações codificadas (por exemplo, informações de vídeo/imagem codificadas) podem ser transmitidas ou armazenadas em unidades de uma unidade de camada de abstração de rede (NAL) sob a forma de um fluxo de bits. As informações de vídeo/imagem podem incluir, ainda, informações sobre vários conjuntos de parâmetro, como um conjunto de parâmetros de adaptação (APS), um conjunto de parâmetros de figura (PPS), um conjunto de parâmetros de sequência (SPS), ou um conjunto de parâmetros de vídeo (VPS). Da mesma forma, as informações de vídeo/imagem podem incluir, ainda, informações de restrições gerais. No presente documento, informações e/ou elementos de sintaxe transmitidos/sinalizados a partir do aparelho de codificação ao aparelho de decodificação podem ser incluídas em informações de vídeo/imagem. As informações de vídeo/imagem podem ser codificadas através do procedimento de codificação descrito acima e incluídas no fluxo de bits. O fluxo de bits pode ser transmitido através de uma rede ou pode ser armazenado em uma mídia de armazenamento digital. No presente documento, a rede pode incluir uma rede de radiodifusão e/ou uma rede de comunicação, e a mídia de armazenamento digital pode incluir várias mídias de armazenamento como USB, SD, CD, DVD, Blu-ray, HDD e SSD. Uma unidade de transmissão (não mostrada) e/ou uma unidade de armazenamento (não mostrada) para transmitir ou armazenar um sinal emitido a partir do codificador de entropia 240 pode ser configurada como elementos internos/externos do aparelho de codificação 200, ou a unidade de transmissão pode ser incluída no codificador de entropia 240.[055] The entropy encoder 240 can perform various encoding methods such as, for example, exponential Golomb, context-adaptive variable length coding (CAVLC), and context-adaptive binary arithmetic coding (CABAC). The entropy encoder 240 may encode information necessary for video/image reconstruction (e.g., values of syntax elements, etc.) in addition to the quantized transform coefficients together or separately. Encoded information (e.g., encoded video/image information) may be transmitted or stored in units of a network abstraction layer (NAL) unit in the form of a bit stream. The video/image information may further include information about various parameter sets, such as an adaptation parameter set (APS), a figure parameter set (PPS), a sequence parameter set (SPS), or a set of video parameters (VPS). Likewise, video/image information may also include general restriction information. In this document, information and/or syntax elements transmitted/signaled from the encoding apparatus to the decoding apparatus may be included in video/image information. Video/image information can be encoded using the encoding procedure described above and included in the bit stream. The bit stream can be transmitted over a network or can be stored on digital storage media. Herein, the network may include a broadcasting network and/or a communication network, and the digital storage media may include various storage media such as USB, SD, CD, DVD, Blu-ray, HDD and SSD. A transmission unit (not shown) and/or a storage unit (not shown) for transmitting or storing a signal emitted from the entropy encoder 240 may be configured as internal/external elements of the coding apparatus 200, or the unit transmission code may be included in the entropy encoder 240.
[056] Os coeficientes de transformada quantizada Os coeficientes de transformada quantizada emitidos a partir do quantizador 233 podem ser usados para gerar um sinal de predição. Por exemplo, o sinal residual (bloco residual ou amostras residuais) pode ser reconstruído aplicando-se desquantização e transformada inversa aos coeficientes de transformada quantizada através do desquantizador 234 e a unidade de transformada inversa 235. O adicionador 250 pode adicionar o sinal residual reconstruído ao sinal de predição emitido a partir do interpreditor 221 ou do intrapreditor 222 para gerar um sinal reconstruído (figura reconstruída, bloco reconstruído, arranjo de amostra reconstruído). Quando não houver um residual para o bloco alvo de processamento, tal como quando o modo de omissão for aplicado, o bloco predito pode ser usado como um bloco reconstruído. O adicionador 250 pode ser referido como uma unidade de restauração ou um gerador de bloco de restauração. O sinal reconstruído gerado pode ser usado para intrapredição de um próximo bloco alvo de processamento na figura atual, ou pode ser usado para interpredição da próxima figura após ser filtrada conforme descrito abaixo.[056] The quantized transform coefficients The quantized transform coefficients output from the quantizer 233 can be used to generate a prediction signal. For example, the residual signal (residual block or residual samples) can be reconstructed by applying dequantization and inverse transform to the quantized transform coefficients via the dequantizer 234 and the inverse transform unit 235. The adder 250 can add the reconstructed residual signal to the prediction signal output from interpredictor 221 or intrapredictor 222 to generate a reconstructed signal (reconstructed figure, reconstructed block, reconstructed sample array). When there is no residual for the processing target block, such as when skip mode is applied, the predicted block can be used as a reconstructed block. The adder 250 may be referred to as a restoration unit or a restoration block generator. The generated reconstructed signal can be used for intra-prediction of a next processing target block in the current figure, or it can be used for inter-prediction of the next figure after being filtered as described below.
[057] Entretanto, um mapeamento de luma com escalonamento de croma (LMCS) pode ser aplicado durante um processo de codificação e/ou reconstrução de figura.[057] However, a chroma scaling luma mapping (LMCS) can be applied during a figure encoding and/or reconstruction process.
[058] O filtro 260 pode aprimorar a qualidade de imagem subjetiva/objetiva pela aplicação de filtragem ao sinal reconstruído. Por exemplo, o filtro 260 pode gerar uma figura reconstruída modificada pela aplicação de vários métodos de filtragem à figura reconstruída e armazenar a figura reconstruída modificada na memória 270, especificamente, em um DPB da memória 270. Os vários métodos de filtragem podem incluir, por exemplo, filtragem de deblocagem, um deslocamento adaptável à amostra, um filtro de loop adaptável, um filtro bilateral, e similares. O filtro 260 pode gerar vários tipos de informações relacionadas à filtragem e transferir as informações geradas ao codificador de entropia 240 como descrito posteriormente na descrição de cada método de filtragem. As informações relacionadas à filtragem podem ser codificadas pelo codificador de entropia 240 e emitidas sob a forma de um fluxo de bits.[058] Filter 260 can improve subjective/objective image quality by applying filtering to the reconstructed signal. For example, filter 260 may generate a modified reconstructed figure by applying various filtering methods to the reconstructed figure and storing the modified reconstructed figure in memory 270, specifically, in a DPB of memory 270. The various filtering methods may include, e.g. example, deblocking filtering, an adaptive sample shift, an adaptive loop filter, a bilateral filter, and the like. The filter 260 may generate various types of filtering-related information and transfer the generated information to the entropy encoder 240 as described later in the description of each filtering method. Filtering-related information may be encoded by entropy encoder 240 and output in the form of a bit stream.
[059] A figura reconstruída modificada transmitida à memória 270 pode ser usada como uma figura de referência no interpreditor 221. Quando a interpredição é aplicada através do aparelho de codificação, a incompatibilidade de predição entre o aparelho de codificação 200 e o aparelho de decodificação pode ser evitada e a eficiência de codificação pode ser aprimorada.[059] The modified reconstructed figure transmitted to memory 270 can be used as a reference figure in the interpredictor 221. When the interprediction is applied through the encoding apparatus, prediction incompatibility between the encoding apparatus 200 and the decoding apparatus may be avoided and coding efficiency can be improved.
[060] O DPB da memória 270 pode armazenar a figura reconstruída modificada para uso como a figura de referência no interpreditor 221. A memória 270 pode armazenar as informações de movimento de um bloco a partir do qual as informações de movimento na figura atual são derivadas (ou codificadas) e/ou as informações de movimento dos blocos na figura que já foram reconstruídas. As informações de movimento armazenadas podem ser transferiras ao interpreditor 221 e utilizadas como as informações de movimento do bloco vizinho espacial ou as informações de movimento do bloco vizinho temporal. A memória 270 pode armazenar as amostras reconstruídas de blocos reconstruídos na figura atual e pode transferir as amostras reconstruídas para o intrapreditor 222.[060] The DPB of memory 270 may store the modified reconstructed figure for use as the reference figure in interpredictor 221. Memory 270 may store the motion information of a block from which the motion information in the current figure is derived. (or encoded) and/or the movement information of the blocks in the figure that have already been reconstructed. The stored motion information can be transferred to the interpredictor 221 and used as the spatial neighboring block motion information or the temporal neighboring block motion information. Memory 270 may store the reconstructed samples of reconstructed blocks in the current figure and may transfer the reconstructed samples to the intrapredictor 222.
[061] A Figura 3 é um diagrama para explicar esquematicamente a configura de um aparelho de decodificação de vídeo/imagem ao qual as modalidades da presente revelação podem ser aplicadas.[061] Figure 3 is a diagram to schematically explain the configuration of a video/image decoding apparatus to which the embodiments of the present disclosure can be applied.
[062] Referindo-se à Figura 3, o aparelho de decodificação 300 pode incluir e configurado com um decodificador de entropia 310, um processador residual 320, um preditor 330, um adicionador 340, um filtro 350 e uma memória 360. O preditor 330 pode incluir um interpreditor 331 e um intrapreditor 332. O processador residual 320 pode incluir um desquantizador 322 e um transformador inverso 321. O decodificador de entropia 310, o processador residual 320, o preditor 330, o adicionador 340 e o filtro 350, que foram descritos anteriormente, podem ser configurados por um ou mais componentes de hardware (por exemplo, chipsets de decodificador ou processadores) de acordo com uma modalidade. Ademais, a memória 360 pode incluir uma memória temporária de figura decodificada (DPB) e pode ser configurada por uma mídia armazenamento digital. O componente de hardware pode incluir adicionalmente a memória 360 como um componente interno/externo.[062] Referring to Figure 3, the decoding apparatus 300 may include and configured with an entropy decoder 310, a residual processor 320, a predictor 330, an adder 340, a filter 350, and a memory 360. The predictor 330 may include an interpredictor 331 and an intrapredictor 332. The residual processor 320 may include a dequantizer 322 and an inverse transformer 321. The entropy decoder 310, the residual processor 320, the predictor 330, the adder 340, and the filter 350, which have been described previously, may be configured by one or more hardware components (e.g., decoder chipsets or processors) according to one embodiment. Furthermore, the memory 360 may include a decoded picture buffer (DPB) and may be configured by a digital storage medium. The hardware component may additionally include memory 360 as an internal/external component.
[063] Quando o fluxo de bits que inclui informações de vídeo/imagem for inserido, o aparelho de decodificação 300 pode reconstruir a imagem em resposta a um processo no qual as informações de vídeo/imagem são processadas no aparelho de codificação ilustrado na Figura 2. Por exemplo, o aparelho de decodificação 300 pode derivar as unidades/blocos com base nas informações relacionadas à partição de bloco adquiridas do fluxo de bits. O aparelho de decodificação 300 pode realizar a decodificação usando uma unidade de processamento aplicada ao aparelho de codificação. Portanto, a unidade de processamento para decodificação pode ser, por exemplo, uma unidade de codificação, e a unidade de codificação pode ser particionada de acordo com a estrutura de árvore quaternária, estrutura de árvore binária e/ou a estrutura de árvore ternária da unidade de árvore de codificação ou da unidade de codificação máxima. Uma ou mais unidades de transformada podem ser derivadas da unidade de codificação. Além disso, o sinal de imagem reconstruída decodificado e emitido através do aparelho de decodificação 300 pode ser reproduzido através de um aparelho de reprodução.[063] When the bit stream including video/image information is input, the decoding apparatus 300 may reconstruct the image in response to a process in which the video/image information is processed in the encoding apparatus illustrated in Figure 2 For example, the decoding apparatus 300 may derive the units/blocks based on the block partition-related information acquired from the bit stream. The decoding apparatus 300 may perform decoding using a processing unit applied to the encoding apparatus. Therefore, the processing unit for decoding may be, for example, an encoding unit, and the encoding unit may be partitioned according to the quaternary tree structure, binary tree structure and/or the ternary tree structure of the unit. coding tree or maximum coding unit. One or more transform units may be derived from the coding unit. Furthermore, the reconstructed image signal decoded and output through the decoding apparatus 300 can be reproduced via a playback apparatus.
[064] O aparelho de decodificação 300 pode receber um sinal emitido a partir do aparelho de codificação da Figura 2 sob a forma de um fluxo de bits, e o sinal recebido pode ser decodificado através do decodificador de entropia 310. Por exemplo, o decodificador de entropia 310 pode analisar o fluxo de bits para derivar informações (por exemplo, informações de vídeo/imagem) necessárias para reconstrução de imagem (ou reconstrução de figura). As informações de vídeo/imagem podem incluir adicionalmente informações sobre vários conjuntos de parâmetros como um conjunto de parâmetros de adaptação (APS), um conjunto de parâmetros de figura (PPS), um conjunto de parâmetros de sequência (SPS) ou um conjunto de parâmetros de vídeo (VPS). Além disso, as informações de vídeo/imagem podem incluir adicionalmente informações de restrição. O aparelho de decodificação pode decodificar adicionalmente a figura com base nas informações no conjunto de parâmetros e/ou nas informações de restrição gerais. As informações sinalizadas/recebidas e/ou elementos de sintaxe descritos posteriormente no presente documento podem ser decodificadas para decodificar o procedimento de decodificação e obtidas do fluxo de bits. Por exemplo, o decodificador de entropia 310 decodifica as informações no fluxo de bits com base em um método de codificação tal como uma codificação de Golomb exponencial, codificação de comprimento variável adaptativa em contexto (CAVLC), ou codificação aritmética adaptativa em contexto (CABAC), e elementos de sintaxe de saída necessários para reconstrução de imagem e valores quantizados de coeficientes de transformada para residual. De modo mais específico, o método de decodificação de entropia CABAC pode receber um bin correspondente a cada elemento de sintaxe no fluxo de bits, determinar um modelo de contexto usando informações de elemento de sintaxe de destino de decodificação de um bloco de destino de decodificação ou informações de um símbolo/bin decodificado em um estágio anterior, e realizar uma decodificação aritmética no bin prevendo-se uma probabilidade de ocorrência de um bin de acordo com o modelo de contexto determinado, e gerar um símbolo correspondente ao valor de cada elemento de sintaxe. Nesse caso, o método de decodificação de entropia CABAC pode atualizar o modelo de contexto usando as informações do símbolo/bin decodificado para um modelo de contexto de um próximo símbolo/bin após determinar o modelo de contexto. As informações relacionadas à predição entre as informações decodificadas pelo decodificador de entropia 310 podem ser fornecidas ao preditor (o interpreditor 332 e o intrapreditor 331), e valores residuais em que a decodificação de entropia foi realizada no decodificador de entropia 310, ou seja, os coeficientes de transformada quantizados e informações de parâmetro relacionadas, pode ser inserido no processador residual 320.[064] The decoding apparatus 300 can receive a signal emitted from the encoding apparatus of Figure 2 in the form of a bit stream, and the received signal can be decoded through the entropy decoder 310. For example, the decoder entropy 310 may analyze the bit stream to derive information (e.g., video/image information) necessary for image reconstruction (or figure reconstruction). The video/image information may additionally include information about various parameter sets such as an adaptation parameter set (APS), a figure parameter set (PPS), a sequence parameter set (SPS), or a parameter set video (VPS). Furthermore, the video/image information may additionally include restriction information. The decoding apparatus may further decode the figure based on information in the parameter set and/or general constraint information. The signaled/received information and/or syntax elements described later herein may be decoded to decode the decoding procedure and obtained from the bit stream. For example, the entropy decoder 310 decodes the information in the bit stream based on a coding method such as an exponential Golomb coding, context-adaptive variable length coding (CAVLC), or context-adaptive arithmetic coding (CABAC). , and output syntax elements required for image reconstruction and quantized values of transform-to-residual coefficients. More specifically, the CABAC entropy decoding method may receive a bin corresponding to each syntax element in the bitstream, determine a context model using decoding target syntax element information from a decoding target block, or information from a symbol/bin decoded in a previous stage, and perform an arithmetic decoding on the bin, predicting a probability of occurrence of a bin according to the determined context model, and generating a symbol corresponding to the value of each syntax element . In this case, the CABAC entropy decoding method can update the context model using the information from the decoded symbol/bin to a context model of a next symbol/bin after determining the context model. The prediction-related information between the information decoded by the entropy decoder 310 may be provided to the predictor (the interpredictor 332 and the intrapredictor 331), and residual values at which entropy decoding was performed in the entropy decoder 310, i.e., the quantized transform coefficients and related parameter information may be input into the residual processor 320.
[065] O processador residual 320 pode derivar um sinal residual (bloco residual, amostras residuais e matriz de amostra residual). Da mesma forma, as informações sobre filtragem entre as informações decodificadas pelo decodificador de entropia 310 podem ser fornecidas ao filtro 350. Entretanto, a unidade de recepção (não mostrada) para receber um sinal emitido do aparelho de codificação pode ser adicionalmente configurado como um elemento interno/externo do aparelho de decodificação 300, ou a unidade de recepção pode ser um componente do decodificador de entropia 310. Entretanto, o aparelho de decodificação de acordo com o presente documento pode ser denominado como um aparelho de decodificação de vídeo/imagem/figura, e o aparelho de decodificação pode ser dividido em um decodificador de informações (decodificador de informações de vídeo/imagem/figura) e um decodificador de amostra (decodificador de amostra de vídeo/imagem/figura). O decodificador de informações pode incluir o decodificador de entropia 310, e o decodificador de amostra pode incluir pelo menos um dentre o desquantizador 321, o transformador inverso 322, o adicionador 340, o filtro 350, a memória 360, um interpreditor 332 e um intrapreditor 331.[065] The residual processor 320 can derive a residual signal (residual block, residual samples, and residual sample matrix). Likewise, information about filtering among the information decoded by entropy decoder 310 may be provided to filter 350. However, the receiving unit (not shown) for receiving a signal emitted from the encoding apparatus may be further configured as an element internal/external decoding apparatus 300, or the receiving unit may be a component of the entropy decoder 310. However, the decoding apparatus according to the present document may be referred to as a video/image/picture decoding apparatus , and the decoding apparatus can be divided into an information decoder (video/image/picture information decoder) and a sample decoder (video/image/picture sample decoder). The information decoder may include the entropy decoder 310, and the sample decoder may include at least one of the dequantizer 321, the inverse transformer 322, the adder 340, the filter 350, the memory 360, an interpredictor 332, and an intrapredictor. 331.
[066] O desquantizador 321 pode desquantizar os coeficientes de transformada quantizados para emitir os coeficientes de transformada. O desquantizador 321 pode rearranjar os coeficientes de transformada quantizados em uma forma de bloco bidimensional. Nesse caso, o rearranjo pode ser realizado com base na ordem de varredura de coeficiente realizada pelo aparelho de codificação. O dequantizador 321 pode realizar uma desquantização para os coeficientes de transformada quantizados utilizando-se um parâmetro de quantização (por exemplo, informações de tamanho de etapa de quantização) e adquirir coeficientes de transformada.[066] The dequantizer 321 can dequantize the quantized transform coefficients to output the transform coefficients. The dequantizer 321 can rearrange the quantized transform coefficients into a two-dimensional block shape. In this case, the rearrangement can be performed based on the coefficient scanning order performed by the coding apparatus. The dequantizer 321 may perform a dequantization for the quantized transform coefficients using a quantization parameter (e.g., quantization step size information) and acquire transform coefficients.
[067] O transformador inverso 322 transforma inversamente os coeficientes de transformada para adquirir o sinal residual (bloco residual, matriz de amostra residual).[067] The inverse transformer 322 inversely transforms the transform coefficients to acquire the residual signal (residual block, residual sample matrix).
[068] O preditor 330 pode realizar a predição do bloco atual e gerar um bloco predito incluindo as amostras de predição do bloco atual. O preditor pode determinar se a intrapredição é aplicada ou a interpredição é aplicada ao bloco atual com base nas informações na predição emitida do decodificador de entropia 310 e determinar um modo de intra/interpredição específico.[068] The predictor 330 can perform the prediction of the current block and generate a predicted block including the prediction samples from the current block. The predictor may determine whether intra-prediction is applied or inter-prediction is applied to the current block based on information in the prediction emitted from the entropy decoder 310 and determine a specific intra-/inter-prediction mode.
[069] O preditor 330 pode gerar um sinal de predição com base em vários métodos de predição descritos mais adiante. Por exemplo, o preditor pode aplicar intrapredição ou interpredição para predição um bloco, e pode aplicar simultaneamente intrapredição e interpredição. Isto pode ser chamado de interpredição e intra combinada (CIIP). Além disso, o preditor pode ser baseado em um modo de predição de cópia de bloco intra (IBC) ou com base em um modo de paleta para a predição de um bloco. O modo de predição de IBC ou o modo de paleta pode ser usado para codificação de imagem/vídeo de conteúdo tais como jogos, por exemplo, codificação de conteúdo de tela (SCC). A IBC pode basicamente realizar a predição na figura atual, porém pode ser realizada de modo similar à interpredição pelo fato de que um bloco de referência é derivado na figura atual. Ou seja, a IBC pode usar pelo menos uma das técnicas de interpredição descritas no presente documento. O modo de paleta pode ser considerado como um exemplo de intracodificação ou intrapredição. Quando o modo de paleta é aplicado, as informações sobre a tabela de paleta e índice de paleta podem ser incluídas nas informações de vídeo/imagem e sinalizadas.[069] The predictor 330 may generate a prediction signal based on various prediction methods described below. For example, the predictor may apply intraprediction or interprediction to predict a block, and may simultaneously apply intraprediction and interprediction. This can be called combined inter- and intra-prediction (CIIP). Furthermore, the predictor can be based on an intra block copy (IBC) prediction mode or based on a palette mode for predicting a block. IBC prediction mode or palette mode can be used for image/video coding of content such as games, for example, screen content coding (SCC). IBC can basically perform prediction on the current figure, but it can be performed in a similar way to interprediction in that a reference block is derived on the current figure. That is, the IBC may use at least one of the interprediction techniques described in this document. Palette mode can be considered as an example of intracoding or intraprediction. When palette mode is applied, information about the palette table and palette index can be included in the video/image information and flagged.
[070] O intrapreditor 331 pode prever o bloco atual referindo-se às amostras na figura atual. As amostras referidas podem estar situadas na vizinhança do bloco atual ou podem estar situadas separadas do bloco atual de acordo com o modo de predição. Na intrapredição, os modos de predição podem incluir uma pluralidade de modos não direcionais e uma pluralidade de modos direcionais. O intrapreditor 331 pode determinar o modo de predição a ser aplicado ao bloco atual usando o modo de predição aplicado a o bloco vizinho.[070] The intrapredictor 331 can predict the current block by referring to the samples in the current figure. The referred samples may be located in the vicinity of the current block or may be located separate from the current block according to the prediction mode. In intraprediction, the prediction modes may include a plurality of non-directional modes and a plurality of directional modes. The intrapredictor 331 can determine the prediction mode to be applied to the current block using the prediction mode applied to the neighboring block.
[071] O interpreditor 332 pode derivar um bloco predito para o bloco atual com base em um bloco de referência (matriz de amostra de referência) especificado por um vetor de movimento em uma figura de referência. Nesse caso, para reduzir a quantidade de informações de movimento sendo transmitidas no modo de interpredição, as informações de movimento podem ser preditas na unidade de blocos, sub-blocos, ou amostras com base na correlação de informações de movimento entre o bloco vizinho e o bloco atual. As informações de movimento podem incluir um vetor de movimento e um índice de figura de referência. As informações de movimento podem incluir adicionalmente as informações de direção de interpredição (predição L0, predição L1, predição Bi, e similares). No caso de interpredição, o bloco vizinho pode incluir um bloco vizinho espacial existente na figura atual e um bloco vizinho temporal presente na figura de referência. Por exemplo, o interpreditor 332 pode construir uma lista de candidatos de informações de movimento com base nos blocos vizinhos e derivar um vetor de movimento do bloco atual e/ou um índice de figura de referência com base nas informações de seleção de candidato recebidas. A interpredição pode ser realizada com base em vários modos de predição, e as informações sobre a predição podem incluir informações indicando um modo de interpredição para o bloco atual.[071] Interpredictor 332 may derive a predicted block for the current block based on a reference block (reference sample matrix) specified by a motion vector in a reference figure. In this case, to reduce the amount of motion information being transmitted in interprediction mode, motion information can be predicted in unit blocks, sub-blocks, or samples based on the correlation of motion information between the neighboring block and the current block. The motion information may include a motion vector and a reference figure index. The motion information may additionally include the interprediction direction information (L0 prediction, L1 prediction, Bi prediction, and the like). In the case of interprediction, the neighboring block may include a spatial neighboring block existing in the current figure and a temporal neighboring block present in the reference figure. For example, the interpredictor 332 may construct a candidate list of motion information based on neighboring blocks and derive a current block motion vector and/or a reference figure index based on the received candidate selection information. Interprediction may be performed based on various prediction modes, and information about the prediction may include information indicating an interprediction mode for the current block.
[072] O adicionador 340 pode gerar um sinal reconstruído (figura reconstruída, bloco reconstruído ou matriz de amostra reconstruída) pela soma do sinal residual obtido ao sinal de predição (bloco predito ou matriz de amostra predita) emitido do preditor (incluindo o interpreditor 332 e/ou o intrapreditor 331). Se não houver resíduo para o bloco alvo de processamento, como um caso onde um modo de omissão é aplicado, o bloco predito pode ser usado como o bloco reconstruído.[072] The adder 340 can generate a reconstructed signal (reconstructed figure, reconstructed block or reconstructed sample matrix) by summing the residual signal obtained to the prediction signal (predicted block or predicted sample matrix) emitted from the predictor (including the interpredictor 332 and/or the intrapredictor 331). If there is no residue for the processing target block, such as a case where an omit mode is applied, the predicted block can be used as the reconstructed block.
[073] O adicionador 340 pode ser denominado como um reconstrutor ou um gerador de bloco reconstruído. O sinal reconstruído gerado pode ser usado para intrapredição de um próximo bloco que será processado na figura atual, e conforme descrito posteriormente, também pode ser emitido através da filtragem, ou também pode ser usado para interpredição de uma próxima figura.[073] Adder 340 can be referred to as a rebuilder or a reconstructed block generator. The reconstructed signal generated can be used for intraprediction of a next block that will be processed in the current figure, and as described later, it can also be output through filtering, or it can also be used for interprediction of a next figure.
[074] No entanto, um mapeamento luma com escalonamento croma (LMCS) também pode ser aplicado no processo de decodificação de figura.[074] However, a luma mapping with chroma scaling (LMCS) can also be applied in the figure decoding process.
[075] O filtro 350 pode aprimorar a qualidade de imagem subjetiva/objetiva pela aplicação de filtragem ao sinal reconstruído. Por exemplo, o filtro 350 pode gerar uma figura reconstruída modificada pela aplicação de vários métodos de filtragem à figura reconstruída e armazenar a figura reconstruída modificada na memória 360, especificamente, em um DPB da memória 360. Os vários métodos de filtragem podem incluir, por exemplo, filtragem de deblocagem, um deslocamento adaptável à amostra, um filtro de loop adaptável, um filtro bilateral, e similares.[075] Filter 350 can improve subjective/objective image quality by applying filtering to the reconstructed signal. For example, filter 350 may generate a modified reconstructed figure by applying various filtering methods to the reconstructed figure and storing the modified reconstructed figure in memory 360, specifically, in a DPB of memory 360. The various filtering methods may include, e.g. example, deblocking filtering, an adaptive sample shift, an adaptive loop filter, a bilateral filter, and the like.
[076] A figura reconstruída (modificada) armazenada no DPB da memória 360 pode ser usada como uma figura de referência no interpreditor 332. A memória 360 pode armazenar as informações de movimento do bloco a partir do qual as informações de movimento na figura atual são derivadas (ou decodificadas) e/ou as informações de movimento dos blocos na figura que já foram reconstruídas. As informações de movimento armazenadas podem ser transferidas ao interpreditor 332 para serem usadas como as informações de movimento do bloco vizinho espacial ou as informações de movimento do bloco vizinho temporal. A memória 360 pode armazenar as amostras reconstruídas de blocos reconstruídos na figura atual e transferir as amostras reconstruídas para o intrapreditor 331.[076] The reconstructed (modified) figure stored in the DPB of memory 360 can be used as a reference figure in interpredictor 332. Memory 360 can store the motion information of the block from which the motion information in the current figure is derived (or decoded) and/or the movement information of the blocks in the figure that have already been reconstructed. The stored motion information may be transferred to the interpredictor 332 to be used as the spatial neighbor block motion information or the temporal neighbor block motion information. The memory 360 may store the reconstructed samples of reconstructed blocks in the current figure and transfer the reconstructed samples to the intrapredictor 331.
[077] No presente documento, as modalidades descritas no filtro 260, o interpreditor 221 e o intrapreditor 222 do aparelho de codificação 200 podem ser aplicadas igualmente ou corresponderem ao filtro 350, ao interpreditor 332 e ao intrapreditor 331.[077] In the present document, the embodiments described in the filter 260, the interpredictor 221 and the intrapredictor 222 of the coding apparatus 200 can be applied equally or correspond to the filter 350, the interpredictor 332 and the intrapredictor 331.
[078] O método de codificação de vídeo/imagem de acordo com o presente documento pode ser realizado com base na estrutura de particionamento a seguir. De modo específico, procedimentos de predição, processamento residual (transformada (inversa) e (des)quantização), codificação de elemento de sintaxe e filtragem a serem descritos posteriormente podem ser realizados com base em CTU e CU (e/ou TU e PU) derivados com base na estrutura de particionamento. Um procedimento de particionamento de bloco pode ser realizado pelo particionador de imagem 210 do aparelho de codificação descrito anteriormente, e informações relacionadas a particionamento podem ser processadas (codificadas) pelo codificador de entropia 240, e podem ser transferidas ao aparelho de decodificação sob a forma de um fluxo de bits. O decodificador de entropia 310 do aparelho de decodificação pode derivar a estrutura de particionamento de bloco da figura atual com base nas informações relacionada a particionamento obtidas a partir do fluxo de bits, e com base nisso, pode realizar uma série de procedimentos para decodificação de imagem (por exemplo, predição, processamento residual, reconstrução de bloco/figura e filtragem em laço). O tamanho de CU e o tamanho de TU podem ser iguais entre si, ou uma pluralidade de TUs podem estar presentes na área de CU. Entretanto, o tamanho de CU pode genericamente representar um tamanho de bloco de codificação (CB) de componente de luma (amostra). O tamanho de TU pode genericamente representar um tamanho de bloco de transformada (TB) de componente de luma (amostra). Um tamanho de CB ou TB de componente de croma (amostra) pode ser derivado com base no tamanho de CB ou TB de componente de luma (amostra) de acordo com uma razão de componente de acordo com um formato de cor (formato de croma, por exemplo, 4:4:4, 4:2:2, 4:2:0, e similares) da figura/imagem. O tamanho de TU pode ser derivado com base em maxTbSize. Por exemplo, se o tamanho de CU for maior que maxTbSize, uma pluralidade de TUs (TBs) de maxTbSize pode ser derivada, e a transformada / transformada inversa podem ser realizadas na unidade do TU (TB). Ademais, por exemplo, no caso onde intrapredição é aplicada, o modo/tipo de intrapredição pode ser derivado na unidade de CU (ou CB), e a derivação de uma amostra de referência vizinha e a geração de uma amostra de predição podem ser realizadas na unidade de TU (ou TB). Nesse caso, uma ou uma pluralidade de TUs (ou TBs) podem estar presentes em uma área de CU (ou CB), e, nesse caso, a pluralidade de TUs (ou TBs) pode compartilhar o mesmo modo/tipo de intrapredição.[078] The video/image coding method according to the present document can be carried out based on the following partitioning structure. Specifically, prediction procedures, residual processing ((inverse) transform and (de)quantization), syntax element coding and filtering to be described later can be performed based on CTU and CU (and/or TU and PU) derived based on the partitioning structure. A block partitioning procedure may be performed by the image partitioner 210 of the encoding apparatus described above, and partitioning-related information may be processed (encoded) by the entropy encoder 240, and may be transferred to the decoding apparatus in the form of a stream of bits. The entropy decoder 310 of the decoding apparatus can derive the block partitioning structure of the current picture based on the partitioning-related information obtained from the bit stream, and based on this, can perform a series of image decoding procedures. (e.g., prediction, residual processing, block/figure reconstruction, and loop filtering). The CU size and the TU size may be equal to each other, or a plurality of TUs may be present in the CU area. However, the CU size can generically represent a luma component (sample) coding block (CB) size. The TU size can generically represent a luma component (sample) transform block (TB) size. A chroma component (sample) CB or TB size can be derived based on the luma component (sample) CB or TB size according to a component ratio according to a color format (chroma format, for example, 4:4:4, 4:2:2, 4:2:0, and similar) of the figure/image. The size of TU can be derived based on maxTbSize. For example, if the size of CU is greater than maxTbSize, a plurality of TUs (TBs) of maxTbSize can be derived, and the transform/inverse transform can be performed in the unit of the TU (TB). Furthermore, for example, in the case where intraprediction is applied, the mode/type of intraprediction can be derived in the CU (or CB) unit, and the derivation of a neighboring reference sample and the generation of a prediction sample can be performed in the TU (or TB) unit. In this case, one or a plurality of TUs (or TBs) may be present in a CU (or CB) area, and in this case, the plurality of TUs (or TBs) may share the same intraprediction mode/type.
[079] Ademais, em codificação de vídeo/imagem de acordo com o presente documento, a unidade de processamento de imagem pode ter uma estrutura hierárquica. Uma figura pode ser dividida em um ou mais ladrilhos, tijolos, fatias e/ou grupos de ladrilhos. Uma fatia pode incluir um ou mais tijolos. Um tijolo pode incluir uma ou mais fileiras de CTU em um ladrilho. A fatia pode incluir um número inteiro de tijolos da figura. Um grupo de ladrilhos pode incluir um ou mais ladrilhos. Um ladrilho é uma região retangular de CTUs dentro de uma coluna de ladrilho particular e uma fileira de ladrilho particular em uma figura. O grupo de ladrilhos pode incluir um número inteiro de ladrilhos de acordo com a varredura rasterizada de ladrilho na figura. Um cabeçalho de fatia pode portar informações/parâmetros que podem ser aplicados à fatia correspondente (blocos na fatia). No caso onde o aparelho de codificação/decodificação tem um processador de múltiplos núcleos, os procedimentos de codificação/decodificação para o ladrilho, fatia, tijolo e/ou grupo de ladrilhos podem ser processados em paralelo. No presente documento, a fatia ou o grupo de ladrilhos pode ser usado de modo intercambiável. Ou seja, o cabeçalho de grupo de ladrilhos pode ser denominado como um cabeçalho de fatia. No presente documento, a fatia pode ter um dos tipos de fatias incluindo uma fatia intra (I), uma fatia preditiva (P) e uma fatia bipreditiva (B). Para predição de blocos na fatia I, a interpredição pode não ser usada, mas apenas a intrapredição pode ser usada. Mesmo nesse caso, o valor de amostra original pode ser codificado e sinalizado sem a predição. Para blocos na fatia P, a intrapredição ou a interpredição podem ser usadas, e no caso de usar a interpredição, apenas a unipredição pode ser usada. Entretanto, para blocos na fatia B, a intrapredição ou a interpredição podem ser usadas, e no caso de usar a interpredição, maximamente até a bipredição pode ser usada.[079] Furthermore, in video/image coding according to this document, the image processing unit may have a hierarchical structure. A figure can be divided into one or more tiles, bricks, slices and/or groups of tiles. A slice can include one or more bricks. A brick may include one or more CTU rows in a tile. The slice can include an integer number of bricks in the figure. A tile group can include one or more tiles. A tile is a rectangular region of CTUs within a particular tile column and a particular tile row in a figure. The tile group can include an integer number of tiles according to the tile raster scan in the figure. A slice header can carry information/parameters that can be applied to the corresponding slice (blocks in the slice). In the case where the encoding/decoding apparatus has a multi-core processor, the encoding/decoding procedures for the tile, slice, brick and/or group of tiles may be processed in parallel. In this document, the slice or group of tiles may be used interchangeably. That is, the tile group header can be termed as a slice header. Herein, the slice may have one of the types of slices including an intra (I) slice, a predictive (P) slice, and a bi-predictive (B) slice. For block prediction in slice I, interprediction may not be used, but only intraprediction may be used. Even in this case, the original sample value can be encoded and flagged without the prediction. For blocks in slice P, intraprediction or interprediction can be used, and in case of using interprediction, only uniprediction can be used. However, for blocks in slice B, intraprediction or interprediction can be used, and in case of using interprediction, maximally even biprediction can be used.
[080] De acordo com as características (por exemplo, resolução) da imagem de vídeo, ou em consideração da eficiência de codificação ou processamento paralelo, o codificador pode determinar o ladrilho / grupo de ladrilhos, tijolo, fatia, tamanhos de unidade de codificação máxima e mínima, e informações correspondentes ou informações capazes de induzir as mesmas podem ser incluídas no fluxo de bits.[080] According to the characteristics (e.g., resolution) of the video image, or in consideration of coding efficiency or parallel processing, the encoder may determine the tile/tile group, brick, slice, coding unit sizes maximum and minimum, and corresponding information or information capable of inducing the same may be included in the bit stream.
[081] O decodificador pode obter informações que representam se o tijolo / grupo de tijolos, fatia ou CTU no ladrilho da figura atual foram particionados em uma pluralidade de unidades de codificação. Obtendo-se (transmitindo-se) essas informações apenas sob uma condição específica, a eficiência pode ser acentuada.[081] The decoder may obtain information representing whether the brick/group of bricks, slice, or CTU in the tile of the current figure have been partitioned into a plurality of coding units. By obtaining (transmitting) this information only under a specific condition, efficiency can be enhanced.
[082] Entretanto, conforme descrito anteriormente, uma figura pode incluir uma pluralidade de fatias, e uma fatia pode incluir um cabeçalho de fatia e dados de fatia. Nesse caso, um cabeçalho de figura pode ser adicionalmente adicionado para a pluralidade de fatias (conjunto de cabeçalho de fatia e dados de fatia) em uma figura. O cabeçalho de figura (sintaxe de cabeçalho de figura) pode incluir informações/parâmetros capazes de serem comumente aplicadas à figura. O cabeçalho de fatia (sintaxe de cabeçalho de fatia) pode incluir informações/parâmetros capazes de serem comumente aplicados à fatia. Um conjunto de parâmetros de adaptação (APS) ou um conjunto de parâmetros de figura (PPS) podem incluir informações/parâmetros capazes de serem comumente aplicados a uma ou mais figurações. Um conjunto de parâmetros de sequência (SPS) pode incluir informações/parâmetros capazes de serem comumente aplicados a uma ou mais sequências. Um conjunto de parâmetros de vídeo (VPS) pode incluir informações/parâmetros capazes de serem comumente aplicados a múltiplas camadas. Um conjunto de parâmetros de decodificação (DPS) pode incluir informações/parâmetros capazes de serem comumente aplicados ao vídeo geral. O DPS pode incluir informações/parâmetros relacionados à concatenação de uma sequência de vídeo codificada (CVS).[082] However, as described previously, a figure may include a plurality of slices, and a slice may include a slice header and slice data. In this case, a figure header can be additionally added for the plurality of slices (set of slice header and slice data) in a figure. The figure header (figure header syntax) may include information/parameters capable of being commonly applied to the figure. The slice header (slice header syntax) may include information/parameters capable of being commonly applied to the slice. An adaptation parameter set (APS) or a figure parameter set (PPS) may include information/parameters capable of being commonly applied to one or more figures. A sequence parameter set (SPS) may include information/parameters capable of being commonly applied to one or more sequences. A video parameter set (VPS) may include information/parameters capable of being commonly applied to multiple layers. A decoding parameter set (DPS) may include information/parameters capable of being commonly applied to the overall video. The DPS may include information/parameters related to the concatenation of a coded video sequence (CVS).
[083] No presente documento, uma sintaxe de camada superior pode incluir pelo menos uma dentre a sintaxe de APS, sintaxe de PPS, sintaxe de SPS, sintaxe de VPS, sintaxe de DPS, sintaxe de cabeçalho de figura e sintaxe de cabeçalho de fatia.[083] In this document, a higher layer syntax may include at least one of APS syntax, PPS syntax, SPS syntax, VPS syntax, DPS syntax, figure header syntax and slice header syntax .
[084] Ademais, por exemplo, informações sobre a divisão e a configura do ladrilho / grupo de ladrilhos / tijolo / fatia podem ser configuradas pela extremidade de codificação através da sintaxe de nível superior, e podem ser transferidas ao aparelho de decodificação sob a forma de um fluxo de bits.[084] Furthermore, for example, information about the division and configuration of the tile / group of tiles / brick / slice can be configured by the encoding end through the higher-level syntax, and can be transferred to the decoding apparatus in the form of a bit stream.
[085] No presente documento, pelo menos uma dentre quantização/desquantização e/ou transformada/transformada inversa pode ser omitida. Quando a quantização/desquantização for omitida, o coeficiente de transformada quantizada pode ser referido como um coeficiente de transformada. Quando a transformada/transformada inversa for omitida, o coeficiente de transformada pode ser denominado como um coeficiente ou um coeficiente residual ou ainda pode ser denominado como coeficiente de transformada para uniformidade de expressão.[085] In this document, at least one of quantization/dequantization and/or transformed/inverse transformed may be omitted. When quantization/dequantization is omitted, the quantized transform coefficient may be referred to as a transform coefficient. When the transform/inverse transform is omitted, the transform coefficient may be termed as a coefficient or a residual coefficient or may be termed as a transform coefficient for uniformity of expression.
[086] No presente documento, o coeficiente de transformada quantizada e o coeficiente de transformada podem ser referidos como um coeficiente de transformada e um coeficiente de transformada escalonado, respectivamente. Nesse caso, as informações residuais podem incluir informações sobre coeficientes de transformada, e as informações sobre os coeficientes de transformada podem ser sinalizados através de sintaxe de codificação residual. Os coeficientes de transformada podem ser derivados com base nas informações residuais (ou informações sobre os coeficientes de transformada), e coeficientes de transformada escalonados podem ser derivados através de transformada inversa (escalonamento) sobre os coeficientes de transformada. Amostras residuais podem ser derivadas com base em transformada inversa (transforma) dos coeficientes de transformada escalonados. Isso também pode ser aplicado/expressado em outras partes do presente documento.[086] In this document, the quantized transform coefficient and the transform coefficient may be referred to as a transform coefficient and a scaled transform coefficient, respectively. In this case, the residual information may include information about transform coefficients, and the information about transform coefficients may be signaled through residual encoding syntax. Transform coefficients can be derived based on the residual information (or information about the transform coefficients), and scaled transform coefficients can be derived by inverse transforming (scaling) on the transform coefficients. Residual samples can be derived based on inverse transform (transform) of the scaled transform coefficients. This may also be applied/expressed elsewhere in this document.
[087] Conforme os conteúdos descritos anteriormente, o aparelho de codificação pode executar vários métodos de codificação, como, por exemplo, Golomb exponencial, codificação de comprimento variável adaptável ao contexto (CAVLC), codificação aritmética binária adaptativa ao contexto (CABAC) e codificação aritmética binária adaptativa ao contexto (CABAC). Ademais, o aparelho de decodificação pode decodificar informações no fluxo de bits com base no método de codificação, tal como o Golomb exponencial, CAVLC ou CABAC, e pode emitir um valor de um elemento de sintaxe e valores quantizados de coeficientes de transformada para residual, sendo necessário para reconstrução de imagem. Por exemplo, os métodos de codificação descritos anteriormente podem ser executados conforme nos conteúdos que serão descritos posteriormente.[087] According to the contents described above, the coding apparatus can perform various coding methods, such as, for example, exponential Golomb, context-adaptive variable-length coding (CAVLC), context-adaptive binary arithmetic coding (CABAC) and context-adaptive binary arithmetic (CABAC). Furthermore, the decoding apparatus may decode information in the bit stream based on the encoding method, such as exponential Golomb, CAVLC or CABAC, and may output a value of a syntax element and quantized values of transform-to-residual coefficients. necessary for image reconstruction. For example, the coding methods described above can be performed as per the contents that will be described later.
[088] No presente documento, a intrapredição pode representar a predição que gera as amostras de predição para o bloco atual com base nas amostras de referência na figura (doravante, figura atual) à qual o bloco atual pertence. No caso onde a intrapredição é aplicada ao bloco atual, as amostras de referência vizinhas a serem usadas para a intrapredição do bloco atual podem ser derivadas. As amostras de referência vizinhas do bloco atual podem incluir uma amostra adjacente ao limite esquerdo do bloco atual tendo o tamanho de nWxnH e amostras de 2xnH no total vizinhas à parte inferior esquerda, uma amostra adjacente ao limite superior do bloco atual e amostras de 2xnW no total vizinhas à parte superior direita, e uma amostra vizinha à parte superior esquerda do bloco atual. Ademais, as amostras de referência vizinhas do bloco atual podem incluir uma pluralidade de colunas de amostras vizinhas superiores e uma pluralidade de fileiras de amostras vizinhas esquerdas. Ademais, as amostras de referência vizinhas do bloco atual podem incluir um total de nH amostras adjacentes ao limite direito do bloco atual tendo o tamanho de nWxnH, um total de nW amostras adjacente ao limite inferior do bloco atual, e uma amostra vizinha à parte inferior direita do bloco atual.[088] In the present document, intraprediction may represent the prediction that generates the prediction samples for the current block based on the reference samples in the figure (hereinafter, current figure) to which the current block belongs. In the case where intraprediction is applied to the current block, neighboring reference samples to be used for intraprediction of the current block can be derived. The neighboring reference samples of the current block may include a sample adjacent to the left boundary of the current block having the size of nWxnH and 2xnH samples in total neighboring the lower left, a sample adjacent to the upper boundary of the current block and 2xnW samples in the total neighboring to the upper right, and a neighboring sample to the upper left of the current block. Furthermore, the neighboring reference samples of the current block may include a plurality of upper neighboring sample columns and a plurality of left neighboring sample rows. Furthermore, the neighboring reference samples of the current block may include a total of nH samples adjacent to the right boundary of the current block having the size of nWxnH, a total of nW samples adjacent to the lower boundary of the current block, and a sample neighboring the bottom right of the current block.
[089] No entanto, algumas das amostras de referência vizinhas do bloco atual podem ainda não terem sido decodificadas ou habilitadas. Nesse caso, o aparelho de decodificação pode configurar as amostras de referência vizinhas a serem usadas para a predição através de subestação de amostras habilitadas para uma amostra não habilitada. Ademais, as amostras de referência vizinhas a serem usadas para a predição podem ser configuradas através de interpolação das amostras habilitadas.[089] However, some of the neighboring reference samples of the current block may not yet have been decoded or enabled. In this case, the decoding apparatus may configure neighboring reference samples to be used for substation prediction of enabled samples for an unenabled sample. Furthermore, neighboring reference samples to be used for prediction can be configured through interpolation of the enabled samples.
[090] No caso onde as amostras de referência vizinhas são derivadas, (i) a amostra de predição podem ser induzidas com base em uma média ou interpolação das amostras de referência vizinhas do bloco atual, e (ii) a amostra de predição pode ser induzida com base na amostra de referência que está presente em uma direção específica (predição) para a amostra de predição dentre as amostras de referência vizinhas do bloco atual. O caso de (i) pode ser denominado como um modo não direcional ou um modo não angular, e o caso de (ii) pode ser denominado como um modo direcional ou um modo angular. Ademais, a amostra de predição pode ser gerada através de interpolação da primeira amostra vizinha com a segunda amostra vizinha situada em uma direção oposta à direção de predição do modo de intrapredição do bloco atual com base na amostra de predição do bloco atual dentre as amostras de referência vizinhas. O caso descrito anteriormente pode ser denominado como uma intrapredição de interpolação linear (LIP). Ademais, amostras de predição de croma podem ser geradas com base em amostras de luma utilizando-se um modelo linear. Essa caso pode ser denominado como um modo de LM. Ademais, uma amostra de predição temporária do bloco atual pode ser derivada com base nas amostras de referência vizinhas filtradas, e uma amostra de predição do bloco atual pode ser derivada calculando-se uma soma ponderada da amostra de predição temporária e pelo menos uma amostra de referência derivada de acordo com o modo de intrapredição dentre as amostras de referência vizinhas existentes, ou seja, amostras de referência vizinhas não filtradas. O caso descrito anteriormente pode ser denominado como uma intrapredição dependente de posição (PDPC). Ademais, a amostra de predição pode ser derivada utilizando-se uma amostra de referência situada em uma direção de predição em uma linha de amostra de referência tendo a predição de predição mais alta dentre as linhas de amostra vizinhas de múltiplas referência do bloco atual através da seleção da linha correspondente, e, nesse caso, a codificação de intrapredição pode ser realizada em um método para indicar (sinalizar) a linha de amostra de referência usada ao aparelho de decodificação. O caso descrito anteriormente pode ser denominado como como interpredição de linha de múltiplas referências (MRL) ou intrapredição baseada em MRL. Ademais, a intrapredição pode ser realizada com base no mesmo modo de intrapredição através de divisão do bloco atual em subpartições verticais ou horizontais, e as amostras de referência vizinhas podem ser derivadas e usadas na unidade de uma subpartição. Ou seja, nesse caso, visto que o modo de intrapredição para o bloco atual é igualmente aplicado às subpartições, e as amostras de referência vizinhas são derivadas e usadas na unidade da subpartição, o desempenho de intrapredição pode ser acentuado em alguns casos. Esse método de partição pode ser denominado como subpartições intra (ISP) ou intrapredição baseada em ISP. O método de intrapredição descrito anteriormente pode ser denominado como tipo de intrapredição em distinção ao modo de intrapredição. O tipo de intrapredição pode ser denominado por vários termos, tal como uma técnica de intrapredição ou um modo de intrapredição adicional. Por exemplo, o tipo de intrapredição (ou modo de intrapredição adicional) pode incluir pelo menos um dentre LIP, PDPC, MRL ou ISP descritos anteriormente. Um método de intrapredição geral excluindo um tipo de intrapredição específico, tal como LIP, PDPC, MRL ou ISP, pode ser denominado como um tipo de intrapredição normal. O tipo de intrapredição normal pode ser genericamente aplicado no caso onde o tipo de intrapredição específico não é aplicado, e a predição pode ser realizada com base no modo de intrapredição descrito anteriormente. Entretanto, conforme a necessidade, pode-se realizar uma pós-filtragem para a amostra de predição derivada.[090] In the case where neighboring reference samples are derived, (i) the prediction sample may be induced based on an average or interpolation of the neighboring reference samples of the current block, and (ii) the prediction sample may be induced based on the reference sample that is present in a specific direction (prediction) to the prediction sample among the neighboring reference samples of the current block. The case of (i) can be termed as a non-directional mode or a non-angular mode, and the case of (ii) can be termed as a directional mode or an angular mode. Furthermore, the prediction sample can be generated by interpolating the first neighboring sample with the second neighboring sample located in a direction opposite to the prediction direction of the current block intraprediction mode based on the prediction sample of the current block among the prediction samples. neighboring reference. The case described above can be termed as a linear interpolation intraprediction (LIP). Furthermore, chroma prediction samples can be generated based on luma samples using a linear model. This case can be termed as an LM mode. Furthermore, a temporary prediction sample of the current block can be derived based on the filtered neighboring reference samples, and a prediction sample of the current block can be derived by calculating a weighted sum of the temporary prediction sample and at least one sample of reference derived according to the intraprediction mode among the existing neighboring reference samples, i.e., unfiltered neighboring reference samples. The case described above can be termed as a position-dependent intraprediction (PDPC). Furthermore, the prediction sample may be derived using a reference sample lying in a prediction direction on a reference sample line having the highest prediction prediction among the neighboring multiple reference sample lines of the current block through the selection of the corresponding line, and in this case, intraprediction coding can be performed in a method for indicating (flagging) the reference sample line used to the decoding apparatus. The case described above can be referred to as multiple reference line interprediction (MRL) or MRL-based intraprediction. Furthermore, intraprediction can be performed based on the same intraprediction mode by dividing the current block into vertical or horizontal subpartitions, and neighboring reference samples can be derived and used in the unit of a subpartition. That is, in this case, since the intraprediction mode for the current block is equally applied to the subpartitions, and the neighboring reference samples are derived and used in the subpartition unit, the intraprediction performance may be enhanced in some cases. This partition method can be termed as intra-subpartitions (ISP) or ISP-based intraprediction. The previously described intraprediction method can be termed as intraprediction type in distinction from the intraprediction mode. The type of intraprediction can be called by various terms, such as an intraprediction technique or an additional intraprediction mode. For example, the intraprediction type (or additional intraprediction mode) may include at least one of the previously described LIP, PDPC, MRL, or ISP. A general intraprediction method excluding a specific intraprediction type, such as LIP, PDPC, MRL, or ISP, can be termed as a normal intraprediction type. The normal intraprediction type can be generically applied in the case where the specific intraprediction type is not applied, and the prediction can be performed based on the previously described intraprediction mode. However, as necessary, post-filtering can be performed for the derived prediction sample.
[091] De modo específico, o procedimento de intrapredição pode incluir as etapas de determinação de modo/tipo de intrapredição, derivação de amostra de referência vizinha e derivação de amostra de predição baseada em modo/tipo de intrapredição amostra de predição. Ademais, conforme a necessidade, pode-se realizar uma etapa de pós-filtragem para a amostra de predição derivada.[091] Specifically, the intraprediction procedure may include the steps of determining intraprediction mode/type, deriving neighboring reference sample and deriving prediction sample based on intraprediction mode/type prediction sample. Furthermore, as necessary, a post-filtering step can be carried out for the derived prediction sample.
[092] Entretanto, além dos tipos de predição descritos anteriormente, uma intrapredição ponderada linear afim (ALWIP) pode ser usada. A ALWIP pode ser denominada como intrapredição ponderada linear (LWIP) ou intrapredição ponderada matricial (MIP) ou intrapredição baseada em matriz. No caso onde o MIP é aplicado para o bloco atual, i) utilizando-se as amostras de referência vizinhas à qual um procedimento de cálculo de média foi realizado ii) um procedimento de multiplicação vetorial matricial pode ser realizado, e iii) conforme a necessidade, as amostras de predição para o bloco atual podem ser derivadas realizando-se, ainda, uma interpolação horizontal/vertical. Os modos de intrapredição sendo usados para um MIP podem ser configurados diferentemente das intrapredições de LIP, PDPC, MRL ou ISP descritas anteriormente, ou os modos de intrapredição sendo usados para uma intrapredição normal. O modo de intrapredição para o MIP pode ser denominado como um modo de intrapredição de MIP, um modo de predição de MIP ou um modo de MIP. Por exemplo, de acordo com o modo de intrapredição para o MIP, uma matriz e um desvio sendo usados para uma multiplicação vetorial matricial podem ser diferentemente configurados. No presente documento, a matriz pode ser denominada como uma matriz ponderada (MIP), e o desvio pode ser denominado como um vetor de desvio (MIP) ou um vetor de enviesamento (MIP).[092] However, in addition to the types of prediction described previously, an affine linear weighted intraprediction (ALWIP) can be used. ALWIP can be referred to as linear weighted intraprediction (LWIP) or matrix weighted intraprediction (MIP) or matrix-based intraprediction. In the case where MIP is applied to the current block, i) using the neighboring reference samples to which an averaging procedure was performed ii) a matrix vector multiplication procedure can be performed, and iii) as needed , the prediction samples for the current block can be derived by also performing a horizontal/vertical interpolation. The intraprediction modes being used for a MIP may be configured differently than the LIP, PDPC, MRL, or ISP intrapredictions described previously, or the intraprediction modes being used for a normal intraprediction. The intraprediction mode for MIP can be referred to as a MIP intraprediction mode, a MIP prediction mode, or a MIP mode. For example, depending on the intraprediction mode for MIP, a matrix and an offset being used for a matrix vector multiplication can be configured differently. In this document, the matrix may be referred to as a weighted matrix (MIP), and the deviation may be termed as a deviation vector (MIP) or a bias vector (MIP).
[093] De modo esquemático, por exemplo, o procedimento de codificação de vídeo/imagem baseado em intrapredição pode incluir o seguinte.[093] Schematically, for example, the intraprediction-based video/image coding procedure may include the following.
[094] A Figura 4 ilustra um exemplo de um método de codificação de vídeo/imagem baseado em intrapredição.[094] Figure 4 illustrates an example of a video/image coding method based on intraprediction.
[095] Referindo-se à Figura 4, S400 pode ser realizado pelo intrapreditor 222 do aparelho de codificação, e S410 a S430 podem ser realizados pelo processador residual 230 do aparelho de codificação. De modo específico, S410 pode ser realizado pelo subtrator 231 do aparelho de codificação, S420 pode ser realizado pelo transformador 232 e pelo quantizador 233 do aparelho de codificação, e S430 pode ser realizado pelo desquantizador 234 e pelo transformador inverso 235 do aparelho de codificação. Em S400, as informações de predição podem ser derivadas pelo intrapreditor 222, e podem ser codificadas pelo codificador de entropia 240. Através de S410 e S420, as informações residuais podem ser derivadas, e podem ser codificadas pelo codificador de entropia 240. As informações residuais são informações sobre as amostras residuais. As informações residuais podem incluir informações sobre os coeficientes de transformada quantizados para as amostras residuais. Conforme descrito anteriormente, as amostras residuais podem ser derivadas como coeficientes de transformada através do transformador 232 do aparelho de codificação, e os coeficientes de transformada podem ser derivados como os coeficientes de transformada quantizados através do quantizador 233. As informações sobre os coeficientes de transformada quantizados podem ser codificadas pelo codificador de entropia 240 através do procedimento de codificação residual.[095] Referring to Figure 4, S400 can be performed by the intrapredictor 222 of the coding apparatus, and S410 to S430 can be realized by the residual processor 230 of the coding apparatus. Specifically, S410 can be realized by the subtractor 231 of the coding apparatus, S420 can be realized by the transformer 232 and the quantizer 233 of the coding apparatus, and S430 can be realized by the dequantizer 234 and the inverse transformer 235 of the coding apparatus. At S400, the prediction information can be derived by the intrapredictor 222, and can be encoded by the entropy encoder 240. Through S410 and S420, the residual information can be derived, and can be encoded by the entropy encoder 240. The residual information is information about the residual samples. The residual information may include information about the quantized transform coefficients for the residual samples. As described previously, the residual samples can be derived as transform coefficients through the transformer 232 of the coding apparatus, and the transform coefficients can be derived as the quantized transform coefficients through the quantizer 233. Information about the quantized transform coefficients can be encoded by the entropy encoder 240 through the residual encoding procedure.
[096] O aparelho de codificação realiza uma intrapredição para o bloco atual (S400). O aparelho de codificação pode derivar um modo de intrapredição para o bloco atual, derivar amostras de referência vizinhas do bloco atual e gerar amostras de predição no bloco atual com base no modo de intrapredição e nas amostras de referência vizinhas. No presente documento, os procedimentos para determinar o modo de intrapredição, derivar as amostras de referência vizinhas e gerar as amostras de predição pode ser simultaneamente realizado, e qualquer procedimento pode ser realizado antes de outro procedimento. Por exemplo, o intrapreditor 222 do aparelho de codificação pode incluir um determinador de modo/tipo de predição, um derivador de amostra de referência e um derivador de amostra de predição, e o determinador de modo/tipo de predição pode determinar o modo/tipo de intrapredição para o bloco atual, o derivador de amostra de referência pode derivar as amostras de referência vizinhas do bloco atual, e o derivador de amostra de predição pode derivar amostras de movimento do bloco atual. Entretanto, no caso onde um procedimento de filtragem de amostra de predição a ser descrito posteriormente é realizado, o intrapreditor 222 pode incluir, ainda, um filtro de amostra de predição. O aparelho de codificação pode determinar um modo sendo aplicado para o bloco atual dentre uma pluralidade de modos de intrapredição. O aparelho de codificação pode comparar custos de RD para o modos de intrapredição, e pode determinar o modo de intrapredição ideal para o bloco atual.[096] The coding device performs an intraprediction for the current block (S400). The coding apparatus may derive an intraprediction mode for the current block, derive neighboring reference samples from the current block, and generate prediction samples in the current block based on the intraprediction mode and neighboring reference samples. In this document, the procedures for determining the intraprediction mode, deriving the neighboring reference samples, and generating the prediction samples can be simultaneously performed, and any procedure can be performed before another procedure. For example, the intrapredictor 222 of the coding apparatus may include a prediction mode/type determinator, a reference sample derivator, and a prediction sample derivator, and the prediction mode/type determinator may determine the mode/type of intraprediction for the current block, the reference sample derivative can derive the neighboring reference samples from the current block, and the prediction sample derivative can derive motion samples from the current block. However, in the case where a prediction sample filtering procedure to be described later is performed, the intrapredictor 222 may further include a prediction sample filter. The coding apparatus may determine a mode being applied to the current block from among a plurality of intraprediction modes. The coding apparatus can compare RD costs for the intraprediction modes, and can determine the optimal intraprediction mode for the current block.
[097] Entretanto, o aparelho de codificação pode realizar o procedimento de filtragem de amostra de predição. A filtragem de amostra de predição pode ser denominada como pós-filtragem. Algumas ou todas as amostras de predição podem ser filtradas pelo procedimento de filtragem de amostra de predição. Em alguns casos, o procedimento de filtragem de amostra de predição pode ser omitido.[097] However, the coding apparatus can perform the prediction sample filtering procedure. Prediction sample filtering can be termed as post-filtering. Some or all of the prediction samples may be filtered by the prediction sample filtering procedure. In some cases, the prediction sample filtering procedure may be omitted.
[098] O aparelho de codificação deriva amostras residuais para o bloco atual com base em amostras de predição (S410). O aparelho de codificação pode comparar as amostras de predição com as amostras originais do bloco atual com base em fase, e pode derivar as amostras residuais.[098] The coding apparatus derives residual samples for the current block based on prediction samples (S410). The coding apparatus can compare the prediction samples with the original samples of the current block based on phase, and can derive the residual samples.
[099] O aparelho de codificação pode derivar coeficientes de transformada quantizados através de transformada/quantização das amostras residuais (S420), e, então, pode derivar as amostras residuais (modificadas) realizando-se a desquantização / transformada inversa dos coeficientes de transformada quantizados novamente (S430). A razão pela qual realizar novamente a desquantização / transformada inversa após a transformada/quantização consiste em derivar as mesmas amostras residuais que as amostras residuais sendo derivadas pelo aparelho de decodificação conforme descrito anteriormente.[099] The coding apparatus can derive quantized transform coefficients by transforming/quantizing the residual samples (S420), and then can derive the residual (modified) samples by performing dequantization / inverse transform of the quantized transform coefficients again (S430). The reason for performing the dequantization/inverse transform again after the transform/quantization is to derive the same residual samples as the residual samples being derived by the decoding apparatus as described previously.
[0100] O aparelho de codificação pode gerar um bloco reconstruído incluindo amostras reconstruídas para o bloco atual com base nas amostras de predição e nas amostras residuais (modificadas) (S440). Com base no bloco reconstruído, uma figura reconstruída para a figura atual pode ser gerada.[0100] The encoding apparatus may generate a reconstructed block including reconstructed samples for the current block based on the prediction samples and the residual (modified) samples (S440). Based on the reconstructed block, a reconstructed figure for the current figure can be generated.
[0101] Conforme descrito anteriormente, o aparelho de codificação pode codificar informações de imagem incluindo informações de predição na intrapredição (por exemplo, informações de modo de predição que representam o modo de predição) e as informações residuais sobre intra/amostras residuais, e podem emitir as informações de imagem codificadas sob a forma de fluxo de bits. As informações residuais podem incluir uma sintaxe de codificação residual. O aparelho de codificação pode derivar coeficientes de transformada quantizados através de transformada/quantização das amostras residuais. As informações residuais podem incluir informações sobre os coeficientes de transformada quantizados.[0101] As described previously, the encoding apparatus may encode image information including prediction information in the intraprediction (e.g., prediction mode information representing the prediction mode) and the residual information about intra/residual samples, and may output the encoded image information in the form of a bit stream. Residual information may include residual encoding syntax. The encoding apparatus may derive quantized transform coefficients by transforming/quantizing the residual samples. Residual information may include information about quantized transform coefficients.
[0102] Por exemplo, de modo esquemático, o procedimento de decodificação de vídeo/imagem baseado em intrapredição pode incluir o seguinte.[0102] For example, schematically, the intraprediction-based video/image decoding procedure may include the following.
[0103] A Figura 5 ilustra um exemplo de um método de decodificação de vídeo/imagem com base em intrapredição.[0103] Figure 5 illustrates an example of an intraprediction-based video/image decoding method.
[0104] O aparelho de decodificação pode realizar uma operação correspondente à operação realizada pelo aparelho de codificação.[0104] The decoding apparatus can perform an operation corresponding to the operation performed by the encoding apparatus.
[0105] Referindo-se às Figuras 5, S500 a 510 podem ser realizados pelo intrapreditor 331 do aparelho de decodificação, e as informações de predição de S500 e informações residuais de S530 podem ser obtidas a partir de um fluxo de bits pelo decodificador de entropia 310 do aparelho de decodificação. O processador residual 320 do aparelho de decodificação pode derivar amostras residuais para o bloco atual com base nas informações residuais. De modo específico, o desquantizador 321 do processador residual 320 pode derivar coeficientes de transformada realizando-se desquantização com base nos coeficientes de transformada quantizados derivados com base nas informações residuais, e o transformador inverso 322 do processador residual pode derivar as amostras residuais para o bloco atual realizando-se desquantização para os coeficientes de transformada. S540 pode ser realizado pelo adicionador 340 ou pelo reconstrutor do aparelho de decodificação.[0105] Referring to Figures 5, S500 to 510 can be performed by the intrapredictor 331 of the decoding apparatus, and the prediction information of S500 and residual information of S530 can be obtained from a bit stream by the entropy decoder 310 of the decoding device. The residual processor 320 of the decoding apparatus may derive residual samples for the current block based on the residual information. Specifically, the dequantizer 321 of the residual processor 320 may derive transform coefficients by performing dequantization based on the quantized transform coefficients derived based on the residual information, and the inverse transformer 322 of the residual processor may derive the residual samples for the block current by performing dequantization for the transform coefficients. S540 can be realized by adder 340 or by the decoding apparatus reconstructor.
[0106] De modo específico, o aparelho de decodificação pode derivar o modo de intrapredição para o bloco atual com base nas informações de predição recebidas (S500). O aparelho de decodificação pode derivar amostras de referência vizinhas do bloco atual (S510). O aparelho de decodificação gera amostras de predição no bloco atual realizando-se a intrapredição com base no modo de intrapredição e nas amostras de referência vizinhas (S520). Nesse caso, o aparelho de decodificação pode realizar o procedimento de filtragem de amostra de predição. A filtragem de amostra de predição pode ser denominada como pós-filtragem. Algumas ou todas as amostras de predição podem ser filtradas pelo procedimento de filtragem de amostra de predição.[0106] Specifically, the decoding apparatus may derive the intraprediction mode for the current block based on the received prediction information (S500). The decoding apparatus may derive neighboring reference samples from the current block (S510). The decoding device generates prediction samples in the current block by performing intra-prediction based on the intra-prediction mode and neighboring reference samples (S520). In this case, the decoding apparatus can perform the prediction sample filtering procedure. Prediction sample filtering can be termed as post-filtering. Some or all of the prediction samples may be filtered by the prediction sample filtering procedure.
[0107] O aparelho de decodificação gera as amostras residuais para o bloco atual com base nas informações residuais recebidas (S530). O aparelho de decodificação pode gerar amostras reconstruídas para o bloco atual com base nas amostras de predição e nas amostras residuais, e pode derivar um bloco reconstruído incluindo as amostras reconstruídas (S540). Uma figura reconstruída para a figura atual pode ser gerada com base no bloco reconstruído.[0107] The decoding apparatus generates the residual samples for the current block based on the received residual information (S530). The decoding apparatus may generate reconstructed samples for the current block based on the prediction samples and the residual samples, and may derive a reconstructed block including the reconstructed samples (S540). A reconstructed figure for the current figure can be generated based on the reconstructed block.
[0108] No presente documento, o intrapreditor 331 do aparelho de decodificação pode incluir um determinador de modo/tipo de predição, um derivador de amostra de referência e um derivador de amostra de predição. O determinador de modo/tipo de predição pode determinar o modo de intrapredição para o bloco atual com base nas informações de modo de predição obtidas pelo decodificador de entropia 310 do aparelho de decodificação, o derivador de amostra de referência pode derivar as amostras de referência vizinhas do bloco atual, e o derivador de amostra de predição pode derivar a amostra de predição do bloco atual. Entretanto, no caso onde o procedimento de filtragem de amostra de predição descrito anteriormente é realizado, o intrapreditor 331 pode incluir, ainda, um filtro de amostra de predição.[0108] Herein, the intrapredictor 331 of the decoding apparatus may include a prediction mode/type determiner, a reference sample derivative, and a prediction sample derivative. The prediction mode/type determiner may determine the intraprediction mode for the current block based on the prediction mode information obtained by the entropy decoder 310 of the decoding apparatus, the reference sample deriver may derive the neighboring reference samples from the current block, and the prediction sample derivative can derive the prediction sample from the current block. However, in the case where the previously described prediction sample filtering procedure is performed, the intrapredictor 331 may further include a prediction sample filter.
[0109] As informações de predição podem incluir informações de modo de intrapredição e/ou informações de tipo de intrapredição. Por exemplo, as informações de modo de intrapredição podem incluir informações de sinalizador (por exemplo, intra_luma_mpm_flag) que representam se um modo mais provável (MPM) ou um modo restante é aplicado ao bloco atual, e no caso onde o MPM é aplicado ao bloco atual, as informações de modo de predição podem incluir, ainda, informações de índice (por exemplo, intra_luma_mpm_idx) que representam um dos candidatos de modo de intrapredição (candidatos de MPM). Os candidatos de modo de intrapredição (candidatos de MPM) podem constituir uma lista de candidato de MPM ou uma lista de MPM. Ademais, no caso onde o MPM não é aplicado ao bloco atual, as informações de modo de intrapredição podem incluir, ainda, informações de modo restante (por exemplo, intra_luma_mpm_remainder) que indicam um dos modos de intrapredição restante excluindo os candidatos de modo de intrapredição (candidatos de MPM). O aparelho de decodificação pode determinar o modo de intrapredição do bloco atual com base nas informações de modo de intrapredição. Para o MIP descrito anteriormente, uma lista de MPM separado pode ser configurada.[0109] The prediction information may include intraprediction mode information and/or intraprediction type information. For example, the intraprediction mode information may include flag information (e.g., intra_luma_mpm_flag) that represents whether a most likely mode (MPM) or a remainder mode is applied to the current block, and in the case where the MPM is applied to the block current, the prediction mode information may further include index information (e.g., intra_luma_mpm_idx) that represents one of the intraprediction mode candidates (MPM candidates). Intraprediction mode candidates (MPM candidates) can constitute an MPM candidate list or an MPM list. Furthermore, in the case where MPM is not applied to the current block, the intraprediction mode information may also include remaining mode information (e.g., intra_luma_mpm_remainder) that indicates one of the remaining intraprediction modes excluding the intraprediction mode candidates. (MPM candidates). The decoding apparatus may determine the intraprediction mode of the current block based on the intraprediction mode information. For the MIP described previously, a separate MPM list can be configured.
[0110] Ademais, as informações de tipo de intrapredição podem ser implementadas em várias formas. Como um exemplo, as informações de tipo de intrapredição podem incluir informações de índice de tipo de intrapredição que indicam um dos tipos de intrapredição. Como outro exemplo, as informações de tipo de intrapredição podem incluir pelo menos uma das informações de linha de amostra de referência (por exemplo, intra_luma_ref_idx) que representam se o MRL é aplicado ao bloco atual e qual linha de amostra de referência é usada no caso onde o MRL é aplicado, informações de sinalizador de ISP (por exemplo, intra_subpartitions_mode_flag) que representam se o ISP é aplicado ao bloco atual, informações de tipo de ISP (por exemplo, intra_subpartitions_split_flag) que indicam o tipo de particionamento de subpartições no caso onde o ISP é aplicado, informações de sinalizador que representam se o PDCP é aplicado, ou informações de sinalizador que representam se o LIP é aplicado. Ademais, as informações de tipo de intrapredição podem incluir um sinalizador de MIP que representa se o MIP é aplicado ao bloco atual.[0110] Furthermore, intraprediction type information can be implemented in various forms. As an example, the intraprediction type information may include intraprediction type index information that indicates one of the intraprediction types. As another example, the intraprediction type information may include at least one of the reference sample line information (e.g., intra_luma_ref_idx) that represents whether the MRL is applied to the current block and which reference sample line is used in the case where MRL is applied, ISP flag information (e.g. intra_subpartitions_mode_flag) that represents whether ISP is applied to the current block, ISP type information (e.g. intra_subpartitions_split_flag) that indicates the type of subpartition partitioning in the case where ISP is applied, flag information that represents whether PDCP is applied, or flag information that represents whether LIP is applied. Furthermore, the intraprediction type information may include a MIP flag that represents whether MIP is applied to the current block.
[0111] As informações de modo de intrapredição e/ou as informações de tipo de intrapredição podem ser codificadas/decodificadas através do método de codificação descrito no presente documento. Por exemplo, as informações de modo de intrapredição e/ou as informações de tipo de intrapredição podem ser codificadas/decodificadas através de codificação por entropia (por exemplo, CABAC ou CAVLC) com base em código binário (arroz) truncado.[0111] Intraprediction mode information and/or intraprediction type information can be encoded/decoded via the encoding method described herein. For example, intraprediction mode information and/or intraprediction type information may be encoded/decoded via entropy coding (e.g., CABAC or CAVLC) based on truncated binary (rice) code.
[0112] Entretanto, de modo esquemático, por exemplo, o procedimento de codificação de vídeo/imagem baseado em interpredição pode incluir o seguinte.[0112] However, schematically, for example, the interprediction-based video/image coding procedure may include the following.
[0113] A Figura 6 ilustra um exemplo de método de codificação de vídeo/imagem baseado em interpredição.[0113] Figure 6 illustrates an example of an interprediction-based video/image coding method.
[0114] Referindo-se à Figura 6, o aparelho de codificação realiza interpredição para o bloco atual (S600). O aparelho de codificação pode derivar um modo de interpredição e informações de movimento do bloco atual, e pode gerar amostras de predição do bloco atual. No presente documento, os procedimentos para determinar o modo de interpredição, derivar informações de movimento e gerar as amostras de predição podem ser realizados simultaneamente, e qualquer procedimento pode ser realizado antes de outro procedimento. Por exemplo, o interpreditor do aparelho de codificação pode incluir um determinador de modo de predição, um derivador de informações de movimento e um derivador de amostra de predição, e o determinador de modo de predição pode determinar o modo de predição para o bloco atual, o derivador de informações de movimento podem derivar as informações de movimento do bloco atual e o derivador de amostra de predição pode derivar as amostras de predição para o bloco atual. Por exemplo, o interpreditor do aparelho de codificação pode buscar um bloco similar ao bloco atual em uma área específica (área de busca) das figurações de referência através de estimativa de movimento, e pode derivar o bloco de referência tendo uma diferença a partir do bloco atual que seja o mínimo ou igual ou menor que um nível predeterminado. Com base nisso, um índice de figura de referência que indica uma figura de referência onde o bloco de referência está situado é derivado, e um vetor de movimento é derivado com base em uma diferença no local entre o bloco de referência e o bloco atual. O aparelho de codificação pode determinar um modo sendo aplicado para o bloco atual dentre vários modos de predição. O aparelho de codificação pode comparar custos de distorção de taxa (RD) para os vários modos de predição, e pode determinar o modo de predição ideal para o bloco atual.[0114] Referring to Figure 6, the coding apparatus performs interprediction for the current block (S600). The coding apparatus can derive an interprediction mode and motion information from the current block, and can generate prediction samples from the current block. In this document, the procedures for determining the interprediction mode, deriving motion information, and generating the prediction samples may be performed simultaneously, and any procedure may be performed before another procedure. For example, the interpredictor of the coding apparatus may include a prediction mode determiner, a motion information derivative and a prediction sample derivative, and the prediction mode determinator may determine the prediction mode for the current block, the motion information derivative can derive the motion information of the current block and the prediction sample derivative can derive the prediction samples for the current block. For example, the interpredictor of the coding apparatus may search for a block similar to the current block in a specific area (search area) of the reference pictures through motion estimation, and may derive the reference block having a difference from the block current that is the minimum or equal to or less than a predetermined level. Based on this, a reference figure index indicating a reference figure where the reference block is situated is derived, and a motion vector is derived based on a difference in location between the reference block and the current block. The coding apparatus may determine a mode being applied to the current block from among several prediction modes. The coding apparatus can compare rate distortion (RD) costs for the various prediction modes, and can determine the optimal prediction mode for the current block.
[0115] Por exemplo, no caso onde um modo de omissão ou um modo de fusão é aplicado ao bloco atual, o aparelho de codificação pode configurar uma lista de candidato de fusão, e pode derivar o bloco de referência tendo a diferença a partir do bloco atual que seja o mínimo ou igual ou inferior ao nível predeterminado dentre os blocos de referência indicados pelos candidatos de fusão incluídos na lista de candidato de fusão. Nesse caso, um candidato de fusão relacionado ao bloco de referência derivado pode ser selecionado, e informações de índice de fusão que indicam o candidato de fusão selecionado pode ser gerado e sinalizado ao aparelho de decodificação. As informações de movimento do bloco atual podem ser derivadas utilizando-se as informações de movimento do candidato de fusão selecionado.[0115] For example, in the case where a skip mode or a merge mode is applied to the current block, the encoding apparatus may configure a merge candidate list, and may derive the reference block having the difference from the current block that is the minimum or equal to or lower than the predetermined level among the reference blocks indicated by the merger candidates included in the merger candidate list. In this case, a fusion candidate related to the derived reference block may be selected, and fusion index information indicating the selected fusion candidate may be generated and signaled to the decoding apparatus. The motion information of the current block can be derived using the motion information of the selected fusion candidate.
[0116] Como outro exemplo, no caso onde um modo de (A)MVP é aplicado ao bloco atual, o aparelho de codificação pode configurar uma lista de candidato de (A)MVP, e pode usar o vetor de movimento do candidato de mvp selecionado dentre os candidatos de preditor de vetor de movimento (mvp) incluídos na lista de candidato de (A)MVP como o mvp do bloco atual. Nesse caso, por exemplo, o vetor de movimento que indica o bloco de referência derivado pela estimativa de movimento descrita anteriormente pode ser usado como o vetor de movimento do bloco atual, e o candidato de mvp tendo o vetor de movimento com a menor diferença a partir do vetor de movimento do bloco atual dentre os candidatos de mvp pode ser o candidato de mvp selecionado. Uma diferença de vetor de movimento (MVD), que é a diferença obtida subtraindo-se o mvp do vetor de movimento do bloco atual, pode ser derivada. Nesse caso, informações sobre o MVD podem ser sinalizadas ao aparelho de decodificação. Ademais, no caso onde o modo de (A)MVP for aplicado, o valor do índice de figura de referência pode ser configurado como as informações de índice de figura de referência, e pode ser separadamente sinalizado ao aparelho de decodificação.[0116] As another example, in the case where an (A)MVP mode is applied to the current block, the encoding apparatus may configure an (A)MVP candidate list, and may use the motion vector of the MVP candidate selected from the motion vector predictor (mvp) candidates included in the (A)MVP candidate list as the mvp of the current block. In this case, for example, the motion vector indicating the reference block derived by the previously described motion estimation can be used as the motion vector of the current block, and the mvp candidate having the motion vector with the smallest difference to From the motion vector of the current block among the mvp candidates can be the selected mvp candidate. A motion vector difference (MVD), which is the difference obtained by subtracting the mvp from the motion vector of the current block, can be derived. In this case, information about the MVD can be signaled to the decoding apparatus. Furthermore, in the case where the (A)MVP mode is applied, the reference figure index value can be configured as the reference figure index information, and can be separately signaled to the decoding apparatus.
[0117] O aparelho de codificação pode derivar amostras residuais com base nas amostras de predição (S610). O aparelho de codificação pode derivar as amostras residuais através da comparação das amostras de predição com as amostras originais do bloco atual.[0117] The coding apparatus may derive residual samples based on the prediction samples (S610). The encoding apparatus may derive the residual samples by comparing the prediction samples with the original samples of the current block.
[0118] O aparelho de codificação codifica informações de imagem incluindo informações de predição e informações residuais (S620). O aparelho de codificação pode emitir as informações de imagem codificadas sob a forma de um fluxo de bits. As informações de predição podem ser informações relacionadas ao procedimento de predição, e podem incluir informações relacionadas às informações de modo de predição (por exemplo, sinalizador de omissão, sinalizador de fusão ou índice de modo) e as informações de movimento. As informações sobre as informações de movimento podem incluir informações de seleção de candidato (por exemplo, índice de fusão, sinalizador de mvp ou índice de mvp) que são as informações para derivar o vetor de movimento. Ademais, as informações sobre as informações de movimento podem incluir informações sobre as informações de MVD e/ou índice de figura de referência descritas anteriormente. Ademais, as informações sobre as informações de movimento podem incluir informações que representam se aplica-se predição L0, predição L1 ou bipredição. As informações residuais são informações sobre as amostras residuais. As informações residuais podem incluir informações sobre coeficientes de transformada quantizados para as amostras residuais.[0118] The coding apparatus encodes image information including prediction information and residual information (S620). The encoding apparatus may output the encoded image information in the form of a bit stream. The prediction information may be information related to the prediction procedure, and may include information related to the prediction mode information (e.g., omission flag, fusion flag, or mode index) and the movement information. Information about the motion information may include candidate selection information (e.g., fusion index, mvp flag, or mvp index) which is the information for deriving the motion vector. Furthermore, the information about the motion information may include information about the MVD and/or reference figure index information described above. Furthermore, information about motion information may include information representing whether L0 prediction, L1 prediction or biprediction applies. Residual information is information about the residual samples. The residual information may include information about quantized transform coefficients for the residual samples.
[0119] O fluxo de bits de saída pode ser armazenado em uma mídia de armazenamento (digital) a ser transferida ao aparelho de decodificação, ou pode ser transferida ao aparelho de decodificação através de uma rede.[0119] The output bit stream may be stored on a (digital) storage medium to be transferred to the decoding apparatus, or may be transferred to the decoding apparatus via a network.
[0120] Entretanto, conforme descrito anteriormente, o aparelho de codificação pode gerar uma figura reconstruída (incluindo amostras reconstruídas e bloco reconstruído) com base nas amostras de referência e nas amostras residuais. Isso serve para o aparelho de codificação derivar o mesmo resultado de predição que aquele realizado no aparelho de decodificação, e através disso, a eficiência de codificação pode ser acentuada. De modo correspondente, o aparelho de codificação pode armazenar a figura reconstruída (ou amostras reconstruídas ou bloco reconstruído) em uma memória, e pode utilizar o mesmo como uma figura de referência para a interpredição. Conforme descrito anteriormente, um procedimento de filtragem em laço pode ser adicionalmente aplicado à figura reconstruída.[0120] However, as described previously, the coding apparatus can generate a reconstructed figure (including reconstructed samples and reconstructed block) based on the reference samples and the residual samples. This serves for the coding device to derive the same prediction result as that performed in the decoding device, and through this, the coding efficiency can be enhanced. Correspondingly, the coding apparatus may store the reconstructed figure (or reconstructed samples or reconstructed block) in a memory, and may use the same as a reference figure for interprediction. As described previously, a lasso filtering procedure can be additionally applied to the reconstructed figure.
[0121] De modo esquemático, por exemplo, um procedimento de decodificação de vídeo/imagem baseado em interpredição pode incluir o seguinte.[0121] Schematically, for example, an interprediction-based video/image decoding procedure may include the following.
[0122] A Figura 7 ilustra um exemplo de um método de decodificação de vídeo/imagem com base em interpredição.[0122] Figure 7 illustrates an example of an interprediction-based video/image decoding method.
[0123] O aparelho de decodificação pode realizar uma operação correspondente à operação realizada pelo aparelho de codificação. O aparelho de decodificação pode realizar uma predição para o bloco atual com base nas informações de predição recebidas, e pode derivar amostras de predição.[0123] The decoding apparatus can perform an operation corresponding to the operation performed by the encoding apparatus. The decoding apparatus may perform a prediction for the current block based on the received prediction information, and may derive prediction samples.
[0124] De modo específico, referindo-se à Figura 7, o aparelho de decodificação pode determinar um modo de predição para o bloco atual com base em informações de predição recebidas a partir de um fluxo de bits (S700). O aparelho de decodificação pode determinar qual modo de interpredição é aplicado ao bloco atual com base no informações de modo de predição nas informações de predição.[0124] Specifically, referring to Figure 7, the decoding apparatus may determine a prediction mode for the current block based on prediction information received from a bit stream (S700). The decoding apparatus may determine which interprediction mode is applied to the current block based on the prediction mode information in the prediction information.
[0125] Por exemplo, pode-se determinar se um modo de fusão é aplicado ao bloco atual com base em um merge flag, ou um modo de (A)MVP é determinado. Ademais, um dentre vários candidatos de modo de interpredição podem ser selecionados com base no índice de fusão. Os candidatos de modo de interpredição podem incluir vários modos de interpredição, tal como um modo de omissão, um modo de fusão e/ou um modo de (A)MVP.[0125] For example, it can be determined whether a merge mode is applied to the current block based on a merge flag, or an (A)MVP mode is determined. Furthermore, one of several interprediction mode candidates can be selected based on the fusion index. Interprediction mode candidates may include multiple interprediction modes, such as an omission mode, a fusion mode, and/or an (A)MVP mode.
[0126] O aparelho de decodificação deriva informações de movimento do bloco atual com base no modo de interpredição determinado (S710). Por exemplo, no caso onde um modo de omissão ou um modo de fusão for aplicado ao bloco atual, o aparelho de decodificação pode configurar uma lista de candidatos de fusão que será descrita posteriormente, e pode selecionar um dos candidatos de fusão incluídos na lista de candidatos de fusão. A seleção pode ser realizada com base nas informações de seleção descritas anteriormente (índice de fusão). As informações de movimento do bloco atual podem ser derivadas utilizando-se as informações de movimento do candidato de fusão selecionado. As informações de movimento do candidato de fusão selecionado podem ser usadas como as informações de movimento do bloco atual.[0126] The decoding apparatus derives motion information from the current block based on the determined interprediction mode (S710). For example, in the case where a skip mode or a merge mode is applied to the current block, the decoding apparatus may configure a list of merge candidates that will be described later, and may select one of the merge candidates included in the list of merges. merger candidates. Selection can be carried out based on the previously described selection information (fusion index). The motion information of the current block can be derived using the motion information of the selected fusion candidate. The motion information of the selected fusion candidate can be used as the motion information of the current block.
[0127] Como outro exemplo, no caso onde o modo de (A)MVP é aplicado ao bloco atual, o aparelho de decodificação pode configurar a lista de candidato de (A)MVP, e pode usar o vetor de movimento do candidato de mvp selecionado dentre os candidatos de preditor de vetor de movimento (mvp) incluídos na lista de candidato de (A)MVP. A seleção pode ser realizada com base nas informações de seleção descritas anteriormente (sinalizador de mvp ou índice de mvp). Nesse caso, o MVD do bloco atual pode ser derivado com base nas informações no MVD, e o vetor de movimento do bloco atual pode ser derivado com base no mvp e no MVD do bloco atual. Ademais, o índice de figura de referência do bloco atual pode ser derivado com base nas informações de índice de figura de referência. A figura indicada pelo índice de figura de referência na lista de figura de referência para o bloco atual pode ser derivada como a figura de referência sendo referida para a interpredição do bloco atual.[0127] As another example, in the case where the (A)MVP mode is applied to the current block, the decoding apparatus may configure the (A)MVP candidate list, and may use the motion vector of the MVP candidate selected from the motion vector predictor (mvp) candidates included in the (A)MVP candidate list. Selection can be performed based on the previously described selection information (mvp flag or mvp index). In this case, the MVD of the current block can be derived based on the information in the MVD, and the motion vector of the current block can be derived based on the mvp and MVD of the current block. Furthermore, the reference figure index of the current block can be derived based on the reference figure index information. The figure indicated by the reference figure index in the reference figure list for the current block can be derived as the reference figure being referred to for the interprediction of the current block.
[0128] Entretanto, as informações de movimento do bloco atual podem ser derivadas sem a configura de lista de candidato, e, nesse caso, a configura de lista de candidato descrita anteriormente pode ser omitida.[0128] However, the movement information of the current block may be derived without the candidate list configuration, in which case the previously described candidate list configuration may be omitted.
[0129] O aparelho de decodificação pode gerar amostras de predição para o bloco atual com base nas informações de movimento do bloco atual (S720). Nesse caso, a figura de referência pode ser derivada com base no índice de figura de referência do bloco atual, e o vetor de movimento do bloco atual pode derivar as amostras de predição do bloco atual utilizando-se amostras do bloco de referência indicado na figura de referência. Nesse caso, conforme descrito mais adiante, o procedimento de filtragem de amostra de predição pode ser adicionalmente realizado para todas ou alguma das amostras de predição do bloco atual conforme a necessidade.[0129] The decoding apparatus may generate prediction samples for the current block based on the movement information of the current block (S720). In this case, the reference figure can be derived based on the reference figure index of the current block, and the motion vector of the current block can be derived from the prediction samples of the current block using samples from the reference block indicated in the figure of reference. In this case, as described later, the prediction sample filtering procedure can be additionally performed for all or some of the prediction samples in the current block as needed.
[0130] Por exemplo, o interpreditor do aparelho de decodificação pode incluir um determinador de modo de predição, um derivador de informações de movimento e um derivador de amostra de predição, e o determinador de modo de predição pode determinar o modo de predição para o bloco atual com base nas informações de modo de predição recebidas, o derivador de informações de movimento pode derivar as informações de movimento (vetor de movimento e/ou índice de figura de referência) do bloco atual com base nas informações nas informações de movimento recebidas, e o derivador de amostra de predição pode derivar as amostras de predição do bloco atual.[0130] For example, the interpredictor of the decoding apparatus may include a prediction mode determiner, a motion information derivative, and a prediction sample derivative, and the prediction mode determiner may determine the prediction mode for the current block based on the received prediction mode information, the motion information derivative can derive the motion information (motion vector and/or reference figure index) of the current block based on the information in the received motion information, and the prediction sample derivative can derive the prediction samples from the current block.
[0131] O aparelho de decodificação gera amostras residuais para o bloco atual com base nas informações residuais recebidas (S730). O aparelho de decodificação pode gerar amostras reconstruídas para o bloco atual com base nas amostras de predição e nas amostras residuais (S740). Posteriormente, o procedimento de filtragem em laço pode ser adicionalmente aplicado à figura reconstruída conforme descrito anteriormente.[0131] The decoding apparatus generates residual samples for the current block based on the received residual information (S730). The decoding apparatus may generate reconstructed samples for the current block based on the prediction samples and residual samples (S740). Afterwards, the lasso filtering procedure can be additionally applied to the reconstructed figure as described previously.
[0132] Entretanto, conforme descrito anteriormente, uma sintaxe de alto nível (HLS) pode ser codificada/sinalizada para codificação de vídeo/imagem. A figura codificada pode ser composta por uma ou mais fatias. Um parâmetro que descreve a figura codificada é sinalizado no cabeçalho de figura, e um parâmetro que descreve a fatia é sinalizado no cabeçalho de fatia. O cabeçalho de figura é realizado sob a forma de uma própria unidade de NAL. O cabeçalho de fatia está presente em uma porção inicial da unidade de NAL incluindo uma carga útil da fatia (isto é, dados de fatia).[0132] However, as previously described, a high-level syntax (HLS) can be encoded/signaled for video/image coding. The coded figure can be composed of one or more slices. A parameter that describes the encoded figure is flagged in the figure header, and a parameter that describes the slice is flagged in the slice header. The figure header is realized in the form of an NAL unit itself. The slice header is present in an initial portion of the NAL unit including a slice payload (i.e., slice data).
[0133] Cada figura é relacionada a um cabeçalho de figura. A figura pode ser composta por diferentes tipos de fatias (fatia intracodificada (isto é, fatia I) e fatia intercodificada (isto é, fatia P e fatia B)). De modo correspondente, o cabeçalho de figura pode incluir elementos de sintaxe necessários para a intrafatia da figura e a interfatia ad figura. Por exemplo, a sintaxe do cabeçalho de figura pode ser conforme na Tabela 1 a seguir. [Tabela 1] [0133] Each figure is related to a figure header. The figure can be composed of different types of slices (intracoded slice (i.e., I-slice) and intercoded slice (i.e., P-slice and B-slice)). Correspondingly, the figure header may include syntax elements necessary for the figure intraslice and the ad figure interslice. For example, the figure header syntax may be as shown in Table 1 below. [Table 1]
[0134] Dentre os elementos de sintaxe da Tabela 1, elementos de sintaxe incluindo “intra_slice” em seus títulos (por exemplo, pic_log2_diff_min_qt_min_cb_intra_slice_luma) são elementos de sintaxe sendo usados na fatia I da figura correspondente, e elementos de sintaxe (por exemplo, pic_temporal_mvp_enabled_flag) relacionados a elementos de sintaxe incluindo “inter_slice” em seus títulos (por exemplo, pic_log2_diff_min_qt_min_cb_inter_slice, mvp, mvd, mmvd e merge) são elementos de sintaxe sendo usados na fatia P e/ou fatia B da figura correspondente.[0134] Among the syntax elements of Table 1, syntax elements including “intra_slice” in their titles (e.g., pic_log2_diff_min_qt_min_cb_intra_slice_luma) are syntax elements being used in slice I of the corresponding figure, and syntax elements (e.g., pic_temporal_mvp_enabled_flag ) related syntax elements including “inter_slice” in their titles (e.g., pic_log2_diff_min_qt_min_cb_inter_slice, mvp, mvd, mmvd, and merge) are syntax elements being used in the P slice and/or B slice of the corresponding figure.
[0135] Ou seja, o cabeçalho de figura inclui todos os elementos de sintaxe necessários para a fatia intracodificada e elementos de sintaxe necessários para a fatia intercodificada para cada figura única. No entanto, isso é útil apenas em relação à figura incluindo fatias tipo mistas (figura incluindo todas dentre a fatia intracodificada e a fatia intercodificada). Em geral, visto que a figura não inclui as fatias tipo mistas (isto é, a figura geral inclui apenas as fatias intracodificadas ou apenas as fatias intercodificadas), é desnecessário realizada uma sinalização de todos os dados (elementos de sintaxe sendo usados na fatia intracodificada e elementos de sintaxe sendo usados na fatia intercodificada).[0135] That is, the figure header includes all syntax elements required for the intracoded slice and syntax elements required for the intercoded slice for each single figure. However, this is only useful in relation to the figure including mixed type slices (figure including all of the intracoded slice and the intercoded slice). In general, since the figure does not include mixed-type slices (i.e., the overall figure includes only intracoded slices or only intercoded slices), it is unnecessary to perform a signaling of all data (syntax elements being used in the intracoded slice). and syntax elements being used in the intercoded slice).
[0136] Os desenhos a seguir foram preparados para explicar um exemplo detalhado do presente documento. Visto que o nome de um dispositivo detalhado ou o nome de sinais/informações detalhados são exemplarmente apresentados, os recursos técnicos do presente documento não são limitados aos nomes detalhados usados nos desenhos a seguir.[0136] The following drawings have been prepared to explain a detailed example of the present document. Since the name of a detailed device or the name of detailed signals/information are exemplarily presented, the technical features of this document are not limited to the detailed names used in the following drawings.
[0137] O presente documento proporciona os métodos a seguir a fim de solucionar o problema descrito anteriormente. Itens de cada método podem ser individualmente aplicados, ou podem ser aplicados em combinação.[0137] This document provides the methods to be followed in order to solve the problem described above. Items from each method can be applied individually, or they can be applied in combination.
[0138] 1. Um sinalizador no cabeçalho de figura para especificar se elementos de sintaxe que são necessários apenas por fatias intracodificadas estão presentes no cabeçalho de figura pode ser sinalizado. O sinalizador pode ser referido como intra_signaling_present_flag.[0138] 1. A flag in the figure header to specify whether syntax elements that are required only by intracoded slices are present in the figure header can be flagged. The flag can be referred to as intra_signaling_present_flag.
[0139] a) Quando intra_signaling_present_flag for igual a 1, elementos de sintaxe que são necessários por fatias intracodificadas estão presentes no cabeçalho de figura. De modo similar, quando intra_signaling_present_flag for igual a 0, elementos de sintaxe que são necessários por fatias intracodificadas não estão presentes no cabeçalho de figura.[0139] a) When intra_signaling_present_flag is equal to 1, syntax elements that are required by intracoded slices are present in the figure header. Similarly, when intra_signaling_present_flag is equal to 0, syntax elements that are required by intracoded slices are not present in the figure header.
[0140] b) O valor de intra_signaling_present_flag em um cabeçalho de figura deve ser igual a 1 na figura associada ao cabeçalho de figura tendo pelo menos uma fatia intracodificada.[0140] b) The value of intra_signaling_present_flag in a figure header must be equal to 1 in the figure associated with the figure header having at least one intracoded slice.
[0141] c) O valor de intra_signaling_present_flag em um cabeçalho de figura pode ser igual a 1 mesmo quando a figura associada ao cabeçalho de figura não tiver uma fatia intracodificada.[0141] c) The value of intra_signaling_present_flag in a figure header may be equal to 1 even when the figure associated with the figure header does not have an intracoded slice.
[0142] d) Quando uma figura tiver uma ou mais subfigurações contendo fatias intracodificadas apenas e for antecipado que uma ou mais das subfigurações podem ser extraídas e unidas a subfigurações que contêm uma ou mais fatias intercodificadas, o valor de intra_signaling_present_flag deve ser definido como igual a 1.[0142] d) When a figure has one or more subfigurations containing intracoded slices only and it is anticipated that one or more of the subfigurations may be extracted and joined to subfigurations containing one or more intercoded slices, the value of intra_signaling_present_flag should be set equal to 1.
[0143] 2. Um sinalizador no cabeçalho de figura para especificar se elementos de sintaxe que são necessários apenas por fatias intercodificadas estão presentes no cabeçalho de figura pode ser sinalizado. O sinalizador pode ser referido como inter_signaling_present_flag.[0143] 2. A flag in the figure header to specify whether syntax elements that are required only by intercoded slices are present in the figure header can be flagged. The flag can be referred to as inter_signaling_present_flag.
[0144] a) Quando inter_signaling_present_flag for igual a 1, elementos de sintaxe que são necessários por fatias intercodificadas estão presentes no cabeçalho de figura. De modo similar, quando inter_signaling_present_flag for igual a 0, elementos de sintaxe que são necessários por fatias intercodificadas não estão presentes no cabeçalho de figura.[0144] a) When inter_signaling_present_flag is equal to 1, syntax elements that are required by intercoded slices are present in the figure header. Similarly, when inter_signaling_present_flag is equal to 0, syntax elements that are required by intercoded slices are not present in the figure header.
[0145] b) O valor de inter_signaling_present_flag em um cabeçalho de figura deve ser igual a 1 na figura associada ao cabeçalho de figura tendo pelo menos uma fatia intercodificada.[0145] b) The value of inter_signaling_present_flag in a figure header must be equal to 1 in the figure associated with the figure header having at least one intercoded slice.
[0146] c) O valor de inter_signaling_present_flag em um cabeçalho de figura pode ser igual a 1 mesmo quando a figura associada ao cabeçalho de figura não tiver uma fatia intercodificada.[0146] c) The value of inter_signaling_present_flag in a figure header may be equal to 1 even when the figure associated with the figure header does not have an intercoded slice.
[0147] d) Quando uma figura tiver uma ou mais subfigurações contendo fatias intercodificadas apenas e for antecipado que uma ou mais das subfigurações podem ser extraídas e unidas a subfigurações que contêm uma ou mais fatias intracodificadas, o valor de inter_signaling_present_flag deve ser definido como igual a 1.[0147] d) When a figure has one or more subfigurations containing intercoded slices only and it is anticipated that one or more of the subfigurations may be extracted and joined to subfigurations containing one or more intracoded slices, the value of inter_signaling_present_flag should be set equal to 1.
[0148] 3. Os sinalizadores anteriores (intra_signaling_present_flag e inter_signaling_present_flag) podem ser sinalizados em outro conjunto de parâmetros tal como um conjunto de parâmetros de figura (PPS) ao invés de no cabeçalho de figura).[0148] 3. The previous flags (intra_signaling_present_flag and inter_signaling_present_flag) can be signaled in another parameter set such as a figure parameter set (PPS) instead of in the figure header).
[0149] 4. Outra alternativa para sinalizar os sinalizadores anteriores pode ser a seguir.[0149] 4. Another alternative to flagging the previous flags may be as follows.
[0150] a) Duas variáveis IntraSignalingPresentFlag e InterSignalingPresentFlag que especificam se elementos de sintaxe necessários por fatias intracodificadas e elemento de sintaxe necessário por fatias intercodificadas, respectivamente, presentes no cabeçalho de figura podem ou não ser definidos.[0150] a) Two variables IntraSignalingPresentFlag and InterSignalingPresentFlag that specify whether syntax elements required by intracoded slices and syntax element required by intercoded slices, respectively, present in the figure header can or cannot be defined.
[0151] b) Um sinalizador denominado mixed_slice_types_present_flag no cabeçalho de figura pode ser sinalizado. Quando mixed_slice_types_present_flag for igual a 1, os valores de IntraSignalingPresentFlag e InterSignalingPresentFlag são definidos como sendo iguais a 1.[0151] b) A flag called mixed_slice_types_present_flag in the figure header may be flagged. When mixed_slice_types_present_flag is equal to 1, the values of IntraSignalingPresentFlag and InterSignalingPresentFlag are set to be equal to 1.
[0152] c) Quando mixed_slice_types_present_flag for igual a 0, um sinalizador adicional denominado intra_slice_only_flag pode ser sinalizado no cabeçalho de figura e o seguinte se aplica. Se intra_slice_only_flag for igual a 1, o valor de IntraSignalingPresentFlag é definido como igual a 1 e o valor de InterSignalingPresentFlag é definido como igual a 0. Caso contrário, o valor de IntraSignalingPresentFlag é definido como igual a 0 e o valor de InterSignalingPresentFlag é definido como igual a 1.[0152] c) When mixed_slice_types_present_flag is equal to 0, an additional flag called intra_slice_only_flag may be flagged in the figure header and the following applies. If intra_slice_only_flag is equal to 1, the value of IntraSignalingPresentFlag is set to equal 1 and the value of InterSignalingPresentFlag is set to equal to 0. Otherwise, the value of IntraSignalingPresentFlag is set to equal to 0 and the value of InterSignalingPresentFlag is set to equal to 1.
[0153] 5. Um elemento de sintaxe de comprimento fixo no cabeçalho de figura, que pode ser denominado slice_types_idc, que especifica as informações a seguir pode ser sinalizado.[0153] 5. A fixed-length syntax element in the figure header, which may be named slice_types_idc, that specifies the following information may be flagged.
[0154] a) Se a figura associada ao cabeçalho de figura contiver fatias intracodificadas apenas. Para esse tipo, o valor de slice_types_idc pode ser definido como igual a 0.[0154] a) If the figure associated with the figure header contains intracoded slices only. For this type, the value of slice_types_idc can be set equal to 0.
[0155] b) Se a figura associada ao cabeçalho de figura contiver fatias intercodificadas apenas, o valor de slice_types_idc pode ser definido como igual a 1.[0155] b) If the figure associated with the figure header contains intercoded slices only, the value of slice_types_idc may be set equal to 1.
[0156] c) Se a figura associada ao cabeçalho de figura puder conter fatias intracodificadas e fatias intercodificadas, o valor de slice_types_idc pode ser definido como igual a 2.[0156] c) If the figure associated with the figure header can contain intracoded slices and intercoded slices, the value of slice_types_idc can be set equal to 2.
[0157] Nota-se que quando slice_types_idc tiver um valor igual a 2, ainda é possível que a figura contenha fatias intracodificadas apenas ou fatias intercodificadas apenas.[0157] Note that when slice_types_idc has a value of 2, it is still possible for the figure to contain intracoded slices only or intercoded slices only.
[0158] d) Outros valores de slice_types_idc podem ser reservados para uso futuro.[0158] d) Other slice_types_idc values may be reserved for future use.
[0159] 6. Para semântica de slice_types_idc em um cabeçalho de figura, as restrições a seguir podem ser adicionalmente especificadas.[0159] 6. For semantics of slice_types_idc in a figure header, the following constraints may be additionally specified.
[0160] a) Quando a figura associada ao cabeçalho de figura tiver uma ou mais fatias intracodificadas, o valor de slice_types_idc não deve ser igual a 1.[0160] a) When the figure associated with the figure header has one or more intracoded slices, the value of slice_types_idc must not be equal to 1.
[0161] b) Quando a figura associada ao cabeçalho de figura tiver uma ou mais fatias intercodificadas, o valor de slice_types_idc não deve ser igual a 0.[0161] b) When the figure associated with the figure header has one or more intercoded slices, the slice_types_idc value must not be equal to 0.
[0162] 7. slice_types_idc pode ser sinalizado em outro conjunto de parâmetros tal como um conjunto de parâmetros de figura (PPS) ao invés de no cabeçalho de figura.[0162] 7. slice_types_idc may be flagged in another parameter set such as a figure parameter set (PPS) rather than in the figure header.
[0163] Como uma modalidade, o aparelho de codificação e o aparelho de decodificação podem usar a Tabela 2 e Tabela 3 a seguir como sintaxe e semântica do cabeçalho de figura com base nos métodos de 1 e 2 conforme descrito anteriormente. [Tabela 2] [Tabela 3] intra_signaling_present_flag igual a 1 especifica que os elementos de sintaxe usados apenas por fatias intracodificadas estão presentes no cabeçalho de figura, intra_signaling_present_flag igual a 0 especifica que os elementos sintaxe usados apenas por fatias intracodificadas não estão presentes no cabeçalho de figura É uma exigência da conformidade de fluxo de bits que o valor de intra_signaling_present_flag deva ser igual a 1 quando a figura associada ao cabeçalho de figura tiver uma ou mais fatias com slice_type[0163] As one embodiment, the encoding apparatus and the decoding apparatus may use the following Table 2 and Table 3 as figure header syntax and semantics based on the methods of 1 and 2 as previously described. [Table 2] [Table 3] intra_signaling_present_flag equal to 1 specifies that syntax elements used only by intracoded slices are present in the figure header, intra_signaling_present_flag equal to 0 specifies that syntax elements used only by intracoded slices are not present in the figure header It is a requirement of bitstream compliance that the value of intra_signaling_present_flag must be equal to 1 when the figure associated with the figure header has one or more slices with slice_type
[0164] Referindo-se à Tabela 2 e à Tabela 3, se o valor de intra_signaling_present_flag for 1, isso pode representar que o elemento de sintaxe sendo usado apenas na fatia intracodificada está presente no cabeçalho de figura. Se o valor de intra_signaling_present_flag for 0, isso pode representar que o elemento de sintaxe sendo usado apenas na fatia intracodificada não está presente no cabeçalho de figura. De modo correspondente, se a figura relacionada ao cabeçalho de figura incluir uma ou mais fatias tendo o tipo de fatia de fatia I, o valor de intra_signaling_present_flag se torna 1. Ademais, se a figura relacionada ao cabeçalho de figura não incluir as fatias tendo o tipo de fatia de fatia I, o valor de intra_signaling_present_flag se torna 0.[0164] Referring to Table 2 and Table 3, if the value of intra_signaling_present_flag is 1, this may represent that the syntax element being used only in the intracoded slice is present in the figure header. If the value of intra_signaling_present_flag is 0, this may represent that the syntax element being used only in the intracoded slice is not present in the figure header. Correspondingly, if the figure related to the figure header includes one or more slices having the slice slice type I, the value of intra_signaling_present_flag becomes 1. Furthermore, if the figure related to the figure header does not include the slices having the slice slice type I, the value of intra_signaling_present_flag becomes 0.
[0165] Se o valor de inter_signaling_present_flag for 1, isso pode representar que o elemento de sintaxe sendo usado apenas na fatia intercodificada está presente no cabeçalho de figura. Se o valor de inter_signaling_present_flag for 0, isso pode representar que o elemento de sintaxe sendo usado apenas na fatia intercodificada não está presente no cabeçalho de figura. De modo correspondente, se a figura relacionada ao cabeçalho de figura incluir uma ou mais fatias tendo o tipo de fatia de fatia P e/ou fatia B, o valor de intra_signaling_present_flag se torna 1. Ademais, se a figura relacionada ao cabeçalho de figura não incluir as fatias tendo o tipo de fatia de fatia P e/ou fatia B, o valor de intra_signaling_present_flag se torna 0.[0165] If the value of inter_signaling_present_flag is 1, this may represent that the syntax element being used only in the intercoded slice is present in the figure header. If the value of inter_signaling_present_flag is 0, this may represent that the syntax element being used only in the intercoded slice is not present in the figure header. Correspondingly, if the figure related to the figure header includes one or more slices having the slice type of slice P and/or slice B, the value of intra_signaling_present_flag becomes 1. Furthermore, if the figure related to the figure header does not include slices having the slice type of slice P and/or slice B, the value of intra_signaling_present_flag becomes 0.
[0166] Ademais, no caso de a figura incluir uma ou mais subfigurações incluindo as fatias intracodificadas que podem ser unidas a uma ou mais subfigurações incluindo as fatias intercodificadas, tanto o valor de intra_signaling_present_flag como o valor de inter_signaling_present_flag são definidos como sendo 1.[0166] Furthermore, in case the figure includes one or more subfigurations including the intracoded slices that can be joined to one or more subfigurations including the intercoded slices, both the value of intra_signaling_present_flag and the value of inter_signaling_present_flag are set to 1.
[0167] Por exemplo, no caso onde apenas as fatias intercodificadas (fatia P e/ou fatia B) são incluídas na figura atual, o aparelho de codificação pode determinar o valor de inter_signaling_present_flag como 1, e o valor de intra_signaling_present_flag como 0.[0167] For example, in the case where only the intercoded slices (slice P and/or slice B) are included in the current figure, the coding apparatus may determine the value of inter_signaling_present_flag as 1, and the value of intra_signaling_present_flag as 0.
[0168] Como outro exemplo, no caso onde apenas a fatia intracodificada (fatia I) for incluída na figura atual, o aparelho de codificação pode determinar o valor de inter_signaling_present_flag como 0, e o valor de intra_signaling_present_flag como 1.[0168] As another example, in the case where only the intracoded slice (slice I) is included in the current figure, the coding apparatus may determine the value of inter_signaling_present_flag as 0, and the value of intra_signaling_present_flag as 1.
[0169] Como ainda outro exemplo, no caso onde pelo menos uma fatia intercodificada ou pelo menos uma fatia intracodificada for incluída na figura atual, o aparelho de codificação pode determinar o valor de inter_signaling_present_flag e o valor de intra_signaling_present_flag como 1 em todos.[0169] As yet another example, in the case where at least one intercoded slice or at least one intracoded slice is included in the current figure, the coding apparatus may determine the value of inter_signaling_present_flag and the value of intra_signaling_present_flag as 1 in all.
[0170] No caso onde o valor de intra_signaling_present_flag for determinado como 0, o aparelho de codificação pode gerar informações de imagem onde os elementos de sintaxe necessários para a intrafatia são excluídos ou omitidos, e apenas os elementos de sintaxe necessários para a interfatia são incluídos no cabeçalho de figura. Se o valor de inter_signaling_present_flag for determinado como 0, o aparelho de codificação pode gerar as informações de imagem em que os elementos de sintaxe necessários para a interfatia são excluídos ou omitidos, e apenas os elementos de sintaxe necessários para a intrafatia são incluídos no cabeçalho de figura.[0170] In the case where the value of intra_signaling_present_flag is determined to be 0, the encoding apparatus may generate image information where the syntax elements necessary for the intraslice are excluded or omitted, and only the syntax elements necessary for the interslice are included in the figure header. If the value of inter_signaling_present_flag is set to 0, the encoding apparatus can generate image information in which the syntax elements required for the interslice are deleted or omitted, and only the syntax elements required for the intraslice are included in the header. figure.
[0171] Se o valor de inter_signaling_present_flag obtido a partir do cabeçalho de figura nas informações de imagem for 1, o aparelho de decodificação pode determinar que pelo menos uma fatia intercodificada seja incluída na figura correspondente, e pode analisar os elementos de sintaxe necessários para a intrapredição a partir do cabeçalho de figura. Se o valor de inter_signaling_present_flag for 0, o aparelho de decodificação pode determinar que apenas a fatia intracodificada seja incluída na figura correspondente, e pode analisar os elementos de sintaxe necessários para a intrapredição a partir do cabeçalho de figura. Se o valor de intra_signaling_present_flag obtido a partir do cabeçalho de figura nas informações de imagem for 1, o aparelho de decodificação pode determinar que pelo menos uma fatia intracodificada seja incluída na figura correspondente, e pode analisar os elementos de sintaxe necessários para a intrapredição a partir do cabeçalho de figura. Se o valor de intra_signaling_present_flag for 0, o aparelho de decodificação pode determinar que apenas a fatia intercodificada está incluída na figura correspondente, e pode analisar os elementos de sintaxe necessários para a interpredição a partir do cabeçalho de figura.[0171] If the value of inter_signaling_present_flag obtained from the figure header in the picture information is 1, the decoding apparatus may determine that at least one intercoded slice is included in the corresponding figure, and may parse the syntax elements necessary for the intraprediction from the figure header. If the value of inter_signaling_present_flag is 0, the decoding apparatus may determine that only the intracoded slice is included in the corresponding figure, and may parse the syntax elements necessary for intraprediction from the figure header. If the value of intra_signaling_present_flag obtained from the figure header in the picture information is 1, the decoding apparatus may determine that at least one intracoded slice is included in the corresponding figure, and may parse the syntax elements necessary for intraprediction from of the figure header. If the value of intra_signaling_present_flag is 0, the decoding apparatus can determine that only the intercoded slice is included in the corresponding figure, and can parse the syntax elements necessary for interprediction from the figure header.
[0172] Como outra modalidade, o aparelho de codificação e o aparelho de decodificação podem usar a Tabela 4 e a Tabela 5 a seguir como a sintaxe e semântica do cabeçalho de figura com base nos métodos anteriores de 5 e 6. [Tabela 4] [0172] As another embodiment, the encoding apparatus and the decoding apparatus may use Table 4 and Table 5 below as the syntax and semantics of the figure header based on the previous methods of 5 and 6. [Table 4]
[0173] Referindo-se à Tabela 4 e à Tabela 5, se o valor de slice_types_idc for 0, isso representa que o tipo de todas as fatias na figura relacionada ao cabeçalho de figura é fatia I. Se o valor de slice_types_idc for 1, isso representa que o tipo de todas as fatias na figura relacionada ao cabeçalho de figura é fatia P ou B. Se o valor de slice_types_idc for 2, isso representa que o tipo de fatia das fatias na figura relacionada ao cabeçalho de figura é fatia I, P e/ou B.[0173] Referring to Table 4 and Table 5, if the value of slice_types_idc is 0, it represents that the type of all slices in the figure related to the figure header is slice I. If the value of slice_types_idc is 1, this represents that the type of all slices in the figure related to the figure header is slice P or B. If the value of slice_types_idc is 2, it represents that the slice type of the slices in the figure related to the figure header is slice I, P and/or B.
[0174] Por exemplo, se apenas a fatia intracodificada for incluída na figura atual, o aparelho de codificação pode determinar o valor de slice_types_idc como 0, e pode incluir apenas os elementos de sintaxe necessários para decodificação da intrafatia no cabeçalho de figura. Ou seja, nesse caso, os elementos de sintaxe necessários para a interfatia não são incluídos no cabeçalho de figura.[0174] For example, if only the intra-coded slice is included in the current figure, the encoding apparatus may determine the value of slice_types_idc as 0, and may include only the syntax elements necessary for decoding the intra-slice in the figure header. That is, in this case, the syntax elements required for interslicing are not included in the figure header.
[0175] Como outro exemplo, se apenas a fatia intercodificada for incluída na figura atual, o aparelho de codificação pode determinar o valor de slice_types_idc como 1, e pode incluir apenas os elementos de sintaxe necessários para decodificação da interfatia no cabeçalho de figura. Ou seja, nesse caso, os elementos de sintaxe necessários para a intrafatia não são incluídos no cabeçalho de figura.[0175] As another example, if only the intercoded slice is included in the current figure, the encoding apparatus may determine the value of slice_types_idc as 1, and may include only the syntax elements necessary for decoding the interslice in the figure header. That is, in this case, the syntax elements required for the intraslice are not included in the figure header.
[0176] Ainda como outro exemplo, se pelo menos uma fatia intercodificada e pelo menos uma fatia intracodificada forem incluídas na figura atual, o aparelho de codificação pode determinar o valor de slice_types_idc como 2, e pode incluir todos os elementos de sintaxe necessários para a decodificação da interfatia e os elementos de sintaxe necessários para a decodificação da intrafatia no cabeçalho de figura.[0176] As yet another example, if at least one intercoded slice and at least one intracoded slice are included in the current figure, the encoding apparatus may determine the value of slice_types_idc to be 2, and may include all syntax elements necessary for the interslice decoding and the syntax elements required for intraslice decoding in the figure header.
[0177] Se o valor de slice_types_idc obtido a partir do cabeçalho de figura nas informações de imagem for 0, o aparelho de decodificação pode determinar que apenas a fatia intracodificada é incluída na figura correspondente, e pode analisar os elementos de sintaxe necessários para a decodificação da fatia intracodificada a partir do cabeçalho de figura. Se o valor de slice_types_idc for 1, o aparelho de decodificação pode determinar que apenas a fatia intercodificada é incluída na figura correspondente, e pode analisar os elementos de sintaxe necessários para a decodificação da fatia intercodificada a partir do cabeçalho de figura. Se o valor de slice_types_idc for 2, o aparelho de decodificação pode determinar que pelo menos uma fatia intracodificada e pelo menos uma fatia intercodificada são incluídas na figura correspondente, e pode analisar os elementos de sintaxe necessários para a decodificação da fatia intracodificada e os elementos de sintaxe necessários para a decodificação da fatia intercodificada a partir do cabeçalho de figura.[0177] If the value of slice_types_idc obtained from the figure header in the image information is 0, the decoding apparatus may determine that only the intracoded slice is included in the corresponding figure, and may parse the syntax elements necessary for decoding of the intracoded slice from the figure header. If the value of slice_types_idc is 1, the decoding apparatus can determine that only the intercoded slice is included in the corresponding figure, and can parse the syntax elements necessary for decoding the intercoded slice from the figure header. If the value of slice_types_idc is 2, the decoding apparatus may determine that at least one intracoded slice and at least one intercoded slice are included in the corresponding figure, and may parse the syntax elements necessary for decoding the intracoded slice and the elements of syntax required for decoding the intercoded slice from the figure header.
[0178] Ainda como outra modalidade, o aparelho de codificação e o aparelho de decodificação podem usar um sinalizador que representa se a figura inclui as fatias intra e intercodificadas. Se o sinalizador for verdadeiro, ou seja, se o valor do sinalizador for 1, todas dentre a intrafatia e a interfatia podem ser incluídas na figura correspondente. Nesse caso, a Tabela 6 e a Tabela 7 a seguir podem ser usadas como a sintaxe e a semântica do cabeçalho de figura. [Tabela 6] [Tabela 7] mixed_slice_signaling_present_flag igual a 1 especifica que a figura associada ao cabeçalho de figura pode ter uma ou mais fatias com diferentes tipos, mixed_slice_signaling_present_flag igual a 0 especifica que a figura associada ao cabeçalho de figura contém dados pertencentes a apenas um único tipo de fatia. As variáveis InterSignalingPresentFlag e IntraSignalingPresentFlag são definidas para especificarem se elementos de sintaxe necessários por fatias intracodificadas e elementos de sintaxe necessários por fatias intercodificadas, respectivamente, estão presentes na figura ou não. Quando mixed slice signaling present flag for igual a 1, InterSignalingPresentFlag e IntraSignalingPresentFlag são definidos como sendo iguais a 1. intra_slice_only_flag igual a 1 especifica que o valor de IntraSignalingPresentFlag é definido como sendo igual a 1 e o valor de InterSignalingPresentFlag é definido como sendo igual a 0. intra_slice_only_flag igual a 0 especifica que IntraSignalingPresentFlag é definido como sendo igual a 0 e o valor de InterSignalingPresentFlag é definido como sendo igual a 1. É uma exigência da conformidade de fluxo de bits que o valor de IntraSignalingPresentFlag deva ser igual a 1 quando a figura associada ao cabeçalho de figura tiver uma ou mais com slice_type igual a I É uma exigência da conformidade de fluxo de bits que o valor de InterSignalingPresentFlag deva ser igual a 1 quando a figura associada ao cabeçalho de figura tiver uma ou mais com slice_type igual a P ou B. NOTA -: Os valores de intra_signaling_present_flag e inter_signaling_present_flag devem ser definidos iguais a 1 no cabeçalho de figura associado à figura contendo uma ou mais subfigurações contendo fatias intracodificadas que podem ser unidas a uma ou mais subfigurações contendo fatias intercodificadas[0178] As yet another embodiment, the encoding apparatus and the decoding apparatus may use a flag that represents whether the figure includes intra- and inter-coded slices. If the flag is true, that is, if the flag value is 1, all of the intra-slice and inter-slice can be included in the corresponding figure. In this case, Table 6 and Table 7 below can be used as the syntax and semantics of the figure header. [Table 6] [Table 7] mixed_slice_signaling_present_flag equal to 1 specifies that the figure associated with the figure header can have one or more slices with different types, mixed_slice_signaling_present_flag equal to 0 specifies that the figure associated with the figure header contains data belonging to only a single slice type . The variables InterSignalingPresentFlag and IntraSignalingPresentFlag are defined to specify whether syntax elements required by intracoded slices and syntax elements required by intercoded slices, respectively, are present in the figure or not. When mixed slice signaling present flag is equal to 1, InterSignalingPresentFlag and IntraSignalingPresentFlag are set to be equal to 1. intra_slice_only_flag equal to 1 specifies that the value of IntraSignalingPresentFlag is set to be equal to 1 and the value of InterSignalingPresentFlag is set to be equal to 0. intra_slice_only_flag equals 0 specifies that IntraSignalingPresentFlag is set equal to 0 and the value of InterSignalingPresentFlag is set equal to 1. It is a requirement of bitstream compliance that the value of IntraSignalingPresentFlag must be equal to 1 when the picture associated with the picture header has one or more with slice_type equal to I It is a bitstream compliance requirement that the value of InterSignalingPresentFlag must equal 1 when the picture associated with the picture header has one or more with slice_type equal to P or B. NOTE -: The values of intra_signaling_present_flag and inter_signaling_present_flag must be set equal to 1 in the figure header associated with the figure containing one or more subfigures containing intracoded slices that can be joined to one or more subfigures containing intercoded slices
[0179] Referindo-se à Tabela 6 e à Tabela 7, se o valor de mixed_slice_signaling_present_flag for 1, isso pode representar que a figura relacionada ao cabeçalho de figura correspondente tem uma ou mais fatias tendo diferentes tipos. Se o valor de mixed_slice_signaling_present_flag for 0, isso pode significar que a figura relacionada ao cabeçalho de figura correspondente inclui dados relacionados a apenas um tipo de fatia único.[0179] Referring to Table 6 and Table 7, if the value of mixed_slice_signaling_present_flag is 1, it may represent that the figure related to the corresponding figure header has one or more slices having different types. If the value of mixed_slice_signaling_present_flag is 0, it could mean that the figure related to the corresponding figure header includes data related to only a single slice type.
[0180] As variáveis InterSignalingPresentFlag e IntraSignalingPresentFlag representam se o elemento de sintaxe necessário para a fatia intracodificada e o elemento de sintaxe necessário para a fatia intercodificada estão presentes no cabeçalho de figura correspondente, respectivamente. Se o valor de mixed_slice_signaling_present_flag for 1, os valores de IntraSignalingPresentFlag e InterSignalingPresentFlag são definidos para 1.[0180] The variables InterSignalingPresentFlag and IntraSignalingPresentFlag represent whether the syntax element required for the intracoded slice and the syntax element required for the intercoded slice are present in the corresponding figure header, respectively. If the value of mixed_slice_signaling_present_flag is 1, the values of IntraSignalingPresentFlag and InterSignalingPresentFlag are set to 1.
[0181] Se o valor de intra_slice_only_flag for definido para 1, isso representa que o valor de IntraSignalingPresentFlag é definido para 1, e o valor de InterSignalingPresentFlag é definido para 0. Se o valor de intra_slice_only_flag for 0, isso representa que o valor de IntraSignalingPresentFlag é definido para 0, e o valor de InterSignalingPresentFlag é definido para 1.[0181] If the value of intra_slice_only_flag is set to 1, this represents that the value of IntraSignalingPresentFlag is set to 1, and the value of InterSignalingPresentFlag is set to 0. If the value of intra_slice_only_flag is 0, this represents that the value of IntraSignalingPresentFlag is set to 0, and the value of InterSignalingPresentFlag is set to 1.
[0182] Se a figura relacionada ao cabeçalho de figura tiver uma ou mais fatias tendo o tipo de fatia de fatia I, o valor de IntraSignalingPresentFlag é definido para 1. Se a figura relacionada ao cabeçalho de figura tiver uma ou mais fatias tendo o tipo de fatia de fatia P ou B, o valor de InterSignalingPresentFlag é definido para 1.[0182] If the figure related to the figure header has one or more slices having slice slice type I, the value of IntraSignalingPresentFlag is set to 1. If the figure related to the figure header has one or more slices having the type of P or B slice slice, the value of InterSignalingPresentFlag is set to 1.
[0183] Por exemplo, se apenas a fatia intracodificada for incluída na figura atual, o aparelho de codificação pode determinar o valor de mixed_slice_signaling_present_flag como 0, pode determinar o valor de intra_slice_only_flag como 1, pode determinar o valor de IntraSignalingPresentFlag como 1, e pode determinar o valor de InterSignalingPresentFlag como 0.[0183] For example, if only the intracoded slice is included in the current figure, the encoding apparatus may determine the value of mixed_slice_signaling_present_flag as 0, may determine the value of intra_slice_only_flag as 1, may determine the value of IntraSignalingPresentFlag as 1, and may set the value of InterSignalingPresentFlag to 0.
[0184] Como outro exemplo, se apenas a fatia intercodificada for incluída na figura atual, o aparelho de codificação pode determinar o valor de mixed_slice_signaling_present_flag como 0, pode determinar o valor de intra_slice_only_flag como 0, pode determinar o valor de IntraSignalingPresentFlag como 0, e pode determinar o valor de InterSignalingPresentFlag como 1.[0184] As another example, if only the intercoded slice is included in the current figure, the encoding apparatus may determine the value of mixed_slice_signaling_present_flag as 0, may determine the value of intra_slice_only_flag as 0, may determine the value of IntraSignalingPresentFlag as 0, and can set the value of InterSignalingPresentFlag to 1.
[0185] Ainda como outro exemplo, se pelo menos uma fatia intracodificada e pelo menos uma fatia intercodificada forem incluídas na figura atual, o aparelho de codificação pode determinar os valores de mixed_slice_signaling_present_flag, IntraSignalingPresentFlag e InterSignalingPresentFlag como 1, respectivamente.[0185] As yet another example, if at least one intracoded slice and at least one intercoded slice are included in the current figure, the encoding apparatus may determine the values of mixed_slice_signaling_present_flag, IntraSignalingPresentFlag, and InterSignalingPresentFlag as 1, respectively.
[0186] Se o valor de mixed_slice_signaling_present_flag obtido a partir do cabeçalho de figura nas informações de imagem for 0, o aparelho de decodificação pode determinar que apenas a fatia intracodificada ou a fatia intercodificada é incluída na figura correspondente. Nesse caso, se o valor de intra_slice_only_flag obtido a partir do cabeçalho de figura for 0, o aparelho de decodificação pode analisar apenas os elementos de sintaxe necessários para decodificação da fatia intercodificada a partir do cabeçalho de figura. Se o valor de intra_slice_only_flag for 1, o aparelho de decodificação pode analisar apenas o elemento de sintaxe necessário para decodificação da fatia intracodificada a partir do cabeçalho de figura.[0186] If the value of mixed_slice_signaling_present_flag obtained from the figure header in the picture information is 0, the decoding apparatus may determine that only the intracoded slice or the intercoded slice is included in the corresponding figure. In this case, if the value of intra_slice_only_flag obtained from the figure header is 0, the decoding apparatus can parse only those syntax elements necessary for decoding the intercoded slice from the figure header. If the value of intra_slice_only_flag is 1, the decoder can parse only the syntax element necessary for decoding the intracoded slice from the figure header.
[0187] Se o valor de mixed_slice_signaling_present_flag obtido a partir do cabeçalho de figura nas informações de imagem for 1, o aparelho de decodificação pode determinar que pelo menos uma fatia intracodificada e pelo menos uma fatia intercodificada são incluídas na figura correspondente, e pode analisar os elementos de sintaxe necessários para a decodificação da fatia intercodificada e os elementos de sintaxe necessários para a decodificação da fatia intracodificada a partir do cabeçalho de figura.[0187] If the value of mixed_slice_signaling_present_flag obtained from the picture header in the picture information is 1, the decoding apparatus can determine that at least one intracoded slice and at least one intercoded slice are included in the corresponding picture, and can analyze the syntax elements necessary for decoding the intercoded slice and the syntax elements necessary for decoding the intracoded slice from the figure header.
[0188] As Figuras 8 e 9 ilustram, de modo esquemático, um método de codificação de vídeo/imagem e um exemplo de componentes relacionados de acordo com uma modalidade do presente documento.[0188] Figures 8 and 9 schematically illustrate a video/image coding method and an example of related components according to an embodiment of the present document.
[0189] O método de codificação de vídeo/imagem revelado na Figura 8 pode ser realizado pelo aparelho de codificação (de vídeo/imagem) 200 revelado nas Figuras 2 e 9. De modo específico, por exemplo, S800 da Figura 8 pode ser realizado pelo preditor 220 do aparelho de codificação 200, e S810 a S830 podem ser realizados pelo codificador de entropia 240 do aparelho de codificação 200. O método de codificação de vídeo/imagem revelado na Figura 8 pode incluir as modalidades descritas anteriormente do presente documento.[0189] The video/image coding method disclosed in Figure 8 can be performed by the (video/image) coding apparatus 200 disclosed in Figures 2 and 9. Specifically, for example, S800 of Figure 8 can be realized by the predictor 220 of the coding apparatus 200, and S810 to S830 may be performed by the entropy encoder 240 of the coding apparatus 200. The video/image coding method disclosed in Figure 8 may include the embodiments described earlier herein.
[0190] De modo específico, com referência às Figuras 8 e 9, o preditor 220 do aparelho de codificação pode determinar o modo de predição do bloco atual na figura atual (S800). A figura atual pode incluir uma pluralidade de fatias. O preditor 220 do aparelho de codificação pode gerar amostras de predição (bloco predito) para o bloco atual com base no modo de predição. No presente documento, o modo de predição pode incluir um modo de interpredição e um modo de intrapredição. Se o modo de predição do bloco atual for o modo de interpredição, as amostras de predição podem ser geradas pelo interpreditor 221 do preditor 220. Se o modo de predição do bloco atual for o modo de intrapredição, as amostras de predição podem ser geradas pelo intrapreditor 222 do preditor 220.[0190] Specifically, with reference to Figures 8 and 9, the predictor 220 of the coding apparatus can determine the prediction mode of the current block in the current figure (S800). The current figure may include a plurality of slices. The predictor 220 of the coding apparatus may generate prediction samples (predicted block) for the current block based on the prediction mode. In this document, the prediction mode may include an interprediction mode and an intraprediction mode. If the prediction mode of the current block is the interprediction mode, the prediction samples may be generated by the interpredictor 221 of the predictor 220. If the prediction mode of the current block is the intraprediction mode, the prediction samples may be generated by the intrapredictor 222 of predictor 220.
[0191] O processador residual 230 do aparelho de codificação pode gerar amostras residuais e informações residuais com base nas amostras de predição e na figura original (bloco original e amostras originais). No presente documento, as informações residuais são informações sobre as amostras residuais, e podem incluir informações sobre coeficientes de transformada (quantizados) para as amostras residuais.[0191] The residual processor 230 of the coding apparatus can generate residual samples and residual information based on the prediction samples and the original figure (original block and original samples). In this document, residual information is information about the residual samples, and may include information about transformed (quantized) coefficients for the residual samples.
[0192] O adicionador (ou reconstrutor) do aparelho de codificação pode gerar amostras reconstruídas (figura reconstruída, bloco reconstruído ou arranjo de amostras reconstruídas) adicionando-se as amostras residuais geradas pelo processador residual 230 e as amostras de predição geradas pelo interpreditor 221 ou pelo intrapreditor 222 entre si.[0192] The adder (or reconstructor) of the coding apparatus may generate reconstructed samples (reconstructed figure, reconstructed block or array of reconstructed samples) by adding the residual samples generated by the residual processor 230 and the prediction samples generated by the interpredictor 221 or by the intrapredictor 222 among themselves.
[0193] Entretanto, o codificador de entropia 240 do aparelho de codificação pode gerar primeiras informações que representam se informações necessárias para a operação de interpredição para o processo de decodificação estão presentes no cabeçalho de figura relacionado à figura atual (S810). Ademais, o codificador de entropia 240 do aparelho de codificação pode gerar segundas informações que representam se informações necessárias para a operação de intrapredição para o processo de decodificação estão presentes no cabeçalho de figura relacionado à figura atual (S820). No presente documento, as primeiras informações e as segundas informações são informações incluídas no cabeçalho de figura das informações de imagem, de podem corresponder a intra_signaling_present_flag, inter_signaling_present_flag, slice_type_idc, mixed_slice_signaling_present_flag, intra_slice_only_flag, IntraSignalingPresentFlag e/ou InterSignalingPresentFlag descritos anteriormente.[0193] However, the entropy encoder 240 of the encoding apparatus may generate first information that represents whether information necessary for the interprediction operation for the decoding process is present in the figure header related to the current figure (S810). Furthermore, the entropy encoder 240 of the encoding apparatus may generate second information that represents whether information necessary for the intraprediction operation for the decoding process is present in the figure header related to the current figure (S820). In this document, the first information and the second information are information included in the figure header of the image information, which may correspond to intra_signaling_present_flag, inter_signaling_present_flag, slice_type_idc, mixed_slice_signaling_present_flag, intra_slice_only_flag, IntraSignalingPresentFlag and/or InterSignalingPresentFlag described previously.
[0194] Como um exemplo, no caso onde as informações necessárias para a operação de interpredição para o processo de decodificação são incluídas no cabeçalho de figura relacionado à figura atual como a fatia intercodificada é incluída na figura atual, o codificador de entropia 240 do aparelho de codificação pode determinar o valor das primeiras informações como 1. Ademais, no caso onde as informações necessárias para a operação de intrapredição para o processo de decodificação são incluídas no cabeçalho de figura correspondente como a fatia intracodificada é incluída na figura atual, o codificador de entropia 240 do aparelho de codificação pode determinar o valor das segundas informações como 1. Nesse caso, as primeiras informações podem corresponder a inter_signaling_present_flag, e as segundas informações podem corresponder a intra_signaling_present_flag. As primeiras informações podem ser denominadas como um primeiro sinalizador, informações sobre se os elementos de sintaxe sendo usados para interfatias estão presentes no cabeçalho de figura, um sinalizador para se elementos de sintaxe sendo usados para as interfatias estão presentes no cabeçalho de figura, informações sobre se fatias na figura atual forem interfatias, ou um sinalizador para se as fatias forem interfatias. As segundas informações podem ser denominadas como um segundo sinalizador, informações sobre se os elementos de sintaxe sendo usados para intrafatias estiverem presentes no cabeçalho de figura, um sinalizador para se elementos de sintaxe sendo usados para as intrafatias estiverem presentes no cabeçalho de figura, informações sobre se fatias na figura atual forem intrafatias, ou um sinalizador para se as fatias forem intrafatias.[0194] As an example, in the case where the information necessary for the interprediction operation for the decoding process is included in the figure header related to the current figure as the intercoded slice is included in the current figure, the entropy encoder 240 of the apparatus encoding may determine the value of the first information as 1. Furthermore, in the case where the information required for the intraprediction operation for the decoding process is included in the corresponding figure header as the intracoded slice is included in the current figure, the encoder entropy 240 of the coding apparatus may determine the value of the second information as 1. In this case, the first information may correspond to inter_signaling_present_flag, and the second information may correspond to intra_signaling_present_flag. The first information can be referred to as a first flag, information about whether syntax elements being used for interslices are present in the figure header, a flag about whether syntax elements being used for interslices are present in the figure header, information about whether slices in the current figure are interslices, or a flag for whether slices are interslices. The second information can be referred to as a second flag, information about whether syntax elements being used for intraslices are present in the figure header, a flag about whether syntax elements being used for intraslices are present in the figure header, information about whether slices in the current figure are intra-slices, or a flag for whether slices are intra-slices.
[0195] Entretanto, no caso onde apenas as informações necessárias para a operação de intrapredição estão incluídas no cabeçalho de figura correspondente como apenas a fatia intracodificada é incluída na figura, o codificador de entropia 240 do aparelho de codificação pode determinar o valor das primeiras informações como 0, e pode determinar o valor das segundas informações como 1. Ademais, no caso onde apenas as informações necessárias para a operação de interpredição estão incluídas no cabeçalho de figura correspondente como apenas a fatia intercodificada é incluída na figura, o valor das primeiras informações pode ser determinado como 1, e o valor das segundas informações pode ser determinado como 0. De modo correspondente, se o valor das primeiras informações for 0, todas as fatias na figura atual podem ter um tipo de fatia I. Se o valor das segundas informações for 0, todas as fatias na figura atual podem ter o tipo de fatia P ou o tipo de fatia B. No presente documento, as informações necessárias para a operação de intrapredição podem incluir um elemento de sintaxe sendo usado para decodificação da intrafatia, e as informações necessárias para a operação de interpredição podem incluir o elemento de sintaxe sendo usado para decodificação da interfatia.[0195] However, in the case where only the information necessary for the intraprediction operation is included in the corresponding figure header such as only the intracoded slice is included in the figure, the entropy encoder 240 of the encoding apparatus can determine the value of the first information as 0, and can set the value of the second information as 1. Furthermore, in the case where only the information required for the interprediction operation is included in the corresponding figure header as only the intercoded slice is included in the figure, the value of the first information can be determined as 1, and the value of the second information can be determined as 0. Correspondingly, if the value of the first information is 0, all slices in the current figure can have a slice type I. If the value of the second information information is 0, all slices in the current figure may have slice type P or slice type B. Herein, the information required for the intraprediction operation may include a syntax element being used for intraslice decoding, and The information required for the interprediction operation may include the syntax element being used for decoding the interslice.
[0196] Como outro exemplo, se todas as fatias na figura atual tiverem o tipo de fatia I, o codificador de entropia 240 do aparelho de codificação pode determinar o valor das informações sobre o tipo de fatia como 0, se todas as fatias na figura atual tiverem o tipo de fatia P ou o tipo de fatia B, o codificador de entropia 240 do aparelho de codificação pode determinar o valor das informações sobre o tipo de fatia como 1. Se todas as fatias na figura atual tiverem o tipo de fatia I, tipo de fatia P e/ou tipo de fatia B (isto é, os tipos de fatia das fatias na figura são misturados), o codificador de entropia 240 do aparelho de codificação pode determinar o valor das informações sobre o tipo de fatia como 2. Nesse caso, as informações sobre o tipo de fatia podem corresponder a slice_type_idc.[0196] As another example, if all slices in the current figure have slice type I, the entropy encoder 240 of the encoding apparatus may determine the value of the slice type information as 0, if all slices in the figure current have slice type P or slice type B, the entropy encoder 240 of the encoding apparatus may determine the value of the slice type information as 1. If all slices in the current figure have slice type I , slice type P and/or slice type B (that is, the slice types of the slices in the figure are mixed), the entropy encoder 240 of the encoding apparatus may determine the value of the slice type information as 2 In this case, the slice type information may correspond to slice_type_idc.
[0197] Ainda como outro exemplo, se todas as fatias na figura atual tiverem o mesmo tipo de fatia, o codificador de entropia 240 do aparelho de codificação pode determinar o valor das informações sobre o tipo de fatia como 0, e se as fatias na figura atual tiverem tipos de fatia diferentes, o codificador de entropia 240 do aparelho de codificação pode determinar o valor das informações sobre o tipo de fatia como 1. Nesse caso, as informações sobre o tipo de fatia podem corresponder a mixed_slice_signaling_present_flag.[0197] As yet another example, if all slices in the current figure have the same slice type, the entropy encoder 240 of the encoding apparatus may determine the value of the slice type information as 0, and whether the slices in the current figure have different slice types, the entropy encoder 240 of the encoding apparatus may determine the value of the slice type information as 1. In this case, the slice type information may correspond to mixed_slice_signaling_present_flag.
[0198] Se o valor das informações sobre o tipo de fatia for determinado como 0, informações sobre se a intrafatia é incluída nas fatias podem ser incluídas no cabeçalho de figura correspondente. As informações sobre se a intrafatia é incluída nas fatias podem corresponder a intra_slice_only_flag. Se todas as fatias na figura tiverem o tipo de fatia I, o codificador de entropia 240 do aparelho de codificação pode determinar o valor das informações sobre se a intrafatia está incluída nas fatias como 1, determinar o valor das informações sobre se os elementos de sintaxe sendo usados para a intrafatia estão presentes no cabeçalho de figura como 1, e determinar o valor das informações sobre se os elementos de sintaxe sendo usados para a interfatia estão presentes no cabeçalho de figura como 0. Se o tipo de fatia de todas as fatias na figura for o tipo de fatia P e/ou B, o codificador de entropia 240 do aparelho de codificação pode determinar o valor das informações sobre se a intrafatia está incluída nas fatias como 0, determinar o valor das informações sobre se os elementos de sintaxe sendo usados para a intrafatia estão presentes no cabeçalho de figura como 0 e determinar o valor das informações sobre se os elementos de sintaxe sendo usados para a interfatia estão presentes no cabeçalho de figura as 1.[0198] If the value of slice type information is determined to be 0, information about whether intraslice is included in slices can be included in the corresponding figure header. Information about whether intraslice is included in slices can correspond to intra_slice_only_flag. If all slices in the figure have slice type I, the entropy encoder 240 of the encoding apparatus may determine the value of information about whether the intraslice is included in the slices as 1, determine the value of information about whether the syntax elements being used for the interslice are present in the figure header as 1, and determine the value of the information about whether the syntax elements being used for the interslice are present in the figure header as 0. If the slice type of all the slices in the figure is the slice type P and/or B, the entropy encoder 240 of the encoding apparatus may determine the value of the information about whether the intraslice is included in the slices as 0, determine the value of the information about whether the syntax elements being used for the interslice are present in the figure header as 0 and determine the value of information about whether the syntax elements being used for the interslice are present in the figure header as 1.
[0199] O codificador de entropia 240 do aparelho de codificação pode codificar as informações de imagem incluindo as primeiras informações, as segundas informações e informações sobre o tipo de fatia junto às informações residuais e informações relacionadas à predição (S830). Por exemplo, as informações de imagem podem incluir as informações relacionadas a particionamento, informações sobre o modo de predição, informações residuais, informações relacionadas à filtragem em laço, primeiras informações, segundas informações e informações sobre o tipo de fatia, e pode incluir vários elementos de sintaxe das mesmas. Como um exemplo, as informações de imagem podem incluir informações sobre vários conjuntos de parâmetros, como um conjunto de parâmetros de adaptação (APS), conjunto de parâmetros de figura (PPS), conjunto de parâmetros de sequência (SPS) ou conjunto de parâmetros de vídeo (VPS). Ademais, as informações de imagem podem incluir várias partes de informações, tal como sintaxe de cabeçalho de figura, sintaxe de estrutura de cabeçalho de figura, sintaxe de cabeçalho de fatia e sintaxe de unidade de codificação. As primeiras informações, segundas informações, informações sobre o tipo de fatia, informações necessárias para a operação de intrapredição e informações necessárias para a operação de interpredição descritas anteriormente podem estar incluídas na sintaxe no cabeçalho de figura.[0199] The entropy encoder 240 of the encoding apparatus can encode image information including first information, second information, and slice type information together with residual information and prediction-related information (S830). For example, image information may include partitioning-related information, prediction mode information, residual information, loop filtering-related information, first information, second information, and slice type information, and may include various elements of their syntax. As an example, image information may include information about multiple parameter sets, such as an adaptation parameter set (APS), figure parameter set (PPS), sequence parameter set (SPS), or image parameter set. video (VPS). Furthermore, picture information may include various pieces of information, such as picture header syntax, picture header structure syntax, slice header syntax, and coding unit syntax. The first information, second information, slice type information, information required for the intraprediction operation, and information required for the interprediction operation described previously may be included in the syntax in the figure header.
[0200] As informações codificadas pelo codificador de entropia 240 do aparelho de codificação podem ser emitidas sob a forma de um fluxo de bits. O fluxo de bits pode ser transmitido através de uma rede ou uma mídia de armazenamento.[0200] The information encoded by the entropy encoder 240 of the encoding apparatus may be output in the form of a bit stream. The bit stream can be transmitted over a network or a storage medium.
[0201] As Figuras 10 e 11 ilustram, de modo esquemático, um método de decodificação de vídeo/imagem e um exemplo de componentes relacionados de acordo com uma modalidade do presente documento.[0201] Figures 10 and 11 schematically illustrate a video/image decoding method and an example of related components according to an embodiment of the present document.
[0202] O método de decodificação de vídeo/imagem revelado na Figura 10 pode ser realizado pelo aparelho de decodificação de (vídeo/imagem) 300 revelado nas Figuras 3 e 11. De modo específico, por exemplo, S1000 a S1020 da Figura 10 podem ser realizados pelo decodificador de entropia 310 do aparelho de decodificação, e S1030 pode ser realizado pelo preditor 330 do aparelho de decodificação 300. O método de decodificação de vídeo/imagem revelado na Figura 10 pode incluir as modalidades descritas anteriormente do presente documento.[0202] The video/image decoding method disclosed in Figure 10 can be performed by the (video/image) decoding apparatus 300 disclosed in Figures 3 and 11. Specifically, for example, S1000 to S1020 of Figure 10 can be performed by the entropy decoder 310 of the decoding apparatus, and S1030 may be performed by the predictor 330 of the decoding apparatus 300. The video/image decoding method disclosed in Figure 10 may include the previously described embodiments of the present document.
[0203] Referindo-se às Figuras 10 e 11, o decodificador de entropia 310 do aparelho de decodificação pode obter informações de imagem a partir de um fluxo de bits (S1000). As informações de imagem podem incluir um cabeçalho de figura relacionado à figura atual. A figura atual pode incluir uma pluralidade de fatias.[0203] Referring to Figures 10 and 11, the entropy decoder 310 of the decoding apparatus can obtain image information from a bit stream (S1000). Image information may include a figure header related to the current figure. The current figure may include a plurality of slices.
[0204] Entretanto, o decodificador de entropia 310 do aparelho de decodificação pode analisar, a partir do cabeçalho de figura, um primeiro sinalizador que representa se informações necessárias para uma operação de interpredição para um processo de decodificação estão presentes no cabeçalho de figura relacionado à figura atual (S1010). Ademais, o decodificador de entropia 310 do aparelho de decodificação pode analisar, a partir do cabeçalho de figura, um segundo sinalizador que representa se informações necessárias para uma operação de intrapredição para o processo de decodificação estão presentes no cabeçalho de figura relacionado à figura atual (S1020). No presente documento, o primeiro sinalizador e o segundo sinalizador podem corresponder a intra_signaling_present_flag, inter_signaling_present_flag, slice_type_idc, mixed_slice_signaling_present_flag, intra_slice_only_flag, IntraSignalingPresentFlag e/ou InterSignalingPresentFlag descritos anteriormente. O decodificador de entropia 310 do aparelho de decodificação pode analisar elementos de sintaxe incluídos no cabeçalho de figura das informações de imagem com base em qualquer sintaxe de cabeçalho de figura nas Tabelas 2, 4 e 6 conforme descrito anteriormente.[0204] However, the entropy decoder 310 of the decoding apparatus may parse, from the figure header, a first flag representing whether information necessary for an interprediction operation for a decoding process is present in the figure header related to the current figure (S1010). Furthermore, the entropy decoder 310 of the decoding apparatus may parse, from the picture header, a second flag that represents whether information necessary for an intraprediction operation for the decoding process is present in the picture header related to the current picture ( S1020). In this document, the first flag and the second flag may correspond to intra_signaling_present_flag, inter_signaling_present_flag, slice_type_idc, mixed_slice_signaling_present_flag, intra_slice_only_flag, IntraSignalingPresentFlag and/or InterSignalingPresentFlag described previously. The entropy decoder 310 of the decoding apparatus may parse syntax elements included in the picture header of the picture information based on any picture header syntax in Tables 2, 4, and 6 as previously described.
[0205] O aparelho de decodificação pode gerar amostras de predição realizando-se pelo menos uma dentre intrapredição ou interpredição para fatias na figura atual com base no primeiro sinalizador, no segundo sinalizador e nas informações sobre o tipo de fatia (S1030).[0205] The decoding apparatus may generate prediction samples by performing at least one of intraprediction or interprediction for slices in the current figure based on the first flag, the second flag, and slice type information (S1030).
[0206] De modo específico, o decodificador de entropia 310 do aparelho de decodificação pode analisar (ou obter) pelo menos uma dentre as informações necessárias para a operação de intrapredição e/ou as informações necessárias para a operação de interpredição para o processo de decodificação a partir do cabeçalho de figura relacionado à figura atual com base no primeiro sinalizador, no segundo sinalizador e/ou nas informações sobre o tipo de fatia. O preditor 330 do aparelho de decodificação pode gerar amostras de predição realizando-se intrapredição e/ou interpredição com base em pelo menos uma dentre as informações necessárias para a operação de intrapredição ou as informações para a interpredição. No presente documento, as informações necessárias para a operação de intrapredição podem incluir um elemento de sintaxe sendo usado para decodificação de uma intrafatia, e as informações necessárias para a operação de interpredição podem incluir um elemento de sintaxe sendo usado para decodificação de uma interfatia.[0206] Specifically, the entropy decoder 310 of the decoding apparatus may analyze (or obtain) at least one of the information necessary for the intraprediction operation and/or the information necessary for the interprediction operation for the decoding process from the figure header related to the current figure based on the first flag, the second flag, and/or slice type information. The predictor 330 of the decoding apparatus may generate prediction samples by performing intra-prediction and/or inter-prediction based on at least one of the information required for the intra-prediction operation or the information for the inter-prediction. Herein, the information necessary for the intraprediction operation may include a syntax element being used for decoding an intraslice, and the information necessary for the interprediction operation may include a syntax element being used for decoding an interslice.
[0207] Como um exemplo, se o valor do primeiro sinalizador for 0, o decodificador de entropia 310 do aparelho de decodificação pode determinar (ou decidir) que os elementos de sintaxe sendo usados para a interpredição não estão presentes no cabeçalho de figura, e pode analisar apenas as informações necessárias para a operação de intrapredição a partir do cabeçalho de figura. Se o valor do primeiro sinalizador for 1, o decodificador de entropia 310 do aparelho de decodificação pode determinar (ou decidir) que os elementos de sintaxe sendo usados para a interpredição estão presentes no cabeçalho de figura, e pode analisar as informações necessárias para a operação de interpredição a partir do cabeçalho de figura. Nesse caso, o primeiro sinalizador pode corresponder a inter_signaling_present_flag.[0207] As an example, if the value of the first flag is 0, the entropy decoder 310 of the decoding apparatus may determine (or decide) that the syntax elements being used for interprediction are not present in the figure header, and can parse only the information required for the intraprediction operation from the figure header. If the value of the first flag is 1, the entropy decoder 310 of the decoding apparatus can determine (or decide) that the syntax elements being used for the interprediction are present in the figure header, and can parse the information necessary for the operation. of interprediction from the figure header. In this case, the first flag may correspond to inter_signaling_present_flag.
[0208] Ademais, se o valor do segundo sinalizador for 0, o decodificador de entropia 310 do aparelho de decodificação pode determinar (ou decidir) que os elementos de sintaxe sendo usados para a intrapredição não estão presentes no cabeçalho de figura, e pode analisar apenas as informações necessárias para a operação de interpredição a partir do cabeçalho de figura. Se o valor do segundo sinalizador for 1, o decodificador de entropia 310 do aparelho de decodificação pode determinar (ou decidir) que os elementos de sintaxe sendo usados para a intrapredição estão presentes no cabeçalho de figura, e pode analisar as informações necessárias para a operação de intrapredição a partir do cabeçalho de figura. Nesse caso, o segundo sinalizador pode corresponder a intra_signaling_present_flag.[0208] Furthermore, if the value of the second flag is 0, the entropy decoder 310 of the decoding apparatus may determine (or decide) that the syntax elements being used for intraprediction are not present in the figure header, and may parse only the information necessary for the interprediction operation from the figure header. If the value of the second flag is 1, the entropy decoder 310 of the decoding apparatus may determine (or decide) that the syntax elements being used for the intraprediction are present in the figure header, and may parse the information necessary for the operation. of intraprediction from the figure header. In this case, the second flag may correspond to intra_signaling_present_flag.
[0209] Se o valor do primeiro sinalizador for 0, o aparelho de decodificação pode determinar que todas as fatias na figura atual têm o tipo de fatia I. Se o valor do primeiro sinalizador for 1, o aparelho de decodificação pode determinar que 0 ou mais fatias na figura atual têm o tipo de fatia P ou fatia B. Em outras palavras, se o valor do primeiro sinalizador for 1, a fatia tendo o tipo de fatia P ou fatia B pode ser incluída ou pode não ser incluída na figura atual.[0209] If the value of the first flag is 0, the decoding apparatus may determine that all slices in the current figure have slice type I. If the value of the first flag is 1, the decoding apparatus may determine that 0 or more slices in the current figure have slice type P or slice B. In other words, if the value of the first flag is 1, the slice having slice type P or slice B may be included or may not be included in the current figure .
[0210] Ademais, se o valor do segundo sinalizador for 0, o aparelho de decodificação pode determinar que todas as fatias na figura atual têm o tipo de fatia P ou fatia B. Se o valor do segundo sinalizador for 1, o aparelho de decodificação pode determinar que 0 ou mais fatias na figura atual têm o tipo de fatia I. Em outras palavras, se o valor do segundo sinalizador for 1, a fatia tendo o tipo de fatia I pode ser incluído ou pode não ser incluído na figura atual.[0210] Furthermore, if the value of the second flag is 0, the decoding apparatus may determine that all slices in the current figure have slice type P or slice B. If the value of the second flag is 1, the decoding apparatus may can determine that 0 or more slices in the current figure have slice type I. In other words, if the value of the second flag is 1, the slice having slice type I may be included or may not be included in the current figure.
[0211] Como outro exemplo, se o valor das informações sobre o tipo de fatia for 0, o decodificador de entropia 310 do aparelho de decodificação pode determinar que todas as fatias na figura atual têm um tipo de fatia I, e pode analisar apenas as informações necessárias para a operação de intrapredição. Se as informações sobre o tipo de fatia forem 1, o decodificador de entropia 310 do aparelho de decodificação pode determinar que todas as fatias na figura correspondente têm o tipo de fatia P ou o tipo de fatia B, e pode analisar apenas as informações necessárias para a operação de interpredição a partir do cabeçalho de figura. Se o valor das informações para o tipo de fatia for 2, o decodificador de entropia 310 do aparelho de decodificação pode determinar que as fatias na figura correspondente têm o tipo de fatia onde o tipo de fatia I, o tipo de fatia P e/ou o tipo de fatia B são misturados, e pode analisar todas as informações necessárias para a operação de interpredição e as informações necessárias para a operação de intrapredição a partir do cabeçalho de figura. Nesse caso, as informações sobre o tipo de fatia podem corresponder a slice_type_idc.[0211] As another example, if the value of the slice type information is 0, the entropy decoder 310 of the decoding apparatus may determine that all slices in the current figure have a slice type I, and may analyze only those information necessary for the intraprediction operation. If the slice type information is 1, the entropy decoder 310 of the decoding apparatus can determine that all slices in the corresponding figure have slice type P or slice type B, and can analyze only the information necessary to the interprediction operation from the figure header. If the information value for the slice type is 2, the entropy decoder 310 of the decoding apparatus may determine that the slices in the corresponding figure have the slice type where slice type I, slice type P and/or The slice type B are mixed, and can parse all the information required for the interprediction operation and the information required for the intraprediction operation from the figure header. In this case, the slice type information may correspond to slice_type_idc.
[0212] Ainda como outro exemplo, o decodificador de entropia 310 do aparelho de decodificação pode determinar que todas as fatias na figura atual têm o mesmo tipo de fatia se o valor das informações sobre o tipo de fatia for determinado como 0, e pode determinar que fatias na figura atual têm diferentes tipos de fatia se o valor das informações sobre o tipo de fatia for determinado como 1. Nesse caso, as informações sobre o tipo de fatia podem corresponder a mixed_slice_signalling_present_flag.[0212] As yet another example, the entropy decoder 310 of the decoding apparatus may determine that all slices in the current figure have the same slice type if the slice type information value is determined to be 0, and may determine which slices in the current figure have different slice types if the value of the slice type information is set to 1. In this case, the slice type information may correspond to mixed_slice_signalling_present_flag.
[0213] Se o valor das informações sobre o tipo de fatia for determinado como 0, o decodificador de entropia 310 do aparelho de decodificação pode analisar informações sobre se a intrafatia é incluída nas fatias a partir do cabeçalho de figura. As informações sobre se a intrafatia é incluída nas fatias pode corresponder a intra_slice_only_flag conforme descrito anteriormente. Se o valor das informações sobre se a intrafatia é incluída nas fatias for 1, todas as fatias na figura podem ter o tipo de fatia I.[0213] If the value of the slice type information is determined to be 0, the entropy decoder 310 of the decoding apparatus can analyze information about whether the intraslice is included in the slices from the figure header. Information about whether intraslice is included in slices can correspond to intra_slice_only_flag as described previously. If the value of information about whether intraslice is included in slices is 1, all slices in the figure can have slice type I.
[0214] Se o valor das informações sobre se a intrafatia é incluída nas fatias for 1, o decodificador de entropia 310 do aparelho de codificação pode analisar apenas as informações necessárias para a operação de intrapredição a partir do cabeçalho de figura. Se o valor das informações sobre se a intrafatia é incluído nas fatias for 0, o decodificador de entropia 310 do aparelho de decodificação pode analisar apenas as informações necessárias para a operação de interpredição a partir do cabeçalho de figura.[0214] If the value of the information about whether the intraslice is included in the slices is 1, the entropy decoder 310 of the encoding apparatus can parse only the information necessary for the intraprediction operation from the figure header. If the value of the information about whether the intraslice is included in the slices is 0, the entropy decoder 310 of the decoding apparatus can analyze only the information necessary for the interprediction operation from the figure header.
[0215] Se o valor das informações sobre o tipo de fatia for 1, o decodificador de entropia 310 do aparelho de decodificação pode analisar todas as informações necessárias para a operação de interpredição e as informações necessárias para a operação de intrapredição a partir do cabeçalho de figura.[0215] If the value of the slice type information is 1, the entropy decoder 310 of the decoding apparatus can analyze all the information necessary for the interprediction operation and the information necessary for the intraprediction operation from the slice header. figure.
[0216] Entretanto, o processador residual 320 do aparelho de decodificação pode gerar amostras residuais com base nas informações residuais obtidas pelo decodificador de entropia 310.[0216] However, the residual processor 320 of the decoding apparatus may generate residual samples based on the residual information obtained by the entropy decoder 310.
[0217] O adicionador 340 do aparelho de decodificação pode gerar amostras reconstruídas com base nas amostras de predição geradas pelo preditor 330 e as amostras residuais geradas pelo processador residual 320. Ademais, o adicionador 340 do aparelho de decodificação pode gerar uma figura reconstruída (bloco reconstruído) com base nas amostras reconstruídas.[0217] The adder 340 of the decoding apparatus may generate reconstructed samples based on the prediction samples generated by the predictor 330 and the residual samples generated by the residual processor 320. Furthermore, the adder 340 of the decoding apparatus may generate a reconstructed figure (block reconstructed) based on the reconstructed samples.
[0218] Posteriormente, conforme necessário, a fim de acentuar a qualidade de figura subjetiva/objetiva, procedimentos de filtragem em laço, tal como filtragem de desbloqueio, procedimentos SÃO e/ou AFL, podem ser aplicados à figura reconstruída.[0218] Subsequently, as necessary, in order to enhance the subjective/objective figure quality, loop filtering procedures, such as deblocking filtering, SÃO and/or AFL procedures, can be applied to the reconstructed figure.
[0219] Embora os métodos tenham sido descritos com base em um fluxograma no qual etapas ou blocos são listados em sequência nas modalidades descritas anteriormente, as etapas da presente revelação não são limitadas a uma determinada ordem ou simultaneamente a uma etapa diferente daquela descrita anteriormente. Ademais, os indivíduos versados na técnica compreenderão que as etapas dos fluxogramas não são exclusivas, e outras etapas podem ser incluídas ou uma ou mais etapas nos fluxogramas podem ser excluídas sem afetar o escopo da presente revelação.[0219] Although the methods have been described based on a flowchart in which steps or blocks are listed in sequence in the previously described embodiments, the steps of the present disclosure are not limited to a certain order or simultaneously to a step different from that previously described. Furthermore, those skilled in the art will understand that the steps in the flowcharts are not exclusive, and other steps may be included or one or more steps in the flowcharts may be excluded without affecting the scope of the present disclosure.
[0220] O método supramencionado de acordo com a presente revelação pode estar sob a forma de software, e o aparelho de codificação e/ou o aparelho de decodificação de acordo com a presente revelação podem ser incluídos no aparelho para realizar um processamento de imagem, por exemplo, de uma TV, um computador, um smartphone, um decodificador de sinais, um dispositivo de exibição, ou similares.[0220] The aforementioned method according to the present disclosure may be in the form of software, and the encoding apparatus and/or the decoding apparatus according to the present disclosure may be included in the apparatus for carrying out image processing, for example, from a TV, a computer, a smartphone, a set-top box, a display device, or the like.
[0221] Quando as modalidades na presente revelação forem implementadas em software, o método supramencionado pode ser implementado como um módulo (processo, função, e similares) para realizar a função supramencionada. O módulo pode ser armazenado em uma memória, e executado por um processador. A memória pode estar situada dentro ou fora do processador, e pode ser acoplada ao processador por vários meios bem conhecidos. O processador pode incluir circuitos integrados para aplicação específica (ASICs), ouros chipsets, circuitos lógicos e/ou dispositivos de processamento de dados. A memória pode incluir uma memória somente para leitura (ROM), uma memória de acesso aleatório (RAM), uma memória flash, um cartão de memória, uma mídia de armazenamento e/ou outros dispositivos de armazenamento. Ou seja, as modalidades descritas na presente revelação podem ser realizados sendo implementados em um processador, um microprocessador, um controlador ou um chip. Por exemplo, as unidades funcionais ilustradas em cada desenho podem ser realizadas sendo implementadas no computador, no processador, no microprocessador, no controlador, ou no chip. Nesse caso, informações para implementação (por exemplo, informações em instruções) ou algoritmo podem ser armazenados em uma mídia de armazenamento digital.[0221] When the embodiments in the present disclosure are implemented in software, the aforementioned method can be implemented as a module (process, function, and the like) to perform the aforementioned function. The module can be stored in a memory, and executed by a processor. Memory may be located inside or outside the processor, and may be coupled to the processor by several well-known means. The processor may include application-specific integrated circuits (ASICs), other chipsets, logic circuits and/or data processing devices. Memory may include read-only memory (ROM), random access memory (RAM), flash memory, memory card, storage media, and/or other storage devices. That is, the embodiments described in the present disclosure can be realized by being implemented in a processor, a microprocessor, a controller or a chip. For example, the functional units illustrated in each drawing may be realized by being implemented in the computer, processor, microprocessor, controller, or chip. In this case, information for implementation (e.g. information in instructions) or algorithm may be stored on a digital storage medium.
[0222] Ademais, o aparelho de decodificação e o aparelho de codificação aos quais as modalidades da presente revelação são aplicadas podem ser incluídos em um transceptor de radiodifusão multimídia, um terminal de comunicação móvel, um dispositivo de vídeo de cinema em casa, um dispositivo de vídeo de cinema digital, uma câmera de vigilância, um dispositivo de comunicação de vídeo, um dispositivo de comunicação em tempo real tal como comunicação de vídeo, um dispositivo de difusão de dados móvel, uma mídia de armazenamento, uma filmadora, um provedor de serviço de vídeo sob demanda (VoD), um dispositivo de vídeo Over-the-top (OTT), um provedor de serviço de difusão de dados via Internet, um dispositivo de vídeo tridimensional (3D), um dispositivo de realidade virtual (VR), um dispositivo de realidade aumentada (AR), um dispositivo de vídeo por telefonia, um terminal de transporte (por exemplo, um terminal de veículo (incluindo veículo autônomo), terminal de aviões, terminal de navios, ou similares), e um dispositivo de vídeo médico, e similares, e podem ser usados para processar sinais de vídeo ou sinais de dados. Por exemplo, o dispositivo de vídeo OTT pode incluir um console de jogos, um reprodutor Blu-ray, uma TV conectada à Internet, um sistema de home-theater, um smartphone, um PC tipo tablet, uma Gravadora de Vídeo Digital (DVR) e similares.[0222] Furthermore, the decoding apparatus and the encoding apparatus to which embodiments of the present disclosure are applied may be included in a multimedia broadcast transceiver, a mobile communications terminal, a home cinema video device, a digital cinema video camera, a surveillance camera, a video communication device, a real-time communication device such as video communication, a mobile data broadcast device, a storage medium, a camcorder, a video-on-demand (VoD) service, an Over-the-top (OTT) video device, an Internet data broadcast service provider, a three-dimensional (3D) video device, a virtual reality (VR) device , an augmented reality (AR) device, a video telephony device, a transportation terminal (e.g., a vehicle terminal (including autonomous vehicle), aircraft terminal, ship terminal, or the like), and a device medical video, and the like, and can be used to process video signals or data signals. For example, the OTT video device may include a game console, a Blu-ray player, an Internet-connected TV, a home theater system, a smartphone, a tablet PC, a Digital Video Recorder (DVR) and similar.
[0223] Ademais, o método de processamento ao qual as modalidades da presente revelação são aplicadas pode ser produzido sob a forma de um programa executado por um computador, e pode ser armazenado em uma mídia de gravação legível por computador. Os dados de multimídia tendo uma estrutura de dados de acordo com a presente revelação também podem ser armazenados na mídia de gravação legível por computador. A mídia de gravação legível por computador inclui todos os tipos de dispositivos de armazenamento e dispositivos de armazenamento distribuído onde dados legíveis por computador são armazenados. A mídia de gravação legível por computador pode incluir, por exemplo, um Disco Blu- ray (BD), um Barramento Serial Universal (USB), uma ROM, uma PROM, uma EPROM, uma EEPROM, uma RAM, um CD-ROM, uma fita magnética, um disquete flexível, e um dispositivo de armazenamento de dados ópticos. Ademais, a mídia de gravação legível por computador inclui uma mídia implementada sob a forma de uma onda portadora (por exemplo, transmissão através da Internet). Ademais, o fluxo de bits gerado pelo método de codificação pode ser armazenado na mídia de gravação legível por computador ou transmitido através de redes de comunicação com/sem fio.[0223] Furthermore, the processing method to which the embodiments of the present disclosure are applied can be produced in the form of a program executed by a computer, and can be stored on a computer-readable recording medium. Multimedia data having a data structure according to the present disclosure may also be stored on computer-readable recording media. Computer-readable recording media includes all types of storage devices and distributed storage devices where computer-readable data is stored. Computer-readable recording media may include, for example, a Blu-ray Disc (BD), a Universal Serial Bus (USB), a ROM, a PROM, an EPROM, an EEPROM, a RAM, a CD-ROM, a magnetic tape, a flexible floppy disk, and an optical data storage device. Furthermore, computer-readable recording media includes media implemented in the form of a carrier wave (e.g., transmission over the Internet). Furthermore, the bit stream generated by the encoding method can be stored on computer-readable recording media or transmitted over wired/wireless communication networks.
[0224] Ademais, as modalidades da presente revelação podem ser incorporadas como um produto de programa de computador por um código de programa, e o código de programa pode ser executado no computador de acordo com as modalidades da presente revelação. O código de programa pode ser armazenado em uma portadora legível por computador.[0224] Furthermore, embodiments of the present disclosure may be embodied as a computer program product by program code, and the program code may be executed on the computer in accordance with embodiments of the present disclosure. Program code can be stored on a computer-readable carrier.
[0225] A Figura 12 representa um exemplo de um sistema de streaming de conteúdos ao qual a modalidade da presente revelação pode ser aplicada.[0225] Figure 12 represents an example of a content streaming system to which the embodiment of the present disclosure can be applied.
[0226] Referindo-se à Figura 12, o sistema de streaming de conteúdos ao qual as modalidades da presente revelação são aplicadas pode incluir geralmente um servidor de codificação, um servidor de streaming, um servidor da web, um armazenamento de mídia, um dispositivo de usuário e um dispositivo de entrada de multimídia.[0226] Referring to Figure 12, the content streaming system to which embodiments of the present disclosure are applied may generally include an encoding server, a streaming server, a web server, a media storage, a device user interface and a multimedia input device.
[0227] O servidor de codificação funciona para compactar a dados digitais os conteúdos inseridos a partir dos dispositivos de entrada de multimídia, tais como smartphone, a câmera, a filmadora e similares, gerar um fluxo de bits, e o transmitir ao servidor de streaming. Como outro exemplo, em um caso onde o dispositivo de entrada multimídia, tais como o smartphone, a câmera, a filmadora ou similares gera diretamente um fluxo de bits, o servidor de codificação pode ser omitido.[0227] The encoding server functions to compress content entered from multimedia input devices, such as a smartphone, camera, camcorder and the like, to digital data, generate a bit stream, and transmit it to the streaming server . As another example, in a case where the multimedia input device such as smartphone, camera, camcorder or the like directly generates a bit stream, the encoding server can be omitted.
[0228] O fluxo de bits pode ser gerado por um método de codificação ou um método de geração de fluxo de bits ao qual as modalidades da presente revelação são aplicadas. E o servidor de streaming pode armazenar temporariamente o fluxo de bits em um processo para transmitir ou receber o fluxo de bits.[0228] The bit stream may be generated by a coding method or a bit stream generation method to which embodiments of the present disclosure are applied. And the streaming server can temporarily store the bitstream in a process to transmit or receive the bitstream.
[0229] O servidor de streaming transmite dados de multimídia ao equipamento de usuário com base em uma solicitação de usuário através do servidor da web, que funciona como um instrumento que informa um usuário de qual serviço existe. Quando o usuário solicitar um serviço que ele desejar, o servidor da web o transfere a solicitação ao servidor de streaming, e o servidor de streaming transmite dados de multimídia ao usuário. Nesse sentido, o sistema de streaming de conteúdos pode incluir um servidor de controle separado, e, nesse caso, o servidor de controle funciona para controlar comandos/respostas entre respectivos equipamentos no sistema de streaming de conteúdos.[0229] The streaming server transmits multimedia data to the user equipment based on a user request through the web server, which functions as an instrument that informs a user of which service exists. When the user requests a service he wants, the web server transfers the request to the streaming server, and the streaming server transmits multimedia data to the user. In this sense, the content streaming system may include a separate control server, in which case the control server functions to control commands/responses between respective equipment in the content streaming system.
[0230] O servidor de streaming pode receber conteúdos a partir do armazenamento de mídia e/ou do servidor de codificação. Por exemplo, em um caso onde os conteúdos são recebidos a partir do servidor de codificação, os conteúdos podem ser recebidos em tempo real. Nesse caso, o servidor de streaming pode armazenar o fluxo de bits por um período de tempo predeterminado para proporcionar o serviço de streaming suavemente.[0230] The streaming server may receive content from the media storage and/or the encoding server. For example, in a case where contents are received from the encoding server, the contents can be received in real time. In this case, the streaming server can store the bit stream for a predetermined period of time to provide the streaming service smoothly.
[0231] Por exemplo, o equipamento de usuário pode incluir um telefone móvel, um smartphone, um computador laptop, um terminal de radiodifusão digital, um assistente pessoal digital (PDA), um reprodutor de multimídia portátil (PMP), um dispositivo de navegação, um PC slate, um PC tablet, um ultrabook, um dispositivo vestível (por exemplo, um terminal tipo relógio (relógio inteligente), um terminal tipo óculos (óculos inteligentes), uma tela montada na cabeça (HMD)), uma TV digital, um computador desktop, uma sinalética digital ou similares.[0231] For example, user equipment may include a mobile telephone, a smartphone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), a navigation device , a slate PC, a tablet PC, an ultrabook, a wearable device (e.g., a watch-type terminal (smart watch), a glasses-type terminal (smart glasses), a head-mounted display (HMD)), a digital TV , a desktop computer, digital signage or similar.
[0232] Cada um dos servidores no sistema de streaming de conteúdos pode ser operado como um servidor distribuído, e, nesse caso, dados recebidos por cada servidor podem ser processados de maneira distribuída.[0232] Each of the servers in the content streaming system can be operated as a distributed server, and in this case, data received by each server can be processed in a distributed manner.
Claims (3)
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US62/931,137 | 2019-11-05 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| BR122023023080A2 true BR122023023080A2 (en) | 2024-05-21 |
| BR122023023080B1 BR122023023080B1 (en) | 2025-03-11 |
Family
ID=
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US20250227226A1 (en) | Intra prediction-based image coding method and apparatus using mpm list | |
| BR122021011303B1 (en) | IMAGE DECODING METHOD AND DEVICE, IMAGE ENCODING METHOD AND DEVICE AND COMPUTER-READABLE NON-TRANSITORY STORAGE MEDIA | |
| BR112021013735A2 (en) | IMAGE ENCODING METHOD AND DEVICE TO PERFORM MRL-BASED INTRAPREDICTION | |
| BR112021006580A2 (en) | syntax design method and apparatus for performing coding using syntax | |
| ES3018507T3 (en) | Method and device for processing image information for image/video coding | |
| BR112021005152A2 (en) | conversion factor level encoding method and device for the same | |
| US20250097424A1 (en) | Image/video coding method and device | |
| BR122023023080A2 (en) | IMAGE/VIDEO CODING METHOD AND DEVICE | |
| BR122023023080B1 (en) | IMAGE/VIDEO CODING METHOD AND DEVICE | |
| BR112022008691B1 (en) | VIDEO DECODING METHOD PERFORMED BY A VIDEO DECODING APPARATUS, VIDEO CODING METHOD PERFORMED BY A VIDEO CODING APPARATUS, NON-TRANSITORY COMPUTER-READABLE DIGITAL STORAGE MEDIA, AND DATA TRANSMISSION METHOD FOR A VIDEO | |
| BR122023024708A2 (en) | VIDEO DECODING APPARATUS, VIDEO CODING APPARATUS AND APPARATUS FOR TRANSMITTING DATA TO A VIDEO | |
| BR122024000637A2 (en) | METHOD AND DEVICE FOR IMAGE/VIDEO CODING BASED ON WEIGHTED PREDICTION TABLE | |
| BR122024000621A2 (en) | METHOD AND DEVICE FOR IMAGE/VIDEO CODING BASED ON WEIGHTED PREDICTION TABLE | |
| BR112022013844B1 (en) | VIDEO DECODING/ENCODING METHOD AND DATA TRANSMISSION METHOD FOR A VIDEO | |
| BR122023022919A2 (en) | DECODING APPARATUS FOR VIDEO DECODING, ENCODING APPARATUS FOR VIDEO CODING AND APPARATUS FOR DATA TRANSMISSION FOR A VIDEO | |
| BR122023024029A2 (en) | IMAGE DECODING METHOD, IMAGE CODING METHOD AND DATA TRANSMISSION METHOD FOR AN IMAGE | |
| BR122023024024A2 (en) | DECODING APPARATUS FOR IMAGE DECODING, CODING APPARATUS FOR IMAGE ENCODING AND APPARATUS FOR TRANSMITTING DATA TO AN IMAGE | |
| BR122023025846A2 (en) | DECODING APPARATUS FOR IMAGE DECODING, CODING APPARATUS FOR IMAGE ENCODING, COMPUTER READABLE STORAGE MEDIUM AND APPARATUS FOR TRANSMITTING DATA TO AN IMAGE | |
| BR122023024026A2 (en) | IMAGE CODING DEVICE AND METHOD FOR CONTROLLING IN-LOOP FILTERING | |
| BR122023024024B1 (en) | DECODING APPARATUS FOR DECODING AN IMAGE, CODING APPARATUS FOR CODING AN IMAGE AND APPARATUS FOR TRANSMITTING DATA FOR AN IMAGE | |
| BR112022009616B1 (en) | Image decoding method performed by a decoding device, image encoding method performed by a encoding device, and data transmission method for an image | |
| BR122023026924A2 (en) | IMAGE CODING APPARATUS, IMAGE DECODING APPARATUS AND TRANSMISSION APPARATUS | |
| BR122023025838A2 (en) | DECODING APPARATUS FOR DECODING IMAGES, CODING APPARATUS FOR ENCODING IMAGES, THE CODING APPARATUS, NON-TRAINER COMPUTER READABLE STORAGE MEDIA AND APPARATUS FOR TRANSMITTING DATA TO AN IMAGE | |
| BR112022011549B1 (en) | Image decoding method performed by a decoding apparatus, image encoding method performed by an encoding apparatus, computer-readable storage medium, and data transmission method for an image | |
| BR122023027691A2 (en) | IMAGE DECODING METHOD FOR ENCODING DPB PARAMETERS, AND DEVICE THEREOF |