+

JP2022515807A - ビデオ処理方法および装置 - Google Patents

ビデオ処理方法および装置 Download PDF

Info

Publication number
JP2022515807A
JP2022515807A JP2021537058A JP2021537058A JP2022515807A JP 2022515807 A JP2022515807 A JP 2022515807A JP 2021537058 A JP2021537058 A JP 2021537058A JP 2021537058 A JP2021537058 A JP 2021537058A JP 2022515807 A JP2022515807 A JP 2022515807A
Authority
JP
Japan
Prior art keywords
current block
reference frame
block
motion vector
list
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021537058A
Other languages
English (en)
Other versions
JP7328337B2 (ja
Inventor
シャオジェン ジョン
ソホン ワン
スウェイ マ
シャンシェ ワン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Publication of JP2022515807A publication Critical patent/JP2022515807A/ja
Priority to JP2023121689A priority Critical patent/JP7617193B2/ja
Application granted granted Critical
Publication of JP7328337B2 publication Critical patent/JP7328337B2/ja
Priority to JP2024232861A priority patent/JP7741287B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/54Motion estimation other than block-based using feature points or meshes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Figure 2022515807000001
第1の参照フレームリストと第2の参照フレームリストとを含む現在ブロックの参照フレームリストを取得することと、現在ブロックの参照フレームリストに基づいて、第1の参照フレームリストと第2の参照フレームリストとの一方である目標参照フレームリストを決定することと、現在ブロックの目標参照フレームリストに基づいて現在ブロックの時間動きベクトルを決定することと、時間動きベクトルに基づいて現在ブロックのサブブロックの動き情報を決定することと、現在ブロックのサブブロックの動き情報に基づいて現在ブロックに対してフレーム間予測を行うことと、を含むビデオ処理方法および装置を提供する。双方向予測プロセスにおいて走査しなければならない参照フレームリストの数を制限することによって、符号化復号操作を簡略化することができる。
【選択図】図1

Description

著作権に関する声明
本特許文書が開示する内容は、著作権保護を受ける資料を含む。この著作権は著作権所有者が所有する。著作権所有者は、いかなる人が、特許商標局の公式記録および書類の中に存在するこの特許文書もしくはこの特許開示を複製することにも反対しない。
本願はビデオ符号化復号の分野に関し、かつ、より具体的には、ビデオ処理方法および装置に関する。
ビデオ符号化プロセスはフレーム間予測プロセスを含む。フレーム間予測のモードはmergeモードと非mergeモードとを含む。mergeモードでは通常、まず、mergeモードの動きベクトル候補リストを構築するとともに、mergeモードの動きベクトル候補リストの中から現在ブロックの動きベクトルを選び取らなければならない。現在ブロックは、現在符号化ユニット(coding unit,CU)と称してもよい。
符号化技術が発展するのに伴い、フレーム間予測方式に代替/高度時間動きベクトル予測(alternative/advanced temporal motion vector prediction,ATMVP)技術が導入されている。ATMVP技術では、現在ブロックが複数のサブブロックに区分され、サブブロックの動き情報を計算する。ATMVP技術は、サブブロックレベルの動きベクトル予測を導入することで、ビデオの全体的符号化性能を向上させることを目的とする。
ATMVP技術を利用して現在ブロックのサブブロックの動き情報を探すプロセスは比較的複雑であり、いくつかの冗長な操作が存在しており、このプロセスには改良の余地が依然としてある。
本願は、符号化復号操作を簡略化することができるビデオ処理方法および装置を提供する。
第1の態様では、第1の参照フレームリストと第2の参照フレームリストとを含む現在ブロックの参照フレームリストを取得することと、前記現在ブロックの参照フレームリストに基づいて、前記第1の参照フレームリストと前記第2の参照フレームリストとの一方である目標参照フレームリストを決定することと、前記現在ブロックの目標参照フレームリストに基づいて前記現在ブロックの時間動きベクトルを決定することと、前記時間動きベクトルに基づいて前記現在ブロックのサブブロックの動き情報を決定することと、前記現在ブロックのサブブロックの動き情報に基づいて前記現在ブロックに対してフレーム間予測を行うことと、を含むビデオ処理方法を提供する。
第2の態様では、コードを記憶するためのメモリと、プロセッサであって、前記メモリに記憶されたコードを実行することで、第1の参照フレームリストと第2の参照フレームリストとを含む現在ブロックの参照フレームリストを取得し、前記現在ブロックの参照フレームリストに基づいて、前記第1の参照フレームリストと前記第2の参照フレームリストとの一方である目標参照フレームリストを決定し、前記現在ブロックの目標参照フレームリストに基づいて前記現在ブロックの時間動きベクトルを決定し、前記時間動きベクトルに基づいて前記現在ブロックのサブブロックの動き情報を決定し、前記現在ブロックのサブブロックの動き情報に基づいて前記現在ブロックに対してフレーム間予測を行う操作を実行するためのプロセッサと、を含むビデオ処理装置を提供する。
第3の態様では、第1の態様における方法を実行するための指令を記憶したコンピュータ読取可能記憶媒体を提供する。
第4の態様では、第1の態様における方法を実行するための指令を含むコンピュータプログラム製品を提供する。
双方向予測プロセスにおいて走査しなければならない参照フレームリストの数を制限することによって、符号化復号操作を簡略化することができる。
affine merge candidate listを構成するフローチャートである。 現在ブロックの周辺ブロックの概略図である。 ATMVPの実現プロセスのフローチャートである。 現在ブロックのサブブロックの動き情報の取得方式の例を示す図である。 本願の実施例が提供するビデオ処理方法のフローの概略図である。 本願の実施例が提供するビデオ処理装置の構造概略図である。
本願は、H.264、高効率ビデオ符号化(high efficiency video coding,HEVC)、多用途ビデオ符号化(versatile video coding,VVC)、音声・ビデオ符号化規格(audio video coding standard,AVS)、AVS+、AVS2、およびAVS3など、複数種のビデオ符号化規格に応用することができる。
ビデオ符号化プロセスは、予測、変換、量子化、エントロピー符号化、ループフィルタリング等の部分を主に含む。予測は主流のビデオ符号化技術の重要な構成部分である。予測はフレーム内予測とフレーム間予測とに分けることができる。フレーム間予測は動き補償の方式によって実現することができる。以下、動き補償プロセスについて、例を挙げて説明する。
例えば、1フレームの画像に対して、まず、それを1つまたは複数の符号化領域に区分することができる。この符号化領域は符号化ツリーユニット(coding tree unit,CTU)とも称することができる。CTUのサイズは例えば64×64であってよく、128×128であってもよい(単位はピクセル。以降の類似する記述についてはいずれも単位を省略する)。各々のCTUは、方形または矩形の画像ブロックに区分することができる。この画像ブロックは符号化ユニット(coding unit,CU)とも称することができ、以降、符号化すべき現在CUを現在ブロックと称する。
現在ブロックに対してフレーム間予測を行う際には、参照フレーム(時間領域近傍の再構成されたフレームであってよい)から、現在ブロックの予測ブロックとして現在ブロックの相似ブロックを探すことができる。現在ブロックと相似ブロックとの間の相対的変位を動きベクトル(motion vector,MV)と称する。参照フレームの中で現在ブロックの予測ブロックとして相似ブロックを探すプロセスが、すなわち動き補償である。
フレーム間予測モードはmergeモードと非mergeモードとを含む。mergeモードでは、画像ブロックの動きベクトル(motion vector,MV)が、すなわち画像ブロックの動きベクトル予測(motion vector prediction,MVP)である。従って、mergeモードについては、符合ストリームの中でMVPのインデックスおよび参照フレームのインデックスを伝送すればよい。これに対し非mergeモードは、符合ストリームの中でMVPと参照フレームのインデックスとを伝送しなければならないだけでなく、符合ストリームの中で動きベクトル差分(motion vector difference,MVD)も伝送しなければならない。
従来の動きベクトルが採用しているのは簡単な平行移動モデルであり、つまり、現在ブロックの動きベクトルが表すのは、現在ブロックと参照ブロックとの間の相対的変位である。このようなタイプの動きベクトルは、スケーリング、回転、透視など、ビデオ中の、より複雑な動き状況を正確に記述するのが困難である。より複雑な動き状況を記述できるように、関連する符号化復号規格にアフィンモデル(affineモデル)が導入された。アフィンモデルは、現在ブロックの2つまたは3つの制御点(control point,CP)の動きベクトルを利用して現在ブロックのアフィン動き場を記述する。この2つの制御点は、例えば、現在ブロックの左上角および右上角であってよく、この3つの制御点は、例えば、現在ブロックの左上角、右上角および左下角であってよい。
アフィンモデルと、先に言及したmergeモードとを結合させて、affine mergeモードを形成する。普通、mergeモードの動きベクトル候補リスト(merge candidate list)に記録されるのは画像ブロックのMVPであり、affine mergeモードの動きベクトル候補リスト(affine merge candidate list)に記録されるのは制御点動きベクトル予測(control point motion vector prediction,CPMVP)である。普通のmergeモードと同様に、affine mergeモードは符合ストリームにMVDを加える必要がなく、CPMVPをそのまま現在ブロックのCPMVとする。
現在ブロックのaffine merge candidate listの構成は、affine mergeモードの重要なプロセスの1つである。図1に、affine merge candidate list(アフィンマージ候補リスト)の1つの可能な構成方式を示している。
ステップS110では、現在ブロックのaffine merge candidate listにATMVPを挿入する。
ATMVPに含まれるのは、現在ブロックのサブブロックの動き情報である。換言すれば、ATMVP技術を採用する場合、affine merge candidate listが現在ブロックのサブブロックの動き情報に挿入され、affine mergeモードがサブブロックというレベルで動き補償を行うことができるようにすることにより、ビデオの全体的符号化性能を向上させる。図3を参照しながらステップS110の実施形態について後で詳しく記述するが、ここでは差し当たり詳述しない。
前記動き情報は、動きベクトル、動きベクトル差分、参照フレームインデックス値、フレーム間予測の参照方向、画像ブロックにフレーム内符号化またはフレーム間符号化を採用する情報、画像ブロックの区分モード、のうち1種または複数種の情報の組み合わせを含む。
ステップS120では、affine merge candidate listに、継承するaffine candidatesを挿入する。
例えば、図2に示すように、A1→B1→B0→A0→B2の順に現在ブロックの周辺ブロックを走査し、affine mergeモードの周辺ブロックのCPMVを現在ブロックのaffine candidatesとして採用し、現在ブロックのaffine merge candidate listに挿入することができる。
ステップS130では、affine merge candidate listの中のaffine candidatesの数が所定値よりも小さいかどうか判断する。
affine merge candidate listの中のaffine candidatesの数が所定値に達している場合、図1のフローを終了し、affine merge candidate listの中のaffine candidatesの数が所定値よりも小さい場合、ステップS140を引き続き実行する。
ステップS140は、affine merge candidate listに、構成するaffine candidatesを挿入する。
例えば、現在ブロックの周辺ブロックの動き情報を組み合わせることで、新たなaffine candidatesを構成するとともに、構成して生成したaffine candidatesをaffine merge candidate listに挿入することができる。
ステップS150では、affine merge candidate listの中のaffine candidatesの数が所定値よりも小さいかどうか判断する。
affine merge candidate listの中のaffine candidatesの数が所定値に達している場合、図1のフローを終了し、affine merge candidate listの中のaffine candidatesの数が所定値よりも小さい場合、ステップS160を引き続き実行する。
ステップS160では、affine merge candidate listに0ベクトルを挿入する。
換言すれば、0ベクトルを使用してaffine merge candidate listを充填(padding)して、所定値に達するようにする。
以下、図3を参照しながら、図1中のステップS110の実施形態について、詳しく例を挙げて説明する。いくつかの例においては、以下で説明する、現在ブロックのaffine merge candidate listにATMVPを挿入する方法が、上記の図1に示す実施例に限定されなくてもよい。
図3に示すように、ATVMP技術の実施形態、すなわち現在ブロックのサブブロックの動き情報の取得方式は、ステップS310およびS320という2つのステップに大まかに分けることができる。
ステップS310においては、現在ブロックの、参照フレームにおける対応ブロック(corresponding block)を決定する。
現在のATMVP技術においては、現在フレーム(現在ブロックが所在するフレーム)の、動き情報を取得するためのフレームは、コロケーテッドフレーム(co-located picture)と称される。現在フレームのコロケーテッドフレームはslice(スライス)の初期化時に設定される。前方予測を例にすると、第1の参照フレームリストは前方参照フレームリストであってよく、第1の組の参照フレームを含んだ参照フレームリストであってもよい。前記第1の組の参照フレームに、時間的順序が現在フレームの前および現在フレームの後である参照フレームが含まれている。sliceの初期化時に、通常は、現在ブロックの第1の参照フレームリスト中の第1のフレームを現在フレームのコロケーテッドフレームに設定する。
現在ブロックの、参照フレームにおける対応ブロックは、1つの時間動きベクトル(temp MV)によって決定される。従って、現在ブロックの、参照フレームにおける対応ブロックを得るため、まず、この時間動きベクトルを導出しなければならない。次に、それぞれ前方予測および双方向予測を例にして、時間動きベクトルの導出プロセスについて説明する。
前方予測については、現在ブロックの参照フレームリスト(参照リストまたは参照画像リストと称することもできる)の個数は1である。現在ブロックの参照フレームリストは、第1の参照フレームリスト(reference list 0)と称することができる。1つの場面では、この第1の参照フレームリストは前方参照フレームリストであってよい。現在フレームのコロケーテッドフレームは通常、第1の参照フレームリスト中の第1のフレームに設定される。
時間動きベクトルを導出するプロセスにおいて、1つの実施形態は次の通りである:まず、現在ブロックの動きベクトル候補リスト(この動きベクトル候補リストは、空間領域の4つの隣接する位置の画像ブロックの動きベクトルに基づいて構築することができる)を走査し、この動きベクトル候補リスト中の1つ目の候補動きベクトルを、初期の時間動きベクトルとする。その後、現在ブロックの第1の参照フレームリストを走査し、この1つ目の候補動きベクトルの参照フレームが現在フレームのコロケーテッドフレームと同じであれば、この1つ目の候補動きベクトルを時間動きベクトルとすることができ、この1つ目の候補動きベクトルの参照フレームが現在フレームのコロケーテッドフレームと異なっていれば、時間動きベクトルを0ベクトルに設定し、走査を停止することができる。
この実施形態では、動きベクトル候補リストを構築することで、リスト中の1つ目の候補動きベクトルを得なければならない。別の実施形態では、現在ブロックの、ある1つの空間隣接ブロックの動きベクトルを、初期の時間動きベクトルとして直接取ることができる。この空間隣接ブロックの動きベクトルの参照フレームが現在フレームのコロケーテッドフレームと同じであれば、それを時間動きベクトルとすることができ、そうでない場合、時間動きベクトルを0ベクトルに設定し、走査を停止することができる。ここで、空間隣接ブロックは、現在ブロック周辺の符号化されたブロックのうちいずれか1つであってよい。例えば、現在ブロックの左側ブロックに固定されるか、または、現在ブロックの上方ブロックに固定されるか、または、現在ブロックの左上ブロックに固定されてもよい。
双方向予測については、現在ブロックの参照フレームリストの個数は2であり、すなわち、第1の参照フレームリスト(reference list 0)と第2の参照フレームリスト(reference list 1)とを含む。そのうち、1つの場面では、第1の参照フレームリストは前方参照フレームリストであってよく、第2の参照フレームリストは後方参照フレームリストであってよい。
時間動きベクトルを導出するプロセスにおいて、1つの実施形態は次の通りである:まず、現在の動きベクトル候補リストを走査し、この動きベクトル候補リスト中の1つ目の候補動きベクトルを、初期の時間動きベクトルとする。その後、まず、現在ブロックの、現在の参照方向における1つの参照フレームリスト(第1の参照フレームリストであってよく、第2の参照フレームリストであってもよい)を走査し、この1つ目の候補動きベクトルの参照フレームが現在フレームのコロケーテッドフレームと同じであれば、この1つ目の候補動きベクトルを時間動きベクトルとすることができ、この1つ目の候補動きベクトルの参照フレームが現在フレームのコロケーテッドフレームと異なっていれば、現在ブロックの、別の参照方向における参照フレームリストを引き続き走査する。同様に、1つ目の候補動きベクトルの、この別の参照フレームリストにおける参照フレームが、現在フレームのコロケーテッドフレームと同じであれば、この1つ目の候補動きベクトルを時間動きベクトルとすることができ、この1つ目の候補動きベクトルの参照フレームが現在フレームのコロケーテッドフレームと異なっていれば、時間動きベクトルを0ベクトルに設定し、走査を停止することができる。なお、他のいくつかの場面で、第1の参照フレームリストおよび第2の参照フレームリストがいずれも、時間的順序が現在フレームの前および現在フレームの後である参照フレームを含んでいてよく、前記双方向予測は、第1の参照フレームリストおよび第2の参照フレームリストから、参照方向が異なる参照フレームを選択していることを指す。
この実施形態では、双方向予測においてATMVPのtemp MVを導出するには、依然として動きベクトル候補リストを構築する必要がある。別の実施形態では、現在ブロックの、ある1つの空間隣接ブロックの動きベクトルを、初期の時間動きベクトルとして直接取ることができる。双方向予測については、まず、現在ブロックの、現在の参照方向における1つの参照フレームリスト(第1の参照フレームリストであってよく、第2の参照フレームリストであってもよい)を走査し、この空間隣接ブロックの動きベクトルの、この参照方向における参照フレームが、現在フレームのコロケーテッドフレームと同じであれば、それを時間動きベクトルとすることができる。任意には、この空間隣接ブロックの動きベクトルの、この参照方向における参照フレームが、現在フレームのコロケーテッドフレームと異なっていれば、現在ブロックの、別の参照方向における参照フレームリストを引き続き走査する。同様に、この空間隣接ブロックの動きベクトルの、この別の参照フレームリストにおける参照フレームが、現在フレームのコロケーテッドフレームと同じであれば、この空間隣接ブロックの動きベクトルを時間動きベクトルとすることができ、この空間隣接ブロックの動きベクトルの参照フレームが現在フレームのコロケーテッドフレームと異なっていれば、時間動きベクトルを0ベクトルに設定し、走査を停止することができる。ここで、空間隣接ブロックは、現在ブロック周辺の符号化されたブロックのうちいずれか1つであってよい。例えば、現在ブロックの左側ブロックに固定されるか、または、現在ブロックの上方ブロックに固定されるか、または、現在ブロックの左上ブロックに固定されてもよい。
双方向予測については、第1の参照フレームリストおよび第2の参照フレームリストの走査順序は、以下の規則により決定することができる。
現在フレームに採用されているのが低遅延(low delay)符号化モードであり、かつ、現在フレームのコロケーテッドフレームが第2の参照フレームリスト中の第1のフレームに設定されている場合には、まず、第2の参照フレームリストを走査し、そうでない場合、まず、第1の参照フレームリストを走査する。
ここで、現在フレームに低遅延(low delay)符号化モードを採用すれば、現在フレームの参照フレームの、ビデオシーケンスにおける再生順序がいずれも現在フレームの前にあることを表すことができ、現在フレームのコロケーテッドフレームが第2の参照フレームリスト中の第1のフレームに設定されていれば、現在フレームの第1の参照フレームリストの1つ目のsliceの量子化ステップサイズが第2の参照フレームリストの1つ目のsliceの量子化ステップサイズよりも小さいことを表すことができる。
時間動きベクトルを導出した後、この時間動きベクトルを利用して参照フレームの中で現在ブロックの対応ブロックを探し出すことができる。
ステップS320においては、現在ブロックの対応ブロックに基づいて、現在ブロックのサブブロックの動き情報を取得する。
図4に示すように、現在ブロックを複数のサブブロックに区分し、その後、サブブロックの、対応ブロックにおける動き情報を決定することができる。注意するに値するのは、個々のサブブロックについては、対応ブロックの動き情報は、その所在する最小動き情報記憶ユニットにより決定することができるという点である。
前記動き情報は、動きベクトル、動きベクトル差分、参照フレームインデックス値、フレーム間予測の参照方向、画像ブロックにフレーム内符号化またはフレーム間符号化を採用する情報、画像ブロックの区分モード、のうち1種または複数種の情報の組み合わせを含む。
図3に描かれたATMVPの実現プロセスから、双方向予測については、最も悪い状況は、時間動きベクトルを導出するプロセスにおいて、2つの参照フレームリストに対していずれも走査を行っても、条件に適合する時間動きベクトルが依然として導出されていないというものであり、このような状況においては、2つの参照フレームリストに対する走査は冗長であることが分かる。
また、双方向予測において、現在フレームの符号化モードが低遅延モード(low delay B)またはランダムアクセスモード(random access)であれば、第1の参照フレームリストと第2の参照フレームリストとにおける参照フレームにある程度の重畳があり得るため、時間動きベクトルを取得するプロセスにおいて、2つの参照フレームリストに対する走査プロセスに冗長な操作が存在し得る。
従って、関連技術が双方向予測に対して提供する時間動きベクトル導出案は比較的複雑であり、改善の余地がある。
次に、図5を参照しながら、本願の実施例について詳述する。
図5は、本願の実施例が提供するビデオ処理方法の概略的フローチャートである。図5の方法は符号化側に応用可能であり、復号側にも応用可能である。
ステップS510では、第1の参照フレームリストと第2の参照フレームリストとを含む現在ブロックの参照フレームリストを取得する。
現在ブロックは現在CUとも称することができる。現在ブロックの参照フレームリストは第1の参照フレームリストと第2の参照フレームリストとを含み、現在ブロックが実行しようとするのはフレーム間の双方向予測であることを表す。
任意には、前記第1の参照フレームリストは前方参照フレームリストであってよく、第1の組の参照フレームを含んだ参照フレームリストであってもよい。前記第1の組の参照フレームに、時間的順序が現在フレームの前および現在フレームの後である参照フレームが含まれている。
任意には、前記第2の参照フレームリストは後方参照フレームリストであってよく、第2の組の参照フレームを含んだ参照フレームリストであってもよい。前記第2の組の参照フレームに、時間的順序が現在フレームの前および現在フレームの後である参照フレームが含まれている。
注意を要するのは、いくつかの場面で、第1の参照フレームリストおよび第2の参照フレームリストがいずれも、時間的順序が現在フレームの前および現在フレームの後である参照フレームを含んでいてよく、前記双方向予測は、第1の参照フレームリストおよび第2の参照フレームリストから、参照方向が異なる参照フレームを選択していることを指すことができるという点である。
ステップS520では、現在ブロックの参照フレームリストに基づいて目標参照フレームリストを決定する。
目標参照フレームリストは、第1の参照フレームリストと第2の参照フレームリストとの一方である。この目標参照フレームリストはランダムに選び取ってよく、一定の規則に基づいて選び取ってもよい。例えば、次のような規則に基づいて選び取ってよい。つまり、現在ブロックが所在する現在フレームに低遅延符号化モードを採用しており、かつ、現在フレームのコロケーテッドフレームが第2の参照フレームリスト中の第1のフレームである場合、第2の参照フレームリストを目標参照フレームリストに決定するか、現在ブロックが所在する現在フレームに低遅延符号化モードを採用していないか、または、現在フレームのコロケーテッドフレームが第2の参照フレームリスト中の第1のフレームではない場合、第1の参照フレームリストを目標参照フレームリストに決定するかの少なくとも1つである。
ステップS530では、現在ブロックの目標参照フレームリストに基づいて現在ブロックの時間動きベクトルを決定する。
双方向予測プロセスにおいては、本願の実施例は、第1の参照フレームリストと第2の参照フレームリストとのうち一方の参照フレームリストに基づいて現在ブロックの時間動きベクトルを決定する。換言すれば、目標参照フレームリストから時間動きベクトルを導出することができるか否かにかかわらず、目標参照フレームリストを走査し終えた後、直ちに走査を停止する。換言すれば、目標参照フレームリストのみに基づいて現在ブロックの時間動きベクトルを決定することができる。
例を挙げて説明すると、まず、現在の動きベクトル候補リスト(この動きベクトル候補リストは、空間領域の4つの隣接する位置の画像ブロックの動きベクトルに基づいて構築することができる)から、1つ目の候補動きベクトルを選び取ることができ、目標参照フレームリストから、1つ目の候補動きベクトルの参照フレームを探索し、1つ目の候補動きベクトルの参照フレームと現在ブロックのコロケーテッドフレームとが同じである場合に、1つ目の候補動きベクトルを時間動きベクトルに決定することができ、1つ目の候補動きベクトルの参照フレームと現在ブロックのコロケーテッドフレームとが異なる場合にも走査を停止し、図3の実施例において描かれたように現在ブロックの別の参照フレームリストを引き続き走査しない。このような状況で、0ベクトルを現在ブロックの時間動きベクトルとすることができる。
ステップS540では、時間動きベクトルに基づいて現在ブロックのサブブロックの動き情報を決定する。
例えば、時間動きベクトルに基づいて、現在ブロックの、参照フレームにおける対応ブロックを決定することができる。その後、現在ブロックの、参照フレームにおける対応ブロックに基づいて現在ブロックのサブブロックの動き情報を決定することができる。前記動き情報は、動きベクトル、動きベクトル差分、参照フレームインデックス値、フレーム間予測の参照方向、画像ブロックにフレーム内符号化またはフレーム間符号化を採用する情報、画像ブロックの区分モードのうち1種または複数種の情報の組み合わせを含む。ステップS540は、上記のうちステップS320を参照して実現することができ、ここでは再び詳述しない。
ステップS550では、現在ブロックのサブブロックの動き情報に基づいて現在ブロックに対してフレーム間予測を行う。
一例として、ステップS550は、現在ブロックのサブブロックを単位とし、現在ブロックのサブブロックの動き情報に基づいてフレーム間予測を行うことを含むことができる。
例えば、図1に示すように、現在ブロックのサブブロックの動き情報をATMVPとして現在ブロックのaffine merge candidates listに挿入し、その後、図1中のステップS120~ステップS160のように、完全なaffine merge candidates listを構成することができる。続いて、このaffine merge candidates listの中の候補動きベクトルを利用し、現在ブロックに対してフレーム間予測を行うことで、最も優れた候補動きベクトルを決定することができる。ステップS550の詳細な実施形態は関連技術を参照して実行することができ、本願の実施例は、これを限定しない。
本願の実施例は、双方向予測プロセスにおいて走査しなければならない参照フレームリストの数を制限することによって、符号化復号側の操作を簡略化することができる。
理解可能なのは、図5の方法をそれぞれ符号化側と復号側とに応用するとき、ステップS550で記述された、現在ブロックに対するフレーム間予測プロセスに違いがあり得るという点である。例えば、図5の方法を符号化側に応用するとき、現在ブロックに対してフレーム間予測を行うことが、現在ブロックの予測ブロックを決定することと、現在ブロックの初期ブロックおよび予測ブロックに基づいて現在ブロックの残差ブロックを計算することと、を含んでいてよい。また、図5の方法を復号側に応用するとき、現在ブロックに対してフレーム間予測を行うことが、現在ブロックの予測ブロックおよび残差ブロックを決定することと、現在ブロックの予測ブロックおよび残差ブロックに基づいて現在ブロックの再構成ブロックを計算することと、を含んでいてよい。
以上、図1~図5を参照しながら、本願の方法の実施例について詳述した。以下、図6を参照しながら、本願の装置の実施例について詳述する。方法の実施例の記述と装置の実施例の記述とは互いに対応しており、従って、詳述されていない部分については先の方法の実施例を参照可能であることを理解しなければならない。
図6は、本願の実施例が提供するビデオ処理装置の概略的構造図である。図6の装置60は、メモリ62とプロセッサ64とを備える。
メモリ62はコードを記憶するために用いることができる。
プロセッサ64は、前記メモリに記憶されたコードを実行することで、以下の操作を実行するために用いることができる:第1の参照フレームリストと第2の参照フレームリストとを含む現在ブロックの参照フレームリストを取得し、前記現在ブロックの参照フレームリストに基づいて、前記第1の参照フレームリストと前記第2の参照フレームリストとの一方である目標参照フレームリストを決定し、前記現在ブロックの目標参照フレームリストに基づいて前記現在ブロックの時間動きベクトルを決定し、前記時間動きベクトルに基づいて前記現在ブロックのサブブロックの動き情報を決定し、前記現在ブロックのサブブロックの動き情報に基づいて前記現在ブロックに対してフレーム間予測を行う。
任意には、前記時間動きベクトルに基づいて前記現在ブロックのサブブロックの動き情報を決定することが、前記時間動きベクトルに基づいて、前記現在ブロックの、参照フレームにおける対応ブロックを決定することと、前記現在ブロックの、前記参照フレームにおける対応ブロックに基づいて、前記現在ブロックのサブブロックの動き情報を決定することと、を含む。
任意には、前記現在ブロックの参照フレームリストに基づいて目標参照フレームリストを決定することが、前記現在ブロックが所在する現在フレームに低遅延符号化モードを採用しており、かつ、前記現在フレームのコロケーテッドフレームが前記第2の参照フレームリスト中の第1のフレームである場合、前記第2の参照フレームリストを前記目標参照フレームリストに決定することと、前記現在ブロックが所在する現在フレームに低遅延符号化モードを採用していないか、または、前記現在フレームのコロケーテッドフレームが前記第2の参照フレームリスト中の第1のフレームではない場合、前記第1の参照フレームリストを前記目標参照フレームリストに決定することと、の少なくとも1つを含む。
任意には、前記第1の参照フレームリストは前方参照フレームリストであってよく、第1の組の参照フレームを含んだ参照フレームリストであってもよい。前記第1の組の参照フレームに、時間的順序が現在フレームの前および現在フレームの後である参照フレームが含まれている。
任意には、前記第2の参照フレームリストは後方参照フレームリストであってよく、第2の組の参照フレームを含んだ参照フレームリストであってもよい。前記第2の組の参照フレームに、時間的順序が現在フレームの前および現在フレームの後である参照フレームが含まれている。
注意を要するのは、いくつかの場面で、第1の参照フレームリストおよび第2の参照フレームリストがいずれも、時間的順序が現在フレームの前および現在フレームの後である参照フレームを含んでいてよく、前記双方向予測は、第1の参照フレームリストおよび第2の参照フレームリストから、参照方向が異なる参照フレームを選択していることを指すことができるという点である。
任意には、前記現在ブロックの目標参照フレームリストに基づいて前記現在ブロックの時間動きベクトルを決定することが、前記現在の動きベクトル候補リストの中から1つ目の候補動きベクトルを選び取ることと、前記目標参照フレームリストの中から前記1つ目の候補動きベクトルの参照フレームを探索することと、前記1つ目の候補動きベクトルの参照フレームと前記現在ブロックのコロケーテッドフレームとが同じである場合に、前記1つ目の候補動きベクトルを前記時間動きベクトルに決定することと、を含む。
任意には、前記現在ブロックの目標参照フレームリストに基づいて前記現在ブロックの時間動きベクトルを決定することが、前記1つ目の候補動きベクトルの参照フレームと前記現在ブロックのコロケーテッドフレームとが異なる場合に、前記時間動きベクトルを0ベクトルに決定することをさらに含む。
任意には、前記現在ブロックに対してフレーム間予測を行うことが、前記現在ブロックの予測ブロックを決定することと、前記現在ブロックの初期ブロックと予測ブロックとに基づいて前記現在ブロックの残差ブロックを計算することと、を含む。
任意には、前記現在ブロックに対してフレーム間予測を行うことが、前記現在ブロックの予測ブロックと残差ブロックとを決定することと、前記現在ブロックの予測ブロックと残差ブロックとに基づいて前記現在ブロックの再構成ブロックを計算することと、を含む。
任意には、前記現在ブロックのサブブロックの動き情報に基づいて前記現在ブロックに対してフレーム間予測を行うことが、前記現在ブロックのサブブロックを単位とし、前記現在ブロックのサブブロックの動き情報に基づいてフレーム間予測を行うことを含むことができる。
上記の実施例において、ソフトウェア、ハードウェア、ファームウェアもしくは他の任意の組み合わせによって、すべてまたは部分的に実現することができる。ソフトウェアを使用して実現する場合、コンピュータプログラム製品の形ですべてまたは部分的に実現することができる。前記コンピュータプログラム製品は1つまたは複数のコンピュータ指令を含む。前記コンピュータプログラム指令をコンピュータにロードして実行する際に、本発明の実施例に記載されたフローまたは機能をすべてまたは部分的に生成する。前記コンピュータは、汎用コンピュータ、専用コンピュータ、コンピュータネットワーク、もしくは他のプログラマブル装置であってよい。前記コンピュータ指令はコンピュータ読取可能記憶媒体に記憶するか、もしくは、1つのコンピュータ読取可能記憶媒体から別のコンピュータ読取可能記憶媒体に伝送することができる。例えば、前記コンピュータ指令は、1つのウェブサイト、コンピュータ、サーバまたはデータセンタから、有線(例えば同軸ケーブル、光ファイバ、デジタル加入者線(digital subscriber line,DSL))または無線(例えば赤外線、無線、マイクロ波等)の方式によって、別のウェブサイト、コンピュータ、サーバまたはデータセンタへ伝送することができる。前記コンピュータ読取可能記憶媒体は、コンピュータがアクセス可能な何らかの使用可能媒体であるか、もしくは、1つまたは複数の使用可能媒体を含むサーバ、データセンタ等のデータ記憶デバイスであってよい。前記使用可能媒体は、磁性媒体(例えば、フロッピーディスク、ハードディスク、磁気テープ)、光媒体(例えばデジタルビデオディスク(digital video disc,DVD))、もしくは半導体媒体(例えばソリッドステートディスク(solid state disk,SSD))等であってよい。
当業者は、ここで開示された実施例で記述された各例のユニットおよびアルゴリズムステップを組み合わせれば、電子ハードウェア、もしくはコンピュータソフトウェアと電子ハードウェアの結合により実現することができることを想到可能である。これらの機能を、最終的にハードウェアとソフトウェアのいずれにより実行するかは、技術的解決策の特定の応用および設計制約条件に応じて決まる。当業者は、個々の特定の応用に対して異なる方法を使用して、記述された機能を実現することができるが、このような実現は、本願の範囲から逸脱すると見なされてはならない。
本願が提供するいくつかの実施例では、開示されたシステム、装置および方法は、他の方式によって実現可能であることを理解しなければならない。例えば、上述の装置の実施例は概略的なものであるに過ぎず、例えば、前記ユニットの区分は論理機能的区分であるに過ぎず、実際に実現する際には別の区分方式があってよく、例えば、複数のユニットまたはアセンブリは結合させるか、もしくは、別のシステムに一体化してよい。もしくは、いくつかの特徴は、無視するかまたは実行しなくてもよい。別の点については、表示または検討される相互間の結合または直接的な結合または通信接続は、いくつかのインターフェイス、装置またはユニットを介した間接的な結合または通信接続であってよく、電気的、機械的または他の形式であってよい。
上記の、分離部品として説明したユニットは、物理的に分離されたものであってもなくてもよく、ユニットとして表示される部品は物理ユニットであってもなくてもよく、すなわち、1つの場所に位置するか、もしくは、複数のネットワークユニット上に分布していてもよい。実際のニーズに応じて、そのうちの一部もしくはすべてのユニットを選択することにより、本実施例の解決策の目的を実現することができる。
また、本願の個々の実施例における各機能ユニットは、1つの処理ユニットに一体化することができ、個々のユニットが単独で物理的に存在していてもよく、2つまたは2つ以上のユニットが1つのユニットに一体化されてもよい。
上記は、本願の具体的な実施形態であるに過ぎないが、本願の保護範囲はこれに限定されない。いかなる当業者も、本願が開示する技術の範囲内で変更または置き換えを容易に想到可能であり、いずれも本願の保護範囲に含まれていなければならない。従って、本願の保護範囲は、前記特許請求の範囲の保護範囲に準じなければならない。
上記は、本願の具体的な実施形態であるに過ぎないが、本願の保護範囲はこれに限定されない。いかなる当業者も、本願が開示する技術の範囲内で変更または置き換えを容易に想到可能であり、いずれも本願の保護範囲に含まれていなければならない。従って、本願の保護範囲は、前記特許請求の範囲の保護範囲に準じなければならない。
[項目1]
ビデオ処理方法であって、
第1の参照フレームリストと第2の参照フレームリストとを含む現在ブロックの参照フレームリストを取得することと、
前記現在ブロックの参照フレームリストに基づいて、前記第1の参照フレームリストと前記第2の参照フレームリストとの一方である目標参照フレームリストを決定することと、
前記現在ブロックの目標参照フレームリストに基づいて前記現在ブロックの時間動きベクトルを決定することと、
前記時間動きベクトルに基づいて前記現在ブロックのサブブロックの動き情報を決定することと、
前記現在ブロックのサブブロックの動き情報に基づいて前記現在ブロックに対してフレーム間予測を行うことと、
を含む、ビデオ処理方法。
[項目2]
前記時間動きベクトルに基づいて前記現在ブロックのサブブロックの動き情報を決定することが、
前記時間動きベクトルに基づいて、前記現在ブロックの、参照フレームにおける対応ブロックを決定することと、
前記現在ブロックの、前記参照フレームにおける対応ブロックに基づいて、前記現在ブロックのサブブロックの動き情報を決定することと、
を含む、項目1に記載の方法。
[項目3]
前記現在ブロックの参照フレームリストに基づいて目標参照フレームリストを決定することが、
前記現在ブロックが所在する現在フレームに低遅延符号化モードを採用しており、かつ、前記現在フレームのコロケーテッドフレームが前記第2の参照フレームリスト中の第1のフレームである場合、前記第2の参照フレームリストを前記目標参照フレームリストに決定することと、
前記現在ブロックが所在する現在フレームに低遅延符号化モードを採用していないか、または、前記現在フレームのコロケーテッドフレームが前記第2の参照フレームリスト中の第1のフレームではない場合、前記第1の参照フレームリストを前記目標参照フレームリストに決定することと、
の少なくとも1つを含む、項目1または項目2に記載の方法。
[項目4]
前記現在ブロックの目標参照フレームリストに基づいて前記現在ブロックの時間動きベクトルを決定することが、
前記現在の動きベクトル候補リストの中から1つ目の候補動きベクトルを選び取ることと、
前記目標参照フレームリストの中から前記1つ目の候補動きベクトルの参照フレームを探索することと、
前記1つ目の候補動きベクトルの参照フレームと前記現在ブロックのコロケーテッドフレームとが同じである場合に、前記1つ目の候補動きベクトルを前記時間動きベクトルに決定することと、
を含む、項目1から項目3のいずれか一項に記載の方法。
[項目5]
前記現在ブロックの目標参照フレームリストに基づいて前記現在ブロックの時間動きベクトルを決定することが、
前記1つ目の候補動きベクトルの参照フレームと前記現在ブロックのコロケーテッドフレームとが異なる場合に、前記時間動きベクトルを0ベクトルに決定することをさらに含む、項目4に記載の方法。
[項目6]
前記現在ブロックの目標参照フレームリストに基づいて前記現在ブロックの時間動きベクトルを決定することが、
前記現在ブロックの1つの特定位置の空間隣接ブロックの動きベクトルを決定することと、
前記空間隣接ブロックの動きベクトルの参照フレームと前記現在ブロックのコロケーテッドフレームとが同じである場合には、前記空間隣接ブロックの動きベクトルを前記時間動きベクトルに決定することと、
を含む、項目1から項目3のいずれか一項に記載の方法。
[項目7]
前記現在ブロックの1つの特定位置の空間隣接ブロックが前記現在ブロックの左側ブロックであるか、もしくは前記現在ブロックの上側ブロックであるか、もしくは前記現在ブロックの左上ブロックである、項目6に記載の方法。
[項目8]
前記空間隣接ブロックの参照フレームと前記現在ブロックのコロケーテッドフレームとが異なる場合に、前記時間動きベクトルを0ベクトルに決定する、項目6に記載の方法。
[項目9]
前記現在ブロックに対してフレーム間予測を行うことが、
前記現在ブロックの予測ブロックを決定することと、
前記現在ブロックの初期ブロックと予測ブロックとに基づいて前記現在ブロックの残差ブロックを計算することと、
を含む、項目1から項目8のいずれか一項に記載の方法。
[項目10]
前記現在ブロックに対してフレーム間予測を行うことが、
前記現在ブロックの予測ブロックと残差ブロックとを決定することと、
前記現在ブロックの予測ブロックと残差ブロックとに基づいて前記現在ブロックの再構成ブロックを計算することと、
を含む、項目1から項目8のいずれか一項に記載の方法。
[項目11]
前記現在ブロックのサブブロックの動き情報に基づいて前記現在ブロックに対してフレーム間予測を行うことが、
前記現在ブロックのサブブロックを単位とし、前記現在ブロックのサブブロックの動き情報に基づいてフレーム間予測を行うことを含む、項目1から項目10のいずれか一項に記載の方法。
[項目12]
ビデオ処理装置であって、
コードを記憶するためのメモリと、
プロセッサであって、前記メモリに記憶されたコードを実行することで、
第1の参照フレームリストと第2の参照フレームリストとを含む現在ブロックの参照フレームリストを取得し、
前記現在ブロックの参照フレームリストに基づいて、前記第1の参照フレームリストと前記第2の参照フレームリストとの一方である目標参照フレームリストを決定し、
前記現在ブロックの目標参照フレームリストに基づいて前記現在ブロックの時間動きベクトルを決定し、
前記時間動きベクトルに基づいて前記現在ブロックのサブブロックの動き情報を決定し、
前記現在ブロックのサブブロックの動き情報に基づいて前記現在ブロックに対してフレーム間予測を行う、操作を実行するためのプロセッサと、
を含む、ビデオ処理装置。
[項目13]
前記時間動きベクトルに基づいて前記現在ブロックのサブブロックの動き情報を決定することが、
前記時間動きベクトルに基づいて、前記現在ブロックの、参照フレームにおける対応ブロックを決定することと、
前記現在ブロックの、前記参照フレームにおける対応ブロックに基づいて、前記現在ブロックのサブブロックの動き情報を決定することと、
を含む、項目12に記載の装置。
[項目14]
前記現在ブロックの参照フレームリストに基づいて目標参照フレームリストを決定することが、
前記現在ブロックが所在する現在フレームに低遅延符号化モードを採用しており、かつ、前記現在フレームのコロケーテッドフレームが前記第2の参照フレームリスト中の第1のフレームである場合、前記第2の参照フレームリストを前記目標参照フレームリストに決定することと、
前記現在ブロックが所在する現在フレームに低遅延符号化モードを採用していないか、または、前記現在フレームのコロケーテッドフレームが前記第2の参照フレームリスト中の第1のフレームではない場合、前記第1の参照フレームリストを前記目標参照フレームリストに決定することと、
の少なくとも1つを含む、項目12または項目13に記載の装置。
[項目15]
前記現在ブロックの目標参照フレームリストに基づいて前記現在ブロックの時間動きベクトルを決定することが、
前記現在の動きベクトル候補リストの中から1つ目の候補動きベクトルを選び取ることと、
前記目標参照フレームリストの中から前記1つ目の候補動きベクトルの参照フレームを探索することと、
前記1つ目の候補動きベクトルの参照フレームと前記現在ブロックのコロケーテッドフレームとが同じである場合に、前記1つ目の候補動きベクトルを前記時間動きベクトルに決定することと、
を含む、項目12から項目14のいずれか一項に記載の装置。
[項目16]
前記現在ブロックの目標参照フレームリストに基づいて前記現在ブロックの時間動きベクトルを決定することが、
前記1つ目の候補動きベクトルの参照フレームと前記現在ブロックのコロケーテッドフレームとが異なる場合に、前記時間動きベクトルを0ベクトルに決定することをさらに含む、項目15に記載の装置。
[項目17]
前記現在ブロックの目標参照フレームリストに基づいて前記現在ブロックの時間動きベクトルを決定することが、
前記現在ブロックの1つの特定位置の空間隣接ブロックの動きベクトルを決定することと、
前記空間隣接ブロックの動きベクトルの参照フレームと前記現在ブロックのコロケーテッドフレームとが同じである場合には、前記空間隣接ブロックの動きベクトルを前記時間動きベクトルに決定することと、
を含む、項目12から項目14のいずれか一項に記載の装置。
[項目18]
前記現在ブロックの1つの特定位置の空間隣接ブロックが前記現在ブロックの左側ブロックであるか、もしくは前記現在ブロックの上側ブロックであるか、もしくは前記現在ブロックの左上ブロックである、項目17に記載の装置。
[項目19]
前記空間隣接ブロックの参照フレームと前記現在ブロックのコロケーテッドフレームとが異なる場合に、前記時間動きベクトルを0ベクトルに決定する、項目17に記載の方法。
[項目20]
前記現在ブロックに対してフレーム間予測を行うことが、
前記現在ブロックの予測ブロックを決定することと、
前記現在ブロックの初期ブロックと予測ブロックとに基づいて前記現在ブロックの残差ブロックを計算することと、
を含む、項目12から項目19のいずれか一項に記載の装置。
[項目21]
前記現在ブロックに対してフレーム間予測を行うことが、
前記現在ブロックの予測ブロックと残差ブロックとを決定することと、
前記現在ブロックの予測ブロックと残差ブロックとに基づいて前記現在ブロックの再構成ブロックを計算することと、
を含む、項目12から項目19のいずれか一項に記載の装置。
[項目22]
前記現在ブロックのサブブロックの動き情報に基づいて前記現在ブロックに対してフレーム間予測を行うことが、
前記現在ブロックのサブブロックを単位とし、前記現在ブロックのサブブロックの動き情報に基づいてフレーム間予測を行うことを含む、項目12から項目21のいずれか一項に記載の装置。

Claims (22)

  1. ビデオ処理方法であって、
    第1の参照フレームリストと第2の参照フレームリストとを含む現在ブロックの参照フレームリストを取得することと、
    前記現在ブロックの参照フレームリストに基づいて、前記第1の参照フレームリストと前記第2の参照フレームリストとの一方である目標参照フレームリストを決定することと、
    前記現在ブロックの目標参照フレームリストに基づいて前記現在ブロックの時間動きベクトルを決定することと、
    前記時間動きベクトルに基づいて前記現在ブロックのサブブロックの動き情報を決定することと、
    前記現在ブロックのサブブロックの動き情報に基づいて前記現在ブロックに対してフレーム間予測を行うことと、
    を含む、ビデオ処理方法。
  2. 前記時間動きベクトルに基づいて前記現在ブロックのサブブロックの動き情報を決定することが、
    前記時間動きベクトルに基づいて、前記現在ブロックの、参照フレームにおける対応ブロックを決定することと、
    前記現在ブロックの、前記参照フレームにおける対応ブロックに基づいて、前記現在ブロックのサブブロックの動き情報を決定することと、
    を含む、請求項1に記載の方法。
  3. 前記現在ブロックの参照フレームリストに基づいて目標参照フレームリストを決定することが、
    前記現在ブロックが所在する現在フレームに低遅延符号化モードを採用しており、かつ、前記現在フレームのコロケーテッドフレームが前記第2の参照フレームリスト中の第1のフレームである場合、前記第2の参照フレームリストを前記目標参照フレームリストに決定することと、
    前記現在ブロックが所在する現在フレームに低遅延符号化モードを採用していないか、または、前記現在フレームのコロケーテッドフレームが前記第2の参照フレームリスト中の第1のフレームではない場合、前記第1の参照フレームリストを前記目標参照フレームリストに決定することと、
    の少なくとも1つを含む、請求項1または2に記載の方法。
  4. 前記現在ブロックの目標参照フレームリストに基づいて前記現在ブロックの時間動きベクトルを決定することが、
    前記現在の動きベクトル候補リストの中から1つ目の候補動きベクトルを選び取ることと、
    前記目標参照フレームリストの中から前記1つ目の候補動きベクトルの参照フレームを探索することと、
    前記1つ目の候補動きベクトルの参照フレームと前記現在ブロックのコロケーテッドフレームとが同じである場合に、前記1つ目の候補動きベクトルを前記時間動きベクトルに決定することと、
    を含む、請求項1から請求項3のいずれか一項に記載の方法。
  5. 前記現在ブロックの目標参照フレームリストに基づいて前記現在ブロックの時間動きベクトルを決定することが、
    前記1つ目の候補動きベクトルの参照フレームと前記現在ブロックのコロケーテッドフレームとが異なる場合に、前記時間動きベクトルを0ベクトルに決定することをさらに含む、請求項4に記載の方法。
  6. 前記現在ブロックの目標参照フレームリストに基づいて前記現在ブロックの時間動きベクトルを決定することが、
    前記現在ブロックの1つの特定位置の空間隣接ブロックの動きベクトルを決定することと、
    前記空間隣接ブロックの動きベクトルの参照フレームと前記現在ブロックのコロケーテッドフレームとが同じである場合には、前記空間隣接ブロックの動きベクトルを前記時間動きベクトルに決定することと、
    を含む、請求項1から請求項3のいずれか一項に記載の方法。
  7. 前記現在ブロックの1つの特定位置の空間隣接ブロックが前記現在ブロックの左側ブロックであるか、もしくは前記現在ブロックの上側ブロックであるか、もしくは前記現在ブロックの左上ブロックである、請求項6に記載の方法。
  8. 前記空間隣接ブロックの参照フレームと前記現在ブロックのコロケーテッドフレームとが異なる場合に、前記時間動きベクトルを0ベクトルに決定する、請求項6に記載の方法。
  9. 前記現在ブロックに対してフレーム間予測を行うことが、
    前記現在ブロックの予測ブロックを決定することと、
    前記現在ブロックの初期ブロックと予測ブロックとに基づいて前記現在ブロックの残差ブロックを計算することと、
    を含む、請求項1から請求項8のいずれか一項に記載の方法。
  10. 前記現在ブロックに対してフレーム間予測を行うことが、
    前記現在ブロックの予測ブロックと残差ブロックとを決定することと、
    前記現在ブロックの予測ブロックと残差ブロックとに基づいて前記現在ブロックの再構成ブロックを計算することと、
    を含む、請求項1から請求項8のいずれか一項に記載の方法。
  11. 前記現在ブロックのサブブロックの動き情報に基づいて前記現在ブロックに対してフレーム間予測を行うことが、
    前記現在ブロックのサブブロックを単位とし、前記現在ブロックのサブブロックの動き情報に基づいてフレーム間予測を行うことを含む、請求項1から請求項10のいずれか一項に記載の方法。
  12. ビデオ処理装置であって、
    コードを記憶するためのメモリと、
    プロセッサであって、前記メモリに記憶されたコードを実行することで、
    第1の参照フレームリストと第2の参照フレームリストとを含む現在ブロックの参照フレームリストを取得し、
    前記現在ブロックの参照フレームリストに基づいて、前記第1の参照フレームリストと前記第2の参照フレームリストとの一方である目標参照フレームリストを決定し、
    前記現在ブロックの目標参照フレームリストに基づいて前記現在ブロックの時間動きベクトルを決定し、
    前記時間動きベクトルに基づいて前記現在ブロックのサブブロックの動き情報を決定し、
    前記現在ブロックのサブブロックの動き情報に基づいて前記現在ブロックに対してフレーム間予測を行う、操作を実行するためのプロセッサと、
    を含む、ビデオ処理装置。
  13. 前記時間動きベクトルに基づいて前記現在ブロックのサブブロックの動き情報を決定することが、
    前記時間動きベクトルに基づいて、前記現在ブロックの、参照フレームにおける対応ブロックを決定することと、
    前記現在ブロックの、前記参照フレームにおける対応ブロックに基づいて、前記現在ブロックのサブブロックの動き情報を決定することと、
    を含む、請求項12に記載の装置。
  14. 前記現在ブロックの参照フレームリストに基づいて目標参照フレームリストを決定することが、
    前記現在ブロックが所在する現在フレームに低遅延符号化モードを採用しており、かつ、前記現在フレームのコロケーテッドフレームが前記第2の参照フレームリスト中の第1のフレームである場合、前記第2の参照フレームリストを前記目標参照フレームリストに決定することと、
    前記現在ブロックが所在する現在フレームに低遅延符号化モードを採用していないか、または、前記現在フレームのコロケーテッドフレームが前記第2の参照フレームリスト中の第1のフレームではない場合、前記第1の参照フレームリストを前記目標参照フレームリストに決定することと、
    の少なくとも1つを含む、請求項12または13に記載の装置。
  15. 前記現在ブロックの目標参照フレームリストに基づいて前記現在ブロックの時間動きベクトルを決定することが、
    前記現在の動きベクトル候補リストの中から1つ目の候補動きベクトルを選び取ることと、
    前記目標参照フレームリストの中から前記1つ目の候補動きベクトルの参照フレームを探索することと、
    前記1つ目の候補動きベクトルの参照フレームと前記現在ブロックのコロケーテッドフレームとが同じである場合に、前記1つ目の候補動きベクトルを前記時間動きベクトルに決定することと、
    を含む、請求項12から請求項14のいずれか一項に記載の装置。
  16. 前記現在ブロックの目標参照フレームリストに基づいて前記現在ブロックの時間動きベクトルを決定することが、
    前記1つ目の候補動きベクトルの参照フレームと前記現在ブロックのコロケーテッドフレームとが異なる場合に、前記時間動きベクトルを0ベクトルに決定することをさらに含む、請求項15に記載の装置。
  17. 前記現在ブロックの目標参照フレームリストに基づいて前記現在ブロックの時間動きベクトルを決定することが、
    前記現在ブロックの1つの特定位置の空間隣接ブロックの動きベクトルを決定することと、
    前記空間隣接ブロックの動きベクトルの参照フレームと前記現在ブロックのコロケーテッドフレームとが同じである場合には、前記空間隣接ブロックの動きベクトルを前記時間動きベクトルに決定することと、
    を含む、請求項12から請求項14のいずれか一項に記載の方法。
  18. 前記現在ブロックの1つの特定位置の空間隣接ブロックが前記現在ブロックの左側ブロックであるか、もしくは前記現在ブロックの上側ブロックであるか、もしくは前記現在ブロックの左上ブロックである、請求項17に記載の方法。
  19. 前記空間隣接ブロックの参照フレームと前記現在ブロックのコロケーテッドフレームとが異なる場合に、前記時間動きベクトルを0ベクトルに決定する、請求項17に記載の方法。
  20. 前記現在ブロックに対してフレーム間予測を行うことが、
    前記現在ブロックの予測ブロックを決定することと、
    前記現在ブロックの初期ブロックと予測ブロックとに基づいて前記現在ブロックの残差ブロックを計算することと、
    を含む、請求項12から請求項19のいずれか一項に記載の装置。
  21. 前記現在ブロックに対してフレーム間予測を行うことが、
    前記現在ブロックの予測ブロックと残差ブロックとを決定することと、
    前記現在ブロックの予測ブロックと残差ブロックとに基づいて前記現在ブロックの再構成ブロックを計算することと、
    を含む、請求項12から請求項19のいずれか一項に記載の装置。
  22. 前記現在ブロックのサブブロックの動き情報に基づいて前記現在ブロックに対してフレーム間予測を行うことが、
    前記現在ブロックのサブブロックを単位とし、前記現在ブロックのサブブロックの動き情報に基づいてフレーム間予測を行うことを含む、請求項12から請求項21のいずれか一項に記載の装置。
JP2021537058A 2019-01-03 2019-12-31 ビデオ処理方法および装置 Active JP7328337B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2023121689A JP7617193B2 (ja) 2019-01-03 2023-07-26 ビデオ処理方法、ビデオ処理装置および符号ストリーム生成方法
JP2024232861A JP7741287B2 (ja) 2019-01-03 2024-12-27 ビデオ符号化方法、ビデオ復号方法およびビットストリーム生成方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
PCT/CN2019/070306 WO2020140242A1 (zh) 2019-01-03 2019-01-03 视频处理方法和装置
CNPCT/CN2019/070306 2019-01-03
PCT/CN2019/130881 WO2020140916A1 (zh) 2019-01-03 2019-12-31 视频处理方法和装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023121689A Division JP7617193B2 (ja) 2019-01-03 2023-07-26 ビデオ処理方法、ビデオ処理装置および符号ストリーム生成方法

Publications (2)

Publication Number Publication Date
JP2022515807A true JP2022515807A (ja) 2022-02-22
JP7328337B2 JP7328337B2 (ja) 2023-08-16

Family

ID=70562433

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2021537058A Active JP7328337B2 (ja) 2019-01-03 2019-12-31 ビデオ処理方法および装置
JP2023121689A Active JP7617193B2 (ja) 2019-01-03 2023-07-26 ビデオ処理方法、ビデオ処理装置および符号ストリーム生成方法
JP2024232861A Active JP7741287B2 (ja) 2019-01-03 2024-12-27 ビデオ符号化方法、ビデオ復号方法およびビットストリーム生成方法

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2023121689A Active JP7617193B2 (ja) 2019-01-03 2023-07-26 ビデオ処理方法、ビデオ処理装置および符号ストリーム生成方法
JP2024232861A Active JP7741287B2 (ja) 2019-01-03 2024-12-27 ビデオ符号化方法、ビデオ復号方法およびビットストリーム生成方法

Country Status (6)

Country Link
US (1) US20210337232A1 (ja)
EP (1) EP3908002A4 (ja)
JP (3) JP7328337B2 (ja)
KR (2) KR102770381B1 (ja)
CN (7) CN116866605A (ja)
WO (3) WO2020140242A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3182703A1 (en) * 2011-06-14 2017-06-21 Samsung Electronics Co., Ltd Method and apparatus for encoding motion information and method and apparatus for decoding same
WO2019178721A1 (en) 2018-03-19 2019-09-26 Qualcomm Incorporated Improvements to advanced temporal motion vector prediction
WO2020140242A1 (zh) * 2019-01-03 2020-07-09 北京大学 视频处理方法和装置
CN118828009A (zh) * 2019-05-15 2024-10-22 华为技术有限公司 候选运动矢量列表获取方法、装置及编解码器
KR20220016839A (ko) 2019-06-04 2022-02-10 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 기하학적 분할 모드 코딩을 갖는 모션 후보 리스트
WO2020244571A1 (en) 2019-06-04 2020-12-10 Beijing Bytedance Network Technology Co., Ltd. Motion candidate list construction using neighboring block information
KR102662603B1 (ko) 2019-06-06 2024-04-30 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 비디오 코딩을 위한 움직임 후보 리스트 구성
CN114175636B (zh) 2019-07-14 2024-01-12 北京字节跳动网络技术有限公司 自适应参数集中的自适应环路滤波的指示
CN117596389A (zh) 2019-09-28 2024-02-23 北京字节跳动网络技术有限公司 视频编解码中的几何分割模式
CN115362676A (zh) 2020-03-07 2022-11-18 抖音视界有限公司 视频编解码中变换跳过模式的处理
CN114007078B (zh) * 2020-07-03 2022-12-23 杭州海康威视数字技术股份有限公司 一种运动信息候选列表的构建方法、装置及其设备
CN114554209B (zh) * 2021-12-15 2025-06-17 杭州未名信科科技有限公司 基于avs3的仿射模式筛选方法、装置及电子设备
CN114222134B (zh) * 2021-12-24 2024-10-22 杭州未名信科科技有限公司 视频数据的帧间预测方法、装置及电子设备
CN115379240A (zh) * 2022-07-07 2022-11-22 康达洲际医疗器械有限公司 一种基于方向扩展的视频编码mmvd预测方法与系统
US20250008153A1 (en) * 2023-07-02 2025-01-02 Alibaba (China) Co., Ltd. Overlapped block motion compensation (obmc) for intra mode
CN119402656A (zh) * 2024-11-04 2025-02-07 北京达佳互联信息技术有限公司 视频处理方法、装置及相关设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160219278A1 (en) * 2015-01-26 2016-07-28 Qualcomm Incorporated Sub-prediction unit based advanced temporal motion vector prediction
WO2018231700A1 (en) * 2017-06-13 2018-12-20 Qualcomm Incorporated Motion vector prediction
JP2021516006A (ja) * 2018-07-02 2021-06-24 エルジー エレクトロニクス インコーポレイティド インター予測モードに基づいた映像処理方法及びそのための装置

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11298902A (ja) * 1998-04-08 1999-10-29 Sony Corp 画像符号化装置および方法
KR100506864B1 (ko) * 2002-10-04 2005-08-05 엘지전자 주식회사 모션벡터 결정방법
CN1870748A (zh) * 2005-04-27 2006-11-29 王云川 因特网协议电视
WO2007029914A1 (en) * 2005-07-19 2007-03-15 Samsung Eletronics Co., Ltd. Video encoding/decoding method and apparatus in temporal direct mode in hierarchica structure
JP2011077722A (ja) * 2009-09-29 2011-04-14 Victor Co Of Japan Ltd 画像復号装置、画像復号方法およびそのプログラム
US9137544B2 (en) * 2010-11-29 2015-09-15 Mediatek Inc. Method and apparatus for derivation of mv/mvp candidate for inter/skip/merge modes
CN102685477B (zh) * 2011-03-10 2014-12-10 华为技术有限公司 获取用于合并模式的图像块的方法和设备
MX2014000159A (es) * 2011-07-02 2014-02-19 Samsung Electronics Co Ltd Metodo y aparato para la codificacion de video, y metodo y aparato para la decodificacion de video acompañada por inter prediccion utilizando imagen co-localizada.
US9083983B2 (en) * 2011-10-04 2015-07-14 Qualcomm Incorporated Motion vector predictor candidate clipping removal for video coding
AU2013250105B2 (en) * 2012-04-15 2016-07-07 Samsung Electronics Co., Ltd. Method and apparatus for determining reference images for inter prediction
CN103533376B (zh) * 2012-07-02 2017-04-12 华为技术有限公司 帧间预测编码运动信息的处理方法、装置和编解码系统
CN102946536B (zh) * 2012-10-09 2015-09-30 华为技术有限公司 候选矢量列表构建的方法及装置
US10785501B2 (en) * 2012-11-27 2020-09-22 Squid Design Systems Pvt Ltd System and method of performing motion estimation in multiple reference frame
CN103338372A (zh) * 2013-06-15 2013-10-02 浙江大学 一种视频处理方法及装置
CN104427345B (zh) * 2013-09-11 2019-01-08 华为技术有限公司 运动矢量的获取方法、获取装置、视频编解码器及其方法
US9762927B2 (en) 2013-09-26 2017-09-12 Qualcomm Incorporated Sub-prediction unit (PU) based temporal motion vector prediction in HEVC and sub-PU design in 3D-HEVC
CN109889850A (zh) * 2014-02-21 2019-06-14 联发科技(新加坡)私人有限公司 视频编解码方法
WO2015143603A1 (en) * 2014-03-24 2015-10-01 Mediatek Singapore Pte. Ltd. An improved method for temporal motion vector prediction in video coding
US9854237B2 (en) * 2014-10-14 2017-12-26 Qualcomm Incorporated AMVP and merge candidate list derivation for intra BC and inter prediction unification
CN104717513B (zh) * 2015-03-31 2018-02-09 北京奇艺世纪科技有限公司 一种双向帧间预测方法及装置
CN104811729B (zh) * 2015-04-23 2017-11-10 湖南大目信息科技有限公司 一种视频多参考帧编码方法
US10271064B2 (en) * 2015-06-11 2019-04-23 Qualcomm Incorporated Sub-prediction unit motion vector prediction using spatial and/or temporal motion information
WO2017118411A1 (en) * 2016-01-07 2017-07-13 Mediatek Inc. Method and apparatus for affine inter prediction for video coding system
WO2017131908A1 (en) * 2016-01-29 2017-08-03 Google Inc. Dynamic reference motion vector coding mode
US9866862B2 (en) * 2016-03-18 2018-01-09 Google Llc Motion vector reference selection through reference frame buffer tracking
CN113438478B (zh) * 2016-04-06 2024-08-16 株式会社Kt 对视频进行编码、解码的方法及存储压缩视频数据的设备
WO2017176092A1 (ko) * 2016-04-08 2017-10-12 한국전자통신연구원 움직임 예측 정보를 유도하는 방법 및 장치
US10834404B2 (en) * 2016-05-24 2020-11-10 Electronics And Telecommunications Research Institute Image encoding/decoding method and recording medium for same
WO2018066874A1 (ko) * 2016-10-06 2018-04-12 세종대학교 산학협력단 비디오 신호의 복호화 방법 및 이의 장치
CN109089119B (zh) * 2017-06-13 2021-08-13 浙江大学 一种运动矢量预测的方法及设备
CN118200543A (zh) 2018-04-01 2024-06-14 Lg电子株式会社 图像编码/解码设备、数据的发送设备以及存储介质
WO2019191890A1 (zh) 2018-04-02 2019-10-10 深圳市大疆创新科技有限公司 用于图像处理的方法和图像处理装置
CN112219401A (zh) * 2018-05-25 2021-01-12 联发科技股份有限公司 用于视频编解码系统的仿射模型运动向量预测导出方法及装置
US10944984B2 (en) * 2018-08-28 2021-03-09 Qualcomm Incorporated Affine motion prediction
WO2020060316A1 (ko) * 2018-09-20 2020-03-26 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2020108652A1 (en) * 2018-11-29 2020-06-04 Beijing Bytedance Network Technology Co., Ltd. Interaction between intra block copy mode and sub-block based motion vector prediction mode
KR102585131B1 (ko) 2018-12-13 2023-10-06 텐센트 아메리카 엘엘씨 비디오 디코딩을 위한 방법 및 비디오 디코더
WO2020140242A1 (zh) 2019-01-03 2020-07-09 北京大学 视频处理方法和装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160219278A1 (en) * 2015-01-26 2016-07-28 Qualcomm Incorporated Sub-prediction unit based advanced temporal motion vector prediction
WO2018231700A1 (en) * 2017-06-13 2018-12-20 Qualcomm Incorporated Motion vector prediction
JP2021516006A (ja) * 2018-07-02 2021-06-24 エルジー エレクトロニクス インコーポレイティド インター予測モードに基づいた映像処理方法及びそのための装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
XIAOYU XIU, PHILIPPE HANHART, RAHUL VANAM, YUWEN HE, YAN YE, TAORAN LU, FANGJUN PU, PENG YIN, WALT H: "Description of SDR, HDR, and 360° video coding technology proposal by InterDigital Communications a", JVET-J JVET-J0015-V1, JPN6022033748, 17 October 2019 (2019-10-17), pages 1 - 79, ISSN: 0004850012 *

Also Published As

Publication number Publication date
CN113453015B (zh) 2022-10-25
CN113507612B (zh) 2023-05-12
CN113507612A (zh) 2021-10-15
CN111630860A (zh) 2020-09-04
CN111630861A (zh) 2020-09-04
JP2023139221A (ja) 2023-10-03
JP7617193B2 (ja) 2025-01-17
WO2020140242A1 (zh) 2020-07-09
KR102770381B1 (ko) 2025-02-18
WO2020140916A1 (zh) 2020-07-09
JP7741287B2 (ja) 2025-09-17
KR20210094089A (ko) 2021-07-28
JP2025041966A (ja) 2025-03-26
CN111630861B (zh) 2021-08-24
WO2020140915A1 (zh) 2020-07-09
US20210337232A1 (en) 2021-10-28
CN113194314A (zh) 2021-07-30
CN116866605A (zh) 2023-10-10
CN113453015A (zh) 2021-09-28
JP7328337B2 (ja) 2023-08-16
EP3908002A4 (en) 2022-04-20
CN111164976A (zh) 2020-05-15
KR20250026402A (ko) 2025-02-25
EP3908002A1 (en) 2021-11-10
CN113194314B (zh) 2022-10-25

Similar Documents

Publication Publication Date Title
JP2022515807A (ja) ビデオ処理方法および装置
JP7687555B2 (ja) 映像処理方法及びビットストリーム生成方法
US8229233B2 (en) Method and apparatus for estimating and compensating spatiotemporal motion of image
CN117528112A (zh) 解码设备、编码设备及发送图像的数据的设备
BR112021002335A2 (pt) método de decodificação de imagem com base na predição de movimento afim e dispositivo usando lista de candidatos à fusão afins no sistema de codificação de imagem
CN112640459B (zh) 图像编码系统中基于使用合并候选列表的运动预测的图像解码方法和设备
CN111684799B (zh) 视频处理方法和装置
CN112136328B (zh) 视频处理系统中的帧间预测的方法和装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210623

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210623

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230803

R150 Certificate of patent or registration of utility model

Ref document number: 7328337

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

点击 这是indexloc提供的php浏览器服务,不要输入任何密码和下载