JP7200470B2 - 双予測動き補償に対するデコーダ側双予測オプティカルフローベースのピクセル単位補正を用いるデコーダ側の動きベクトルのリファインメントのためのハードウェアおよびソフトウェアフレンドリーシステムおよび方法 - Google Patents
双予測動き補償に対するデコーダ側双予測オプティカルフローベースのピクセル単位補正を用いるデコーダ側の動きベクトルのリファインメントのためのハードウェアおよびソフトウェアフレンドリーシステムおよび方法 Download PDFInfo
- Publication number
- JP7200470B2 JP7200470B2 JP2021520339A JP2021520339A JP7200470B2 JP 7200470 B2 JP7200470 B2 JP 7200470B2 JP 2021520339 A JP2021520339 A JP 2021520339A JP 2021520339 A JP2021520339 A JP 2021520339A JP 7200470 B2 JP7200470 B2 JP 7200470B2
- Authority
- JP
- Japan
- Prior art keywords
- interpolation
- samples
- sub
- prediction
- target sub
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000033001 locomotion Effects 0.000 title claims description 184
- 239000013598 vector Substances 0.000 title claims description 183
- 238000000034 method Methods 0.000 title claims description 141
- 238000012937 correction Methods 0.000 title claims description 80
- 230000003287 optical effect Effects 0.000 title claims description 35
- 238000012545 processing Methods 0.000 claims description 36
- 239000011159 matrix material Substances 0.000 claims description 23
- 238000004590 computer program Methods 0.000 claims description 3
- 239000000523 sample Substances 0.000 description 54
- 241000023320 Luma <angiosperm> Species 0.000 description 25
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 25
- 230000006870 function Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 15
- 239000000872 buffer Substances 0.000 description 12
- 230000002123 temporal effect Effects 0.000 description 12
- 230000002146 bilateral effect Effects 0.000 description 11
- 238000009795 derivation Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 8
- 238000012935 Averaging Methods 0.000 description 6
- 238000006073 displacement reaction Methods 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 5
- 239000013074 reference sample Substances 0.000 description 4
- 230000001419 dependent effect Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 230000035508 accumulation Effects 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 101100537098 Mus musculus Alyref gene Proteins 0.000 description 1
- 101150095908 apex1 gene Proteins 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 235000019800 disodium phosphate Nutrition 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000012856 packing Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000037452 priming Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/521—Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/223—Analysis of motion using block-matching
- G06T7/238—Analysis of motion using block-matching using non-full search, e.g. three-step search
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/117—Filters, e.g. for pre-processing or post-processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/523—Motion estimation or motion compensation with sub-pixel accuracy
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/53—Multi-resolution motion estimation; Hierarchical motion estimation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/96—Tree coding, e.g. quad-tree coding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
[双予測オプティカルフロー]
[表1.4]
・I(k)は、14の中間ビット深度(VVC内)で維持される動きベクトルの小数部分に基づく2-D分離可能な動き補償補間の後のクリップされていない予測ブロックサンプルに対応し、-8192のオフセットは、符号付き14ビット数の動的範囲をより有効に利用するために適用される。したがって、差分項(I(1)-I(0))は、15ビット精度を有する。
・
・現在の採用において、現在のフレームから2つの参照フレームへの時間的距離、τ0およびτ1は、等しいと仮定される。式1.22で使用される
・したがって、積項は(16+15)または(16+16)ビット精度を有し得、所与の4×4サブブロックの6×6サンプル位置に対して累積を行うことは、32+6=38ビットのアキュムレータを必要とする。
・I(k)は、それらを減算する前に6ビットだけ右にシフトされ、減算された量は9ビット精度になる。
・
・水平方向の勾配の和よび垂直方向の勾配の和の項は、11ビット精度の勾配を使用して計算され、計算された和は、合計の項を9ビット精度にするために、さらに3ビットだけ右シフトされる。
・積項は次に、9ビット×9ビット乗算として計算され、24ビットアキュムレータに累積される18ビット出力をもたらす。
・24ビット累積量は次に、(ここでも、27ビット中間値を超えることなく)フローベクトルを計算するのに使用され、フローベクトル
・ピクセルレベルでBPOF補正を適用している間、中間11ビットの水平方向および垂直方向の勾配値を使用して、水平方向の勾配の12ビットの差と、垂直方向の勾配の差とを取得して、これらは次に、
[DMVRおよびBPOFの組み合わせ]
インター予測方法であって、
現在のピクチャの現在のピクチャブロックの動き情報に基づいて参照サンプルを選択する段階と、
選択された参照サンプルに対して第1補間を実行することにより、第1補間サンプルを導出する段階と、
第1補間サンプルに基づいて整数距離の動きベクトルのリファインメント(MVR)を実行することにより、ターゲットサブ予測ユニット(PU)の整数距離デルタ動きベクトルを導出する段階であって、ここで、ターゲットサブPUは現在のピクチャブロック内にある、導出する段階と、
第1補間サンプルおよび整数距離デルタ動きベクトルに基づいて、ターゲットサブPU内のそれぞれのM×Mピクセルマトリクスに対して、双予測オプティカルフロー(BPOF)を実行することにより、M×Mピクセルマトリクスフローベクトル(Mは整数であり、例えば、M=4)を導出する段階であって、ここで、Mは正の整数であり、M×Mピクセルマトリクスのサイズは、ターゲットサブPUのサイズより小さい、導出する段階と、
参照サンプルに対して第2補間を実行することにより、第2補間サンプルを導出する段階と、
M×Mピクセルマトリクスフローベクトル、第1補間サンプル、および第2補間サンプルに基づいて、ターゲットサブPUに対して少なくとも1つの補正パラメータを計算する段階と、
第2補間サンプルおよび少なくとも1つの補正パラメータに基づいて、双予測を実行する段階と
を備える、方法が提供される。
第1補間サンプルに基づいて、ターゲットサブPUの左右境界サンプル位置における水平境界のサンプル勾配と、ターゲットサブPUの上下境界サンプル位置における垂直境界のサンプル勾配とを導出する段階を備え得る。
現在のピクチャの現在のピクチャブロックの動き情報に基づいて参照サンプルを選択する段階と、
選択された参照サンプルに対して補間(例えば、分離可能な補間フィルタにより実行される)を実行することにより補間サンプルを導出する段階と、
補間サンプルに基づいて、整数距離の動きベクトルのリファインメント(MVR)コストを算出する段階と、
算出された整数距離MVRコストに基づいて、整数距離デルタ動きベクトルを決定する段階と、
補間サンプルおよび整数距離デルタ動きベクトルに基づいて、ターゲットサブ予測ユニット(PU)内のそれぞれのM×Mピクセルマトリクスに対して、双予測オプティカルフロー(BPOF)を実行することにより、M×Mピクセルマトリクスフローベクトル(Mは整数であり、例えば、M=4)を導出する段階であって、ここで、Mは正の整数であり、M×MはサブPUのサイズより小さく、ターゲットサブPUは現在のピクチャブロック内にある、導出する段階と、
M×Mピクセルマトリクスフローベクトルおよび補間サンプルに基づいて、ターゲットサブPUに対して少なくとも1つの補正パラメータを計算する段階と、
補間サンプルおよび少なくとも1つの補正パラメータに基づいて、双予測を実行する段階と
を備えるインター予測方法を提供することにより提示される。
現在のピクチャの現在のピクチャブロックの動き情報により参照サンプルを選択する段階と、
現在のピクチャブロックのターゲットサブ予測ユニット(PU)に対する補間サンプルを導出する段階であって、当該段階は、選択された参照サンプルの当該参照サンプルに対して第1補間を実行することであって、その位置は現在のピクチャブロックの動きベクトル(MV)リファインメント範囲内のゼロデルタ動きベクトルに対応する、実行することと、選択された参照サンプルの当該参照サンプルに対して第2補間を実行することであって、その位置は現在のピクチャブロックのMVリファインメント範囲内のゼロデルタMVに対応しない、実行することとによって行われる、導出する段階と、
補間サンプルに基づいて、整数距離の動きベクトルのリファインメント(MVR)コストを算出する段階と、
算出された整数距離MVRコストに基づいて、整数距離デルタ動きベクトルを決定する段階と、
算出された整数距離MVRコストを使用して、決定された整数距離デルタ動きベクトルの周りのサブピクセル精度のデルタ動きベクトルを決定する段階と、
ゼロデルタ動きベクトルの位置における補間サンプルに基づいて、ターゲットサブPU内のサンプルの各M×M輝度ブロックに対して、双予測オプティカルフロー(BPOF)を実行することにより、M×Mピクセルマトリクスフローベクトル(Mは整数であり、例えば、M=4)を導出する段階であって、ここで、Mは正の整数であり、M×MはサブPUのサイズより小さく、ターゲットサブPUは現在のピクチャブロック内にある、導出する段階と、
ターゲットサブPUに対する輝度インター予測が、ターゲットサブPUに対する決定されたデルタ動きベクトル、または、ターゲットサブPU内のサンプルの各M×M輝度ブロックに対して導出されたBPOFベクトルを使用して実行されるかどうかを決定する段階と、
ターゲットサブPUに対する輝度インター予測が、導出されたBPOFベクトルを使用して実行されると決定された場合、M×Mピクセルマトリクスフローベクトルと補間サンプルとに基づいて、ターゲットサブPUに対する少なくとも1つの補正パラメータを計算する段階と、
ターゲットサブPUに対する輝度インター予測が、決定されたデルタ動きベクトルを使用して実行されると決定された場合、決定されたデルタ動きベクトルに基づいて、ターゲットサブPUに対する少なくとも1つの補正パラメータを計算する段階と、
補間サンプルと少なくとも1つの補正パラメータとに基づいて、双予測を実行する段階と
の段階を備える方法を提供することにより提示される。
a)最良コストの整数距離デルタ動きベクトルがゼロベクトルである
b)ゼロデルタ動きベクトルのMVRコストから最良コストを引いた値が予め定められた閾値より小さい
c)ターゲットサブPU内の輝度サンプルのすべての4×4ブロックにわたるBPOFベクトルのユークリッドまたはマンハッタン距離の分散が、予め定められた閾値を超える
[実施形態1]
[実施形態2]
[実施形態3]
1.最良コストの整数距離デルタ動きベクトルがゼロベクトルであるとき。
2.ゼロデルタ動きベクトルDMVRコストから最良コストを引いた値が、予め定められた閾値より小さいとき(例えば、16×16のサブPUに対して、予め定められた閾値は、14ビット補間サンプルを使用するコスト関数を計算する場合、16、32、または64であり得る)。いくつかの実施形態において、最良コストは、整数距離デルタMVのみに基づくことができる。いくつかの他の実施形態において、最良コストは、整数距離コスト関数値のパラメトリックなエラー表面に基づくことができる。
3.ターゲットサブPU内の輝度サンプルのすべての4×4ブロックにわたるBPOFベクトルのユークリッドまたはマンハッタン距離の分散は、予め定められた閾値を超える(例えば、16個の4×4ブロックのサンプルを含むサイズ16×16のサブPUの場合、マンハッタン距離の分散に対する予め定められた閾値は、0.25、0.4、0.5などといった値であり得る)。
DMVR:デコーダ側の動きベクトルのリファインメント(Decoder Side Motion Vector Refinement)
SAD:差分絶対値和(Sum of Absolute Differences)
MV:動きベクトル(Motion Vector)
BPOF:双予測サンプルのための双予測オプティカルフローベースのピクセル単位補正(Bi-predictive Optical Flow based per-pixel correction for bi-prediction samples)
DCTIF:所与のサンプルのブロックに対する参照フレームに関する所与のサブピクセル動きベクトルに基づく参照サンプルの動き補償補間に使用される離散コサイン変換ベースの補間フィルタ(Discrete-Cosine transform based interpolation filter used for motion compensated interpolation of reference samples based on a given sub-pixel motion vector with respect to that reference frame for a given block of samples)
MC:動き補償(Motion compensation)
HEVC:高効率ビデオ符号化規格(High Efficiency Video Coding standard)
VVC:多用途映像符号化規格(Versatile Video Coding standard)
[他の考えられる項目]
[項目1]
インター予測方法であって、
現在のピクチャの現在のピクチャブロックの動き情報に基づいて参照サンプルを選択する段階と、
選択された上記参照サンプルに対して第1補間を実行することにより、第1補間サンプルを導出する段階と、
上記第1補間サンプルに基づいて整数距離の動きベクトルのリファインメント、MVR、を実行することにより、ターゲットサブ予測ユニット、PU、の整数距離デルタ動きベクトルを導出する段階であって、上記ターゲットサブPUは上記現在のピクチャブロック内にある、導出する段階と、
上記第1補間サンプルおよび上記整数距離デルタ動きベクトルに基づいて、上記ターゲットサブPU内のそれぞれのM×Mピクセルマトリクスに対して、双予測オプティカルフロー、BPOF、を実行することにより、M×Mピクセルマトリクスフローベクトルを導出する段階であって、Mは正の整数であり、上記M×Mピクセルマトリクスのサイズは、上記ターゲットサブPUのサイズより小さい、導出する段階と、
上記参照サンプルに対して第2補間を実行することにより、第2補間サンプルを導出する段階と、
上記M×Mピクセルマトリクスフローベクトル、上記第1補間サンプル、および上記第2補間サンプルに基づいて、上記ターゲットサブPUに対して少なくとも1つの補正パラメータを計算する段階と、
上記第2補間サンプルおよび上記少なくとも1つの補正パラメータに基づいて、双予測を実行する段階と
を備える、方法。
[項目2]
上記動き情報は、符号化ツリーブロックレベルまたは仮想パイプラインデータユニットレベルにおける動きベクトルを備える、項目1に記載の方法。
[項目3]
上記第2補間は、上記現在のピクチャブロックの動きベクトルと、上記ターゲットサブPUに対して導出された上記整数距離デルタ動きベクトルとを使用して実行される、項目1または2に記載の方法。
[項目4]
上記ターゲットサブPUに対する上記少なくとも1つの補正パラメータは、上記ターゲットサブPUのサンプルに対して算出されたサンプル勾配から計算される、項目1から3のいずれかに記載の方法。
[項目5]
上記双予測を実行する上記段階は、第1参照ピクチャL0に基づく上記補正パラメータを使用して第1予測ピクチャを生成する段階と、第2参照ピクチャL1に基づく上記補正パラメータを使用して第2予測ピクチャを生成する段階とを備える、項目1から4のいずれかに記載の方法。
[項目6]
上記参照サンプルの整数グリッドサンプルは第1メモリに格納され、上記第1補間サンプルは、上記第1メモリとは異なる第2メモリに格納される、項目1から5のいずれかに記載の方法。
[項目7]
上記第2補間は、分離可能な補間フィルタにより実行される、項目1から6に記載の方法。
[項目8]
上記ターゲットサブPUに対して上記少なくとも1つの補正パラメータを計算する段階の前に、上記方法は、
上記第1補間サンプルに基づいて、上記ターゲットサブPUの左右境界サンプル位置における水平境界のサンプル勾配と、上記ターゲットサブPUの上下境界サンプル位置における垂直境界のサンプル勾配とを導出する段階を備える、項目1から8のいずれか一項に記載の方法。
[項目9]
上記水平境界のサンプル勾配と上記垂直境界のサンプル勾配とは、上記MVRを実行した後に導出される、項目8に記載の方法。
[項目10]
上記ターゲットサブPUに対する上記少なくとも1つの補正パラメータは、上記水平境界のサンプル勾配および上記垂直境界のサンプル勾配に基づいて計算される、項目8または9に記載の方法。
[項目11]
上記第1補間は双線形補間である、項目1から10のいずれか一項に記載の方法。
[項目12]
上記第2補間は離散コサイン変換補間である、項目1から11のいずれか一項に記載の方法。
[項目13]
Mは4である、項目1から12のいずれか一項に記載の方法。
[項目14]
インター予測方法であって、
現在のピクチャの現在のピクチャブロックの動き情報に基づいて参照サンプルを選択する段階と、
選択された上記参照サンプルに対して補間を実行することにより補間サンプルを導出する段階と、
上記補間サンプルに基づいて、整数距離の動きベクトルのリファインメント、MVR、コストを算出する段階と、
算出された上記整数距離MVRコストに基づいて、整数距離デルタ動きベクトルを決定する段階と、
上記補間サンプルおよび上記整数距離デルタ動きベクトルに基づいて、ターゲットサブ予測ユニット、PU、内のそれぞれのM×Mピクセルマトリクスに対して、双予測オプティカルフロー、BPOF、を実行することにより、M×Mピクセルマトリクスフローベクトルを導出する段階であって、Mは正の整数であり、M×Mは上記サブPUのサイズより小さく、上記ターゲットサブPUは上記現在のピクチャブロック内にある、導出する段階と、
上記M×Mピクセルマトリクスフローベクトルおよび上記補間サンプルに基づいて、上記ターゲットサブPUに対して少なくとも1つの補正パラメータを計算する段階と、
上記補間サンプルおよび上記少なくとも1つの補正パラメータに基づいて、双予測を実行する段階と
を備える、方法。
[項目15]
上記動き情報は、符号化ツリーブロックレベルまたは仮想パイプラインデータユニットレベルにおける動きベクトルを備える、項目14に記載の方法。
[項目16]
上記ターゲットサブPUに対する上記少なくとも1つの補正パラメータは、上記ターゲットサブPUのサンプルに対して算出されたサンプル勾配から計算される、項目14から15のいずれかに記載の方法。
[項目17]
上記双予測を実行する上記段階は、第1参照ピクチャL0に基づく上記補正パラメータを使用して第1予測ピクチャを生成する段階と、第2参照ピクチャL1に基づく上記補正パラメータを使用して第2予測ピクチャを生成する段階とを備える、項目14から16のいずれかに記載の方法。
[項目18]
上記補間は、分離可能な補間フィルタにより実行される、項目14から17に記載の方法。
[項目19]
上記ターゲットサブPUに対する上記少なくとも1つの補正パラメータを計算する段階の前に、上記方法は、
上記ターゲットサブPUに対する上記少なくとも1つの補正パラメータを計算する前に、上記補間サンプルに基づいて上記ターゲットサブPUの境界勾配を導出する段階を備える、項目14または18に記載の方法。
[項目20]
上記ターゲットサブPUに対する上記少なくとも1つの補正パラメータは、上記境界勾配に基づいて計算される、項目19に記載の方法。
[項目21]
上記補間は双線形補間または離散コサイン変換補間である、項目14から20のいずれか一項に記載の方法。
[項目22]
Mは4である、項目14から21のいずれか一項に記載の方法。
[項目23]
上記補間サンプルの最初および最後のN行は、同じ第1補間方法を使用して決定され、上記最初および最後のN行を除く上記補間サンプルの行は、同じ第2補間方法を使用して決定される、項目14から2のいずれか一項に記載の方法。
[項目24]
Nは3である、項目23に記載の方法。
[項目25]
上記第1補間方法は離散コサイン変換補間または双線形補間であり、上記第2補間は離散コサイン変換補間である、項目23または24に記載の方法。
[項目26]
インター予測方法であって、
現在のピクチャの現在のピクチャブロックの動き情報により参照サンプルを選択する段階と、
上記現在のピクチャブロックのターゲットサブ予測ユニット、PU、に対する補間サンプルを導出する段階であって、上記段階は、選択された上記参照サンプルの上記参照サンプルに対して第1補間を実行することであって、その位置は上記現在のピクチャブロックの動きベクトル、MV、リファインメント範囲内の上記ゼロデルタ動きベクトルに対応する、実行することと、選択された上記参照サンプルの上記参照サンプルに対して第2補間を実行することであって、その位置は上記現在のピクチャブロックの上記MVリファインメント範囲内の上記ゼロデルタMVに対応しない、実行することとによって行われる、導出する段階と、
上記補間サンプルに基づいて、整数距離の動きベクトルのリファインメント、MVR、コストを算出する段階と、
算出された上記整数距離MVRコストに基づいて、整数距離デルタ動きベクトルを決定する段階と、
算出された上記整数距離MVRコストを使用して、決定された上記整数距離デルタ動きベクトルの周りのサブピクセル精度のデルタ動きベクトルを決定する段階と、
上記ゼロデルタ動きベクトルの位置における上記補間サンプルに基づいて、上記ターゲットサブPU内のサンプルの各M×M輝度ブロックに対して、双予測オプティカルフロー、BPOF、を実行することにより、M×Mピクセルマトリクスフローベクトルを導出する段階であって、Mは正の整数であり、M×Mは上記サブPUのサイズより小さく、上記ターゲットサブPUは上記現在のピクチャブロック内にある、導出する段階と、
上記ターゲットサブPUに対する輝度インター予測が、上記ターゲットサブPUに対する決定された上記デルタ動きベクトル、または、上記ターゲットサブPU内のサンプルの各M×M輝度ブロックに対して上記導出されたBPOFベクトルを使用して実行されるかどうかを決定する段階と、
ターゲットサブPUに対する上記輝度インター予測が、上記導出されたBPOFベクトルを使用して実行されると決定された場合、上記M×Mピクセルマトリクスフローベクトルと上記補間サンプルとに基づいて、上記ターゲットサブPUに対する少なくとも1つの補正パラメータを計算する段階と、
ターゲットサブPUに対する上記輝度インター予測が、決定された上記デルタ動きベクトルを使用して実行されると決定された場合、決定された上記デルタ動きベクトルに基づいて、上記ターゲットサブPUに対する少なくとも1つの補正パラメータを計算する段階と、
上記補間サンプルと上記少なくとも1つの補正パラメータとに基づいて、双予測を実行する段階と
を備える方法。
[項目27]
上記ターゲットサブPUに対する上記少なくとも1つの補正パラメータは、上記ターゲットサブPUのサンプルに対して算出されたサンプル勾配から計算される、項目26に記載の方法。
[項目28]
上記双予測を実行する上記段階は、第1参照ピクチャL0に基づく上記補正パラメータを使用して第1予測ピクチャを生成する段階と、第2参照ピクチャL1に基づく上記補正パラメータを使用して第2予測ピクチャを生成する段階とを備える、項目26から27のいずれかに記載の方法。
[項目29]
上記第2補間は、分離可能な補間フィルタにより実行される、項目26から28のいずれかに記載の方法。
[項目30]
上記第1補間は離散コサイン変換補間である、項目26から29のいずれかに記載の方法。
[項目31]
上記第2補間は双線形または離散コサイン変換補間である、項目26から30のいずれか一項に記載の方法。
[項目32]
Mは4である、項目26から31のいずれか一項に記載の方法。
[項目33]
上記ターゲットサブPUに対する上記輝度インター予測は、
a)最良コストの整数距離デルタ動きベクトルがゼロベクトルである
b)上記ゼロデルタ動きベクトルのMVRコストから上記最良コストを引いた値が予め定められた閾値より小さい
c)ターゲットサブPU内の輝度サンプルのすべての4×4ブロックにわたるBPOFベクトルのユークリッドまたはマンハッタン距離の分散が、予め定められた閾値を超える
といった条件の1または複数が満たされる場合、上記ターゲットサブPU内のサンプルの各M×M輝度ブロックに対して上記導出されたBPOFベクトルを使用して実行されることが決定される、項目26から32のいずれかに記載の方法。
[項目34]
ビデオピクチャをエンコードする方法であって、
上記ビデオピクチャを受信する段階と、項目1から34のいずれかに記載のインター予測方法を、上記ビデオピクチャのブロックに適用する段階と、実行された上記双予測に基づいて上記ビデオピクチャをエンコードする段階とを備える、方法。
[項目35]
エンコードされたビデオピクチャをデコードする方法であって、
エンコードされた上記ビデオピクチャを受信する段階と、項目1から33のいずれかに記載のインター予測方法を、エンコードされた上記ビデオピクチャのブロックに適用する段階と、実行された上記双予測に基づいて、エンコードされた上記ビデオピクチャをデコードする段階とを備える、方法。
[項目36]
項目1から34のいずれか一項に記載の方法を実行するための処理回路を備える、エンコーダ(400)。
[項目37]
項目1から33または項目35のいずれか一項に記載の方法を実行するための処理回路を備える、デコーダ(400)。
[項目38]
項目1から35のいずれか一項に記載の方法を実行するためのプログラムコードを備える、コンピュータプログラム製品。
[項目39]
1または複数のプロセッサ(430)と、
上記1または複数のプロセッサ(430)に接続され、上記1または複数のプロセッサ(430)により実行されるプログラミングを格納する非一時的コンピュータ可読記憶媒体(460)と
を備えるエンコーダ(400)であって、
上記プログラミングは、上記1または複数のプロセッサ(430)により実行される場合、項目1から34のいずれか一項に記載の方法を実行するように上記エンコーダ(400)を構成する、エンコーダ(400)。
[項目40]
1または複数のプロセッサ(430)と、
上記1または複数のプロセッサ(430)に接続され、上記1または複数のプロセッサ(430)により実行されるプログラミングを格納する非一時的コンピュータ可読記憶媒体(460)と
を備えるデコーダ(400)であって、
上記プログラミングは、上記1または複数のプロセッサ(430)により実行される場合、項目1から33または項目35のいずれか一項に記載の方法を実行するように上記デコーダ(400)を構成する、デコーダ(400)。
Claims (27)
- インター予測方法であって、
現在のピクチャの現在のピクチャブロックの動き情報に基づいて参照サンプルを選択する段階と、
選択された前記参照サンプルに対して双線形補間である第1補間を実行することにより、第1補間サンプルを導出する段階と、
前記第1補間サンプルに基づいて整数距離の動きベクトルのリファインメント(MVR)を実行することにより、ターゲットサブ予測ユニット(PU)の整数距離デルタ動きベクトルを導出する段階であって、前記ターゲットサブPUは前記現在のピクチャブロック内にある、導出する段階と、
前記第1補間サンプルおよび前記整数距離デルタ動きベクトルに基づいて、前記ターゲットサブPU内のそれぞれのM×Mピクセルマトリクスに対して、双予測オプティカルフロー(BPOF)を実行することにより、M×Mピクセルマトリクスフローベクトルを導出する段階であって、Mは正の整数であり、前記M×Mピクセルマトリクスのサイズは、前記ターゲットサブPUのサイズより小さい、導出する段階と、
前記参照サンプルに対して離散コサイン変換補間である第2補間を実行することにより、第2補間サンプルを導出する段階と、
前記M×Mピクセルマトリクスフローベクトルを使用することで前記第1補間サンプルおよび前記第2補間サンプルに基づく前記ターゲットサブPUの内部の位置におけるサンプル勾配を計算し、双予測のために前記ターゲットサブPUに対する少なくとも1つの補正パラメータを計算する段階と、
前記第2補間サンプルおよび前記少なくとも1つの補正パラメータに基づいて、双予測を実行する段階と
を備える、方法。 - 前記動き情報は、符号化ツリーブロックレベルまたは仮想パイプラインデータユニットレベルにおける動きベクトルを備える、請求項1に記載の方法。
- 前記双予測を実行する前記段階は、第1参照ピクチャに基づく前記補正パラメータを使用して第1予測ピクチャを生成する段階と、第2参照ピクチャに基づく前記補正パラメータを使用して第2予測ピクチャを生成する段階とを備える、請求項1または2に記載の方法。
- 前記参照サンプルの整数グリッドサンプルは第1メモリに格納され、前記第1補間サンプルは、前記第1メモリとは異なる第2メモリに格納される、請求項1から3のいずれか一項に記載の方法。
- 前記第2補間は、分離可能な補間フィルタにより実行される、請求項1から4のいずれか一項に記載の方法。
- 前記ターゲットサブPUに対して前記少なくとも1つの補正パラメータを計算する段階の前に、前記方法は、
前記第1補間サンプルに基づいて、前記ターゲットサブPUの左右境界サンプル位置における水平境界のサンプル勾配と、前記ターゲットサブPUの上下境界サンプル位置における垂直境界のサンプル勾配とを導出する段階を備える、請求項1から5のいずれか一項に記載の方法。 - 前記水平境界のサンプル勾配と前記垂直境界のサンプル勾配とは、前記MVRを実行した後に導出される、請求項6に記載の方法。
- 前記ターゲットサブPUに対する前記少なくとも1つの補正パラメータは、前記水平境界のサンプル勾配および前記垂直境界のサンプル勾配に基づいて計算される、請求項6または7に記載の方法。
- Mは4である、請求項1から8のいずれか一項に記載の方法。
- インター予測方法であって、
現在のピクチャの現在のピクチャブロックの動き情報に基づいて参照サンプルを選択する段階と、
選択された前記参照サンプルに対して補間を実行することにより補間サンプルを導出する段階と、
前記補間サンプルに基づいて、整数距離の動きベクトルのリファインメント(MVR)コストを算出する段階と、
算出された前記整数距離MVRコストに基づいて、整数距離デルタ動きベクトルを決定する段階と、
前記補間サンプルおよび前記整数距離デルタ動きベクトルに基づいて、ターゲットサブ予測ユニット(PU)内のそれぞれのM×Mピクセルマトリクスに対して、双予測オプティカルフロー(BPOF)を実行することにより、M×Mピクセルマトリクスフローベクトルを導出する段階であって、Mは正の整数であり、M×Mは前記ターゲットサブPUのサイズより小さく、前記ターゲットサブPUは前記現在のピクチャブロック内にある、導出する段階と、
前記M×Mピクセルマトリクスフローベクトルを使用することで前記補間サンプルに基づく前記ターゲットサブPUの内部の位置におけるサンプル勾配を計算し、双予測のために前記ターゲットサブPUに対する少なくとも1つの補正パラメータを計算する段階と、
前記補間サンプルおよび前記少なくとも1つの補正パラメータに基づいて、双予測を実行する段階と
を備える、方法。 - 前記動き情報は、符号化ツリーブロックレベルまたは仮想パイプラインデータユニットレベルにおける動きベクトルを備える、請求項10に記載の方法。
- 前記双予測を実行する前記段階は、第1参照ピクチャに基づく前記補正パラメータを使用して第1予測ピクチャを生成する段階と、第2参照ピクチャに基づく前記補正パラメータを使用して第2予測ピクチャを生成する段階とを備える、請求項10または11に記載の方法。
- 前記補間は、分離可能な補間フィルタにより実行される、請求項10から12のいずれか一項に記載の方法。
- 前記ターゲットサブPUに対する前記少なくとも1つの補正パラメータを計算する段階の前に、前記方法は、
前記ターゲットサブPUに対する前記少なくとも1つの補正パラメータを計算する前に、前記補間サンプルに基づいて前記ターゲットサブPUの境界勾配を導出する段階を備える、請求項10または13に記載の方法。 - 前記ターゲットサブPUに対する前記少なくとも1つの補正パラメータは、前記境界勾配に基づいて計算される、請求項14に記載の方法。
- 前記補間は双線形補間または離散コサイン変換補間である、請求項10から15のいずれか一項に記載の方法。
- Mは4である、請求項10から16のいずれか一項に記載の方法。
- 前記補間サンプルの最初および最後のN行は、同じ第1補間方法を使用して決定され、前記最初および最後のN行を除く前記補間サンプルの行は、同じ第2補間方法を使用して決定される、請求項10から17のいずれか一項に記載の方法。
- Nは3である、請求項18に記載の方法。
- 前記第1補間方法は離散コサイン変換補間または双線形補間であり、前記第2補間方法は離散コサイン変換補間である、請求項18または19に記載の方法。
- ビデオピクチャをエンコードする方法であって、
前記ビデオピクチャを受信する段階と、請求項1から20のいずれか一項に記載のインター予測方法を、前記ビデオピクチャのブロックに適用する段階と、実行された前記双予測に基づいて前記ビデオピクチャをエンコードする段階とを備える、方法。 - エンコードされたビデオピクチャをデコードする方法であって、
エンコードされた前記ビデオピクチャを受信する段階と、請求項1から20のいずれか一項に記載のインター予測方法を、エンコードされた前記ビデオピクチャのブロックに適用する段階と、実行された前記双予測に基づいて、エンコードされた前記ビデオピクチャをデコードする段階とを備える、方法。 - 請求項1から21のいずれか一項に記載の方法を実行するための処理回路を備える、エンコーダ。
- 請求項1から20または請求項22のいずれか一項に記載の方法を実行するための処理回路を備える、デコーダ。
- 請求項1から22のいずれか一項に記載の方法を、コンピュータに実行させるためのコンピュータプログラム。
- 1または複数のプロセッサと、
前記1または複数のプロセッサに接続され、前記1または複数のプロセッサにより実行されるプログラミングを格納する非一時的コンピュータ可読記憶媒体と
を備えるエンコーダであって、
前記プログラミングは、前記1または複数のプロセッサにより実行される場合、請求項1から21のいずれか一項に記載の方法を実行するように前記エンコーダを構成する、エンコーダ。 - 1または複数のプロセッサと、
前記1または複数のプロセッサに接続され、前記1または複数のプロセッサにより実行されるプログラミングを格納する非一時的コンピュータ可読記憶媒体と
を備えるデコーダであって、
前記プログラミングは、前記1または複数のプロセッサにより実行される場合、請求項1から20または請求項22のいずれか一項に記載の方法を実行するように前記デコーダを構成する、デコーダ。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IN201931000185 | 2019-01-02 | ||
IN201931000185 | 2019-01-02 | ||
IN201931001238 | 2019-01-10 | ||
IN201931001238 | 2019-01-10 | ||
PCT/CN2019/129980 WO2020140874A1 (en) | 2019-01-02 | 2019-12-30 | A hardware and software friendly system and method for decoder-side motion vector refinement with decoder-side bi-predictive optical flow based per-pixel correction to bi-predictive motion compensation |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022515587A JP2022515587A (ja) | 2022-02-21 |
JP7200470B2 true JP7200470B2 (ja) | 2023-01-10 |
Family
ID=71406642
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021520339A Active JP7200470B2 (ja) | 2019-01-02 | 2019-12-30 | 双予測動き補償に対するデコーダ側双予測オプティカルフローベースのピクセル単位補正を用いるデコーダ側の動きベクトルのリファインメントのためのハードウェアおよびソフトウェアフレンドリーシステムおよび方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11490096B2 (ja) |
EP (1) | EP3854093A4 (ja) |
JP (1) | JP7200470B2 (ja) |
CN (1) | CN113228673B (ja) |
BR (1) | BR112021007949A2 (ja) |
WO (1) | WO2020140874A1 (ja) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111083484B (zh) | 2018-10-22 | 2024-06-28 | 北京字节跳动网络技术有限公司 | 基于子块的预测 |
WO2020084473A1 (en) | 2018-10-22 | 2020-04-30 | Beijing Bytedance Network Technology Co., Ltd. | Multi- iteration motion vector refinement |
WO2020098648A1 (en) | 2018-11-12 | 2020-05-22 | Beijing Bytedance Network Technology Co., Ltd. | Using combined inter intra prediction in video processing |
CN113170171B (zh) | 2018-11-20 | 2024-04-12 | 北京字节跳动网络技术有限公司 | 组合帧间帧内预测模式的预测细化 |
JP7241870B2 (ja) | 2018-11-20 | 2023-03-17 | 北京字節跳動網絡技術有限公司 | 部分的な位置に基づく差分計算 |
EP3915259A4 (en) | 2019-03-06 | 2022-03-30 | Beijing Bytedance Network Technology Co., Ltd. | USE OF A CONVERTED UNIVERSITY PREDICTION CANDIDATE |
JP6867611B2 (ja) * | 2019-03-11 | 2021-04-28 | Kddi株式会社 | 画像復号装置、画像復号方法及びプログラム |
KR20230169434A (ko) * | 2019-04-02 | 2023-12-15 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 디코더 측 움직임 벡터 유도 |
US12238279B2 (en) * | 2019-07-01 | 2025-02-25 | Interdigital Ce Patent Holdings, Sas | Bi-prediction refinement in affine with optical flow |
JP6960969B2 (ja) * | 2019-09-20 | 2021-11-05 | Kddi株式会社 | 画像復号装置、画像復号方法及びプログラム |
CN114125466B (zh) * | 2020-08-26 | 2025-02-25 | Oppo广东移动通信有限公司 | 帧间预测方法、编码器、解码器以及计算机存储介质 |
CN116195254A (zh) * | 2020-09-28 | 2023-05-30 | 交互数字Vc控股法国有限公司 | 用于通用视频编码的模板匹配预测 |
US12212736B2 (en) * | 2021-06-30 | 2025-01-28 | Qualcomm Incorporated | Using unrefined motion vectors for performing decoder-side motion vector derivation |
KR20240056576A (ko) * | 2021-09-07 | 2024-04-30 | 인터디지털 씨이 페이튼트 홀딩스, 에스에이에스 | 템플릿 매칭에 기초한 비디오 인코딩 및 디코딩을 위한 크로마 예측 |
US12088828B2 (en) | 2022-07-26 | 2024-09-10 | Tencent America LLC | Method and apparatus for improved warp delta signaling |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100491530B1 (ko) * | 2002-05-03 | 2005-05-27 | 엘지전자 주식회사 | 모션 벡터 결정 방법 |
JP5005629B2 (ja) * | 2008-07-18 | 2012-08-22 | シャープ株式会社 | 動きベクトル補正装置、動きベクトル補正方法、画像補間装置、テレビジョン受像装置、映像再生装置、制御プログラム、および、コンピュータ読み取り可能な記録媒体 |
US8736767B2 (en) * | 2010-09-29 | 2014-05-27 | Sharp Laboratories Of America, Inc. | Efficient motion vector field estimation |
WO2017084512A1 (en) * | 2015-11-20 | 2017-05-26 | Mediatek Inc. | Method and apparatus of motion vector prediction or merge candidate derivation for video coding |
CN105681805B (zh) * | 2016-01-19 | 2019-05-21 | 北京大学深圳研究生院 | 视频编码、解码方法及其帧间预测方法和装置 |
CN114793279B (zh) * | 2016-02-03 | 2024-12-27 | Oppo广东移动通信有限公司 | 运动图像解码装置、编码装置、以及预测图像生成装置 |
EP3556096B1 (en) * | 2016-12-22 | 2024-05-22 | HFI Innovation Inc. | Method and apparatus of motion refinement for video coding |
US12063387B2 (en) * | 2017-01-05 | 2024-08-13 | Hfi Innovation Inc. | Decoder-side motion vector restoration for video coding |
US20180199057A1 (en) | 2017-01-12 | 2018-07-12 | Mediatek Inc. | Method and Apparatus of Candidate Skipping for Predictor Refinement in Video Coding |
KR102438181B1 (ko) * | 2017-06-09 | 2022-08-30 | 한국전자통신연구원 | 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체 |
KR20240044549A (ko) * | 2017-07-03 | 2024-04-04 | 브이아이디 스케일, 인크. | 양방향 광학 흐름에 기반한 모션 보상 예측 |
CN108641375A (zh) | 2018-04-29 | 2018-10-12 | 徐菡 | 一种高流动耐磨pp塑料及其制备方法 |
-
2019
- 2019-12-30 JP JP2021520339A patent/JP7200470B2/ja active Active
- 2019-12-30 CN CN201980085193.6A patent/CN113228673B/zh active Active
- 2019-12-30 EP EP19907651.4A patent/EP3854093A4/en active Pending
- 2019-12-30 BR BR112021007949-1A patent/BR112021007949A2/pt unknown
- 2019-12-30 WO PCT/CN2019/129980 patent/WO2020140874A1/en unknown
-
2021
- 2021-05-05 US US17/308,311 patent/US11490096B2/en active Active
Non-Patent Citations (2)
Title |
---|
AKULA, Sri Nitchith et al.,Description of SDR, HDR and 360° video coding technology proposal considering mobile application scenario by Samsung, Huawei, GoPro, and HiSilicon,buJoint Video Exploration Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11 10th Meeting: San Diego, US, 10-20 Apr. 2018, [JVET-J0024_v2],JVET-J0024 (version 4),ITU-T,2018年04月14日,<URL:http://phenix.it-sudparis.eu/jvet/doc_end_user/documents/10_San%20Diego/wg11/JVET-J0024-v4.zip>: JVET-J0024_v3.docx: pp. 58-63 |
SETHURAMAN, Sriram,Non-CE9: Co-existence analysis for DMVR with BDOF,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11 13th Meeting: Marrakech, MA, 9-18 Jan. 2019, [JVET-M0223-v1],JVET-M0223 (version 1),ITU-T,2019年01月02日,<URL:http://phenix.it-sudparis.eu/jvet/doc_end_user/documents/13_Marrakech/wg11/JVET-M0223-v1.zip>: JVET-M0223-v1.docx: pp. 1-4 |
Also Published As
Publication number | Publication date |
---|---|
EP3854093A1 (en) | 2021-07-28 |
JP2022515587A (ja) | 2022-02-21 |
US11490096B2 (en) | 2022-11-01 |
WO2020140874A1 (en) | 2020-07-09 |
US20210329257A1 (en) | 2021-10-21 |
CN113228673B (zh) | 2023-03-03 |
EP3854093A4 (en) | 2021-10-27 |
CN113228673A (zh) | 2021-08-06 |
BR112021007949A2 (pt) | 2021-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7200470B2 (ja) | 双予測動き補償に対するデコーダ側双予測オプティカルフローベースのピクセル単位補正を用いるデコーダ側の動きベクトルのリファインメントのためのハードウェアおよびソフトウェアフレンドリーシステムおよび方法 | |
US11889108B2 (en) | Gradient computation in bi-directional optical flow | |
TWI674794B (zh) | 用於視訊編解碼的運動細化的方法以及裝置 | |
JP7524422B2 (ja) | コーデック方法及び装置、符号化デバイス及び復号化デバイス | |
US20210235083A1 (en) | Sub-block based prediction | |
JP7431253B2 (ja) | 動き情報精緻化のサブ領域に基づいた決定 | |
WO2020147747A1 (en) | Weighted prediction in video coding | |
WO2020147804A1 (en) | Use of virtual candidate prediction and weighted prediction in video processing | |
JP2022527751A (ja) | デコーダ側の動きベクトルの導出 | |
WO2020084508A1 (en) | Harmonization between local illumination compensation and inter prediction coding | |
KR102486982B1 (ko) | 광학 흐름을 사용한 예측 미세조정을 위한 방법 및 장치 | |
WO2020233600A1 (en) | Simplified local illumination compensation | |
CN114125441B (zh) | 对视频信号解码的双向光流方法、计算设备和存储介质 | |
CN114979631B (zh) | 用于利用光流的预测细化、双向光流和解码器侧运动矢量细化的方法和装置 | |
CN116233466A (zh) | 光流预测细化(prof)的方法和装置 | |
JP2022550592A (ja) | 符号化及び復号方法、装置及びデバイス | |
CN113994692A (zh) | 用于利用光流的预测细化的方法和装置 | |
CN113728639A (zh) | 光流预测细化的方法和装置 | |
WO2025007952A1 (en) | Methods and apparatus for video coding improvement by model derivation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210518 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220615 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220621 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220727 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221122 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221202 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7200470 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |