JP7307192B2 - デコーダ側の動きベクトルの導出 - Google Patents
デコーダ側の動きベクトルの導出 Download PDFInfo
- Publication number
- JP7307192B2 JP7307192B2 JP2021557132A JP2021557132A JP7307192B2 JP 7307192 B2 JP7307192 B2 JP 7307192B2 JP 2021557132 A JP2021557132 A JP 2021557132A JP 2021557132 A JP2021557132 A JP 2021557132A JP 7307192 B2 JP7307192 B2 JP 7307192B2
- Authority
- JP
- Japan
- Prior art keywords
- block
- prediction
- prediction samples
- difference
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000013598 vector Substances 0.000 title claims description 71
- 238000009795 derivation Methods 0.000 title description 9
- 238000000034 method Methods 0.000 claims description 407
- 230000002123 temporal effect Effects 0.000 claims description 123
- 239000000523 sample Substances 0.000 claims description 72
- 238000012545 processing Methods 0.000 claims description 68
- 230000003287 optical effect Effects 0.000 claims description 51
- 230000001131 transforming effect Effects 0.000 claims description 31
- 230000015654 memory Effects 0.000 claims description 9
- 239000013074 reference sample Substances 0.000 claims description 7
- 238000007670 refining Methods 0.000 claims description 7
- 230000006872 improvement Effects 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 5
- 230000000007 visual effect Effects 0.000 description 54
- 238000003672 processing method Methods 0.000 description 38
- 230000002457 bidirectional effect Effects 0.000 description 35
- 230000004048 modification Effects 0.000 description 27
- 238000012986 modification Methods 0.000 description 27
- 230000008569 process Effects 0.000 description 27
- 230000002146 bilateral effect Effects 0.000 description 20
- 230000011664 signaling Effects 0.000 description 19
- 101001036283 Xenopus laevis DNA-binding protein inhibitor ID-3-A Proteins 0.000 description 16
- 238000004364 calculation method Methods 0.000 description 15
- 238000004590 computer program Methods 0.000 description 10
- 238000006243 chemical reaction Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 230000009466 transformation Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 5
- 230000003044 adaptive effect Effects 0.000 description 5
- 238000003491 array Methods 0.000 description 5
- 241000023320 Luma <angiosperm> Species 0.000 description 4
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 238000010364 biochemical engineering Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 101100537098 Mus musculus Alyref gene Proteins 0.000 description 2
- 101150095908 apex1 gene Proteins 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 101100520660 Drosophila melanogaster Poc1 gene Proteins 0.000 description 1
- 101100520662 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) PBA1 gene Proteins 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000009849 deactivation Effects 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 229910003460 diamond Inorganic materials 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/42—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/56—Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Physics & Mathematics (AREA)
- Discrete Mathematics (AREA)
- General Physics & Mathematics (AREA)
Description
本願は、2020年4月2日出願の国際特許出願PCT/CN2020/082937号の国内段階であり、2019年4月2日出願の国際特許出願PCT/CN2019/081155号、2019年5月7日出願の国際特許出願PCT/CN2019/085796号の優先権および利益を主張する。上記出願の開示全体は、本明細書の開示の一部として参照により援用される。
http://phenix.it-sudparis.eu/jvet/doc_end_user/documents/11_Ljubljana/wg11/JVET-K1001-v7.zip.VTMと呼ばれるVVCの最新の参照ソフトウェアは、以下で確認することができる。
https://vcgit.hhi.fraunhofer.de/jvet/VVCSoftware_VTM/tags/VTM-2.1.
CUレベルMV候補セット
・現在のCUがAMVPモードになっている場合の元のAMVP候補、
・すべてのマージ候補、
・2.1.1.3項に紹介されるような、補間されたMVフィールド内の複数のMV、
・上と左の近傍の動きベクトル
・CUレベルの検索から決定されたMV、
・上、左、左上、右上の近傍のMV、
・参照ピクチャからの並置されたMVのスケーリングされたバージョン、
・最大4つのATMVP候補、
・最大4つのSTMVP候補
双方向予測を用いる。
それ以外の場合において、cost0≦cost1の場合
list0からの単一予測を用いる。
そうでない場合、
list1からの単一予測を用いる。
r=500・4d-8 (10)
m=700・4d-8 (11)
ここで、dは映像サンプルのビット深度である。
- 現在の符号化ブロックの幅および高さを規定する2つの変数nCBWおよびnCBH、
- 2つの(nCBW+2)×(nCBH+2)輝度予測サンプル配列predSamplesL0およびpredSamplesL1、
- 予測リスト利用フラグpredFlagL0およびpredFlagL1、
- 参照インデックスrefIdxL0およびrefIdxL1、
- 双方向オプティカルフロー利用フラグbdofUtilizationFlag[xIdx][yIdx]、但しxIdx=0..(nCbW>>2)-1,yIdx=0..(nCbH>>2)-1
- 変数bitDepthはBitDepthYに等しく設定される。
- 変数shift1は、Max(2,14-bitDepth)に等しく設定される。
- 変数shift2は、Max(8,bitDepth-4)に等しく設定される。
- 変数shift3は、Max(5,bitDepth-7)に等しく設定される。
- 変数shift4をMax(3,15-bitDepth)は等しく設定され、変数offset4は1<<(shift4-1)に等しく設定される。
- 変数mvRefineThresは、Max(2,1<<(13-bitDepth))に等しく設定される。
- 変数xSbを(xIdx<<2)+1に等しく設定し、ySbを(yIdx<<2)+1に等しく設定する。
- bdofUtilizationFlag[xSbIdx][yIdx]がFALSEに等しい場合、x=xSb-1..xSb+2,y=ySb-1..ySb+2に対して、現在のサブブロックの予測サンプル値は、以下のように導出される。
pbSamples[x][y]=Clip3(0,(2bitDepth)-1,(predSamplesL0[x+1][y+1]+offset2+predSamplesL1[x+1][y+1])>>shift2) (8-852)
- そうでない場合(bdofUtilizationFlag[xSbIdx][yIdx]がTRUEに等しい)、現在のサブブロックの予測サンプル値は、以下のように導出される。
hx=Clip3(1,nCbW,x) (8-853)
vy=Clip3(1,nCbH,y) (8-854)
gradientHL0[x][y]=(predSamplesL0[hx+1][vy]-predSampleL0[hx-1][vy])>>shift1 (8-855)
gradientVL0[x][y]=(predSampleL0[hx][vy+1]-predSampleL0[hx][vy-1])>>shift1 (8-856)
gradientHL1[x][y]=(predSamplesL1[hx+1][vy]-predSampleL1[hx-1][vy])>>shift1 (8-857)
gradientVL1[x][y]=(predSampleL1[hx][vy+1]-predSampleL1[hx][vy-1])>>shift1 (8-858)
diff[x][y]=(predSamplesL0[hx][vy]>>shift2)-(predSamplesL1[hx][vy]>>shift2) (8-859)
tempH[x][y]=(gradientHL0[x][y]+gradientHL1[x][y])>>shift3 (8-860)
tempV[x][y]=(gradientVL0[x][y]+gradientVL1[x][y])>>shift3 (8-861)
sGx2=ΣiΣj(tempH[xSb+i][ySb+j]*tempH[xSb+i][ySb+j])with i,j=-1..4 (8-862)
sGy2=ΣiΣj(tempV[xSb+i][ySb+j]*tempV[xSb+i][ySb+j])with i,j=-1..4 (8-863)
sGxGy=ΣiΣj(tempH[xSb+i][ySb+j]*tempV[xSb+i][ySb+j])with i,j-1..4 (8-864)
sGxdI=ΣiΣj(-tempH[xSb+i][ySb+j]*diff[xSb+i][ySb+j])with i,j=-1..4 (8-865)
sGydI=ΣiΣj(-tempV[xSb+i][ySb+j]*diff[xSb+i][ySb+j])with i,j=-1..4 (8-866)
vx=sGx2>0?Clip3(-mvRefineThres,mvRefineThres,-(sGxdI<<3)>>Floor(Log2(sGx2))):0
(8-867)
vy=sGy2>0?Clip3(-mvRefineThres,mvRefineThres,((sGydI<<3)-((vx*sGxGym)<<12+vx*sGxGys)>>1)>>Floor(Log2(sGx2))):0 (8-868)
bdofOffset=Round((vx*(gradientHL1[x+1][y+1]-gradientHL0[x+1][y+1]))>>1)+Round((vy*(gradientVL1[x+1][y+1]-gradientVL0[x+1][y+1]))>>1) (8-869)
[Ed.(JC):Round()演算はfloat入力に対して定義される。Round()演算は入力が整数値であるため、ここでは冗長に見える。推薦人が確認すること]
pbSamples[x][y]=Clip3(0,(2bitDepth)-1,(predSamplesL0[x+1][y+1]+offset4+(8-870)
predSamplesL1[x+1][y+1]+bdofOffset)>>shift4)
gradientHL0[x][y]=(predSamplesL0[hx+1][vy]-predSampleL0[hx-1][vy])>>shift1 (8-855)
diff[x][y]=(predSamplesL0[hx][vy]>>shift2)-(predSamplesL1[hx][vy]>>shift2) (8-859)
(POC-POC0)*(POC-POC1)<0,
式中、POCは、現在の符号化対象のピクチャのピクチャオーダカウントであり、POC0およびPOC1は、現在のピクチャに対する参照のピクチャオーダカウントである。
MV0’=MV0+MVdiff
MV1’=MV1-MVdiff
ここで、MVdiffは、1つの参照ピクチャにおける探索空間内の点を表す。
基準サンプリングパディング
- 以下のすべての条件が真である場合、dmvrFlagは1に等しく設定される。
- sps_dmvr_enabled_flag is 1と等しい
- 現在のブロックは、三角形予測モード、AMVRアフィンモード、サブブロックモード(マージアフィンモード、ATMVPモードを含む)で符号化されていない。
- merge_flag[xCb][yCb]が1に等しい
- predFlagL0[0][0]とpredFlagL1[0][0]の両方が1に等しい
- mmvd_flag[xCb][yCb]が0
- DiffPicOrderCnt(currPic,RefPicList[0][refIdxL0])は、DiffPicOrderCnt(RefPicList[1][refIdxL1],currPic)に等しい。
- cbHeightが8以上である
- cbHeight*cbWidthが64以上である
a. 一例において、勾配は、シフトされたサンプル差にしたがって計算される。
i. 代替的に、勾配は、修正されたサンプルの(例えば、シフトすることによって)差にしたがって計算される。
b. 一例において、勾配計算において、右シフトの前に減算を行ってもよい。例えば、grad=(neig0-neig1)>>shift1.
c. 一例において、勾配計算において、減算は右シフトの後に行ってもよい。例えば、grad=(neig0>>shift1)-(neig1>>shift1).
d. 一例において、勾配計算において、右シフトの前に減算を行い、右シフトの前にオフセットを加えてもよい。例えば、grad=(neig0-neig1+offset)>>shift1.このオフセットは、1<<(shift1-1)or1<<shift1>>1に等しくてもよい。
e. 一例において、勾配計算において、右シフトの後に減算を行ってもよく、右シフトの前にオフセットを加えてもよい。例えば、grad=((neig0+offset)>>shift1)-((neig1+offset)>>shift1).このオフセットは、1<<(shift1-1)or1<<shift1>>1に等しくてもよい。
f. 一例において、この勾配は、SatShift(neig0-neig1,shift1)として算出されてもよい。
i. 代替的に、この勾配は、SatShift(neig0,shift1)-SatShift(neig1,shift1)として算出されてもよい。
a. 一例において、ブロックレベルおよびサブブロックレベルの有効化/無効化決定は、異なる規則、例えば、SADを有する規則およびSATDを有する規則を選択してもよい。
b. 一例において、ブロック/サブブロックにおいて、勾配値(水平および/または垂直)または平均勾配値または勾配値の範囲が1つの条件を満たす(例えば、閾値よりも大きい、または所定の範囲外にある)場合、BIOおよび/またはDMVRは無効にしてもよい。
c. 有効化/無効化BIO/DMVRを判定するために使用される基準は、VPS/SPS/PPS/スライスヘッダ/タイルグループヘッダにおいて、エンコーダからデコーダに信号通知されてもよいことが提案される。
a. 一例において、DMVR処理における1つのサブブロックの改良された動きベクトル、例えば、SATD、MRSATD、またはSSE、またはMRSSEは、MRSADに取って代わる。
b. 一例において、SATD(またはMRSATD)が適用される場合、ブロック全体がM×N個のサブブロックに分割され、各サブブロックごとにSATD(またはMRSATD)が算出される。サブブロックのすべてまたは一部のSATD(またはMRSATD)を合計し、ブロック全体のSATD(またはMRSATD)値を得る。
a. 1つのサブブロックの2つの参照サブブロックの平均値差が閾値(T2)よりも大きい場合、BIOを無効にしてもよい。
b. 閾値T1および/またはT2は、予め規定されてもよい。
c. 閾値T1および/またはT2は、ブロック寸法に依存してもよい。
a. 一例において、参照ブロックまたは/およびサブブロックの平均を計算し、その後、参照ブロックまたは/およびサブブロックによって差し引いてもよい。
b. 一例において、方法は、2018年年7月20日に出願された「動き予測に基づく更新された動きベクトル(Motion Prediction Basing Updated Motion Vectors)」という名称の出願であるPCT/CN2018/096384(参照により本明細書に組み込まれる)に開示されており、参照ブロックおよび/またはサブブロックの平均値の計算に使用されてよく、即ち、平均値はいくつかの代表的な位置の計算に使用される。
a. 一例において、ブロックまたは/およびサブブロックに対して偶数行の差のみを計算する。
b. 一例において、1つのブロック/サブブロックの4つのコーナーサンプルの差のみが、このブロックまたは/およびサブブロックに対して計算される。
c. 一例において、前記方法は、2018年7月2日に出願された「映像符号化におけるデコーダ側の動きベクトル導出(Decoder Side Motion Vector Derivation in Video Coding)」という名称の米国仮出願第62/693,412号(本明細書において参照により援用される)に開示されており、代表的な位置を選択するために使用されてもよい。
d. 一例において、2つの参照ブロック間の差(例えば、SAD/SATD/SSE/MRSAD/MRSATD/MRSSE等)は、いくつかの代表的なサブブロックについてのみ計算されてもよい。
e. 一例において、代表的な位置またはサブブロックについて算出された差(例えば、SAD/SATD/SSE/MRSAD/MRSATD/MRSSE等)を合計することにより、ブロック/サブブロック全体の差を得る。
a. 一例において、時間的勾配の絶対値の合計が計算され、2つの参照ブロックまたは/およびサブブロックの差として使用される。
b. 一例において、時間的勾配の絶対値の合計は、ブロックおよび/またはサブブロックのいくつかの代表的な位置においてのみ計算される。
c. 一例において、前記方法は、米国特許に開示されている。代表的な位置を選択するために、2018年7月2日に出願された「映像符号化におけるデコーダ側の動きベクトル導出(Decoder Side Motion Vector Derivation in Video Coding)」という名称の仮出願第62/693,412号(本明細書において参照により援用される)を使用してもよい。
a. 一例において、時間的勾配は、2つの参照ブロック間の平均絶対差(absolute mean difference)(またはSAD/SATD/SSE等)が閾値Tよりも大きい場合にのみ、例えばT=4となるように修正される。
b. 一例において、時間的勾配は、2つの参照ブロック間の平均絶対差(またはSAD/SATD/SSE等)が閾値Tより小さい場合にのみ、例えばT=20となるように修正される。
c. 一例において、時間的勾配は、2つの参照ブロック間の平均絶対差(またはSAD/SATD/SSE等)が[T1,T2]の範囲内に含まれる場合にのみ、例えばT1=4、T2=20となるように修正される。
d. 一例において、2つの参照ブロック間の平均絶対差(またはSAD/SATD/SSE等)が閾値Tよりも大きい場合に、例えばT(T=40)となるように修正され、BIOは無効化される。
e. 一例において、これらの閾値は、暗黙的に予め規定されてもよい。
f. 一例において、これらの閾値は、SPS/PPS/ピクチャ/スライス/タイルレベルで信号通知されてもよい。
g. 一例において、これらの閾値は、異なるCU、LCU、スライス、タイル、またはピクチャごとに異なってもよい。
i. 一例において、これらの閾値は、復号化/符号化された画素値に基づいて設計されてもよい。
ii. 一例において、これらの閾値は、異なる参照ピクチャに対して異なるように設計されてもよい。
h. 一例において、時間的勾配は、2つの(または2つのうちのいずれか1つの)参照ブロックの(絶対)平均が閾値Tよりも大きい場合にのみ、例えばT=40となるように修正される。
i. 一例において、時間的勾配は、2つの(または2つのうちのいずれか1つの)参照ブロックの(絶対)平均が閾値Tより小さい場合にのみ、例えばT=100となるように修正される。
j. 一例において、時間的勾配は、2つの(または2つのうちのいずれか1つの)参照ブロックの(絶対)平均が[T1,T2]の範囲内に含まれる場合にのみ、例えばT1=40、T2=100となるように修正される。
k. 一例において、時間的勾配は、2つの(または2つのうちのいずれか1つの)参照ブロックの(絶対)平均が、平均絶対差(またはSAD/SATD等)にT(一例において、T=4.5)を掛けた値よりも大きい/小さい場合にのみ修正される。
l. 一例において、時間的勾配は、2つの(または2つのうちのいずれか1つの)参照ブロックの(絶対)平均が、平均絶対差(またはSAD/SATD等)に[T1,T2](一例において、T1=4.5,T2=7)を掛けた値の範囲内にある場合にのみ修正される。
a. 一例において、各予測方向におけるイントラ予測ブロックおよびインター予測ブロックを(ハイブリッドのインターおよびインター予測と同じ重み付け方法を使用して)重み平均し、wAvgBlkL0およびwAvgBlkL1と表される、BIOにおける空間的勾配を導出するために使用される2つの新しい予測ブロックを生成する。
b. 一例において、wAvgBlkL0およびwAvgBlkL1は、predBlkと表される現在のブロックの予測ブロックを生成するために用いられる。そして、BIO手順として、wAvgBlkL0、wAvgBlkL1、およびpredBlkをさらに用い、BIOで生成された改良した予測ブロックを最終予測ブロックとして用いる。
a. 一例において、このようなフラグは、AMVPモードの場合にのみ信号通知されてもよく、マージモードにおいて、このようなフラグは、空間的および/または時間的に近傍のブロックから継承されてもよい。
b. 一例において、BIOまたは/およびDMVRが有効化されるかどうかは、信号通知されたフラグおよびオンザフライ判定(例えば、早期終了段階におけるSADに基づく判定)によって一緒に決定されてもよい。信号通知されたフラグは、オンザフライ決定が正しいかどうかを示すことができる。
c. このようなフラグは、単一予測ブロックに対しては通知されない。
d. このようなフラグは、2つの参照ピクチャが両方とも表示順に前のピクチャまたは後のピクチャである双方向予測ブロックには信号通知されない場合がある。
e. POC_diff(curPic,ref0)がPOC_diff(ref1,curPic)に等しくない場合、このようなフラグは双方向予測ブロックには信号通知されなくてもよく、POC_diff()は2つのピクチャの間のPOC差を計算し、ref0およびref1は現在のピクチャの参照ピクチャである。
f. このようなフラグは、イントラ符号化ブロックに対しては信号通知されない。代替的に、さらに、このようなフラグは、ハイブリッドのイントラおよびインター予測モードで符号化されたブロックに対しては信号通知されない。代替的に、このようなフラグは、現在のピクチャ参照ブロックに対して信号通知されず、即ち、参照ピクチャが現在のピクチャである。
g. フラグを信号通知するかどうかは、ブロック寸法に依存してもよい。例えば、ブロックサイズが閾値より小さい場合、このようなフラグは信号通知されない。代替的に、ブロックの幅および/または高さが閾値以上である場合、このようなフラグは信号通知されない。
h. フラグを信号通知するかどうかは、動きベクトルの精度に依存してもよい。例えば、動きベクトルが整数精度である場合、このようなフラグは信号通知されない。
i. そのようなフラグが信号通知されない場合、それは暗黙的に真または偽であると導出されてもよい。
j. 前記方法が有効化されているかどうかを示すために、スライスヘッダ/タイルヘッダ/PPS/SPS/VPSにおいて1つのフラグを信号通知してもよい。
k. このような信号通知方法は、ピクチャの時間層に依存し、例えば、時間層が高いピクチャに対しては無効化されてもよい。
l. このような信号通知方法は、ピクチャのQPに依存し、例えば、QPが高いピクチャに対しては無効化してもよい。
a. 一例において、DMVRは、ブロックの高さがT1よりも大きい(例えば、T1=4)場合、有効化されてもよい。
b. 一例において、DMVRは、ブロックの高さがT1以上(例えば、T1=8)である場合に有効化されてもよい。
a. 一例において、DMVRおよびBIOの使用判定のための条件チェックは、ブロックの高さが同じ閾値を満たすかどうか等、調整されてもよい。
i. 一例において、DMVRおよびBIOは、ブロックの高さがT1以上(例えば、T1=8)である場合、有効化されてもよい。
ii. 一例において、DMVRおよびBIOは、ブロックの高さがT1よりも大きい(例えば、T1=4)場合、有効化されてもよい。
- 以下のすべての条件が真である場合、dmvrFlagは1に等しく設定される。
- sps_dmvr_enabled_flag is 1と等しい
- 現在のブロックは、三角形予測モード、AMVRアフィンモード、サブブロックモード(マージアフィンモード、ATMVPモードを含む)で符号化されていない。
- merge_flag[xCb][yCb]が1に等しい
- predFlagL0[0][0]およびpredFlagL1[0][0]の両方が1に等しい
- mmvd_flag[xCb][yCb]が0
- DiffPicOrderCnt(currPic,RefPicList[0][refIdxL0])は、DiffPicOrderCnt(RefPicList[1][refIdxL1],currPic)に等しい。
- cbHeightが8以上である
- 現在の符号化ブロックの幅および高さを規定する2つの変数nCBWおよびnCBH、
- 2つの(nCBW+2)×(nCBH+2)輝度予測サンプル配列predSamplesL0およびpredSamplesL1、
- 予測リスト利用フラグpredFlagL0およびpredFlagL1、
- 参照インデックスrefIdxL0およびrefIdxL1、
- 双方向オプティカルフロー利用フラグbdofUtilizationFlag[xIdx][yIdx]、但しxIdx=0..(nCbW>>2)-1,yIdx=0..(nCbH>>2)-1
- 変数bitDepthはBitDepthYに等しく設定される。
- 変数shift1は、Max(2,14-bitDepth)に等しく設定される。
- 変数shift2は、Max(8,bitDepth-4)に等しく設定される。
- 変数shift3は、Max(5,bitDepth-7)に等しく設定される。
- 変数shift4をMax(3,15-bitDepth)は等しく設定され、変数offset4は1<<(shift4-1)に等しく設定される。
- 変数mvRefineThresは、Max(2,1<<(13-bitDepth))に等しく設定される。
- 変数xSbを(xIdx<<2)+1に等しく設定し、ySbを(yIdx<<2)+1に等しく設定する。
- bdofUtilizationFlag[xSbIdx][yIdx]がFALSEに等しい場合、x=xSb-1..xSb+2,y=ySb-1..ySb+2に対して、現在のサブブロックの予測サンプル値は、以下の通りである。
pbSamples[x][y]=Clip3(0,(2bitDepth)-1,(predSamplesL0[x+1][y+1]+offset2+predSamplesL1[x+1][y+1])>>shift2) (8-852)
- そうでない場合(bdofUtilizationFlag[xSbIdx][yIdx]がTRUEに等しい)、現在のサブブロックの予測サンプル値は、以下のように導出される。
4. 予測サンプルアレイ内の対応するサンプル位置(x,y)の各々の位置(hx,vy)は、以下のように導出される。
hx=Clip3(1,nCbW,x) (8-853)
vy=Clip3(1,nCbH,y) (8-854)
5. 変数gradientHL0[x][y],gradientVL0[x][y],gradientHL1[x][y]およびgradientVL1[x][y]は、以下のように導出される。
gradientHL0[x][y]=(predSamplesL0[hx+1][vy]-predSampleL0[hx-1][vy])>>shift1 (8-855)
gradientVL0[x][y]=(predSampleL0[hx][vy+1]-predSampleL0[hx][vy-1])>>shift1 (8-856)
gradientHL1[x][y]=(predSamplesL1[hx+1][vy]-predSampleL1[hx-1][vy])>>shift1 (8-857)
gradientVL1[x][y]=(predSampleL1[hx][vy+1]-predSampleL1[hx][vy-1])>>shift1 (8-858)
6. 変数temp[x][y],tempH[x][y]およびtempV[x][y]は、以下のように導出される。
tempH[x][y]=(gradientHL0[x][y]+gradientHL1[x][y])>>shift3 (8-860)
tempV[x][y]=(gradientVL0[x][y]+gradientVL1[x][y])>>shift3 (8-861)
sGx2=ΣiΣj(tempH[xSb+i][ySb+j]*tempH[xSb+i][ySb+j])with i,j=-1..4 (8-862)
sGy2=ΣiΣj(tempV[xSb+i][ySb+j]*tempV[xSb+i][ySb+j])with i,j=-1..4 (8-863)
sGxGy=ΣiΣj(tempH[xSb+i][ySb+j]*tempV[xSb+i][ySb+j])with i,j-1..4 (8-864)
sGxdI=ΣiΣj(-tempH[xSb+i][ySb+j]*diff[xSb+i][ySb+j])with i,j=-1..4 (8-865)
sGydI=ΣiΣj(-tempV[xSb+i][ySb+j]*diff[xSb+i][ySb+j])with i,j=-1..4 (8-866)
vx=sGx2>0?Clip3(-mvRefineThres,mvRefineThres,-(sGxdI<<3)>>Floor(Log2(sGx2))):0 (8-867)
vy=sGy2>0?Clip3(-mvRefineThres,mvRefineThres,((sGydI<<3)-((vx*sGxGym)<<12+vx*sGxGys)>>1)>>Floor(Log2(sGx2))):0 (8-868)
bdofOffset=Round((vx*(gradientHL1[x+1][y+1]-gradientHL0[x+1][y+1]))>>1)+Round((vy*(gradientVL1[x+1][y+1]-gradientVL0[x+1][y+1]))>>1) (8-869)
[Ed.(JC):Round()演算はfloat入力に対して定義される。Round()演算は入力が整数値であるため、ここでは冗長に見える。推薦人が確認すること]
pbSamples[x][y]=Clip3(0,(2bitDepth)-1,(predSamplesL0[x+1][y+1]+offset4+predSamplesL1[x+1][y+1]+bdofOffset)>>shift4) (8-870)
- 現在の符号化ブロックの幅および高さを規定する2つの変数nCBWおよびnCBH、
- 2つの(nCBW+2)×(nCBH+2)輝度予測サンプル配列predSamplesL0およびpredSamplesL1、
- 予測リスト利用フラグpredFlagL0およびpredFlagL1、
- 参照インデックスrefIdxL0およびrefIdxL1、
- 双方向オプティカルフロー利用フラグbdofUtilizationFlag[xIdx][yIdx]、但しxIdx=0..(nCbW>>2)-1,yIdx=0..(nCbH>>2)-1
- 変数bitDepthはBitDepthYに等しく設定される。
- 変数shift1は、Max(2,14-bitDepth)に等しく設定される。
- 変数shift2は、Max(8,bitDepth-4)に等しく設定される。
- 変数shift3は、Max(5,bitDepth-7)に等しく設定される。
- 変数shift4をMax(3,15-bitDepth)は等しく設定され、変数offset4は1<<(shift4-1)に等しく設定される。
- 変数mvRefineThresは、Max(2,1<<(13-bitDepth))に等しく設定される。
- 変数xSbを(xIdx<<2)+1に等しく設定し、ySbを(yIdx<<2)+1に等しく設定する。
- bdofUtilizationFlag[xSbIdx][yIdx]がFALSEに等しい場合、x=xSb-1..xSb+2,y=ySb-1..ySb+2に対して、現在のサブブロックの予測サンプル値は、以下のように導出される。
pbSamples[x][y]=Clip3(0,(2bitDepth)-1,(predSamplesL0[x+1][y+1]+offset2+predSamplesL1[x+1][y+1])>>shift2) (8-852)
- そうでない場合(bdofUtilizationFlag[xSbIdx][yIdx]がTRUEに等しい)、現在のサブブロックの予測サンプル値は、以下のように導出される。
7. 予測サンプルアレイ内の対応するサンプル位置(x,y)の各々の位置(hx,vy)は、以下のように導出される。
hx=Clip3(1,nCbW,x) (8-853)
vy=Clip3(1,nCbH,y) (8-854)
8. 変数gradientHL0[x][y],gradientVL0[x][y],gradientHL1[x][y]およびgradientVL1[x][y]は、以下のように導出される。
gradientVL0[x][y]=(predSampleL0[hx][vy+1]>>shift1)-(predSampleL0[hx][vy-1]>>shift1) (8-856)
gradientHL1[x][y]=(predSamplesL1[hx+1][vy]>>shift1)-(predSampleL1[hx-1][vy]>>shift1) (8-857)
gradientVL1[x][y]=(predSampleL1[hx][vy+1]>>shift1)-(predSampleL1[hx][vy-1]>>shift1) (8-858)
9. 変数temp[x][y],tempH[x][y]およびtempV[x][y]は、以下のように導出される。
diff[x][y]=(predSamplesL0[hx][vy]>>shift2)-(predSamplesL1[hx][vy]>>shift2) (8-859)
tempH[x][y]=(gradientHL0[x][y]+gradientHL1[x][y])>>shift3 (8-860)
tempV[x][y]=(gradientVL0[x][y]+gradientVL1[x][y])>>shift3 (8-861)
sGx2=ΣiΣj(tempH[xSb+i][ySb+j]*tempH[xSb+i][ySb+j])with i,j=-1..4 (8-862)
sGy2=ΣiΣj(tempV[xSb+i][ySb+j]*tempV[xSb+i][ySb+j])with i,j=-1..4 (8-863)
sGxGy=ΣiΣj(tempH[xSb+i][ySb+j]*tempV[xSb+i][ySb+j])with i,j-1..4 (8-864)
sGxdI=ΣiΣj(-tempH[xSb+i][ySb+j]*diff[xSb+i][ySb+j])with i,j=-1..4 (8-865)
sGydI=ΣiΣj(-tempV[xSb+i][ySb+j]*diff[xSb+i][ySb+j])with i,j=-1..4 (8-866)
vx=sGx2>0?Clip3(-mvRefineThres,mvRefineThres,-(sGxdI<<3)>>Floor(Log2(sGx2))):0 (8-867)
vy=sGy2>0?Clip3(-mvRefineThres,mvRefineThres,((sGydI<<3)-((vx*sGxGym)<<12+vx*sGxGys)>>1)>>Floor(Log2(sGx2))):0 (8-868)
bdofOffset=Round((vx*(gradientHL1[x+1][y+1]-gradientHL0[x+1][y+1]))>>1)+Round((vy*(gradientVL1[x+1][y+1]-gradientVL0[x+1][y+1]))>>1) (8-869)
[Ed.(JC):Round()演算はfloat入力に対して定義される。Round()演算は入力が整数値であるため、ここでは冗長に見える。推薦人が確認すること]
pbSamples[x][y]=Clip3(0,(2bitDepth)-1,(predSamplesL0[x+1][y+1]+offset4+predSamplesL1[x+1][y+1]+bdofOffset)>>shift4) (8-870)
- 現在の符号化ブロックの幅および高さを規定する2つの変数nCBWおよびnCBH、
- 2つの(nCBW+2)×(nCBH+2)輝度予測サンプル配列predSamplesL0およびpredSamplesL1、
- 予測リスト利用フラグpredFlagL0およびpredFlagL1、
- 参照インデックスrefIdxL0およびrefIdxL1、
- 双方向オプティカルフロー利用フラグbdofUtilizationFlag[xIdx][yIdx]、但しxIdx=0..(nCbW>>2)-1,yIdx=0..(nCbH>>2)-1
- 変数bitDepthはBitDepthYに等しく設定される。
- 変数shift1は、Max(2,14-bitDepth)に等しく設定される。
- 変数shift2は、Max(8,bitDepth-4)に等しく設定される。
- 変数shift3は、Max(5,bitDepth-7)に等しく設定される。
- 変数shift4をMax(3,15-bitDepth)は等しく設定され、変数offset4は1<<(shift4-1)に等しく設定される。
- 変数mvRefineThresは、Max(2,1<<(13-bitDepth))に等しく設定される。
- 変数offset5は、(1<<(shift1-1))に等しく設定される。
- 変数offset6は(1<<(shift2-1))に等しく設定される。
- 変数xSbを(xIdx<<2)+1に等しく設定し、ySbを(yIdx<<2)+1に等しく設定する。
- bdofUtilizationFlag[xSbIdx][yIdx]がFALSEに等しい場合、x=xSb-1..xSb+2,y=ySb-1..ySb+2に対して、現在のサブブロックの予測サンプル値は、以下のように導出される。
pbSamples[x][y]=Clip3(0,(2bitDepth)-1,(predSamplesL0[x+1][y+1]+offset2+predSamplesL1[x+1][y+1])>>shift2) (8-852)
- そうでない場合(bdofUtilizationFlag[xSbIdx][yIdx]がTRUEに等しい)、現在のサブブロックの予測サンプル値は、以下のように導出される。
10. 予測サンプルアレイ内の対応するサンプル位置(x,y)の各々の位置(hx,vy)は、以下のように導出される。
hx=Clip3(1,nCbW,x) (8-853)
vy=Clip3(1,nCbH,y) (8-854)
11. 変数gradientHL0[x][y],gradientVL0[x][y],gradientHL1[x][y]およびgradientVL1[x][y]は、以下のように導出される。
gradientHL0[x][y]=(predSamplesL0[hx+1][vy]-predSampleL0[hx-1][vy]+offset5)>>shift1 (8-855)
gradientVL0[x][y]=(predSampleL0[hx][vy+1]-predSampleL0[hx][vy-1]+offset5)>>shift1 (8-856)
gradientHL1[x][y]=(predSamplesL1[hx+1][vy]-predSampleL1[hx-1][vy]+offset5)>>shift1 (8-857)
gradientVL1[x][y]=(predSampleL1[hx][vy+1]-predSampleL1[hx][vy-1]+offset5)>>shift1 (8-858)
12. 変数temp[x][y],tempH[x][y]およびtempV[x][y]は、以下のように導出される。
tempH[x][y]=(gradientHL0[x][y]+gradientHL1[x][y])>>shift3 (8-860)
tempV[x][y]=(gradientVL0[x][y]+gradientVL1[x][y])>>shift3 (8-861)
sGx2=ΣiΣj(tempH[xSb+i][ySb+j]*tempH[xSb+i][ySb+j])with i,j=-1..4 (8-862)
sGy2=ΣiΣj(tempV[xSb+i][ySb+j]*tempV[xSb+i][ySb+j])with i,j=-1..4 (8-863)
sGxGy=ΣiΣj(tempH[xSb+i][ySb+j]*tempV[xSb+i][ySb+j])with i,j-1..4 (8-864)
sGxdI=ΣiΣj(-tempH[xSb+i][ySb+j]*diff[xSb+i][ySb+j])with i,j=-1..4 (8-865)
sGydI=ΣiΣj(-tempV[xSb+i][ySb+j]*diff[xSb+i][ySb+j])with i,j=-1..4 (8-866)
vx=sGx2>0?Clip3(-mvRefineThres,mvRefineThres,-(sGxdI<<3)>>Floor(Log2(sGx2))):0 (8-867)
vy=sGy2>0?Clip3(-mvRefineThres,mvRefineThres,((sGydI<<3)-((vx*sGxGym)<<12+vx*sGxGys)>>1)>>Floor(Log2(sGx2))):0 (8-868)
bdofOffset=Round((vx*(gradientHL1[x+1][y+1]-gradientHL0[x+1][y+1]))>>1)+Round((vy*(gradientVL1[x+1][y+1]-gradientVL0[x+1][y+1]))>>1) (8-869)
[Ed.(JC):Round()演算はfloat入力に対して定義される。Round()演算は入力が整数値であるため、ここでは冗長に見える。推薦人が確認すること]
pbSamples[x][y]=Clip3(0,(2bitDepth)-1,(predSamplesL0[x+1][y+1]+offset4+predSamplesL1[x+1][y+1]+bdofOffset)>>shift4) (8-870)
前記フィルタリングを使用して前記変換を行う。
ここで、この変換は、映像ブロックの画素値からビットストリーム表現を生成すること、またはビットストリーム表現から画素値を生成することを含む。
視覚メディアデータの現在のブロックと対応する視覚メディアデータの符号化表現との間で変換を行うことを含み、
この現在のブロックを変換することは、双方向オプティカルフロー(BIO)技法またはデコーダ側動きベクトル改良(DMVR)技法の一方または両方を使用することが現在のブロックに対して有効または無効化されるかどうかを判定することを含み、
BIO技法またはDMVR技法の使用を判定することは、現在のブロックに関連付けられたコスト基準に基づく、
方法。
視覚メディアデータの現在のブロックと対応する視覚メディアデータの符号化表現との間で変換を行うことを含み、
この現在のブロックを変換することは、双方向オプティカルフロー(BIO)技法またはデコーダ側動きベクトル改良(DMVR)技法の一方または両方を使用することが現在のブロックに対して有効化または無効化されるかどうかを判定することを含み、
このDMVR技法は、平均除去絶対差の合計(MRSAD)コスト基準以外のコスト基準に基づいて、現在のブロックの動き情報を改良することを含む、
方法。
複数のサブブロックの各々に対応するコストを生成することと、
をさらに含む、第10項に記載の方法。
視覚メディアデータの現在のブロックと対応する視覚メディアデータの符号化表現との間で変換を行うことを含み、
この現在のブロックを変換することは、双方向オプティカルフロー(BIO)技法またはデコーダ側動きベクトル改良(DMVR)技法の一方または両方を使用することが現在のブロックに対して有効または無効化されるかどうかを判定することを含み、
BIO技法またはDMVR技法の使用を判定することは、現在のブロックに関連付けられた1対の参照ブロックの平均値の差が閾値を超えることを計算することに基づく、
方法。
前記現在のブロックの1つのサブブロックに関連付けられた1対の参照サブブロックの平均値の差が第2の閾値を超えた場合、前記BIO技法および/または前記DMVR技法の適用を無効化することを含む、第13項に記載の方法。
第1の参照ブロックを修正して第1の修正された参照ブロックを生成し、第2の参照ブロックを修正して第2の修正された参照ブロックを生成することであって、前記第1の参照ブロックおよび前記第2の参照ブロックの両方が、視覚メディアデータの現在のブロックに関連付けられている、修正することと、
前記第1の修正された参照ブロックと前記第2の修正された参照ブロックとの間の差を判定することであって、前記差は、絶対変換差の合計(SATD)、平均値分離絶対変換差の合計(MRSATD)、二乗誤差の合計(SSE)、平均値分離二乗誤差の合計(MRSSE)、平均値の差、または勾配値の1つ以上を含む、差を判定することと、
視覚メディアデータの現在のブロックと、対応する視覚メディアデータの符号化表現との間での変換を行うことであって、前記変換は、前記第1の参照ブロックおよび前記第2の参照ブロックをそれぞれ修正することから生成された前記第1の修正された参照ブロックと前記第2の修正された参照ブロックとの間の前記差の使用を含む、変換を行うことと、
を含む方法。
前記第1の参照ブロックに含まれるサンプル値に基づいて第1の算術平均と、前記第2の参照ブロックに含まれるサンプル値に基づいて第2の算術平均を算出することと、
前記第1の参照ブロックに含まれるサンプルから前記第1の算術平均を減算し、前記第2の参照ブロックに含まれるサンプルから前記第2の算術平均を減算することと、を含む、第17項に記載の方法。
視覚メディアデータの現在のブロックに関連付けられた参照ピクチャを使用して、参照ピクチャ間の差を示す時間的勾配または修正された時間的勾配を判定することであって、前記時間的勾配または前記修正された時間的勾配は、前記参照ピクチャ間の差を表す、判定することと、
視覚メディアデータの現在のブロックと対応する前記視覚メディアデータの符号化表現との間で変換を行うことであって、前記変換は、時間的勾配または修正された時間的勾配に部分的に基づいて双方向オプティカルフロー(BIO)技法を使用することを含む、変換を行うことと、を含む、
方法。
第1の映像ブロックまたはそのサブブロックに関連付けられた参照ピクチャを使用して第1の時間的勾配を判定することと、
第2の映像ブロックまたはそのサブブロックに関連付けられた参照ピクチャを使用して第2の時間的勾配を判定することと、
修正された第1の時間的勾配および修正された第2の時間的勾配を生成するために、前記第1の時間的勾配の修正および前記第2の時間的勾配の修正を行うことであって、前記第1の映像ブロックに関連付けられた前記第1の時間的勾配の前記修正は、前記第2の映像ブロックに関連付けられた前記第2の時間的勾配の前記修正とは異なる、修正を行うことと、
前記第1の映像ブロックおよび前記第2の映像ブロックの、これらに対応する符号化表現への変換を行うことと、を含む、方法。
前記現在のブロックに関連付けられた第1の相互参照ブロックおよび第2の相互参照ブロックの一方または両方を修正することと、
修正された第1の相互参照ブロックおよび/または前記修正された第2の相互参照ブロックの前記一方または両方を使用することに基づいて、双方向オプティカル(BIO)フロー技法を適用することにしたがって、前記現在のブロックに関連付けられた空間的勾配を判定することと、
前記現在のブロックおよび対応する符号化表現の間での変換を行うことであって、前記変換は、前記現在のブロックに関連付けられた前記空間的勾配の使用を含む、変換を行うことと、を含む、方法。
現在のブロックに関連付けられたイントラ予測ブロックとインター予測ブロックとの重み付け平均に基づいて、2つの予測ブロックを生成することと、
現在のブロックに関連付けられた前記空間的勾配を判定するために2つの予測ブロックを使用することと、を含む、第47項に記載の方法。
前記現在のブロックのサブブロックおよび/またはサンプルを予測するための改良された予測ブロックを使用することと、をさらに含む、第48項に記載の方法。
処理装置によって、ブロックレベルで信号通知されたフラグが、現在のブロックに対して、デコーダ側動きベクトル改良(DMVR)技法または双方向オプティカルフロー(BIO)技法のうちの一方または両方を有効にするべきであることを少なくとも部分的に示す判定を行うことと、
前記現在のブロックと対応する符号化表現との間で変換を行うことであって、前記符号化表現は、前記DMVR技法および/または前記BIO技法のうちの前記一方または両方を有効にするかどうかを示す前記フラグを含む、変換を行うことと、を含む、
方法。
処理装置により、現在のブロックに対してデコーダ側動きベクトル改良(DMVR)技法を有効にするべきであると判定を行うことであって、前記判定は前記現在のブロックの高さに排他的に基づく、判定を行うことと、
前記現在のブロックと対応する符号化表現との間で変換を行うことと、を含む、方法。
視覚メディアデータの現在のブロックと対応する視覚メディアデータの符号化表現との間で変換を行うことを含み、前記変換は、現在のブロックに対して、デコーダ側動きベクトル改良(DMVR)技法または双方向オプティカルフロー(BIO)技法の一方または両方に関連付けられた規則を使用することを含み、前記DMVR技法に関連付けられた規則は、前記BIO技法への適用に準拠しており、
現在のブロックにおける前記BIO技法または前記DMVR技法の前記一方または両方の前記使用が有効化されているか無効化されているかを判定することは、前記規則を適用することに基づく、方法。
Claims (14)
- 映像データを処理する方法であって、
映像の現在のブロックに対して、動き補償に基づいて初期予測サンプルを決定することと、
オプティカルフロー改良技法に基づいて、予測サンプルオフセットを用いて前記初期予測サンプルを改良して、最終予測サンプルを取得することと、
前記最終予測サンプルに基づいて、前記現在のブロックと前記映像のビットストリームとの間で変換を行うことと、
を含み、
前記予測サンプルオフセットは、前記初期予測サンプルの少なくとも1つの空間的勾配に基づいて決定され、
前記空間的勾配は、少なくとも、同じ参照ピクチャリストからの2つの第1の予測サンプル間の差に基づいて計算され、
前記2つの第1の予測サンプル間の前記差を計算する前に、前記2つの第1の予測サンプルの値は、第1の値で右シフトされ、
前記予測サンプルオフセットは、少なくとも1つの時間的勾配に基づいてさらに決定され、
前記時間的勾配は、少なくとも、異なる参照ピクチャリストからの2つの第2の予測サンプル間の差に基づいて計算され、
前記2つの第2の予測サンプル間の前記差のシフトルールは、前記2つの第1の予測サンプル間の前記差のシフトルールと同じであり、
前記シフトルールは、右シフト演算と減算演算との順序を含む、
方法。 - 前記2つの第2の予測サンプル間の前記差を計算する前に、前記2つの第2の予測サンプルの値は、第2の値で右シフトされる、
請求項1又は2に記載の方法。 - 前記第1の値は、第2の値とは異なる、
請求項3に記載の方法。 - 前記現在のブロックのサイズに関連する条件に基づいて、前記オプティカルフロー改良技法が可能であるかどうかを示す、
請求項1~5のいずれか1項に記載の方法。 - デコーダ側動きベクトル改良技法が前記現在のブロックに対して有効であるかどうかは、同じ条件に基づいており、
前記デコーダ側動きベクトル改良技法を使用して、参照ピクチャリスト0の少なくとも1つの参照サンプルに基づいて取得された少なくとも1つの予測サンプルと、参照ピクチャリスト1の少なくとも1つの参照サンプルに基づいて取得された少なくとも1つの予測サンプルと、の間のコストに基づいて、前記現在のブロックの改良された動き情報を導出する、
請求項6に記載の方法。 - 前記オプティカルフロー改良技法及び前記デコーダ側動きベクトル改良技法は、少なくとも前記現在のブロックの高さがT1以上であることに基づいて可能になる、
請求項7に記載の方法。 - T1=8である、
請求項8に記載の方法。 - 前記変換を行うことは、前記ビットストリームから前記現在のブロックを復号化することを含む、
請求項1~9のいずれか1項に記載の方法。 - 前記変換を行うことは、前記現在のブロックを前記ビットストリームに符号化することを含む、
請求項1~9のいずれか一項に記載の方法。 - プロセッサと、プロセッサ上の命令を有する非一時的メモリと、を有する映像データ処理装置であって、
前記プロセッサによって前記命令を実行することで、前記プロセッサに、
映像の現在のブロックに対して、動き補償に基づいて初期予測サンプルを決定することと、
オプティカルフロー改良技法に基づいて、予測サンプルオフセットを用いて前記初期予測サンプルを改良して、最終予測サンプルを取得することと、
前記最終予測サンプルに基づいて、前記現在のブロックと前記映像のビットストリームとの間で変換を行うことと、
を実行させ、
前記予測サンプルオフセットは、前記初期予測サンプルの少なくとも1つの空間的勾配に基づいて決定され、
前記空間的勾配は、少なくとも、同じ参照ピクチャリストからの2つの第1の予測サンプル間の差に基づいて計算され、
前記2つの第1の予測サンプル間の前記差を計算する前に、前記2つの第1の予測サンプルの値は、第1の値で右シフトされ、
前記予測サンプルオフセットは、少なくとも1つの時間的勾配に基づいてさらに決定され、
前記時間的勾配は、少なくとも、異なる参照ピクチャリストからの2つの第2の予測サンプル間の差に基づいて計算され、
前記2つの第2の予測サンプル間の前記差のシフトルールは、前記2つの第1の予測サンプル間の前記差のシフトルールと同じであり、
前記シフトルールは、右シフト演算と減算演算との順序を含む、
装置。 - 非一時的なコンピュータ可読記憶媒体であって、
プロセッサに、
映像の現在のブロックに対して、動き補償に基づいて初期予測サンプルを決定することと、
オプティカルフロー改良技法に基づいて、予測サンプルオフセットを用いて前記初期予測サンプルを改良して、最終予測サンプルを取得することと、
前記最終予測サンプルに基づいて、前記現在のブロックと前記映像のビットストリームとの間で変換を行うことと、
を実行させ、
前記予測サンプルオフセットは、初期予測サンプルの少なくとも1つの空間的勾配に基づいて決定され、
前記空間的勾配は、少なくとも、同じ参照ピクチャリストからの2つの第1の予測サンプル間の差に基づいて計算され、
前記2つの第1の予測サンプル間の前記差を計算する前に、前記2つの第1の予測サンプルの値は、第1の値で右シフトされ、
前記予測サンプルオフセットは、少なくとも1つの時間的勾配に基づいてさらに決定され、
前記時間的勾配は、少なくとも、異なる参照ピクチャリストからの2つの第2の予測サンプル間の差に基づいて計算され、
前記2つの第2の予測サンプル間の前記差のシフトルールは、前記2つの第1の予測サンプル間の前記差のシフトルールと同じであり、
前記シフトルールは、右シフト演算と減算演算との順序を含む、
記憶媒体。 - 映像のビットストリームを格納する方法であって、
映像の現在のブロックに対して、動き補償に基づいて初期予測サンプルを決定することと、
オプティカルフロー改良技法に基づいて、予測サンプルオフセットを用いて前記初期予測サンプルを改良して、最終予測サンプルを取得することと、
前記最終予測サンプルに基づいて、前記ビットストリームを生成することと、
前記ビットストリームを非一時的なコンピュータ可読記録媒体に格納することと、
を含み、
前記予測サンプルオフセットは、前記初期予測サンプルの少なくとも1つの空間的勾配に基づいて決定され、
前記空間的勾配は、少なくとも、同じ参照ピクチャリストからの2つの第1の予測サンプル間の差に基づいて計算され、
前記2つの第1の予測サンプル間の前記差を計算する前に、前記2つの第1の予測サンプルの値は、第1の値で右シフトされ、
前記予測サンプルオフセットは、少なくとも1つの時間的勾配に基づいてさらに決定され、
前記時間的勾配は、少なくとも、異なる参照ピクチャリストからの2つの第2の予測サンプル間の差に基づいて計算され、
前記2つの第2の予測サンプル間の前記差のシフトルールは、前記2つの第1の予測サンプル間の前記差のシフトルールと同じであり、
前記シフトルールは、右シフト演算と減算演算との順序を含む、
方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023105110A JP2023134521A (ja) | 2019-04-02 | 2023-06-27 | デコーダ側の動きベクトルの導出 |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNPCT/CN2019/081155 | 2019-04-02 | ||
CN2019081155 | 2019-04-02 | ||
CN2019085796 | 2019-05-07 | ||
CNPCT/CN2019/085796 | 2019-05-07 | ||
PCT/CN2020/082937 WO2020200269A1 (en) | 2019-04-02 | 2020-04-02 | Decoder side motion vector derivation |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023105110A Division JP2023134521A (ja) | 2019-04-02 | 2023-06-27 | デコーダ側の動きベクトルの導出 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022527751A JP2022527751A (ja) | 2022-06-06 |
JP7307192B2 true JP7307192B2 (ja) | 2023-07-11 |
Family
ID=72664978
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021557132A Active JP7307192B2 (ja) | 2019-04-02 | 2020-04-02 | デコーダ側の動きベクトルの導出 |
JP2023105110A Pending JP2023134521A (ja) | 2019-04-02 | 2023-06-27 | デコーダ側の動きベクトルの導出 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023105110A Pending JP2023134521A (ja) | 2019-04-02 | 2023-06-27 | デコーダ側の動きベクトルの導出 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11553201B2 (ja) |
EP (1) | EP3922014A4 (ja) |
JP (2) | JP7307192B2 (ja) |
KR (2) | KR102610709B1 (ja) |
CN (2) | CN115190317A (ja) |
WO (1) | WO2020200269A1 (ja) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111083491B (zh) | 2018-10-22 | 2024-09-20 | 北京字节跳动网络技术有限公司 | 细化运动矢量的利用 |
WO2020084476A1 (en) | 2018-10-22 | 2020-04-30 | Beijing Bytedance Network Technology Co., Ltd. | Sub-block based prediction |
JP7146086B2 (ja) | 2018-11-12 | 2022-10-03 | 北京字節跳動網絡技術有限公司 | インター予測のためのバンド幅制御方法 |
JP7241870B2 (ja) | 2018-11-20 | 2023-03-17 | 北京字節跳動網絡技術有限公司 | 部分的な位置に基づく差分計算 |
CN113170097B (zh) | 2018-11-20 | 2024-04-09 | 北京字节跳动网络技术有限公司 | 视频编解码模式的编解码和解码 |
JP2022521554A (ja) | 2019-03-06 | 2022-04-08 | 北京字節跳動網絡技術有限公司 | 変換された片予測候補の利用 |
CN113924771B (zh) | 2019-05-21 | 2024-01-12 | 北京字节跳动网络技术有限公司 | 子块Merge模式中的语法信令 |
CN116996693A (zh) * | 2019-06-21 | 2023-11-03 | 华为技术有限公司 | 编码器、解码器及对应方法 |
WO2020262365A1 (ja) * | 2019-06-28 | 2020-12-30 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、復号装置、符号化方法、および復号方法 |
WO2021001220A1 (en) * | 2019-07-01 | 2021-01-07 | Interdigital Vc Holdings France, Sas | Bi-directional optical flow refinement of affine motion compensation |
EP4307665A3 (en) | 2019-08-10 | 2024-07-10 | Beijing Bytedance Network Technology Co., Ltd. | Buffer management in subpicture decoding |
JP6960969B2 (ja) * | 2019-09-20 | 2021-11-05 | Kddi株式会社 | 画像復号装置、画像復号方法及びプログラム |
US12200190B2 (en) * | 2019-09-23 | 2025-01-14 | Interdigtal Vc Holdings, Inc. | Switching logic for bi-directional optical flow |
EP4042678A4 (en) | 2019-10-12 | 2023-01-18 | Beijing Bytedance Network Technology Co., Ltd. | USE AND REPORTING OF REFINEMENT VIDEO CODING TOOLS |
EP4333431A1 (en) | 2019-10-18 | 2024-03-06 | Beijing Bytedance Network Technology Co., Ltd. | Syntax constraints in parameter set signaling of subpictures |
BR112022012807A2 (pt) | 2019-12-27 | 2022-09-27 | Beijing Bytedance Network Tech Co Ltd | Método de processamento de vídeo, aparelho para processar dados de vídeo e meios não transitórios legíveis por computador |
GB2617839B (en) * | 2022-04-19 | 2025-03-12 | Canon Kk | Video coding and decoding |
WO2023219279A1 (ko) * | 2022-05-10 | 2023-11-16 | 현대자동차주식회사 | 기하학적 분할에 기초하는 인터/인트라 예측을 이용하는 비디오 코딩을 위한방법 및 장치 |
EP4436184A1 (en) * | 2023-03-20 | 2024-09-25 | Beijing Xiaomi Mobile Software Co., Ltd. | Decoding video picture data using affine motion fields defined by control point motion vectors |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018166357A1 (en) | 2017-03-16 | 2018-09-20 | Mediatek Inc. | Method and apparatus of motion refinement based on bi-directional optical flow for video coding |
US20190045215A1 (en) | 2016-02-05 | 2019-02-07 | Mediatek Inc. | Method and apparatus of motion compensation based on bi-directional optical flow techniques for video coding |
WO2020190896A1 (en) | 2019-03-15 | 2020-09-24 | Beijing Dajia Internet Information Technology Co., Ltd. | Methods and devices for bit-width control for bi-directional optical flow |
Family Cites Families (126)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6480615B1 (en) | 1999-06-15 | 2002-11-12 | University Of Washington | Motion estimation within a sequence of data frames using optical flow with adaptive gradients |
US7627037B2 (en) | 2004-02-27 | 2009-12-01 | Microsoft Corporation | Barbell lifting for multi-layer wavelet coding |
US8023041B2 (en) | 2006-01-30 | 2011-09-20 | Lsi Corporation | Detection of moving interlaced text for film mode decision |
US8462852B2 (en) | 2009-10-20 | 2013-06-11 | Intel Corporation | Methods and apparatus for adaptively choosing a search range for motion estimation |
US9654792B2 (en) | 2009-07-03 | 2017-05-16 | Intel Corporation | Methods and systems for motion vector derivation at a video decoder |
US20110176611A1 (en) | 2010-01-15 | 2011-07-21 | Yu-Wen Huang | Methods for decoder-side motion vector derivation |
KR101484281B1 (ko) | 2010-07-09 | 2015-01-21 | 삼성전자주식회사 | 블록 병합을 이용한 비디오 부호화 방법 및 그 장치, 블록 병합을 이용한 비디오 복호화 방법 및 그 장치 |
US9661338B2 (en) | 2010-07-09 | 2017-05-23 | Qualcomm Incorporated | Coding syntax elements for adaptive scans of transform coefficients for video coding |
EP2656610A4 (en) | 2010-12-21 | 2015-05-20 | Intel Corp | SYSTEM AND METHOD FOR EXTENDED DMVD PROCESSING |
JP2012142702A (ja) | 2010-12-28 | 2012-07-26 | Sony Corp | 画像処理装置および方法、並びにプログラム |
RU2628130C2 (ru) | 2011-12-28 | 2017-08-15 | Шарп Кабусики Кайся | Устройство арифметического декодирования, устройство декодирования изображения и устройство арифметического кодирования |
US9451277B2 (en) | 2012-02-08 | 2016-09-20 | Qualcomm Incorporated | Restriction of prediction units in B slices to uni-directional inter prediction |
EP2642755B1 (en) | 2012-03-20 | 2018-01-03 | Dolby Laboratories Licensing Corporation | Complexity scalable multilayer video coding |
EP2849441B1 (en) | 2012-05-10 | 2019-08-21 | LG Electronics Inc. | Method and apparatus for processing video signals |
JP5925801B2 (ja) | 2012-06-27 | 2016-05-25 | 株式会社東芝 | 符号化方法、復号方法、符号化装置、及び復号装置 |
MX341900B (es) | 2012-08-29 | 2016-09-07 | Vid Scale Inc | Metodo y aparato de prediccion de vector de movimiento para codificacion de video escalable. |
WO2014047893A1 (en) | 2012-09-28 | 2014-04-03 | Intel Corporation | Inter-layer pixel sample prediction |
WO2014047877A1 (en) | 2012-09-28 | 2014-04-03 | Intel Corporation | Inter-layer residual prediction |
US20140177706A1 (en) * | 2012-12-21 | 2014-06-26 | Samsung Electronics Co., Ltd | Method and system for providing super-resolution of quantized images and video |
US9294777B2 (en) | 2012-12-30 | 2016-03-22 | Qualcomm Incorporated | Progressive refinement with temporal scalability support in video coding |
CN104885470B (zh) | 2013-01-30 | 2018-08-07 | 英特尔公司 | 用于下一代视频的预测和编码的内容自适应划分 |
US9900576B2 (en) | 2013-03-18 | 2018-02-20 | Qualcomm Incorporated | Simplifications on disparity vector derivation and motion vector prediction in 3D video coding |
US9521425B2 (en) | 2013-03-19 | 2016-12-13 | Qualcomm Incorporated | Disparity vector derivation in 3D video coding for skip and direct modes |
WO2014166063A1 (en) | 2013-04-09 | 2014-10-16 | Mediatek Inc. | Default vector for disparity vector derivation for 3d video coding |
WO2015003383A1 (en) | 2013-07-12 | 2015-01-15 | Mediatek Singapore Pte. Ltd. | Methods for inter-view motion prediction |
US9628795B2 (en) | 2013-07-17 | 2017-04-18 | Qualcomm Incorporated | Block identification using disparity vector in video coding |
EP3660843B1 (en) | 2013-09-13 | 2022-11-09 | Samsung Electronics Co., Ltd. | Lossless coding method |
US10244253B2 (en) | 2013-09-13 | 2019-03-26 | Qualcomm Incorporated | Video coding techniques using asymmetric motion partitioning |
US9554150B2 (en) | 2013-09-20 | 2017-01-24 | Qualcomm Incorporated | Combined bi-predictive merging candidates for 3D video coding |
US9762927B2 (en) | 2013-09-26 | 2017-09-12 | Qualcomm Incorporated | Sub-prediction unit (PU) based temporal motion vector prediction in HEVC and sub-PU design in 3D-HEVC |
US9667996B2 (en) | 2013-09-26 | 2017-05-30 | Qualcomm Incorporated | Sub-prediction unit (PU) based temporal motion vector prediction in HEVC and sub-PU design in 3D-HEVC |
US9906813B2 (en) | 2013-10-08 | 2018-02-27 | Hfi Innovation Inc. | Method of view synthesis prediction in 3D video coding |
WO2015085575A1 (en) | 2013-12-13 | 2015-06-18 | Mediatek Singapore Pte. Ltd. | Methods for background residual prediction |
WO2015109598A1 (en) | 2014-01-27 | 2015-07-30 | Mediatek Singapore Pte. Ltd. | Methods for motion parameter hole filling |
US9906790B2 (en) | 2014-03-14 | 2018-02-27 | Qualcomm Incorporated | Deblock filtering using pixel distance |
CN106105196A (zh) | 2014-04-28 | 2016-11-09 | 松下电器(美国)知识产权公司 | 编码方法、解码方法、编码装置以及解码装置 |
GB2531003A (en) | 2014-10-06 | 2016-04-13 | Canon Kk | Method and apparatus for vector encoding in video coding and decoding |
CN105960802B (zh) | 2014-10-08 | 2018-02-06 | 微软技术许可有限责任公司 | 切换色彩空间时对编码和解码的调整 |
CN104301724B (zh) | 2014-10-17 | 2017-12-01 | 华为技术有限公司 | 视频处理方法、编码设备和解码设备 |
CN107005713A (zh) | 2014-11-04 | 2017-08-01 | 三星电子株式会社 | 施加边缘类型偏移的视频编码方法和设备以及视频解码方法和设备 |
US10382795B2 (en) | 2014-12-10 | 2019-08-13 | Mediatek Singapore Pte. Ltd. | Method of video coding using binary tree block partitioning |
US10230980B2 (en) | 2015-01-26 | 2019-03-12 | Qualcomm Incorporated | Overlapped motion compensation for video coding |
US11330284B2 (en) | 2015-03-27 | 2022-05-10 | Qualcomm Incorporated | Deriving motion information for sub-blocks in video coding |
US10887597B2 (en) | 2015-06-09 | 2021-01-05 | Qualcomm Incorporated | Systems and methods of determining illumination compensation parameters for video coding |
WO2017008263A1 (en) | 2015-07-15 | 2017-01-19 | Mediatek Singapore Pte. Ltd. | Conditional binary tree block partitioning structure |
WO2017036399A1 (en) * | 2015-09-02 | 2017-03-09 | Mediatek Inc. | Method and apparatus of motion compensation for video coding based on bi prediction optical flow techniques |
US10375413B2 (en) | 2015-09-28 | 2019-08-06 | Qualcomm Incorporated | Bi-directional optical flow for video coding |
WO2017088093A1 (en) | 2015-11-23 | 2017-06-01 | Mediatek Singapore Pte. Ltd. | On the smallest allowed block size in video coding |
US10268901B2 (en) * | 2015-12-04 | 2019-04-23 | Texas Instruments Incorporated | Quasi-parametric optical flow estimation |
US9955186B2 (en) | 2016-01-11 | 2018-04-24 | Qualcomm Incorporated | Block size decision for video coding |
WO2017134957A1 (ja) | 2016-02-03 | 2017-08-10 | シャープ株式会社 | 動画像復号装置、動画像符号化装置、および予測画像生成装置 |
US11064195B2 (en) | 2016-02-15 | 2021-07-13 | Qualcomm Incorporated | Merging filters for multiple classes of blocks for video coding |
WO2017143467A1 (en) | 2016-02-22 | 2017-08-31 | Mediatek Singapore Pte. Ltd. | Localized luma mode prediction inheritance for chroma coding |
US20170339405A1 (en) * | 2016-05-20 | 2017-11-23 | Arris Enterprises Llc | System and method for intra coding |
US11638027B2 (en) | 2016-08-08 | 2023-04-25 | Hfi Innovation, Inc. | Pattern-based motion vector derivation for video coding |
US10609423B2 (en) | 2016-09-07 | 2020-03-31 | Qualcomm Incorporated | Tree-type coding for video coding |
US10674165B2 (en) * | 2016-12-21 | 2020-06-02 | Arris Enterprises Llc | Constrained position dependent intra prediction combination (PDPC) |
US10666937B2 (en) | 2016-12-21 | 2020-05-26 | Qualcomm Incorporated | Low-complexity sign prediction for video coding |
WO2018113658A1 (en) | 2016-12-22 | 2018-06-28 | Mediatek Inc. | Method and apparatus of motion refinement for video coding |
US10911761B2 (en) | 2016-12-27 | 2021-02-02 | Mediatek Inc. | Method and apparatus of bilateral template MV refinement for video coding |
US20190387234A1 (en) | 2016-12-29 | 2019-12-19 | Peking University Shenzhen Graduate School | Encoding method, decoding method, encoder, and decoder |
KR102466901B1 (ko) | 2017-01-04 | 2022-11-14 | 삼성전자주식회사 | 비디오 복호화 방법 및 그 장치 및 비디오 부호화 방법 및 그 장치 |
US10931969B2 (en) | 2017-01-04 | 2021-02-23 | Qualcomm Incorporated | Motion vector reconstructions for bi-directional optical flow (BIO) |
US20180199057A1 (en) | 2017-01-12 | 2018-07-12 | Mediatek Inc. | Method and Apparatus of Candidate Skipping for Predictor Refinement in Video Coding |
US10701366B2 (en) | 2017-02-21 | 2020-06-30 | Qualcomm Incorporated | Deriving motion vector information at a video decoder |
US10523964B2 (en) | 2017-03-13 | 2019-12-31 | Qualcomm Incorporated | Inter prediction refinement based on bi-directional optical flow (BIO) |
US11277635B2 (en) | 2017-03-17 | 2022-03-15 | Vid Scale, Inc. | Predictive coding for 360-degree video based on geometry padding |
US10491917B2 (en) | 2017-03-22 | 2019-11-26 | Qualcomm Incorporated | Decoder-side motion vector derivation |
US10595035B2 (en) | 2017-03-22 | 2020-03-17 | Qualcomm Incorporated | Constraining motion vector information derived by decoder-side motion vector derivation |
TW201902223A (zh) | 2017-03-24 | 2019-01-01 | 聯發科技股份有限公司 | 視頻編碼中重疊分塊運動補償的雙向光流的方法和裝置 |
US10805650B2 (en) | 2017-03-27 | 2020-10-13 | Qualcomm Incorporated | Signaling important video information in network video streaming using mime type parameters |
US10805630B2 (en) | 2017-04-28 | 2020-10-13 | Qualcomm Incorporated | Gradient based matching for motion search and derivation |
CN110574377B (zh) | 2017-05-10 | 2021-12-28 | 联发科技股份有限公司 | 用于视频编解码的重新排序运动向量预测候选集的方法及装置 |
CN117255195A (zh) | 2017-05-17 | 2023-12-19 | 株式会社Kt | 用于解码视频的方法和用于编码视频的方法 |
US10904565B2 (en) | 2017-06-23 | 2021-01-26 | Qualcomm Incorporated | Memory-bandwidth-efficient design for bi-directional optical flow (BIO) |
US10477237B2 (en) | 2017-06-28 | 2019-11-12 | Futurewei Technologies, Inc. | Decoder side motion vector refinement in video coding |
WO2019001741A1 (en) | 2017-06-30 | 2019-01-03 | Huawei Technologies Co., Ltd. | MOTION VECTOR REFINEMENT FOR MULTI-REFERENCE PREDICTION |
CN110832858B (zh) | 2017-07-03 | 2023-10-13 | Vid拓展公司 | 用于视频编解码的设备、方法 |
CN117499684A (zh) | 2017-09-20 | 2024-02-02 | 韩国电子通信研究院 | 用于对图像进行编码/解码的方法和装置 |
US10785494B2 (en) | 2017-10-11 | 2020-09-22 | Qualcomm Incorporated | Low-complexity design for FRUC |
US10986360B2 (en) | 2017-10-16 | 2021-04-20 | Qualcomm Incorproated | Various improvements to FRUC template matching |
KR102387363B1 (ko) | 2017-11-30 | 2022-04-18 | 엘지전자 주식회사 | 영상 코딩 시스템에서 인터 예측에 따른 영상 디코딩 방법 및 장치 |
US11277609B2 (en) | 2017-12-29 | 2022-03-15 | Sharp Kabushiki Kaisha | Systems and methods for partitioning video blocks for video coding |
WO2020065520A2 (en) | 2018-09-24 | 2020-04-02 | Beijing Bytedance Network Technology Co., Ltd. | Extended merge prediction |
US11172229B2 (en) | 2018-01-12 | 2021-11-09 | Qualcomm Incorporated | Affine motion compensation with low bandwidth |
MX2020007355A (es) | 2018-01-16 | 2020-10-12 | Vid Scale Inc | Bipredicción compensada en movimiento basada en compensación de iluminación local. |
US11265551B2 (en) | 2018-01-18 | 2022-03-01 | Qualcomm Incorporated | Decoder-side motion vector derivation |
US11310526B2 (en) | 2018-01-26 | 2022-04-19 | Mediatek Inc. | Hardware friendly constrained motion vector refinement |
US20200359024A1 (en) | 2018-01-30 | 2020-11-12 | Sharp Kabushiki Kaisha | Systems and methods for deriving quantization parameters for video blocks in video coding |
CN114205620B (zh) | 2018-02-28 | 2023-07-25 | 三星电子株式会社 | 编码方法及其装置以及解码方法及其装置 |
US20190306502A1 (en) | 2018-04-02 | 2019-10-03 | Qualcomm Incorporated | System and method for improved adaptive loop filtering |
US10779002B2 (en) | 2018-04-17 | 2020-09-15 | Qualcomm Incorporated | Limitation of the MVP derivation based on decoder-side motion vector derivation |
WO2019229683A1 (en) | 2018-05-31 | 2019-12-05 | Beijing Bytedance Network Technology Co., Ltd. | Concept of interweaved prediction |
WO2019234604A1 (en) | 2018-06-05 | 2019-12-12 | Beijing Bytedance Network Technology Co., Ltd. | Extended quad-tree with asymmetric sub-blocks |
WO2019234676A1 (en) | 2018-06-07 | 2019-12-12 | Beijing Bytedance Network Technology Co., Ltd. | Mv precision refine |
WO2019244115A2 (en) | 2018-06-21 | 2019-12-26 | Beijing Bytedance Network Technology Co., Ltd. | Automatic partition for cross blocks |
KR102701593B1 (ko) | 2018-06-21 | 2024-08-30 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 칼라 컴포넌트 간의 서브 블록 mv 상속 |
CN110636298B (zh) | 2018-06-21 | 2022-09-13 | 北京字节跳动网络技术有限公司 | 对于Merge仿射模式和非Merge仿射模式的统一约束 |
JP7414742B2 (ja) | 2018-06-27 | 2024-01-16 | ヴィド スケール インコーポレイテッド | デコーダ側動きリファインメントのコーディング待ち時間を低減させる方法および装置 |
CN114374850A (zh) | 2018-07-01 | 2022-04-19 | 北京字节跳动网络技术有限公司 | 高效的仿射Merge运动矢量推导的方法、装置及存储介质 |
TWI719519B (zh) | 2018-07-02 | 2021-02-21 | 大陸商北京字節跳動網絡技術有限公司 | 對於dmvr的塊尺寸限制 |
US10911768B2 (en) | 2018-07-11 | 2021-02-02 | Tencent America LLC | Constraint for template matching in decoder side motion derivation and refinement |
CN110719481B (zh) | 2018-07-15 | 2023-04-14 | 北京字节跳动网络技术有限公司 | 跨分量编码信息导出 |
WO2020017840A1 (ko) | 2018-07-16 | 2020-01-23 | 엘지전자 주식회사 | Dmvr에 기반하여 인터 예측을 수행하는 방법 및 장치 |
US10911751B2 (en) | 2018-09-14 | 2021-02-02 | Tencent America LLC | Method and apparatus for video coding |
CN111010569B (zh) | 2018-10-06 | 2023-02-28 | 北京字节跳动网络技术有限公司 | Bio中的时间梯度计算的改善 |
WO2020084464A1 (en) | 2018-10-22 | 2020-04-30 | Beijing Bytedance Network Technology Co., Ltd. | Decoder side motion vector derivation based on reference pictures |
CN111083491B (zh) | 2018-10-22 | 2024-09-20 | 北京字节跳动网络技术有限公司 | 细化运动矢量的利用 |
CN117880513A (zh) | 2018-10-22 | 2024-04-12 | 北京字节跳动网络技术有限公司 | 基于编解码信息的解码器侧运动矢量推导的限制 |
WO2020084476A1 (en) | 2018-10-22 | 2020-04-30 | Beijing Bytedance Network Technology Co., Ltd. | Sub-block based prediction |
CN109191514B (zh) | 2018-10-23 | 2020-11-24 | 北京字节跳动网络技术有限公司 | 用于生成深度检测模型的方法和装置 |
WO2020094000A1 (en) | 2018-11-05 | 2020-05-14 | Beijing Bytedance Network Technology Co., Ltd. | Interpolation for inter prediction with refinement |
WO2020094050A1 (en) | 2018-11-06 | 2020-05-14 | Beijing Bytedance Network Technology Co., Ltd. | Using inter prediction with geometric partitioning for video processing |
KR20210089747A (ko) | 2018-11-12 | 2021-07-16 | 인터디지털 브이씨 홀딩스 인코포레이티드 | 비디오 인코딩 및 디코딩을 위한 가상 파이프라인 |
JP7241870B2 (ja) | 2018-11-20 | 2023-03-17 | 北京字節跳動網絡技術有限公司 | 部分的な位置に基づく差分計算 |
CN113170097B (zh) | 2018-11-20 | 2024-04-09 | 北京字节跳动网络技术有限公司 | 视频编解码模式的编解码和解码 |
EP3657794A1 (en) | 2018-11-21 | 2020-05-27 | InterDigital VC Holdings, Inc. | Method and device for picture encoding and decoding |
JP7200470B2 (ja) * | 2019-01-02 | 2023-01-10 | ホアウェイ・テクノロジーズ・カンパニー・リミテッド | 双予測動き補償に対するデコーダ側双予測オプティカルフローベースのピクセル単位補正を用いるデコーダ側の動きベクトルのリファインメントのためのハードウェアおよびソフトウェアフレンドリーシステムおよび方法 |
MX2021008157A (es) * | 2019-01-06 | 2022-07-19 | Beijing Dajia Internet Information Tech Co Ltd | Control del ancho de bits para el flujo optico bidireccional. |
BR122021012448B1 (pt) | 2019-01-15 | 2022-03-22 | Lg Electronics Inc | Método de decodificação de uma imagem realizado por um aparelho de decodificação, método de codificação de uma imagem realizado por um aparelho de codificação, aparelho de decodificação para decodificação de imagem, aparelho de codificação para codificação de imagem e mídia de armazenamento digital legível por computador não transitória |
KR20230025509A (ko) | 2019-03-12 | 2023-02-21 | 베이징 다지아 인터넷 인포메이션 테크놀로지 컴퍼니 리미티드 | 결합된 인터 및 인트라-예측 모드의 제한되고 조정된 적용 |
AU2020298425A1 (en) * | 2019-06-21 | 2021-12-23 | Panasonic Intellectual Property Corporation Of America | Encoder, decoder, encoding method, and decoding method |
US11330287B2 (en) * | 2019-06-28 | 2022-05-10 | Tencent America LLC | Method and apparatus for video coding |
US11272203B2 (en) * | 2019-07-23 | 2022-03-08 | Tencent America LLC | Method and apparatus for video coding |
CN110267045B (zh) | 2019-08-07 | 2021-09-24 | 杭州微帧信息科技有限公司 | 一种视频处理及编码的方法、装置及可读存储介质 |
US11405628B2 (en) * | 2020-04-06 | 2022-08-02 | Tencent America LLC | Method and apparatus for video coding |
-
2020
- 2020-04-02 JP JP2021557132A patent/JP7307192B2/ja active Active
- 2020-04-02 EP EP20782973.0A patent/EP3922014A4/en active Pending
- 2020-04-02 CN CN202210804712.3A patent/CN115190317A/zh active Pending
- 2020-04-02 WO PCT/CN2020/082937 patent/WO2020200269A1/en unknown
- 2020-04-02 KR KR1020217030715A patent/KR102610709B1/ko active Active
- 2020-04-02 CN CN202080025886.9A patent/CN113647099B/zh active Active
- 2020-04-02 KR KR1020237041403A patent/KR20230169434A/ko active Pending
-
2021
- 2021-08-18 US US17/405,179 patent/US11553201B2/en active Active
-
2023
- 2023-06-27 JP JP2023105110A patent/JP2023134521A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190045215A1 (en) | 2016-02-05 | 2019-02-07 | Mediatek Inc. | Method and apparatus of motion compensation based on bi-directional optical flow techniques for video coding |
WO2018166357A1 (en) | 2017-03-16 | 2018-09-20 | Mediatek Inc. | Method and apparatus of motion refinement based on bi-directional optical flow for video coding |
WO2020190896A1 (en) | 2019-03-15 | 2020-09-24 | Beijing Dajia Internet Information Technology Co., Ltd. | Methods and devices for bit-width control for bi-directional optical flow |
Non-Patent Citations (6)
Title |
---|
Benjamin Bross, Jianle Chen, and Shan Liu,Versatile Video Coding (Draft 4),Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-M1001 (version 7),13th Meeting: Marrakech, MA,2019年03月,pp.197-199 |
Hongbin Liu, et al.,Non-CE9: Unified gradient calculations in BDOF,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-O0570,15th Meeting: Gothenburg, SE,2019年07月,pp.1-3 |
Jiancong (Daniel) Luo and Yuwen He,CE2-related: Prediction refinement with optical flow for affine mode,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-N0236-r5,14th Meeting: Geneva, CH,2019年03月,pp.1-7 |
Naeri Park et al.,Non-CE9 : Mismatch between text specification and reference software on BDOF and DMVR,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-N0444-r3,14th Meeting: Geneva, CH,2019年03月,pp.1-3 |
Sriram Sethuraman,Non-CE9: Methods for BDOF complexity reduction,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-M0517-v3,13th Meeting: Marrakech, MA,2019年01月,pp.1-4 |
Xiaoyu Xiu, Yuwen He, and Yan Ye,CE9-related: Complexity reduction and bit-width control for bi-directional optical flow (BIO),Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-L0256_v2,12th Meeting: Macao, CN,2018年09月,pp.1-15 |
Also Published As
Publication number | Publication date |
---|---|
CN113647099B (zh) | 2022-10-04 |
JP2023134521A (ja) | 2023-09-27 |
US11553201B2 (en) | 2023-01-10 |
US20210385481A1 (en) | 2021-12-09 |
JP2022527751A (ja) | 2022-06-06 |
KR20230169434A (ko) | 2023-12-15 |
KR102610709B1 (ko) | 2023-12-05 |
CN113647099A (zh) | 2021-11-12 |
EP3922014A4 (en) | 2022-04-06 |
WO2020200269A1 (en) | 2020-10-08 |
EP3922014A1 (en) | 2021-12-15 |
KR20210145747A (ko) | 2021-12-02 |
CN115190317A (zh) | 2022-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7307192B2 (ja) | デコーダ側の動きベクトルの導出 | |
US11632566B2 (en) | Inter prediction with refinement in video processing | |
JP7556090B2 (ja) | デコーダ側精緻化ツールのサイズ選択アプリケーション | |
JP7334246B2 (ja) | インター-イントラ複合予測の簡単化 | |
JP7182000B2 (ja) | インター-イントラ複合予測モードにおける重み | |
JP7322277B2 (ja) | 参照ピクチャタイプに従ったツールの使用制限 | |
JP2024069472A (ja) | 変換された片予測候補の利用 | |
JP7192145B2 (ja) | サイズに依存したインターコーディング | |
CN113767634B (zh) | 利用细化的帧间预测的统一计算方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210924 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210924 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220913 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221212 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230508 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230530 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230629 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7307192 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |