JP7564132B2 - 幾何学的分割モードのためのクロマサンプル重みの導出 - Google Patents
幾何学的分割モードのためのクロマサンプル重みの導出 Download PDFInfo
- Publication number
- JP7564132B2 JP7564132B2 JP2021576115A JP2021576115A JP7564132B2 JP 7564132 B2 JP7564132 B2 JP 7564132B2 JP 2021576115 A JP2021576115 A JP 2021576115A JP 2021576115 A JP2021576115 A JP 2021576115A JP 7564132 B2 JP7564132 B2 JP 7564132B2
- Authority
- JP
- Japan
- Prior art keywords
- sample
- value
- block
- chroma
- current block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000638 solvent extraction Methods 0.000 title description 29
- 238000000034 method Methods 0.000 claims description 129
- 241000023320 Luma <angiosperm> Species 0.000 claims description 85
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 claims description 85
- 238000012545 processing Methods 0.000 claims description 60
- 239000013598 vector Substances 0.000 claims description 43
- 238000002156 mixing Methods 0.000 claims description 30
- 239000002131 composite material Substances 0.000 claims description 23
- 238000005192 partition Methods 0.000 claims description 18
- 238000000926 separation method Methods 0.000 claims description 15
- 230000008859 change Effects 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 7
- 238000013139 quantization Methods 0.000 description 90
- 230000006854 communication Effects 0.000 description 36
- 238000004891 communication Methods 0.000 description 36
- 230000006870 function Effects 0.000 description 36
- 230000008569 process Effects 0.000 description 26
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 25
- 238000010586 diagram Methods 0.000 description 23
- 239000000872 buffer Substances 0.000 description 22
- 230000005540 biological transmission Effects 0.000 description 14
- 238000004364 calculation method Methods 0.000 description 13
- 238000001914 filtration Methods 0.000 description 9
- 230000002123 temporal effect Effects 0.000 description 9
- 238000003491 array Methods 0.000 description 8
- 230000000295 complement effect Effects 0.000 description 8
- 230000006835 compression Effects 0.000 description 8
- 238000007906 compression Methods 0.000 description 8
- 230000003044 adaptive effect Effects 0.000 description 6
- 238000010276 construction Methods 0.000 description 6
- 238000007781 pre-processing Methods 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000013500 data storage Methods 0.000 description 5
- 238000012805 post-processing Methods 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000009795 derivation Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 2
- 101150039623 Clip1 gene Proteins 0.000 description 2
- 230000002146 bilateral effect Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000006837 decompression Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000007620 mathematical function Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 230000011664 signaling Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000012952 Resampling Methods 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/109—Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/11—Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/117—Filters, e.g. for pre-processing or post-processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/186—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/583—Motion compensation with overlapping blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
本特許出願は、2019年6月21日に出願された国際特許出願第PCT/EP2019/066516号の優先権を主張する。前述の特許出願の開示は、その全体が参照により本明細書に組み込まれる。
現在ブロックのパラメータの値を取得するステップであって、パラメータの値は現在ブロックの分割モードを示す、ステップと、
現在ブロックの第1の予測モードを取得するステップと、
現在ブロックの第2の予測モードを取得するステップと、
第1の予測モードに従って現在ブロック内のクロマサンプルのための第1の予測値を生成するステップと、
第2の予測モードに従って現在ブロック内のクロマサンプルのための第2の予測値を生成するステップと、
第1の予測値と第2の予測値とを組み合わせることによって予測サンプルの合成値を取得するステップと、を含む。
したがって、分割モード、すなわちその対応する分割は、例えば混合操作に起因して、第1の予測のサンプル重みが第2の予測のサンプル重みよりも高い境界をマークすると理解され得る。
sampleWeightC1(x,y)=sampleWeight1(2*x,2*y)、
ここで、xおよびyは、コーディングブロックのクロマブロックの左上座標に対するクロマサンプルの座標であり、sampleWeightC1(a,b)は、現在ブロックのクロマブロック内のサンプル座標(a,b)に位置するクロマサンプルの第1の重み値であり、aおよびbは座標値であり、sampleWeight1(c,d)は、現在ブロックのルーマブロック内のサンプル座標(c,d)に位置するルーマサンプルに対応する重み値を表し、cおよびdは座標値であり、Kは整数値である。
sampleWeightC1(x,y)=sampleWeight1(2*x-1,2*y-1)、
または
sampleWeightC1(x,y)=(sampleWeight1(2*x-1,2*y-1)+sampleWeight1(2*x,2*y)+K)>>1、
または
sampleWeightC1(x,y)=(sampleWeight1(2*x-1,2*y-1)+sampleWeight1(2*x,2*y)+sampleWeight1(2*x,2*y-1)+sampleWeight1(2*x-1,2*y)+K)>>2、
または
sampleWeightC1(x,y)=(sampleWeight1(2*x-1,2*y-1)+sampleWeight1(2*x,2*y)+sampleWeight1(2*x,2*y-1)+sampleWeight1(2*x-1,2*y)+2)>>2、
または
sampleWeightC1(x,y)=(sampleWeight1(2*x-1,2*y-1)+sampleWeight1(2*x,2*y)+1)>>1、
ここで、xおよびyは、コーディングブロックのクロマブロックの左上座標に対するクロマサンプルの座標であり、sampleWeightC1(a,b)は、現在ブロックのクロマブロック内のサンプル座標(a,b)に位置するクロマサンプルの第1の重み値であり、aおよびbは座標値であり、sampleWeight1(c,d)は、現在ブロックのルーマブロック内のサンプル座標(c,d)に位置するルーマサンプルに対応する重み値を表し、cおよびdは座標値であり、Kは整数値である。
1つまたは複数のプロセッサと、
プロセッサに結合され、プロセッサにより実行するためのプログラミングを格納する非一時的コンピュータ可読記憶媒体と、を含み、プログラミングは、プロセッサにより実行されると、上記の方法を実行するようにデコーダを構成する。
現在ブロックのパラメータの値を取得するための取得ユニットであって、パラメータの値は現在ブロックの分割モードを示す、取得ユニットと、
現在ブロックの第1の予測モードを取得するための第1の予測ユニットと、
現在ブロックの第2の予測モードを取得するための第2の予測ユニットと、
第1の予測モードに従って現在ブロック内のクロマサンプルのための第1の予測値を生成するための第1の生成ユニットと、
第2の予測モードに従って現在ブロック内のクロマサンプルのための第2の予測値を生成するための第2の生成ユニットと、
第1の予測値と第2の予測値とを組み合わせることによって予測サンプルの合成値を取得するための組み合わせユニットと、を含む。
現在ブロックのパラメータの値を取得するステップであって、パラメータの値は現在ブロックの分割モードを示す、ステップと、
現在ブロックの第1の予測モードを取得するステップと、
現在ブロックの第2の予測モードを取得するステップと、
第1の予測モードに従って現在ブロック内のクロマサンプルのための第1の予測値を生成するステップと、
第2の予測モードに従って現在ブロック内のクロマサンプルのための第2の予測値を生成するステップと、
第1の予測値と第2の予測値とを組み合わせることによって予測サンプルの合成値を取得するステップと、を含む。
sampleWeightC1(x,y)=sampleWeight1(2*x,2*y)、
ここで、xおよびyは、コーディングブロックのクロマブロックの左上座標に対するクロマサンプルの座標であり、sampleWeightC1(a,b)は、現在ブロックのクロマブロック内のサンプル座標(a,b)に位置するクロマサンプルの第1の重み値であり、aおよびbは座標値であり、sampleWeight1(c,d)は、現在ブロックのルーマブロック内のサンプル座標(c,d)に位置するルーマサンプルに対応する重み値を表し、cおよびdは座標値であり、Kは整数値である。
sampleWeightC1(x,y)=sampleWeight1(2*x-1,2*y-1)、
または
sampleWeightC1(x,y)=(sampleWeight1(2*x-1,2*y-1)+sampleWeight1(2*x,2*y)+K)>>1、
または
sampleWeightC1(x,y)=(sampleWeight1(2*x-1,2*y-1)+sampleWeight1(2*x,2*y)+sampleWeight1(2*x,2*y-1)+sampleWeight1(2*x-1,2*y)+K)>>2、
または
sampleWeightC1(x,y)=(sampleWeight1(2*x-1,2*y-1)+sampleWeight1(2*x,2*y)+sampleWeight1(2*x,2*y-1)+sampleWeight1(2*x-1,2*y)+2)>>2、
または
sampleWeightC1(x,y)=(sampleWeight1(2*x-1,2*y-1)+sampleWeight1(2*x,2*y)+1)>>1、
ここで、xおよびyは、コーディングブロックのクロマブロックの左上座標に対するクロマサンプルの座標であり、sampleWeightC1(a,b)は、現在ブロックのクロマブロック内のサンプル座標(a,b)に位置するクロマサンプルの第1の重み値であり、aおよびbは座標値であり、sampleWeight1(c,d)は、現在ブロックのルーマブロック内のサンプル座標(c,d)に位置するルーマサンプルに対応する重み値を表し、cおよびdは座標値であり、Kは整数値である。
1つまたは複数のプロセッサと、
プロセッサに結合され、プロセッサにより実行するためのプログラミングを格納する非一時的コンピュータ可読記憶媒体と、を含み、プログラミングは、プロセッサにより実行されると、上記の方法を実行するようにエンコーダを構成する。
現在ブロックのパラメータの値を取得するための取得ユニットであって、パラメータの値は現在ブロックの分割モードを示す、取得ユニットと、
現在ブロックの第1の予測モードを取得するための第1の予測ユニットと、
現在ブロックの第2の予測モードを取得するための第2の予測ユニットと、
第1の予測モードに従って現在ブロック内のクロマサンプルのための第1の予測値を生成するための第1の生成ユニットと、
第2の予測モードに従って現在ブロック内のクロマサンプルのための第2の予測値を生成するための第2の生成ユニットと、
第1の予測値と第2の予測値とを組み合わせることによって予測サンプルの合成値を取得するための組み合わせユニットと、を含む。
1つまたは複数のプロセッサと、
プロセッサに結合され、プロセッサにより実行するためのプログラミングを格納する非一時的コンピュータ可読記憶媒体と、を含み、プログラミングは、プロセッサにより実行されると、本方法の実施形態を実行するようにデコーダを構成する。
1つまたは複数のプロセッサと、
プロセッサに結合され、プロセッサにより実行するためのプログラミングを格納する非一時的コンピュータ可読記憶媒体と、を含み、プログラミングは、プロセッサにより実行されると、本方法の実施形態を実行するようにエンコーダを構成する。
以下において、同一の参照符号は、特に明記しない限り、同一または少なくとも機能的に同等の特徴を指す。
図2は、本開示の技術を実施するように構成された例示的なビデオエンコーダ20の概略ブロック図を示す。図2の例では、ビデオエンコーダ20は、入力201(または入力インターフェース201)、残差計算ユニット204、変換処理ユニット206、量子化ユニット208、逆量子化ユニット210、および逆変換処理ユニット212、再構築ユニット214、ループフィルタユニット220、デコード済画像バッファ(DPB)230、モード選択ユニット260、エントロピーエンコーディングユニット270、および出力272(または出力インターフェース272)を含む。モード選択ユニット260は、インター予測ユニット244、イントラ予測ユニット254および分割ユニット262を含んでもよい。インター予測ユニット244は、動き推定ユニットおよび動き補償ユニット(図示せず)を含んでもよい。図2に示すビデオエンコーダ20は、ハイブリッドビデオエンコーダまたはハイブリッドビデオコーデックによるビデオエンコーダと呼ばれることもある。
エンコーダ20は、例えば入力201を介して、画像17(または画像データ17)、例えばビデオまたはビデオシーケンスを形成する画像のシーケンスの画像を受信するように構成され得る。受信された画像または画像データはまた、前処理された画像19(または前処理された画像データ19)であってもよい。簡単にするために、以下の説明では画像17を参照する。画像17はまた、現在の画像、または、コーディングされるべき画像(特に、現在の画像を他の画像、例えば同じビデオシーケンス、すなわち現在の画像も含むビデオシーケンスの以前にエンコードおよび/またはデコードされた画像から区別するためのビデオコーディングにおいて)と呼ばれてもよい。
残差計算ユニット204は、例えば、画像ブロック203のサンプル値から予測ブロック265のサンプル値を、サンプルごと(ピクセルごと)に減算することによって、画像ブロック203および予測ブロック265(予測ブロック265に関するさらなる詳細は後述する)に基づいて残差ブロック205(残差205とも呼ばれる)を計算し、サンプル領域内の残差ブロック205を取得するように構成され得る。
変換処理ユニット206は、変換領域における変換係数207を取得するべく、残差ブロック205のサンプル値に関して、例えば、離散コサイン変換(DCT)または離散サイン変換(DST)を適用するように構成されてもよい。変換係数207は、変換残差係数と呼ばれてもよく、変換領域における残差ブロック205を表す。
量子化ユニット208は、例えばスカラー量子化またはベクトル量子化を適用することによって、変換係数207を量子化して、量子化係数209を取得するように構成される。量子化係数209は、量子化変換係数209または量子化残差係数209とも呼ばれ得る。
逆量子化ユニット210は、例えば量子化ユニット208と同じ量子化ステップサイズに基づいて、またはそれを使用して、量子化ユニット208によって適用された量子化スキームの逆を適用することによって、量子化ユニット208の逆量子化を量子化係数に適用して、逆量子化係数211を得るように構成される。逆量子化係数211は、逆量子化された残差係数211と呼ばれる場合もあり、通常は量子化による損失に起因して変換係数と同一ではないが、変換係数207に対応する。
逆変換処理ユニット212は、サンプル領域内の再構築された残差ブロック213(または対応する逆量子化係数213)を取得するために、変換処理ユニット206によって適用された変換の逆変換、例えば、逆離散コサイン変換(DCT)または逆離散サイン変換(DST)または他の逆変換を適用するように構成される。再構築された残差ブロック213はまた、変換ブロック213と呼ばれてもよい。
再構築ユニット214(例えば加算器214)は、例えば、再構築された残差ブロック213のサンプル値および予測ブロック265のサンプル値をサンプルごとに加算することによって、サンプル領域内の再構築ブロック215を取得するために、変換ブロック213(すなわち、再構築された残差ブロック213)を予測ブロック265に加算するように構成される。
ループフィルタユニット220(または短く「ループフィルタ」220)は、再構築されたブロック215をフィルタリングしてフィルタリングされたブロック221を取得するように、または一般に、再構築されたサンプルをフィルタリングしてフィルタリングされたサンプルを取得するように構成される。ループフィルタユニットは、例えば、画素遷移を滑らかにするか、そうでなければビデオ品質を改善するように構成される。ループフィルタユニット220は、デブロッキングフィルタ、サンプル適応オフセット(SAO)フィルタなどの1つまたは複数のループフィルタ、あるいは1つまたは複数の他のフィルタ、例えばバイラテラルフィルタ、適応ループフィルタ(ALF)、鮮鋭化、平滑化フィルタもしくは協調フィルタ、あるいはそれらの任意の組み合わせなどを含むことができる。ループフィルタユニット220は図2ではインループフィルタとして示されるが、他の形態では、ループフィルタユニット220がポストループフィルタとして実装されてもよい。フィルタリングされたブロック221は、フィルタリングされた再構築されたブロック221と呼ばれることもある。
デコード済画像バッファ(DPB)230は、ビデオエンコーダ20でビデオデータをエンコードするための参照画像、一般的には参照画像データを格納するメモリであってもよい。DPB230は、シンクロナスDRAM(SDRAM)、磁気抵抗RAM(MRAM)、抵抗変化型RAM(RRAM)、または他のタイプのメモリデバイスを含むダイナミックランダムアクセスメモリ(DRAM)などの様々なメモリデバイスのうちのいずれかによって形成されてもよい。デコード済画像バッファ(DPB)230は、1つまたは複数のフィルタリングされたブロック221を格納するように構成され得る。デコード済画像バッファ230は、他の以前にフィルタリングされたブロック、例えば同じ現在の画像または異なる画像、例えば以前に再構築された画像の、以前に再構築およびフィルタリングされたブロック221を格納するようにさらに構成されてもよく、また、例えばインター予測のために、完全に以前に再構築された、すなわちデコード済画像(および対応する参照ブロックおよびサンプル)および/または部分的に再構築された現在の画像(および対応する参照ブロックおよびサンプル)を提供することができる。デコード済画像バッファ(DPB)230はまた、例えば再構築されたブロック215がループフィルタユニット220によってフィルタリングされていない場合、または再構築されたブロックもしくはサンプルの任意の他のさらなる処理されたバージョンの場合、1つまたは複数のフィルタリングされていない再構築されたブロック215、または一般にフィルタリングされていない再構築されたサンプルを格納するように構成され得る。
モード選択ユニット260は、分割ユニット262と、インター予測ユニット244と、イントラ予測ユニット254とを含み、元の画像データ、例えば元のブロック203(現在の画像17の現在ブロック203)と、再構築された画像データ、例えば同じ(現在の)画像の、および/または以前にデコードされた1つまたは複数の画像から、例えばデコード済画像バッファ230または他のバッファ(例えば、図示されていないラインバッファ)から、再構築された、フィルタリングされたおよび/またはフィルタリングされていないサンプルまたはブロックと、を受信または取得するように構成される。再構築された画像データは、予測ブロック265または予測器265を取得するために、予測、例えばインター予測またはイントラ予測のための参照画像データとして使用される。
分割ユニット262は、現在ブロック203をより小さい分割、例えば正方形または長方形サイズのより小さいブロックに分割(またはスプリット)することができる。これらのより小さいブロック(サブブロックとも呼ばれ得る)は、さらにより小さい分割に分割され得る。これは、ツリー分割または階層ツリー分割とも呼ばれ、例えば、ルートツリーレベル0(階層レベル0、深さ0)のルートブロックは、再帰的に分割され、例えば、次の下位ツリーレベルの2つ以上のブロック、例えばツリーレベル1(階層レベル1、深さ1)のノードに分割され得、これらのブロックは、分割が終了するまで、例えば、終了基準が満たされる、例えば、最大ツリー深度または最小ブロックサイズに達するために、次の下位レベル、例えばツリーレベル2(階層レベル2、深さ2)の2つ以上のブロックに再び分割され得る。さらに分割されていないブロックは、ツリーのリーフブロックまたはリーフノードとも呼ばれる。2つの区分に分割することに用いるツリーは、二分木(BT)と呼ばれ、3つの区分に分割することに用いるツリーは、三分木(TT)と呼ばれ、4つの区分に分割することに用いるツリーは、四分木(QT)と呼ばれる。
イントラ予測モードのセットは、35の異なるイントラ予測モード例えばDC(または平均)モードや平面モードなどの非指向性モード、または例えばHEVCで定義されているように指向性モードを含むことができ、または67の異なるイントラ予測モード、例えばDC(または平均)モードや平面モードなどの非指向性モード、または例えばVVCで定義されているように指向性モードを含むことができる。
(可能性のある)インター予測モードのセットは、利用可能な参照画像(すなわち、以前に少なくとも部分的にデコードされた、例えばDBP230に格納された画像)および他のインター予測パラメータ、例えば参照画像全体または一部のみが、例えば参照画像の現在ブロックの領域の周りの検索ウィンドウ領域が最もよく一致する参照ブロックを検索するために使用されるかどうか、ならびに/あるいは例えばピクセル補間、例えばハーフ/セミペルおよび/またはクォーターペル補間が適用されるかどうかに依存する。
エントロピーエンコーディングユニット270は、例えば、ビデオデコーダ30がパラメータを受信してデコーディングに使用することができるように、例えば、エンコード済ビットストリーム21の形態で出力272を介して出力することができるエンコード済画像データ21を取得するために、量子化係数209、インター予測パラメータ、イントラ予測パラメータ、ループフィルタパラメータ、および/または他のシンタックス要素に対して、例えば、エントロピーエンコーディングアルゴリズムまたは方式(例えば、可変長コーディング(VLC)方式、コンテキスト適応型VLC方式(CAVLC)、算術コーディング方式、2値化、コンテキスト適応型バイナリ算術コーディング(CABAC)、シンタックスベースのコンテキスト適応型バイナリ算術コーディング(SBAC)、確率区間分割エントロピー(PIPE)コーディング、または別のエントロピーエンコーディング方法または技法)またはバイパス(圧縮なし)を適用するように構成される。エンコード済ビットストリーム21は、ビデオデコーダ30に送信されてもよいし、ビデオデコーダ30による後の送信または検索のためにメモリに格納されてもよい。
図3は、本開示の技術を実施するように構成されたビデオデコーダ30の一例を示す。ビデオデコーダ30は、例えば、エンコーダ20によってエンコードされたエンコード済画像データ21(例えば、エンコード済ビットストリーム21)を受信して、デコード済画像331を取得するように構成される。エンコード済画像データまたはビットストリームは、エンコード済画像データをデコードするための情報、例えば、エンコード済ビデオスライスの画像ブロックおよび関連するシンタックス要素を表すデータを含む。
エントロピーデコーディングユニット304は、ビットストリーム21(または、一般に、エンコード済画像データ21)を解析し、例えば、エンコード済画像データ21に対してエントロピーデコーディングを実行して、例えば、量子化係数309および/またはデコードされたコーディングパラメータ(図3には示されていない)、例えば、インター予測パラメータ(例えば、参照画像インデックスおよび動きベクトル)、イントラ予測パラメータ(例えば、イントラ予測モードまたはインデックス)、変換パラメータ、量子化パラメータ、ループフィルタパラメータ、および/または、その他のシンタックス要素のうちのいずれかまたはすべてを取得するように構成される。エントロピーデコーディングユニット304は、エンコーダ20のエントロピーエンコーディングユニット270に関して記載されたようなエンコーディング方式に対応するデコーディングアルゴリズムまたは方式を適用するように構成され得る。エントロピーデコーディングユニット304はさらに、インター予測パラメータ、イントラ予測パラメータ、および/または、その他のシンタックス要素をモード選択ユニット360へ、その他のパラメータをデコーダ30のその他のユニットへ提供するように構成され得る。ビデオデコーダ30は、ビデオスライスレベルおよび/またはビデオブロックレベルでシンタックス要素を受信することができる。
逆量子化ユニット310は、量子化パラメータ(QP)(または逆量子化に関連する一般的な情報)および量子化係数を(例えば、構文解析および/またはデコードすることによって、例えばエントロピーデコーディングユニット304によって)エンコード済画像データ21から受け取り、量子化パラメータに基づいて、デコード済量子化係数309に逆量子化を適用して、変換係数311とも呼ばれる逆量子化係数311を取得するように構成され得る。逆量子化プロセスは、量子化の程度と同様に適用すべき逆量子化の程度とを決定するべくビデオスライス内のそれぞれのビデオブロックごとにビデオエンコーダ20によって決定される量子化パラメータの使用を含んでもよい。
逆変換処理ユニット312は、変換係数311とも呼ばれる逆量子化係数311を受信し、サンプル領域内の再構築された残差ブロック213を取得するために、逆量子化係数311に変換を適用するように構成され得る。再構築された残差ブロック213はまた、変換ブロック313と呼ばれてもよい。変換は、逆変換、例えば、逆DCT、逆DST、逆整数変換、または概念的に同様の逆変換プロセスであってもよい。逆変換処理ユニット312は、逆量子化された係数311に適用されるべき変換を決定するために、(例えば、構文解析および/またはデコードすることによって、例えばエントロピーデコーディングユニット304によって)エンコード済画像データ21から変換パラメータまたは対応する情報を受信するようにさらに構成され得る。
再構築ユニット314(例えば加算器314)は、例えば、再構築された残差ブロック313のサンプル値と予測ブロック365のサンプル値とを加算することによって、サンプル領域内の再構築されたブロック315を取得するために、再構築された残差ブロック313を予測ブロック365に加算するように構成され得る。
ループフィルタユニット320(コーディングループ中またはコーディングループ後のいずれか)は、再構築ブロック315をフィルタリングしてフィルタリングされたブロック321を取得し、例えばピクセル移行を滑らかにするまたはビデオ品質を向上させるように構成される。ループフィルタユニット320は、デブロッキングフィルタ、サンプル適応オフセット(SAO)フィルタなどの1つまたは複数のループフィルタ、あるいは1つまたは複数の他のフィルタ、例えばバイラテラルフィルタ、適応ループフィルタ(ALF)、鮮鋭化、平滑化フィルタもしくは協調フィルタ、あるいはそれらの任意の組み合わせなどを含むことができる。ループフィルタユニット320は図3ではインループフィルタとして示されるが、他の形態では、ループフィルタユニット320がポストループフィルタとして実装されてもよい。
画像のデコードされたビデオブロック321は、その後に、デコード済画像バッファ330に格納され、ここでは、デコード済画像331が、その他の画像のためのその後の動き補償および/またはそれぞれ表示出力のための基準画像として格納される。
インター予測ユニット344はインター予測ユニット244(特に動き補償ユニット)と同一であってもよく、イントラ予測ユニット354はインター予測ユニット254と機能的に同一であってもよく、分割パラメータおよび/または予測パラメータ、またはエンコード済画像データ21から受信したそれぞれの情報に基づいて(例えば、構文解析および/またはデコードすることによって、例えばエントロピーデコーディングユニット304によって)分割または分割決定および予測を行う。モード選択ユニット360は、予測ブロック365を取得するために、再構築された画像、ブロック、またはそれぞれのサンプル(フィルタリングされたまたはフィルタリングされていない)に基づいてブロックごとに予測(イントラまたはインター予測)を実行するように構成され得る。
ux=(mvx+2bitDepth)% 2bitDepth (1)
mvx=(ux>=2bitDepth-1)?(ux-2bitDepth):ux (2)
uy=(mvy+2bitDepth)% 2bitDepth (3)
mvy=(uy>=2bitDepth-1)?(uy-2bitDepth):uy (4)
mvx=(ux>=2bitDepth-1)?(ux-2bitDepth):ux (6)
uy=(mvpy+mvdy+2bitDepth)% 2bitDepth (7)
mvy=(uy>=2bitDepth-1)?(uy-2bitDepth):uy (8)
演算は、式(5)~式(8)に示すように、mvpとmvdの和の間に適用されてもよい。
vx=Clip3(-2bitDepth-1,2bitDepth-1-1,vx)
vy=Clip3(-2bitDepth-1,2bitDepth-1-1,vy)
ここで、関数Clip3の定義は以下の通りである。
1.5つの空間的近隣ブロックから導出された最大4つの空間的候補、
2.2つの時間的にコロケートされたブロックから導出された1つの時間的候補、
3.組み合わされた双予測候補を含む追加の候補、および
4.ゼロ動きベクトル候補。
空間的近隣ブロックの動き情報は、まず、動き情報候補としてマージ候補リスト(一例では、マージ候補リストは、第1の動きベクトルがマージ候補リストに追加される前の空のリストであってもよい)に追加される。ここで、マージリストに挿入されると考えられる近隣ブロックを図6bに示す。予測間ブロックマージの場合、A1、B1、B0、A0、B2の順に順次チェックすることにより、最大4つの候補がマージリストに挿入される。
カテゴリ1、リスト内に冗長な動きデータを有する候補を有することを回避する、
カテゴリ2、冗長なシンタックスを生成する他の手段によって表現され得る2つの分割のマージを防止する。
図6aは、時間的動き情報候補が取得されるブロックの座標を示している。コロケートブロックは、現在ブロックと同じ-x、-y座標を有するが、異なる画像(参照画像のうちの1つ)上にあるブロックである。リストが一杯でない場合(一例では、マージリスト内の候補の数がしきい値より小さい場合、マージリストは一杯ではなく、例えば、しきい値は4、5、6などであってもよい)、時間的動き情報候補がマージリストに追加される。
空間的および時間的動き情報候補の挿入後に、マージリストがまだ一杯でない場合、生成された候補がリストを満たすために追加される。リストサイズは、シーケンスパラメータセットにおいて示され、コーディングされたビデオシーケンス全体にわたって固定される。
インター予測の特別なモードは「双予測」と呼ばれ、2つの動きベクトルがブロックを予測するために使用される。動きベクトルは、同じまたは異なる参照画像を指すことができ、参照画像は、参照画像リストIDおよび参照画像インデックスによって示すことができる。例えば、第1の動きベクトルは参照画像リストL0内の第1の画像を指し、第2の動きベクトルは参照画像リストL1内の第1の画像を指すことができる。2つの参照画像リスト(例えば、L0およびL1)が維持されてもよく、第1の動きベクトルによって示される画像はリストL0から選択され、第2の動きベクトルによって示される画像はリストL1から選択される。
・L0部分:参照画像リストL0内のエントリを指す動きベクトルおよび参照画像インデックス。
・ブロックが単予測を適用するか双予測を適用するか
・予測に用いられる参照画像のID。(ブロックが双予測を適用する場合は2つのID)。
・動きベクトル(ブロックが双予測される場合は2つの動きベクトル)
・追加情報
三角予測モードの概念は、動き補償予測のための新しい三角分割を導入することである。一例として、図7に示すように、2つの三角形予測ユニットは、対角方向または逆対角方向のいずれかでCUに使用される。CU内の各三角形予測ユニットは、単予測候補リストから導出された単予測動きベクトルおよび参照フレームインデックスを使用してインター予測される。各三角形予測ユニットに関連付けられたサンプルが、例えば動き補償または画像内予測によって予測された後に、対角エッジに対して適応重み付けプロセスが実行される。そして、変換および量子化処理がCU全体に適用される。このモードは、スキップモードおよびマージモードにのみ適用されることに留意されたい。
三角予測モードは、ブロックが2つのブロックに分割されるサブブロック予測の特殊なケースである。上記の例では、2つのブロック分割方向(45度および135度分割)が示されている。サブブロック予測のための他の分割角度および分割割合も可能である(例えば、図8の例)。
・ステップ1:幾何学的モデルに従って、コーディングブロックを2つのサブブロックに分割する。このモデルは、図9~図12に例示されるように、分離線(例えば、直線)によるブロックの分割をもたらし得る。
・ステップ2:第1のサブブロックの第1の予測モードおよび第2のサブブロックの第2の予測モードを取得する。一例では、第1の予測モードは第2の予測モードと同一ではない。一例では、予測モード(第1の予測モードまたは第2の予測モード)はインター予測モードであってもよく、インター予測モードの情報は、参照画像インデックスおよび動きベクトルを含んでもよい。別の例では、予測モードは、イントラ予測モードであってもよく、イントラ予測モードの情報はイントラ予測モードインデックスを含んでもよい。
・ステップ3:第1の予測モードおよび第2の予測モードをそれぞれ使用して、第1の予測値および第2の予測値を生成する。
・ステップ4:ステップ1で開示された分割に従って、第1の予測値と第2の予測値とを組み合わせることによって予測サンプルの合成値を取得する。
この実施形態によれば、上記のプロセスにおけるステップ4は、以下のサブステップからなる。
ブロック内のルーマサンプルの場合、サンプル距離(sample_dist)が計算され、サンプル距離は、ブロックの分離線までのルーマサンプルの距離を表す。
計算されたsample_distは、重み係数を計算するために使用され、重み係数は、ルーマサンプルに対応する第1のルーマ予測値と第2のルーマ予測値との組み合わせに使用される。一例では、重み係数は、第1のルーマ予測値に対応する重み値および第2のルーマ予測値に対応する重み値を参照して、sampleWeight1およびsampleWeight2として示される。
座標(x,y)のクロマサンプルに対応する重み係数sampleWeightC1(またはsampleWeightC2)が計算され、これは、座標(x、y)のルーマサンプルに対する重み係数sampleWeight1(またはsampleWeight2)との関係を有する。任意選択で、クロマサンプルの第2の重みsampleWeightC2は、以下の式に従って計算される:sampleWeightC2=T-sampleWeightC1、式中、Tは所定の定数である。
座標(x,y)のクロマサンプルの合成予測値は、座標(x,y)の第1のクロマ予測値、座標(x,y)の第2のクロマ予測値、重み係数sampleWeightC1、および重み係数sampleWeightC2に従って計算され、(x,y)は、クロマブロックの左上座標に対する、コーディングブロックのクロマブロック内のクロマサンプルの座標である。
sample_dist=((x<<1)+1)*Dis[angleIdx1]+((y<<1)+1))*Dis[angleIdx2]-offset(distanceIdx)
-nCbR=(W>H)?(W/H):(H/W)
-sample_dist=(W>H)?(x/nCbR-y):(x-y/nCbR)
または
-sample_dist=(W>H)?(H-1-x/nCbR-y):(W-1-x-y/nCbR)
-sampleWeight1=Clip3(0,8,sample_dist+4)、
ここで、Wはコーディングブロックの幅であり、Hはコーディングブロックの高さである。
上記の2つの例は、整数演算による2つの計算方法を示すことに留意されたい。本発明の実施形態は、sample_distの計算のそれらの例に限定されない。
第1の混合操作:”sampleWeight=Clip3(0,8,sample_dist+4)”
-”sampleWeight=sample_dist==0?4:sample_dist<0?0:8”,
-”sampleWeight=Clip3(0,8,sample_dist*K+Clip3(0,8,sample_dist+4))”.
-例1:sampleWeightC1(x、y)=sampleWeight1(2*x,2*y);
-例2:sampleWeightC1(x、y)=sampleWeight1(2*x-1、2*y-1);
-例3:sampleWeightC1(x、y)=(sampleWeight1(2*x-1、2*y-1)+sampleWeight1(2*x,2*y)+K)>>1;
-例4:sampleWeightC1(x,y)=(sampleWeight1(2*x-1,2*y-1)+sampleWeight1(2*x,2*y)+sampleWeight1(2*x,2*y-1)+sampleWeight1(2*x-1,2*y)+K)>>2;
-例5:sampleWeightC1(x,y)=(sampleWeight1(2*x-1,2*y-1)+sampleWeight1(2*x,2*y)+sampleWeight1(2*x,2*y-1)+sampleWeight1(2*x-1,2*y)+2)>>2;
-例6:sampleWeightC1(x、y)=(sampleWeight1(2*x-1、2*y-1)+sampleWeight1(2*x,2*y)+1)>>1、
ここで、xおよびyは、コーディングブロックのクロマブロックの左上座標に対するクロマサンプルの座標である。sampleWeightC1(x、y)は、座標(x,y)のクロマサンプルに対応するクロマサンプル重みであり、sampleWeight1(x、y)は、座標(x,y)のルーマサンプルに対応するサンプル重みである。Kはオフセット値である。一例では、Kは0であってもよい。別の例では、Kは正の整数値であってもよい。
本開示で使用される数学的演算子は、Cプログラミング言語で使用されるものと同様である。しかしながら、整数除算および算術シフト演算の結果はより正確に定義され、指数化および実数値除算などの追加の演算が定義される。ナンバリングおよびカウントの規則は一般に0から始まり、例えば、「第1の」は0番目に相当し、「第2の」は1番目に相当するなどである。
以下の演算子を以下のように定義する。
以下の論理演算子は以下のように定義される。
x&&y xおよびyのブール論理「および」
x||y xとyのブール論理「または」
! ブール論理「否定」
x?y:z xがTRUEであるかまたは0に等しくない場合には、yの値を評価し、そうでない場合にはzの値を評価する。
以下の関係演算子は以下のように定義される。
> より大きい
>= 以上
< 未満
<= 以下
== 等しい
!= 等しくない
以下のビット演算子は以下のように定義される。
& ビット「および」。整数引数で演算する場合、は整数値の2の補数表現で演算する。別の引数より少ないビットを含むバイナリ引数で動作する場合、より短い引数は、0に等しい上位ビットを追加することによって拡張される。
| ビット「または」。整数引数で演算する場合、は整数値の2の補数表現で演算する。別の引数より少ないビットを含むバイナリ引数で動作する場合、より短い引数は、0に等しい上位ビットを追加することによって拡張される。
^ ビット「排他的または」。整数引数で演算する場合、は整数値の2の補数表現で演算する。別の引数より少ないビットを含むバイナリ引数で動作する場合、より短い引数は、0に等しい上位ビットを追加することによって拡張される。
x>>y 2進数によるxの2の補数整数表現の算術右シフト。この関数は、yの非負整数値に対してのみ定義される。右シフトにより最上位ビット(MSB)にシフトされたビットは、シフト演算前のxのMSBに等しい値となる。
x<<y 2進数によるxの2の補数整数表現の算術左シフト。この関数は、yの非負整数値に対してのみ定義される。左シフトの結果として最下位ビット(LSB)にシフトされたビットは、0に等しい値を有する。
以下の演算子を以下のように定義する。
= 割り当て演算子
++ インクリメント、すなわち、x++は、x=x+1と等価である。配列インデックスで使用される場合、インクリメント演算の前に変数の値を評価する。
-- デクリメント、すなわち、x--は、x=x-1と等価である。配列インデックスで使用される場合、デクリメント演算の前に変数の値を評価する。
+= 指定された量だけ増加する、すなわち、x+=3は、x=x+3に相当し、
x+=(-3)は、x=x+(-3)と等価である。
-= 指定された量だけ減少する、すなわち、x-=3は、x=x-3と等価であり、
x-=(-3)は、x=x-(-3)と等価である。
以下の表記法は、値の範囲を指定するために使用される。
x=y..z xは、y以上z以下の整数値をとり、x、y、およびzは整数であり、zはyより大きい。
-1.0以上1.0以下の範囲であり、出力値は、ラジアン単位で-π÷2以上π÷2以下の範囲
Atan(x) 引数xに対して動作する三角法逆正接関数であり、
出力値は、ラジアン単位で-π÷2以上π÷2以下の範囲
Clip1Y(x)=Clip3(0,(1 << BitDepthY)-1,x)
Clip1C(x)=Clip3(0,(1 << BitDepthC)-1,x)
Floor(x) x以下の最大整数。
Log 2(x) xの底2の対数。
Log 10(x) xの底10の対数。
Tan(x) ラジアン単位の引数xで動作する三角正接関数
式における優先順位が括弧の使用によって明示的に示されない場合、以下の規則が適用される。
-より高い優先度の動作は、より低い優先度の任意の動作の前に評価される。
-同じ優先度の動作は、左から右に順次評価される。
テキストでは、論理演算のステートメントは、以下の形式で数学的に記述される。
if(条件0)
ステートメント0
else if(条件1)
ステートメント1
...
else/*残りの条件に関する有益な注釈*/
ステートメントn
以下のように記述することができる。
...以下の通り/...以下が適用される。
-If 条件0、ステートメント0
-Otherwise,if 条件1、ステートメント1
-...
-Otherwise(残りの条件に関する有益な注釈)、ステートメントn
if(条件0a && 条件0b)
ステートメント0
else if(条件1a||条件1b)
ステートメント1
...
else
ステートメントn
以下のように記述することができる。
...以下の通り/...以下が適用される。
-以下の条件のすべてが真である場合には、ステートメント0:
-条件0a
-条件0b
-そうではなく、以下の条件のうちの1つまたは複数が真である場合には、ステートメント1:
-条件1a
-条件1b
-...
-そうでない場合、ステートメントn
if(条件0)
ステートメント0
if(条件1)
ステートメント1
以下のように記述することができる。
条件0の場合、ステートメント0
条件1の場合、ステートメント1。
現在ブロックを少なくとも2つのサブブロックに分割するステップと、
少なくとも2つのサブブロック内の第1のサブブロックの第1の予測モードを取得するステップと、
第1の予測モードに従って現在ブロック内のクロマサンプルの第1の予測値を取得するステップと、
現在ブロック内のルーマサンプルの重み値に従って、クロマサンプルの第1の重み値を取得するステップと、
クロマサンプルの第1の予測値およびクロマサンプルの第1の重み値に従って、現在ブロック内のクロマサンプルの合成予測値を取得するステップと、を含む。
sampleWeightC1(x,y)=sampleWeight1(2*x,2*y);
または
sampleWeightC1(x,y)=sampleWeight1(2*x-1,2*y-1)、
または
sampleWeightC1(x,y)=(sampleWeight1(2*x-1,2*y-1)+sampleWeight1(2*x,2*y)+K)>>1、
または
sampleWeightC1(x,y)=(sampleWeight1(2*x-1,2*y-1)+sampleWeight1(2*x,2*y)+sampleWeight1(2*x,2*y-1)+sampleWeight1(2*x-1,2*y)+K)>>2、
または
sampleWeightC1(x,y)=(sampleWeight1(2*x-1,2*y-1)+sampleWeight1(2*x,2*y)+sampleWeight1(2*x,2*y-1)+sampleWeight1(2*x-1,2*y)+2)>>2、
または
sampleWeightC1(x,y)=(sampleWeight1(2*x-1,2*y-1)+sampleWeight1(2*x,2*y)+1)>>1、のように実施され、
ここで、xおよびyは、コーディングブロックのクロマブロックの左上座標に対するクロマサンプルの座標であり、sampleWeightC1(x,y)は、座標(x,y)(これは、現在ブロックのクロマブロック内のサンプル座標を意味する)に位置するクロマサンプルの第1の重み値であり、sampleWeight1(x,y)は、座標(x,y)(これは、現在ブロックのルーマブロック内のサンプル座標を意味する)に位置するルーマサンプルに対応する重み値を表し、Kは整数値である。
12 送信元デバイス
13 通信チャネル
14 宛先デバイス
16 画像ソース
17 画像/画像データ
18 プリプロセッサ/前処理ユニット
19 前処理された画像データ
20 ビデオエンコーダ/ショートエンコーダ
21 エンコード済画像データ/エンコード済ビットストリーム
22 通信インターフェース/通信ユニット
28 通信インターフェース/通信ユニット
30 ビデオデコーダ/ショートデコーダ
31 デコード済画像データ
32 ポストプロセッサ/後処理ユニット
33 後処理された画像データ
34 ディスプレイデバイス
46 処理回路
100 ビデオエンコーダ
110 逆量子化ユニット
201 入力/入力インターフェース
203 画像ブロック
204 残差計算ユニット
205 残差ブロック
206 変換処理ユニット
207 変換係数
208 量子化ユニット
209 量子化係数/量子化残差係数/量子化変換係数
210 逆量子化ユニット
211 逆量子化係数/残差係数
212 逆変換処理ユニット
213 再構築された残差ブロック/変換ブロック
214 再構築ユニット/加算器
215 再構築ブロック
216 バッファ
220 ループフィルタユニット
221 フィルタリングされたブロック
230 デコード済画像バッファ
231 デコード済画像データ
244 インター予測ユニット
254 イントラ予測ユニット
260 モード選択ユニット
262 分割ユニット
265 予測ブロック
266 シンタックス要素
270 エントロピーエンコーディングユニット
272 出力/出力インターフェース
304 エントロピーデコーディングユニット
309 デコード済量子化係数
310 逆量子化ユニット
311 逆量子化係数
312 逆変換処理ユニット
313 再構築された残差ブロック/残差ブロック
314 再構築ユニット/加算器
315 再構築ブロック
320 ループフィルタユニット
321 フィルタリングされたブロック
330 デコード済画像バッファ
331 デコード済画像
344 インター予測ユニット
354 イントラ予測ユニット
360 モード選択ユニット
365 予測ブロック
400 ビデオコーディングデバイス
410 入力ポート/入力ポート
420 受信機ユニット
430 プロセッサ
440 送信機ユニット
450 出力ポート/出口ポート
460 メモリ
470 コーディングモジュール
500 装置
502 プロセッサ
504 メモリ
506 コードおよびデータ
508 オペレーティングシステム
510 アプリケーションプログラム
512 バス
514 二次記憶
518 ディスプレイ
1250 分離線
3001 取得ユニット
3005 第1の予測ユニット
3007 第2の予測ユニット
3009 第1の生成ユニット
3011 第2の生成ユニット
3013 組み合わせユニット
3100 コンテンツ供給システム
3102 キャプチャデバイス
3104 通信リンク
3106 端末デバイス
3108 スマートフォン/Pad
3110 コンピュータ/ラップトップ
3112 ネットワークビデオレコーダ(NVR)/デジタルビデオレコーダ(DVR)
3114 TV
3116 セットトップボックス(STB)
3118 テレビ会議システム
3120 ビデオ監視システム
3122 携帯情報端末(PDA)
3124 車両搭載デバイス
3126 外部ディスプレイ
3202 プロトコル進行ユニット
3204 逆多重化ユニット
3206 ビデオデコーダ
3208 オーディオデコーダ
3210 サブタイトルデコーダ
3212 同期ユニット
3214 ビデオ/オーディオディスプレイ
3216 ビデオ/オーディオ/サブタイトルディスプレイ
Claims (16)
- デコーディングデバイスによって実施されるコーディングの方法であって、
現在ブロックのパラメータの値を取得するステップであって、前記パラメータの前記値は前記現在ブロックの分割モードを示す、ステップと、
前記現在ブロックの第1の予測モードを取得するステップと、
前記現在ブロックの第2の予測モードを取得するステップと、
前記第1の予測モードに従って前記現在ブロック内のクロマサンプルのための第1の予測値を生成するステップと、
前記第2の予測モードに従って前記現在ブロック内のクロマサンプルのための第2の予測値を生成するステップと、
前記第1の予測値と前記第2の予測値とを組み合わせることによって予測サンプルの合成値を取得するステップと、を含み、
前記方法は、ルーマサンプルの重み値を計算することによって前記ルーマサンプルの前記重み値を取得するステップと、クロマサンプルの第1の重み値を計算することによって、前記クロマサンプルの前記第1の重み値を取得するステップと、をさらに含み、
前記第1の重み値はサンプル距離に従って計算され、前記サンプル距離は、式:
sample_dist=((x<<1)+1)*Dis[angleIdx1]+((y<<1)+1)*Dis[angleIdx2]-offset(distanceIdx)
に従って計算され、xおよびyは、コーディングブロックの左上サンプルに対するサンプルの-xおよび-y座標であり、Dis[angleIdx1]は、前記サンプルの-x座標における単位増加に対する前記サンプル距離の変化を記述し、Dis[angleIdx2]は、前記サンプルの-y座標における単位増加に対する前記サンプル距離の変化を記述し、angleIdx1およびangleIdx2は、前記現在ブロックを分割する分離線の角度インデックスに基づくパラメータであり、ビットストリームから得られた他の情報に基づいて導出され、offset(distanceIdx)はオフセット値であり、これは前記現在ブロックの所定の位置から前記分離線までの所定の方向の長さに基づくインデックス値(distanceIdx)の関数であり、
前記クロマサンプルの前記第1の予測値および前記クロマサンプルの前記第1の重み値に従って、前記現在ブロック内の前記クロマサンプルの合成予測値を取得するステップをさらに含む、方法。 - 予測サンプルの前記合成値は、前記分割モードに従って前記第1の予測値と前記第2の予測値とを組み合わせることによって取得される、請求項1に記載の方法。
- 予測サンプルの前記合成値は、混合操作に従って前記第1の予測値と前記第2の予測値とを組み合わせることによって取得される、請求項1または2に記載の方法。
- 前記混合操作は、関数またはルックアップテーブルを使用して実施される、請求項3に記載の方法。
- 前記クロマサンプルの前記第1の重み値を取得する前記ステップは、以下のように、前記現在ブロック内の前記ルーマサンプルの前記重み値を取得するステップに関連し、
sampleWeightC1(x,y)=sampleWeight1(2*x,2*y)、
ここで、xおよびyは、コーディングブロックのクロマブロックの左上座標に対するクロマサンプルの座標であり、sampleWeightC1(a,b)は、前記現在ブロックの前記クロマブロック内のサンプル座標(a,b)に位置する前記クロマサンプルの第1の重み値であり、aおよびbは座標値であり、sampleWeight1(c,d)は、前記現在ブロックのルーマブロック内のサンプル座標(c,d)に位置するルーマサンプルに対応する重み値を表し、cおよびdは座標値であり、Kは整数値であり、
sampleWeight1は、式:
sampleWeight1=Clip3(0, 8, sample_dist+4)
に従って取得され、
ここで、関数Clip3は、
- 前記クロマサンプルの前記第1の重み値を取得する前記ステップは、以下のように、前記現在ブロック内の前記ルーマサンプルの前記重み値を取得するステップに関連し、
sampleWeightC1(x,y)=sampleWeight1(2*x-1,2*y-1)、
または
sampleWeightC1(x,y)=(sampleWeight1(2*x-1,2*y-1)+sampleWeight1(2*x,2*y)+K)>>1、
または
sampleWeightC1(x,y)=(sampleWeight1(2*x-1,2*y-1)+sampleWeight1(2*x,2*y)+sampleWeight1(2*x,2*y-1)+sampleWeight1(2*x-1,2*y)+K)>>2、
または
sampleWeightC1(x,y)=(sampleWeight1(2*x-1,2*y-1)+sampleWeight1(2*x,2*y)+sampleWeight1(2*x,2*y-1)+sampleWeight1(2*x-1,2*y)+2)>>2、
または
sampleWeightC1(x,y)=(sampleWeight1(2*x-1,2*y-1)+sampleWeight1(2*x,2*y)+1)>>1、
ここで、xおよびyは、コーディングブロックのクロマブロックの左上座標に対するクロマサンプルの座標であり、sampleWeightC1(a,b)は、前記現在ブロックの前記クロマブロック内のサンプル座標(a,b)に位置する前記クロマサンプルの第1の重み値であり、aおよびbは座標値であり、sampleWeight1(c,d)は、前記現在ブロックのルーマブロック内のサンプル座標(c,d)に位置するルーマサンプルに対応する重み値を表し、cおよびdは座標値であり、Kは整数値であり、
sampleWeight1は、式:
sampleWeight1=Clip3(0, 8, sample_dist+4)
に従って取得され、
ここで、関数Clip3は、
- 前記分割モードは幾何学的モデルである、請求項1から6のいずれか一項に記載の方法。
- 前記パラメータは、角度パラメータまたは距離パラメータである、請求項1から7のいずれか一項に記載の方法。
- 前記第1の予測モードと前記第2の予測モードとは同一ではない、請求項1から8のいずれか一項に記載の方法。
- 前記第1の予測モードまたは前記第2の予測モードはインター予測モードであり、前記インター予測モードのための情報は参照画像インデックスおよび/または動きベクトルを含む、請求項1から9のいずれか一項に記載の方法。
- 前記第1の予測モードまたは前記第2の予測モードはイントラ予測モードであり、前記イントラ予測モードのための情報はイントラ予測モードインデックスを含む、請求項1から10のいずれか一項に記載の方法。
- 請求項1から11のいずれか一項に記載の方法を実行するための処理回路を含むデコーダ(30)。
- 請求項1から11のいずれか一項に記載の方法を実行するためのプログラムコードを含むコンピュータプログラム。
- デコーダであって、
1つまたは複数のプロセッサと、
前記プロセッサに結合され、前記プロセッサにより実行するためのプログラミングを格納する非一時的コンピュータ可読記憶媒体と、を含み、前記プログラミングは、前記プロセッサにより実行されると、請求項1から11のいずれか一項に記載の方法を実行するように前記デコーダを構成する、デコーダ。 - デコーダであって、
現在ブロックのパラメータの値を取得するための取得ユニット(3001)であって、前記パラメータの前記値は前記現在ブロックの分割モードを示す、取得ユニット(3001)と、
前記現在ブロックの第1の予測モードを取得するための第1の予測ユニット(3005)と、
前記現在ブロックの第2の予測モードを取得するための第2の予測ユニット(3007)と、
前記第1の予測モードに従って前記現在ブロック内のクロマサンプルのための第1の予測値を生成するための第1の生成ユニット(3009)と、
前記第2の予測モードに従って前記現在ブロック内のクロマサンプルのための第2の予測値を生成するための第2の生成ユニット(3011)と、
前記第1の予測値と前記第2の予測値とを組み合わせることによって予測サンプルの合成値を取得するための組み合わせユニット(3013)と、を含み、
前記組み合わせユニットは、ルーマサンプルの重み値を計算することによって前記ルーマサンプルの前記重み値を取得し、クロマサンプルの第1の重み値を計算することによって、前記クロマサンプルの前記第1の重み値を取得するようにさらに構成され、
前記第1の重み値はサンプル距離に従って計算され、前記サンプル距離は、式:
sample_dist=((x<<1)+1)*Dis[angleIdx1]+((y<<1)+1)*Dis[angleIdx2]-offset(distanceIdx)
に従って計算され、xおよびyは、コーディングブロックの左上サンプルに対するサンプルの-xおよび-y座標であり、Dis[angleIdx1]は、前記サンプルの-x座標における単位増加に対する前記サンプル距離の変化を記述し、Dis[angleIdx2]は、前記サンプルの-y座標における単位増加に対する前記サンプル距離の変化を記述し、angleIdx1およびangleIdx2は、前記現在ブロックを分割する分離線の角度インデックスに基づくパラメータであり、ビットストリームから得られた他の情報に基づいて導出され、offset(distanceIdx)はオフセット値であり、これは前記現在ブロックの所定の位置から前記分離線までの所定の方向の長さに基づくインデックス値(distanceIdx)の関数であり、
前記組み合わせユニットは、前記クロマサンプルの前記第1の予測値および前記クロマサンプルの前記第1の重み値に従って、前記現在ブロック内の前記クロマサンプルの合成予測値を取得するようにさらに構成される、デコーダ。 - 請求項1から11のいずれか一項に記載の方法によりビットストリームをデコードする方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP2019066516 | 2019-06-21 | ||
EPPCT/EP2019/066516 | 2019-06-21 | ||
PCT/CN2020/097147 WO2020253830A1 (en) | 2019-06-21 | 2020-06-19 | Chroma sample weight derivation for geometric partition mode |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022537426A JP2022537426A (ja) | 2022-08-25 |
JP7564132B2 true JP7564132B2 (ja) | 2024-10-08 |
Family
ID=74036912
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021576115A Active JP7564132B2 (ja) | 2019-06-21 | 2020-06-19 | 幾何学的分割モードのためのクロマサンプル重みの導出 |
Country Status (11)
Country | Link |
---|---|
US (1) | US20220021883A1 (ja) |
EP (1) | EP3935844A4 (ja) |
JP (1) | JP7564132B2 (ja) |
KR (1) | KR20220012345A (ja) |
CN (2) | CN117061735A (ja) |
AU (1) | AU2020294676A1 (ja) |
BR (1) | BR112021025846A2 (ja) |
CA (1) | CA3141088A1 (ja) |
MX (1) | MX2021015847A (ja) |
WO (1) | WO2020253830A1 (ja) |
ZA (1) | ZA202109977B (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113875251B (zh) | 2019-06-21 | 2023-11-28 | 华为技术有限公司 | 用于几何分割模式的自适应滤波器强度指示 |
WO2021037276A1 (en) * | 2019-09-01 | 2021-03-04 | Beijing Bytedance Network Technology Co., Ltd. | Alignment of prediction weights in video coding |
WO2021068923A1 (en) | 2019-10-10 | 2021-04-15 | Beijing Bytedance Network Technology Co., Ltd. | Deblocking filtering improvements |
WO2023219288A1 (ko) * | 2022-05-12 | 2023-11-16 | 현대자동차주식회사 | 양방향 예측을 이용하는 크로마 성분의 인터 예측을 위한 방법 |
US20240129474A1 (en) * | 2022-10-14 | 2024-04-18 | Tencent America LLC | Systems and methods for cross-component geometric/wedgelet partition derivation |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101502120B (zh) * | 2006-08-02 | 2012-08-29 | 汤姆逊许可公司 | 用于视频解码的自适应几何分割方法和设备 |
CN101822056B (zh) * | 2007-10-12 | 2013-01-02 | 汤姆逊许可公司 | 用于视频编解码几何划分的双向预测模式划分的方法和装置 |
US8879632B2 (en) * | 2010-02-18 | 2014-11-04 | Qualcomm Incorporated | Fixed point implementation for geometric motion partitioning |
CN107181950B (zh) * | 2010-12-08 | 2020-11-06 | Lg 电子株式会社 | 一种执行内预测的编码装置和解码装置 |
KR102086145B1 (ko) * | 2010-12-13 | 2020-03-09 | 한국전자통신연구원 | 인트라 예측 방법 및 그 장치 |
KR20130049523A (ko) * | 2011-11-04 | 2013-05-14 | 오수미 | 인트라 예측 블록 생성 장치 |
US20130287093A1 (en) * | 2012-04-25 | 2013-10-31 | Nokia Corporation | Method and apparatus for video coding |
US9609343B1 (en) * | 2013-12-20 | 2017-03-28 | Google Inc. | Video coding using compound prediction |
CN107113425A (zh) * | 2014-11-06 | 2017-08-29 | 三星电子株式会社 | 视频编码方法和设备以及视频解码方法和设备 |
EP3367680B1 (en) * | 2015-10-22 | 2020-07-01 | LG Electronics Inc. | Intra-prediction method and apparatus in video coding system |
US20180376148A1 (en) * | 2017-06-23 | 2018-12-27 | Qualcomm Incorporated | Combination of inter-prediction and intra-prediction in video coding |
BR112020002254A2 (pt) * | 2017-08-22 | 2020-08-04 | Panasonic Intellectual Property Corporation Of America | codificador de imagem, decodificador de imagem, método de codificação de imagem e método de decodificação de imagem |
KR102427789B1 (ko) * | 2017-10-10 | 2022-08-02 | 한국전자통신연구원 | 인터 예측 정보를 사용하는 방법 및 장치 |
CN118214853A (zh) * | 2017-10-26 | 2024-06-18 | 英迪股份有限公司 | 用于基于非对称子块的图像编码/解码的方法及装置 |
WO2019107927A1 (ko) * | 2017-11-28 | 2019-06-06 | 한국전자통신연구원 | 양방향 인트라 예측 방법 및 장치 |
KR20190140862A (ko) * | 2018-06-12 | 2019-12-20 | 한국전자통신연구원 | 문맥 적응적 이진 산술 부호화 방법 및 장치 |
-
2020
- 2020-06-19 KR KR1020217042444A patent/KR20220012345A/ko active Pending
- 2020-06-19 WO PCT/CN2020/097147 patent/WO2020253830A1/en unknown
- 2020-06-19 BR BR112021025846A patent/BR112021025846A2/pt unknown
- 2020-06-19 CA CA3141088A patent/CA3141088A1/en active Pending
- 2020-06-19 AU AU2020294676A patent/AU2020294676A1/en active Pending
- 2020-06-19 JP JP2021576115A patent/JP7564132B2/ja active Active
- 2020-06-19 CN CN202310845783.2A patent/CN117061735A/zh active Pending
- 2020-06-19 CN CN202080044138.5A patent/CN114026864B/zh active Active
- 2020-06-19 MX MX2021015847A patent/MX2021015847A/es unknown
- 2020-06-19 EP EP20826846.6A patent/EP3935844A4/en not_active Ceased
-
2021
- 2021-09-30 US US17/489,793 patent/US20220021883A1/en active Pending
- 2021-12-03 ZA ZA2021/09977A patent/ZA202109977B/en unknown
Non-Patent Citations (4)
Title |
---|
BLASER, Max et al.,Description of SDR and 360° video coding technology proposal by RWTH Aachen University,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11 10th Meeting: San Diego, US, 10-20 Apr. 2018, [JVET-J0023-v1],JVET-J0023 (version 2),ITU-T,2018年04月02日,<URL:https://jvet-experts.org/doc_end_user/documents/10_San%20Diego/wg11/JVET-J0023-v2.zip>: JVET-J0023.docx: pp.1-14,28-29 |
LIAO, Ru-Ling and LIM, Chong Soon,CE10.3.1.b: Triangular prediction unit mode,Joint Video Exploration Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11 12th Meeting: Macao, CN, 03-12 Oct. 2018, [JVET-L0124-v2],JVET-L0124 (version 5),ITU-T,2018年10月08日,<URL:https://jvet-experts.org/doc_end_user/documents/12_Macao/wg11/JVET-L0124-v5.zip>: JVET-L0124-v2.doc: pp.1-8 |
Test Model under Consideration,Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 1st Meeting: Dresden, DE, 15-23 April, 2010, [JCTVC-A205],JCTVC-A205 (version 1),ITU-T,2012年03月19日,<URL:http://phenix.it-sudparis.eu/jct/doc_end_user/documents/1_Dresden/wg11/JCTVC-A205.zip>: JCTVC-A205_draft001.doc: pp.31-34 |
TOMA, Tadamasa et al.,Description of SDR video coding technology proposal by Panasonic,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11 10th Meeting: San Diego, US, 10-20 Apr. 2018, [JVET-J0020-v1],JVET-J0020 (version 1),ITU-T,2018年04月02日,<URL:https://jvet-experts.org/doc_end_user/documents/10_San%20Diego/wg11/JVET-J0020-v1.zip>: JVET-J0020-v1.docx: pp.12-15 |
Also Published As
Publication number | Publication date |
---|---|
WO2020253830A1 (en) | 2020-12-24 |
CA3141088A1 (en) | 2020-12-24 |
EP3935844A4 (en) | 2022-05-04 |
CN114026864A (zh) | 2022-02-08 |
KR20220012345A (ko) | 2022-02-03 |
JP2022537426A (ja) | 2022-08-25 |
MX2021015847A (es) | 2022-02-03 |
CN117061735A (zh) | 2023-11-14 |
CN114026864B (zh) | 2023-07-07 |
ZA202109977B (en) | 2022-09-28 |
US20220021883A1 (en) | 2022-01-20 |
BR112021025846A2 (pt) | 2022-02-08 |
EP3935844A1 (en) | 2022-01-12 |
AU2020294676A1 (en) | 2021-12-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7375125B2 (ja) | ルーマおよびクロマ成分についてibc専用バッファおよびデフォルト値リフレッシュを使用するエンコーダ、デコーダおよび対応する方法 | |
JP7548679B2 (ja) | コーディングブロックの三角形パーティションのインター予測のための装置および方法 | |
JP7529348B2 (ja) | エンコーダ、デコーダ、および対応するイントラ予測方法 | |
JP7615243B2 (ja) | クロマサブブロックのアフィンベースのインター予測のための方法及び装置 | |
JP7571227B2 (ja) | 行列ベースのイントラ予測と二次変換コア選択を調和させるエンコーダ、デコーダ、および対応する方法 | |
US11388422B2 (en) | Encoder, a decoder and corresponding methods related to intra prediction mode | |
JP7564132B2 (ja) | 幾何学的分割モードのためのクロマサンプル重みの導出 | |
JP7562797B2 (ja) | イントラ平滑化のための方法および装置 | |
JP7597871B2 (ja) | クロミナンス量子化パラメータのシグナリングのための方法及び装置 | |
JP7553007B2 (ja) | ビデオコーディングにおけるクロマイントラ予測のための方法及び装置 | |
JP2022547293A (ja) | 重み付き予測のための高レベルシグナリングの方法および装置 | |
US12047555B2 (en) | Adaptive filter strength signalling for geometric partition mode | |
JP2024150526A (ja) | イントラ予測のためのイントラモードコーディングを使用するエンコーダ、デコーダ、および対応する方法 | |
JP7532597B2 (ja) | 幾何学的区分けモードのためのサンプルの距離の計算 | |
US11876956B2 (en) | Encoder, a decoder and corresponding methods for local illumination compensation | |
RU2814812C2 (ru) | Выведение веса выборки цветности для геометрического режима разделения | |
JP2024109748A (ja) | 平面モードのためのイントラ予測における複雑さ減少のエンコーダ、デコーダ、および対応する方法 | |
WO2021006773A1 (en) | Motion field storage optimization for the line buffer |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220106 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220106 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230306 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230606 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230919 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20231219 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231220 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240318 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240710 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20240718 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240917 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240926 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7564132 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |