[go: up one dir, main page]

JP7652742B2 - VIDEO ENCODING METHOD, VIDEO ENCODING APPARATUS, STORAGE MEDIUM AND COMPUTER PROGRAM - Patent application - Google Patents

VIDEO ENCODING METHOD, VIDEO ENCODING APPARATUS, STORAGE MEDIUM AND COMPUTER PROGRAM - Patent application Download PDF

Info

Publication number
JP7652742B2
JP7652742B2 JP2022109740A JP2022109740A JP7652742B2 JP 7652742 B2 JP7652742 B2 JP 7652742B2 JP 2022109740 A JP2022109740 A JP 2022109740A JP 2022109740 A JP2022109740 A JP 2022109740A JP 7652742 B2 JP7652742 B2 JP 7652742B2
Authority
JP
Japan
Prior art keywords
prediction
calculating
ciip
gradient value
coding block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022109740A
Other languages
Japanese (ja)
Other versions
JP2022172057A5 (en
JP2022172057A (en
Inventor
シュウ,シャオユウ
チェン,イーウェン
ワン,シャンリン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Dajia Internet Information Technology Co Ltd
Original Assignee
Beijing Dajia Internet Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from PCT/US2020/012826 external-priority patent/WO2020146562A1/en
Application filed by Beijing Dajia Internet Information Technology Co Ltd filed Critical Beijing Dajia Internet Information Technology Co Ltd
Publication of JP2022172057A publication Critical patent/JP2022172057A/en
Publication of JP2022172057A5 publication Critical patent/JP2022172057A5/en
Application granted granted Critical
Publication of JP7652742B2 publication Critical patent/JP7652742B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本願は、2019年1月9日に出願された仮出願第62/790,421号に基づき優先
権を主張し、その全部の内容をここに援用する。
This application claims priority to Provisional Application No. 62/790,421, filed January 9, 2019, the entire contents of which are incorporated herein by reference.

本願は、ビデオコーディングと圧縮に関するものである。より具体的には、本願は、ビ
デオコーディングのための複合インターとイントラ予測(CIIP)方法に関する方法お
よび装置に関するものである。
This application relates to video coding and compression. More particularly, this application relates to a method and apparatus relating to a combined inter- and intra-prediction (CIIP) method for video coding.

ビデオデータを圧縮するために、様々なビデオコーディング技術を使用することができ
る。ビデオコーディングは、1つまたは複数のビデオコーディング規格に従って実行され
る。たとえば、ビデオコーディング規格には、多用途ビデオコーディング(VVC)、共
同探査テストモデル(JEM)、高効率ビデオコーディング(H.265/HEVC)、高
度なビデオコーディング(H.264/AVC)、動画エキスパートグループ(MPEG)
コーディングなどが含まれる。ビデオコーディングは、一般に、ビデオ画像またはシーケ
ンスに存在する冗長性を利用する予測方法(例えば、インター予測、イントラ予測など)
を利用する。ビデオコーディング技術の重要な目標は、ビデオ品質の低下を回避または最
小限に抑えながら、ビデオデータを、より低いビットレートを使用する形式に圧縮するこ
とである。
Various video coding techniques may be used to compress the video data. Video coding may be performed according to one or more video coding standards. For example, video coding standards include Versatile Video Coding (VVC), Joint Exploration Test Model (JEM), High Efficiency Video Coding (H.265/HEVC), Advanced Video Coding (H.264/AVC), Moving Picture Experts Group (MPEG)
Video coding generally involves prediction methods (e.g., inter-prediction, intra-prediction, etc.) that exploit redundancy present in a video image or sequence.
An important goal of video coding techniques is to compress video data into a format that uses a lower bit rate while avoiding or minimizing degradation of video quality.

本開示の例は、マージ関連モードの構文シグナリングの効率を改善するための方法を提
供する。
Examples of the present disclosure provide methods for improving the efficiency of syntax signaling for merge-related modes.

本開示の態様によれば、ビデオエンコーディングの方法は、現在の画像の現在のコーディングブロックと関連付けされた、時間順で現在の画像より前にある第1の参照画像と、現在の画像より後にある第2の参照画像を取得すること、前記現在のコーディングブロックから前記第1の参照画像内の参照ブロックまでの第1の動きベクトルに基づく第1の予測を取得すること、前記現在のコーディングブロックから前記第2の参照画像内の参照ブロックまでの第2の動きベクトルに基づく第2の予測を取得すること、および少なくとも前記第1の予測および第2の予測に基づいて、前記現在のコーディングブロックの双方向予測を算出すること、を備え、該算出することは、前記現在のコーディングブロックの双方向予測の算出に複合インター・イントラ予測(CIIP)が適用されない条件下において、前記現在のコーディングブロックの双方向予測の算出時に双方向オプティカルフロー(BDOF)を有効にすることを含む。 According to an aspect of the present disclosure, a method of video encoding includes obtaining a first reference image associated with a current coding block of a current image, the first reference image being temporally before the current image and a second reference image being temporally after the current image; obtaining a first prediction based on a first motion vector from the current coding block to a reference block in the first reference image; obtaining a second prediction based on a second motion vector from the current coding block to a reference block in the second reference image; and calculating a bidirectional prediction of the current coding block based on at least the first prediction and the second prediction, wherein the calculating includes enabling bidirectional optical flow (BDOF) when calculating the bidirectional prediction of the current coding block under a condition that a composite inter-intra prediction (CIIP) is not applied to the calculation of the bidirectional prediction of the current coding block.

前述の一般的な説明および以下の詳細な説明の両方は単なる例であり、本開示を限定す
るものではないことを理解されたい。
It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are not restrictive of the present disclosure.

本明細書に組み込まれ、その一部を構成する添付の図面は、本開示と一致する例を示し
、説明とともに、本開示の原理を説明するのに役立つ。
本開示の一例による、エンコーダのブロック図である。 本開示の一例による、デコーダのブロック図である。 本開示の一例による、複合インターとイントラ予測(CIIP)を生成するための方法を示すフローチャートである。 本開示の一例による、CIIPを生成するための方法を示すフローチャートである。 本開示の一例による、マルチタイプツリー構造におけるブロックパーティションを示す図である。 本開示の一例による、マルチタイプツリー構造におけるブロックパーティションを示す図である。 本開示の一例による、マルチタイプツリー構造におけるブロックパーティションを示す図である。 本開示の一例による、マルチタイプツリー構造におけるブロックパーティションを示す図である。 本開示の一例による、マルチタイプツリー構造におけるブロックパーティションを示す図である。 本開示の一例による、複合インターとイントラ予測(CIIP)を示す図である。 本開示の一例による、複合インターとイントラ予測(CIIP)を示す図である。 本開示の一例による、複合インターとイントラ予測(CIIP)を示す図である。 本開示の一例による、MPM候補リスト生成プロセスのフローチャートである。 本開示の一例による、MPM候補リスト生成プロセスのフローチャートである。 本開示の一例による、VVCにおける既存のCIIPデザインのワークフローを示す図である。 本開示の一例による、BDOFを除去することによる提案されたCIIP方法のワークフローを示す図である。 本開示の一例による、POC距離に基づいて予測リストを選択する、単一予測ベースのCIIPのワークフローを示す図である。 本開示の一例による、MPM候補リスト生成のためにCIIPブロックを有効にするときの方法のフローチャートである。 本開示の一例による、MPM候補リスト生成のためにCIIPブロックを無効にするときの方法のフローチャートである。 本開示の一例による、ユーザインターフェースと結合されたコンピューティング環境を示す図である。
The accompanying drawings, which are incorporated in and constitute a part of this specification, illustrate examples consistent with the present disclosure and, together with the description, serve to explain the principles of the disclosure.
FIG. 2 is a block diagram of an encoder according to an example of the present disclosure. FIG. 2 is a block diagram of a decoder according to an example of the present disclosure. 1 is a flowchart illustrating a method for generating a combined inter-and-intra prediction (CIIP) according to an example of the present disclosure. 4 is a flowchart illustrating a method for generating a CIIP according to an example of the present disclosure. FIG. 2 illustrates a block partition in a multi-type tree structure according to an example of the present disclosure. FIG. 2 illustrates a block partition in a multi-type tree structure according to an example of the present disclosure. FIG. 2 illustrates a block partition in a multi-type tree structure according to an example of the present disclosure. FIG. 2 illustrates a block partition in a multi-type tree structure according to an example of the present disclosure. FIG. 2 illustrates a block partition in a multi-type tree structure according to an example of the present disclosure. FIG. 2 illustrates a diagram showing combined inter-and-intra prediction (CIIP) according to an example of the present disclosure. FIG. 2 illustrates a diagram showing combined inter-and-intra prediction (CIIP) according to an example of the present disclosure. FIG. 2 illustrates a diagram showing combined inter-and-intra prediction (CIIP) according to an example of the present disclosure. 1 is a flowchart of an MPM candidate list generation process according to an example of the present disclosure. 1 is a flowchart of an MPM candidate list generation process according to an example of the present disclosure. FIG. 2 illustrates a workflow of an existing CIIP design in a VVC according to an example of the present disclosure. FIG. 1 illustrates a workflow of the proposed CIIP method by removing BDOF according to an example of the present disclosure. FIG. 1 illustrates a workflow of a single-prediction-based CIIP that selects a list of predictions based on POC distance, according to an example of the present disclosure. 1 is a flowchart of a method when enabling a CIIP block for MPM candidate list generation according to an example of the present disclosure. 13 is a flowchart of a method for disabling a CIIP block for MPM candidate list generation according to an example of the present disclosure. FIG. 1 illustrates a computing environment coupled with a user interface according to an example of the present disclosure.

ここで、本開示の例を詳細に参照し、その例を添付の図面に示す。以下の説明は、別段
の記載がない限り、異なる図面における同じ番号が同じまたは類似の要素を表す添付の図
面を参照している。本開示の例の以下の説明に記載されている実施の形態は、本開示と一
致するすべての実施の形態を表すわけではない。その代わり、それらは、添付の特許請求
の範囲に記載されている本開示に関連する態様と一致する装置および方法の単なる例であ
る。
Reference will now be made in detail to examples of the present disclosure, examples of which are illustrated in the accompanying drawings. The following description refers to the accompanying drawings, in which the same numbers in different drawings represent the same or similar elements, unless otherwise noted. The embodiments described in the following description of examples of the present disclosure do not represent all embodiments consistent with the present disclosure. Instead, they are merely examples of apparatus and methods consistent with aspects related to the present disclosure as set forth in the appended claims.

本開示で使用される用語は、特定の実施の形態を説明することのみを目的としており、
本開示を限定することを意図するものではない。本開示および添付の特許請求の範囲で使
用されるように、単数形「a」、「an」、および「the」は、文脈で明確に示されていない
限り、複数形も含むことを意図している。ここで使用される「および/または」という用
語は、関連するリストされたアイテムの1つまたは複数の任意またはすべての可能な組み
合わせを意味し、含むことを意図することも理解されたい。
The terminology used in this disclosure is for the purpose of describing particular embodiments only.
It is not intended to limit the disclosure. As used in this disclosure and the appended claims, the singular forms "a,""an," and "the" are intended to include the plural forms as well, unless the context clearly indicates otherwise. It is also to be understood that the term "and/or" as used herein is intended to mean and include any and all possible combinations of one or more of the associated listed items.

ここで、「第1」、「第2」、「第3」などの用語を使用して様々な情報を説明するこ
とができるが、情報はこれらの用語によって限定されるべきではないことを理解されたい
。これらの用語は、あるカテゴリの情報を別のカテゴリと区別するためにのみ使用される
。例えば、本開示の範囲から逸脱することなく、第1の情報は、第2の情報と呼ばれるこ
とができ、同様に、第2の情報は、第1の情報と呼ばれることもできる。ここで使用され
る場合、「もし」という用語は、文脈に応じて、「ときに」または「に際して」または「
判断に応じて」を意味すると理解され得る。
Herein, terms such as "first,""second," and "third" may be used to describe various pieces of information, but it should be understood that the information should not be limited by these terms. These terms are used only to distinguish one category of information from another. For example, the first information may be referred to as the second information, and similarly, the second information may be referred to as the first information, without departing from the scope of this disclosure. As used herein, the term "if" may also be used as "when" or "in the event of" or "when," depending on the context.
may be understood to mean "at discretion."

HEVC規格の第1のバージョンは、2013年10月に完成し、これは、前世代のビ
デオコーディング規格H.264/MPEG AVCと比較して、約50%のビットレー
ト節約または同等の知覚品質を提供する。HEVC規格は、その前身よりも大幅なコーデ
ィングの改善を提供しているが、HEVCにコーディングツールを追加することで、優れ
たコーディング効率を達成できるという証拠がある。これに基づいて、VCEGとMPE
Gの両方が、将来のビデオコーディング標準化のための新しいコーディングテクノロジー
の調査作業を開始した。コーディング効率の大幅な向上を可能にする高度なテクノロジー
の重要な研究が開始されるために、2015年10月に、ITU-TVECGとISO/IE
C MPEGによって1つのJoint Video Exploration Team(JVET)が結成され
た。共同探査モデル(JEM)と呼ばれる1つの参照ソフトウェアは、HEVCテストモ
デル(HM)の上にいくつかの追加のコーディングツールを統合することにより、JVE
Tによって維持されていた。
The first version of the HEVC standard was finalized in October 2013, and it offers approximately 50% bitrate savings or equivalent perceptual quality compared to the previous generation video coding standard H.264/MPEG AVC. Although the HEVC standard offers significant coding improvements over its predecessor, there is evidence that superior coding efficiency can be achieved by adding additional coding tools to HEVC. Based on this, VCEG and MPEG AVC have agreed to work together to develop a standard that will allow for the creation of a standard that will provide a high level of coding efficiency.
Both the ITU-TVECG and the ISO/IE Group have begun work on investigating new coding technologies for future video coding standardization. In October 2015, the ITU-TVECG and the ISO/IE Group agreed to begin significant research into advanced technologies that could enable significant improvements in coding efficiency.
A Joint Video Exploration Team (JVET) was formed by C-MPEG. A reference software called the Joint Exploration Model (JEM) is a JVE-based test model that integrates some additional coding tools on top of the HEVC Test Model (HM).
It was maintained by T.

2017年10月に、HEVCを超える機能を備えたビデオ圧縮に関する共同提案募集
(CfP)が、ITU-TおよびISO/IECによって発行された。2018年4月に、第
10回JVET会議で、23のCfP応答が受信され評価され、HEVCよりも約40%
の圧縮効率ゲインが実証された。このような評価結果に基づいて、JVETは、Versatil
e Video Coding(VVC)と呼ばれる新世代のビデオコーディング規格を開発するため
の新しいプロジェクトを立ち上げた。同じ月に、VVC規格の参照実装を実証するために
、VVCテストモデル(VTM)と呼ばれる1つの参照ソフトウェアコードベースが確立
された。
In October 2017, a Joint Call for Proposals (CfP) for video compression with capabilities beyond HEVC was issued by ITU-T and ISO/IEC. In April 2018, at the 10th JVET meeting, 23 CfP responses were received and evaluated, with approximately 40% more support than HEVC.
Based on these evaluation results, JVET has decided to develop a compression efficiency gain of 100% for Versatile.
In 2013, the National Instruments Board of Education launched a new project to develop a new generation video coding standard called Wide Video Coding (VVC). In the same month, a reference software code base called the VVC Test Model (VTM) was established to demonstrate a reference implementation of the VVC standard.

HEVCと同様に、VVCは、ブロックベースのハイブリッドビデオコーディングフレ
ームワーク上に構成されている。図1(以下に説明)は、一般的なブロックベースのハイ
ブリッドビデオ符号化システムのブロック図を与える。入力ビデオ信号は、ブロック(コ
ーディングユニット(CU)と呼ばれる。)ごとに処理される。VTM-1.0では、C
Uは最大128x128ピクセルにすることができる。ただし、クアッドツリーのみに基
づいてブロックを区分するHEVCとは異なり、VVCでは、クアッド/二元/ターナリー
ツリーに基づくさまざまなローカル特性に適応するために、1つのコーディングツリーユ
ニット(CTU)がCUに分割される。さらに、HEVCにおける複数のパーティション
ユニットタイプの概念が除去され、つまり、CUと予測ユニット(PU)と変換ユニット
(TU)の分離がVVCに存在しなくなり、その代わりに、各CUは常に、追加のパーテ
ィションなしで予測と変換の両方の基本単位として使用される。マルチタイプツリー構造
では、1つのCTUが最初にクアッドツリー構造によって区分される。次に、各クアッド
ツリーリーフノードが二元およびターナリツリー構造でさらに区分されることができる。
図図5A、図5B、図5C、図5D、図5D、図5E(以下で説明する。)に示すように
、それぞれ、四元パーティショニング、水平二元パーティショニング、垂直二元パーティ
ショニング、水平三元パーティショニング、および垂直三元パーティショニングの5つの
分割タイプがある。
Like HEVC, VVC is built on a block-based hybrid video coding framework. Figure 1 (described below) gives a block diagram of a general block-based hybrid video coding system. The input video signal is processed block by block (called coding unit (CU)). In VTM-1.0,
U can be up to 128x128 pixels. However, unlike HEVC, which partitions blocks based only on quad trees, in VVC, one coding tree unit (CTU) is divided into CUs to accommodate different local characteristics based on quad/binary/ternary trees. In addition, the concept of multiple partition unit types in HEVC is removed, that is, the separation of CU, prediction unit (PU) and transform unit (TU) no longer exists in VVC, and instead, each CU is always used as the basic unit for both prediction and transformation without additional partitions. In the multi-type tree structure, one CTU is first partitioned by a quad tree structure. Then, each quad tree leaf node can be further partitioned by binary and ternary tree structures.
As shown in Figures 5A, 5B, 5C, 5D, 5E (described below), there are five partitioning types: quaternary partitioning, horizontal binary partitioning, vertical binary partitioning, horizontal ternary partitioning, and vertical ternary partitioning, respectively.

図1(以下に説明)では、空間予測および/または時間予測を実行することができる。
空間予測(または「イントラ予測」)は、同一のビデオ画像/スライスにおけるすでにコ
ーディングされた隣接ブロックのサンプル(参照サンプルと呼ばれる。)からのピクセル
を使用して、現在のビデオブロックを予測する。空間予測は、ビデオ信号に固有の空間的
冗長性を低減する。時間予測(「インター予測」または「動き補償予測」とも呼ばれる。
)は、すでにコーディングされたビデオ画像からの再構成されたピクセルを使用して、現
在のビデオブロックを予測する。時間予測は、ビデオ信号に固有の時間的冗長性を低減す
る。特定のCUについての時間予測信号は、通常、現在のCUとその時間参照との間の動
きの量と方向を示す1つまたは複数の動きベクトル(MV)によってシグナリングされる
。また、複数の参照画像がサポートされている場合には、1つの参照画像インデックスが
追加で送信される。これは、時間予測信号が参照画像ストアにおけるどの参照画像から来
るかを識別するために使用される。空間予測および/または時間予測の後、エンコーダに
おけるモード決定ブロックは、例えば、レート歪み最適化方法に基づいて、最適な予測モ
ードを選択する。次に、予測ブロックは、現在のビデオブロックから差し引かれ、予測残
差は、変換と量子化を使用して無相関化される。
In FIG. 1 (described below), spatial and/or temporal prediction can be performed.
Spatial prediction (or "intra prediction") predicts a current video block using pixels from samples of already coded neighboring blocks in the same video picture/slice (called reference samples). Spatial prediction reduces spatial redundancy inherent in video signals. Temporal prediction (also called "inter prediction" or "motion compensated prediction") predicts a current video block using pixels from samples of already coded neighboring blocks in the same video picture/slice (called reference samples).
) predicts a current video block using reconstructed pixels from already coded video pictures. Temporal prediction reduces the temporal redundancy inherent in video signals. The temporal prediction signal for a particular CU is typically signaled by one or more motion vectors (MVs), which indicate the amount and direction of motion between the current CU and its temporal references. Also, if multiple reference pictures are supported, one reference picture index is additionally transmitted, which is used to identify which reference picture in the reference picture store the temporal prediction signal comes from. After spatial and/or temporal prediction, a mode decision block in the encoder selects an optimal prediction mode, for example based on a rate-distortion optimization method. The prediction block is then subtracted from the current video block, and the prediction residual is decorrelated using transform and quantization.

量子化された残差係数は、逆量子化と逆変換されて、再構成された残差を形成し、次に
予測ブロックに追加されて、CUの再構成された信号を形成する。デブロッキングフィル
ター、サンプルアダプティブオフセット(SAO)、アダプティブインループフィルター
(ALF)などのさらなるインループフィルタリングは、参照画像ストアに配置され将来
のビデオブロックのコーディングに使用される前に、再構成されたCUに適用できる。出
力ビデオビットストリームを形成するために、コーディングモード(インターまたはイン
トラ)、予測モード情報、動き情報、および量子化された残差係数は、すべてエントロピ
ーコーディングユニットに送信され、さらに圧縮およびパックされてビットストリームを
形成する。
The quantized residual coefficients are dequantized and inverse transformed to form a reconstructed residual, which is then added to the prediction block to form a reconstructed signal for the CU. Further in-loop filtering, such as a deblocking filter, sample adaptive offset (SAO), or adaptive in-loop filter (ALF), can be applied to the reconstructed CU before it is placed in the reference picture store and used for coding future video blocks. To form an output video bitstream, the coding mode (inter or intra), prediction mode information, motion information, and the quantized residual coefficients are all sent to an entropy coding unit for further compression and packing to form a bitstream.

図2(以下に説明)は、ブロックベースのビデオデコーダの一般的なブロック図を示す
。ビデオビットストリームは、最初にエントロピーデコードユニットでエントロピーデコ
ードされる。コーディングモードおよび予測情報は、空間予測ユニット(イントラコーデ
ィングされている場合)または時間予測ユニット(インターコーディングされている場合
)のいずれかに送信されて、予測ブロックを形成する。残差変換係数は、逆量子化ユニッ
トと逆変換ユニットに送信されて、残差ブロックを再構成する。次に、予測ブロックと残
差ブロックは、一緒に加算される。再構成されたブロックは、参照画像ストアに格納され
る前に、インループフィルタリングをさらに通過することができる。次に、参照画像スト
アにおける再構成されたビデオは、ディスプレイデバイスを駆動するために送出され、将
来のビデオブロックを予測するためにも使用される。
FIG. 2 (described below) shows a general block diagram of a block-based video decoder. The video bitstream is first entropy decoded in an entropy decoding unit. The coding mode and prediction information are sent to either a spatial prediction unit (if intra-coded) or a temporal prediction unit (if inter-coded) to form a prediction block. The residual transform coefficients are sent to an inverse quantization unit and an inverse transform unit to reconstruct the residual block. The prediction block and the residual block are then added together. The reconstructed block may further go through in-loop filtering before being stored in a reference image store. The reconstructed video in the reference image store is then sent to drive a display device and is also used to predict future video blocks.

図1は、典型的なエンコーダ100を示す。エンコーダ100は、ビデオ入力110、
動き補償112、動き推定114、イントラ/インターモード決定116、ブロック予測
器140、加算器128、変換130、量子化132、予測関連情報142、イントラ予
測118、画像バッファ120、逆量子化134、逆変換136、加算器126、メモリ
124、インループフィルタ122、エントロピーコーディング138、およびビットス
トリーム144を有する。
1 shows a typical encoder 100. The encoder 100 receives a video input 110,
It has motion compensation 112, motion estimation 114, intra/inter mode decision 116, block predictor 140, adder 128, transform 130, quantization 132, prediction related information 142, intra prediction 118, image buffer 120, inverse quantization 134, inverse transform 136, adder 126, memory 124, in-loop filter 122, entropy coding 138, and bitstream 144.

図2は、典型的なデコーダ200のブロック図を示す。デコーダ200は、ビットスト
リーム210、エントロピーデコード212、逆量子化214、逆変換216、加算器2
18、イントラ/インターモード選択220、イントラ予測222、メモリ230、イン
ループフィルタ228、動き補償224、画像バッファ226、予測関連情報234、お
よびビデオ出力232を有する。
2 shows a block diagram of an exemplary decoder 200. The decoder 200 includes a bitstream 210, an entropy decoder 212, an inverse quantizer 214, an inverse transform 216, an adder 218, and an inverse decoder 219.
18 , intra/inter mode selection 220 , intra prediction 222 , memory 230 , in-loop filter 228 , motion compensation 224 , image buffer 226 , prediction related information 234 , and video output 232 .

図3は、本開示による、複合インターとイントラ予測(CIIP)を生成するための例
示的な方法300を示す。
FIG. 3 illustrates an example method 300 for generating a combined inter-and-intra prediction (CIIP) in accordance with this disclosure.

ステップ310において、現在の予測ブロックに関連付けられる第1の参照画像と第2
の参照画像を取得する。ここで、第1の参照画像は表示順で現在の画像の前にあり、第2
の参照画像は表示順で現在の画像の後にある。
In step 310, a first reference image and a second reference image associated with the current prediction block are
2, where the first reference image is before the current image in display order, and the second
The reference image is after the current image in display order.

ステップ312において、現在の予測ブロックから第1の参照画像内の参照ブロックへ
の第1の動きベクトルMV0に基づいて、第1の予測L0を取得する。
In step 312, a first prediction L0 is obtained based on a first motion vector MV0 from the current prediction block to a reference block in a first reference image.

ステップ314において、現在の予測ブロックから第2の参照画像内の参照ブロックへ
の第2の動きベクトルMV1に基づいて、第2の予測L1を取得する。
In step 314, a second prediction L1 is obtained based on a second motion vector MV1 from the current prediction block to a reference block in a second reference image.

図4は、本開示による、CIIPを生成するための例示的な方法を示す。たとえば、当
該方法は、CIIPを生成するために、単一予測ベースのインター予測とMPMベースの
イントラ予測が含まれる。
4 illustrates an exemplary method for generating a CIIP according to the present disclosure, for example, the method includes uni-prediction based inter prediction and MPM based intra prediction to generate a CIIP.

ステップ410において、現在の予測ブロックに関連付けられる参照画像リストにおけ
る参照画像を取得する。
In step 410, a reference picture in the reference picture list associated with the current prediction block is obtained.

ステップ412において、現在の画像から第1の参照画像への第1の動きベクトルに基
づいて、インター予測を生成する。
In step 412, an inter prediction is generated based on a first motion vector from the current picture to the first reference picture.

ステップ414において、現在の予測ブロックに関連付けられるイントラ予測モードを
取得する。
At step 414, the intra-prediction mode associated with the current prediction block is obtained.

ステップ416において、イントラ予測に基づいて、現在の予測ブロックのイントラ予
測を生成する。
At step 416, an intra prediction of the current predicted block is generated based on the intra prediction.

ステップ418において、インター予測とイントラ予測を平均することにより、現在の
予測ブロックの最終予測を生成する。
In step 418, the inter prediction and the intra prediction are averaged to generate a final prediction for the current predicted block.

ステップ420において、現在の予測ブロックが、最も可能性の高いモード(MPM)
ベースのイントラモード予測について、インターモードまたはイントラモードのどちらと
して扱われるかを特定する。
In step 420, the current prediction block is selected based on the most probable mode (MPM).
For the base intra-mode prediction, specify whether it is treated as inter-mode or intra-mode.

図5Aは、本開示の一例による、マルチタイプツリー構造におけるブロック四元パーテ
ィションを示す図を示す。
FIG. 5A illustrates a diagram illustrating block quad partitions in a multi-type tree structure according to an example of the present disclosure.

図5Bは、本開示の一例による、マルチタイプツリー構造におけるブロック垂直二元パ
ーティションを示す図を示す。
FIG. 5B illustrates a diagram illustrating block vertical binary partitioning in a multi-type tree structure according to an example of the present disclosure.

図5Cは、本開示の一例による、マルチタイプツリー構造におけるブロック水平二元パ
ーティションを示す図を示す。
FIG. 5C illustrates a diagram illustrating block horizontal binary partitioning in a multi-type tree structure according to an example of the present disclosure.

図5Dは、本開示の一例による、マルチタイプツリー構造におけるブロック垂直三元パ
ーティションを示す図を示す。
FIG. 5D illustrates a diagram illustrating block vertical ternary partitioning in a multi-type tree structure according to an example of the present disclosure.

図5Eは、本開示の一例による、マルチタイプツリー構造におけるブロック水平三元パ
ーティションを示す図を示す。
FIG. 5E illustrates a diagram illustrating block horizontal ternary partitioning in a multi-type tree structure according to an example of the present disclosure.

複合インターとイントラ予測
図1、図2に示されるように、インターとイントラ予測方法は、ハイブリッドビデオコ
ーディングスキームで使用される。ここで、各PUは、時間域または空間域のいずれかの
みで、相関性を利用するために、インター予測またはイントラ予測を選択することが許可
され、両方ではできない。ただし、従来の文献で指摘されているように、インター予測ブ
ロックとイントラ予測ブロックによって生成された残差信号は、互いに非常に異なる特性
を示す可能性がある。したがって、2種類の予測を効率的に組み合わせることができれば
、予測残差のエネルギーを削減してコーディング効率を向上させるために、もう1つの正
確な予測が期待できる。さらに、自然なビデオコンテンツでは、動くオブジェクトの動き
が複雑になる可能性がある。たとえば、古いコンテンツ(たとえば、以前にコーディング
された画像に含まれるオブジェクト)と新たな新しいコンテンツ(たとえば、以前にコー
ディングされた画像で除外されるオブジェクト)の両方を含む領域が存在する可能性があ
る。このようなシナリオでは、インター予測も、イントラ予測も、現在のブロックの1つ
の正確な予測を提供できない。
Hybrid Inter and Intra Prediction As shown in FIG. 1 and FIG. 2, the inter and intra prediction method is used in the hybrid video coding scheme. Here, each PU is allowed to select inter prediction or intra prediction to exploit correlations in either the time domain or the spatial domain only, but not both. However, as pointed out in the prior art, the residual signals generated by the inter prediction block and the intra prediction block may exhibit very different characteristics from each other. Therefore, if the two kinds of prediction can be efficiently combined, one more accurate prediction can be expected to reduce the energy of the prediction residual and improve the coding efficiency. Furthermore, in natural video content, the motion of moving objects may be complicated. For example, there may be regions that contain both old content (e.g., objects included in the previously coded image) and new new content (e.g., objects excluded in the previously coded image). In such a scenario, neither inter prediction nor intra prediction can provide one accurate prediction of the current block.

予測効率をさらに改善するために、VVC規格には、マージモードによってコーディン
グされた1つのCUのイントラ予測とインター予測を組み合わせる複合インターとイント
ラ予測(CIIP)が採用されている。具体的には、マージCUごとに、1つの追加フラ
グは、CIIPが現在のCUに対して有効になっているかどうかを示すために、シグナリ
ングされる。輝度コンポーネントに対して、CIIPは、平面モード、DCモード、水平
モード、垂直モードを含む頻繁に使用される4つのイントラモードをサポートする。彩度
コンポーネントに対して、DM(つまり、彩度は、輝度コンポーネントの同じイントラモ
ードを再利用する)は、追加のシグナリングなしで常に適用される。さらに、既存のCI
IPデザインでは、加重平均が適用され、1つのCIIP CUのインター予測サンプル
とイントラ予測サンプルが結合される。具体的には、平面モードまたはDCモードが選択
されている場合において、等しい重み(つまり、0.5)が適用される。それ以外の場合
(つまり、水平モードまたは垂直モードのいずれかが適用される。)、現在のCUは最初
に水平(水平モードの場合)または垂直(垂直モードの場合)に4つの同じサイズの領域
に分割される。
To further improve prediction efficiency, the VVC standard adopts Combined Inter and Intra Prediction (CIIP), which combines intra prediction and inter prediction for one CU coded by merge mode. Specifically, for each merge CU, one additional flag is signaled to indicate whether CIIP is enabled for the current CU. For the luma component, CIIP supports four frequently used intra modes, including planar mode, DC mode, horizontal mode, and vertical mode. For the chroma component, DM (i.e., chroma reuses the same intra mode of the luma component) is always applied without additional signaling. In addition, the existing CIIP is signaled to indicate whether CIIP is enabled for the current CU.
In the IP design, a weighted average is applied to combine the inter- and intra-predicted samples of one CIIP CU. Specifically, equal weights (i.e., 0.5) are applied when planar or DC mode is selected. Otherwise (i.e., either horizontal or vertical mode is applied), the current CU is first divided horizontally (for horizontal mode) or vertically (for vertical mode) into four equal-sized regions.

さらに、現在のVVC動作仕様では、1つのCIIP CUのイントラモードが、最も
可能性の高いモード(MPM)メカニズムを介して、その隣接するCIIP CUのイン
トラモードを予測するための予測子として使用されることができる。具体的には、各CI
IP CUについて、その隣接するブロックもCIIP CUである場合において、それ
らの隣接ブロックのイントラモードは、最初に、平面モード、DCモード、水平モード、
および垂直モード内の最も近いモードに丸められ、次に、現在のCUのMPM候補リスト
に追加される。ただし、各イントラCUのMPMリストを構成するときには、その隣接す
るブロックの1つは、CIIPモードでコーディングされていると、使用不可と見なされ
る。つまり、1つのCIIP CUのイントラモードは、その隣接するイントラCUのイ
ントラモードを予測することを許可されていない。図7Aと図7B(以下で説明する)は
、イントラCUとCIIP CUのMPMリスト生成プロセスを比較する。
Furthermore, in the current VVC operation specification, the intra mode of one CIIP CU can be used as a predictor to predict the intra mode of its neighboring CIIP CUs via a Most Probable Mode (MPM) mechanism.
For an IP CU, if its neighboring blocks are also CIIP CUs, the intra modes of those neighboring blocks are first selected from the following: planar mode, DC mode, horizontal mode,
and the nearest mode within the vertical mode, and then added to the MPM candidate list of the current CU. However, when constructing the MPM list of each intra CU, if one of its neighboring blocks is coded in CIIP mode, it is considered as unavailable. That is, the intra mode of one CIIP CU is not allowed to predict the intra mode of its neighboring intra CU. Figures 7A and 7B (described below) compare the MPM list generation process of intra CU and CIIP CU.

ここで、shiftとooffsetは、それぞれ、15-BDと1≪(14-BD)+2・(1≪13
)に等しく、二重予測のL0とL1予測信号を組み合わせるために適用される右シフト値
とオフセット値である。
Here, shift and offset are 15-BD and 1<<(14-BD)+2*(1<<13
) which are the right shift and offset values applied to combine the L0 and L1 prediction signals of dual prediction.

図6Aは、本開示の一例による、水平モードの複合インターとイントラ予測を示す図を
示す。
FIG. 6A shows a diagram illustrating hybrid inter and intra prediction in horizontal mode according to an example of this disclosure.

図6Bは、本開示の一例による、垂直モードの複合インターとイントラ予測を示す図を
示す。
FIG. 6B shows a diagram illustrating hybrid inter and intra prediction in vertical mode according to an example of this disclosure.

図6Cは、本開示の一例による、平面モードとDCモードの複合インターとイントラ予
測を示す図を示す。
FIG. 6C shows a diagram illustrating hybrid inter and intra prediction for planar and DC modes according to an example of this disclosure.

図7Aは、本開示の一例による、イントラCUSのMPM候補リスト生成プロセスのフ
ローチャートを示す。
FIG. 7A illustrates a flowchart of an MPM candidate list generation process for intra-CUS according to an example of the present disclosure.

図7Bは、本開示の一例による、CIIP CUのMPM候補リスト生成プロセスのフ
ローチャートを示す。
FIG. 7B illustrates a flowchart of an MPM candidate list generation process for a CIIP CU according to an example of the present disclosure.

CIIPに対する改善
CIIPは、従来の動き補償予測の効率を高めることができるが、そのデザインをさら
に改善することができる。具体的には、VVCにおける既存のCIIPデザインにおける
以下の問題は、本開示で識別されている。
Improvements to CIIP Although CIIP can improve the efficiency of conventional motion compensated prediction, its design can be further improved. Specifically, the following problems in existing CIIP designs in VVC are identified in this disclosure:

まず、「複合インターとイントラ予測」のセクションで説明したように、CIIPは、
インターとイントラ予測のサンプルを組み合わせるため、各CIIP CUは、その再構
成された隣接サンプルを使用して予測信号を生成する必要がある。これは、1つのCII
P CUのデコードが、その隣接ブロックの完全な再構成に依存していることを意味する
。このような相互依存性のため、実際のハードウェア実装では、CIIPは、隣接する再
構成されたサンプルがイントラ予測に利用できるようになる再構成段階で実行する必要が
ある。再構成段階でのCUのデコードは、順次に(つまり、1つずつ)実行しなければな
らないため、CIIPプロセスに含まれる計算演算(例えば、乗算、加算、ビットシフト
)の数は、リアルタイムデコードの十分なスループットを確保するために、高すぎるもの
とすることができない。
First, as explained in the "Combined Inter and Intra Prediction" section, CIIP is
To combine inter and intra prediction samples, each CIIP CU needs to generate a prediction signal using its reconstructed neighboring samples.
This means that the decoding of a P CU depends on the complete reconstruction of its neighboring blocks. Due to such interdependence, in a practical hardware implementation, CIIP needs to be performed in the reconstruction stage, where neighboring reconstructed samples become available for intra prediction. Since the decoding of CUs in the reconstruction stage must be performed sequentially (i.e., one by one), the number of computation operations (e.g., multiplications, additions, bit shifts) involved in the CIIP process cannot be too high to ensure sufficient throughput for real-time decoding.

「双方向オプティカルフロー」のセクションで述べたように、BDOFは、前方および
後方の両方の時間方向からの2つの参照ブロックから、1つのインターコーディングされ
たCUが予測されるときに、予測品質が向上するように、有効にされる。図8(以下に説
明)に示すように、現在のVVCでは、BDOFも、CIIPモードのインター予測サン
プルを生成するために関与している。BDOFによるさらなる複雑性を考えると、このよ
うなデザインは、CIIPが有効にされる場合、ハードウェアコーデックのエンコード/
デコードスループットが大幅に低下する可能性がある。
As mentioned in the "Bidirectional Optical Flow" section, BDOF is enabled to improve prediction quality when one inter-coded CU is predicted from two reference blocks from both forward and backward temporal directions. As shown in Figure 8 (described below), in current VVC, BDOF is also involved to generate inter prediction samples for CIIP mode. Considering the additional complexity due to BDOF, such a design requires a hardware codec encoding/decoding scheme when CIIP is enabled.
Decoding throughput may be significantly reduced.

次に、現在のCIIPデザインでは、1つのCIIP CUが、二重予測される1つの
マージ候補を参照する場合に、リストL0およびL1の両方の動き補償予測信号を生成す
る必要がある。1つまたは複数のMVが整数精度でない場合においては、部分的なサンプ
ル位置でサンプルを補間するために、追加の補間プロセスを呼び出しなければならない。
このようなプロセスは、計算上の複雑さを増すだけでなく、外部メモリからより多くの参
照サンプルにアクセスする必要がある場合、メモリ帯域幅も増やす。
Secondly, in the current CIIP design, when one CIIP CU references one merge candidate that is bi-predicted, it is necessary to generate motion compensation prediction signals for both lists L0 and L1. In the case where one or more MVs are not integer precision, an additional interpolation process must be invoked to interpolate samples at partial sample positions.
Such a process not only increases the computational complexity but also increases the memory bandwidth if more reference samples need to be accessed from external memory.

それから、「複合インターとイントラ予測」のセクションで論じたように、現在のCI
IPデザインでは、CIIP CUのイントラモードとイントラCUのイントラモードは
、それらの隣接ブロックのMPMリストを構成するときに異なって扱われる。具体的には
、1つの現在のCUがCIIPモードでコーディングされている場合には、その隣接する
CIIP CUは、イントラと見なされ、つまり、隣接するCIIP CUのイントラモ
ードがMPM候補リストに追加されることができる。ただし、現在のCUがイントラモー
ドでコーディングされている場合には、その隣接するCIIP CUは、インターと見な
され、つまり、隣接するCIIP CUのイントラモードがMPM候補リストから除外さ
れている。このような統一されていないデザインは、VVC規格の最終バージョンに最適
でない可能性がある。
Then, as discussed in the "Combined Inter and Intra Prediction" section, the current CI
In the IP design, the intra modes of CIIP CUs and intra modes of intra CUs are treated differently when constructing the MPM lists of their neighboring blocks. Specifically, if one current CU is coded in CIIP mode, its neighboring CIIP CUs are considered as intra, i.e., the intra modes of the neighboring CIIP CUs can be added to the MPM candidate list. However, if the current CU is coded in intra mode, its neighboring CIIP CUs are considered as inter, i.e., the intra modes of the neighboring CIIP CUs are excluded from the MPM candidate list. Such a non-uniform design may not be optimal for the final version of the VVC standard.

図8は、本開示の一例による、VVCにおける既存のCIIPデザインのワークフロー
を示す図を示す。
FIG. 8 illustrates a diagram showing a workflow of an existing CIIP design in a VVC according to an example of the present disclosure.

CIIPの単純化
本開示では、ハードウェアコーデック実装を容易にするために既存のCIIPデザイン
を単純化するための方法が提供される。一般に、本開示で提案される技術の主なアスペク
トは、以下のように要約される。
Simplification of CIIP In this disclosure, a method is provided for simplifying the existing CIIP design to facilitate hardware codec implementation. In general, the main aspects of the technology proposed in this disclosure are summarized as follows:

まず、CIIPコーディング/デコードスループットを改善するために、CIIPモー
ドでのインター予測サンプルの生成からBDOFを除外することが提案される。
First, to improve the CIIP coding/decoding throughput, it is proposed to exclude BDOF from the generation of inter-prediction samples in CIIP mode.

次に、計算上の複雑さおよびメモリ帯域幅の消費を低減するためには、1つのCIIP
CUが二重予測される(すなわち、L0およびL1 MVの両方を有する)場合におい
ては、インター予測サンプルを生成するために、ブロックを二重予測から単一予測に変換
する方法が提案される。
Next, in order to reduce computational complexity and memory bandwidth consumption, one CIIP
In the case where a CU is bi-predicted (ie, has both L0 and L1 MVs), a method is proposed to convert the block from bi-prediction to uni-prediction to generate inter-predicted samples.

それから、2つの方法は、隣接するブロックのMPM候補を形成するときに、イントラ
CUとCIIPのイントラモードを調和させるために提案される。
Then, two methods are proposed to harmonize intra-CU and CIIP intra-modes when forming MPM candidates for neighboring blocks.

BDOFのないCIIP
「問題ステートメント」のセクションで指摘されているように、BDOFは、現在のC
Uが二重予測されるとき、CIIPモードについてのインター予測サンプルを生成するよ
うに、常に有効にされている。BDOFのさらなる複雑さのため、既存のCIIPデザイ
ンは、エンコード/デコードスループットが大幅に低下する可能性があり、特に、リアル
タイムデコードがVVCデコーダーに対して困難になる可能性がある。一方、CIIP
CUについては、その最終予測サンプルは、インター予測サンプルとイントラ予測サンプ
ルを平均することによって生成される。言い換えると、BDOFによる改良した予測サン
プルは、CIIP CUの予測信号として直接使用されない。したがって、従来の二重予
測CU(ここで、BDOFは、予測サンプルを生成するために直接に適用される)と比較
すると、BDOFから得られる対応する改善はCIIP CUでは効率が低くなる。した
がって、上記の事情に基づいて、CIIPモードのインター予測サンプルを生成するとき
にBDOFを無効にすることが提案される。図9(以下に説明)は、BDOFを除去した
後の提案されたCIIPプロセスの対応するワークフローを示す。
CIIP without BDOF
As pointed out in the "Problem Statement" section, BDOF is a
When U is bi-predicted, it is always enabled to generate inter-predicted samples for CIIP mode. Due to the additional complexity of BDOF, existing CIIP designs may suffer from significantly reduced encoding/decoding throughput, especially making real-time decoding difficult for VVC decoders. On the other hand, CIIP
For a CIIP CU, its final predicted sample is generated by averaging the inter-predicted sample and the intra-predicted sample. In other words, the improved predicted sample by BDOF is not directly used as the predicted signal of the CIIP CU. Therefore, compared with the traditional bi-predicted CU (where BDOF is directly applied to generate the predicted sample), the corresponding improvement obtained from BDOF is less efficient for the CIIP CU. Therefore, based on the above circumstances, it is proposed to disable BDOF when generating the inter-predicted sample for the CIIP mode. Figure 9 (described below) shows the corresponding workflow of the proposed CIIP process after removing BDOF.

図9は、本開示の一例による、BDOFを除去することによる提案されたCIIP方法
のワークフローを示す図を示す。
FIG. 9 shows a diagram illustrating the workflow of the proposed CIIP method by removing BDOF according to an example of the present disclosure.

単一予測に基づくCIIP
上記のように、1つのCIIP CUによって参照されるマージ候補が二重予測される
ときには、L0およびL1予測信号の両方を生成し、CU内のサンプルを予測する。メモ
リ帯域幅および補間の複雑さを低減するために、本開示の一実施形態では、(現在のCU
が二重予測されている場合でも)単一予測を使用して生成されたインター予測サンプルの
みを使用して、CIIPモードにおけるイントラ予測サンプルと結合することになる。具
体的には、現在のCIIP CUが単一予測の場合において、インター予測サンプルは、
イントラ予測サンプルと直接結合される。それ以外の場合(つまり、現在のCUが二重予
測される場合)には、CIIPによって使用されるインター予測サンプルは、1つの予測
リスト(L0またはL1)からの単一予測に基づいて生成される。予測リストを選択する
には、さまざまな方法が適用できる。第1の方法では、2つの参照画像によって予測され
る任意のCIIPブロックに対して、第1の予測(つまり、リストL0)を常に選択する
ことが提案されている。
CIIP based on single prediction
As mentioned above, when a merge candidate referenced by one CIIP CU is bi-predicted, both L0 and L1 prediction signals are generated to predict samples in the CU. In order to reduce memory bandwidth and interpolation complexity, in one embodiment of the present disclosure,
Only inter-predicted samples generated using uni-prediction (even if the current CIIP CU is bi-predicted) will be used to combine with intra-predicted samples in CIIP mode. Specifically, when the current CIIP CU is uni-predictive, the inter-predicted samples are
The inter-predicted samples used by the CIIP are directly combined with the intra-predicted samples. Otherwise (i.e., when the current CU is bi-predicted), the inter-predicted samples used by the CIIP are generated based on single prediction from one prediction list (L0 or L1). Different methods can be applied to select the prediction list. The first method proposes to always select the first prediction (i.e., list L0) for any CIIP block predicted by two reference pictures.

第2の方法では、2つの参照画像によって予測される任意のCIIPブロックに対して
、第2の予測(すなわち、リストL1)を常に選択することが提案される。第3の方法で
は、1つの適応方法は、現在の画像からの画像順序カウント(POC)距離が小さい1つ
の参照画像に関連付けられた予測リストが選択される場合に、適用される。図10(以下
で説明)は、POC距離に基づいて予測リストを選択する、単一予測ベースのCIIPの
ワークフローを示す。
In the second method, it is proposed to always select the second prediction (i.e., list L1) for any CIIP block predicted by two reference pictures. In the third method, an adaptive method is applied in which the prediction list associated with one reference picture with a small picture order count (POC) distance from the current picture is selected. Figure 10 (described below) shows the workflow of a single prediction-based CIIP that selects a prediction list based on the POC distance.

最後に、最後の方法では、現在のCUが単一予測されている場合にのみCIIPモード
を有効にすることが提案されている。さらに、オーバーヘッドを削減するために、CII
Pの有効化/無効化フラグのシグナリングは、現在のCIIP CUの予測方向に依存す
る。現在のCUが単一予測される場合においては、CIIPフラグがビットストリームで
シグナリングされ、CIIPが有効か無効かが示される。それ以外の場合(つまり、現在
のCUが二重に予測される場合)は、CIIPフラグのシグナリングはスキップされ、常
にfalseと推測され、つまり、CIIPは常に無効にされる。
Finally, the last method proposes to enable the CIIP mode only if the current CU is uni-predicted.
The signaling of the P enable/disable flag depends on the prediction direction of the current CIIP CU. In the case where the current CU is mono-predicted, the CIIP flag is signaled in the bitstream to indicate whether CIIP is enabled or disabled. Otherwise (i.e., the current CU is bi-predicted), the signaling of the CIIP flag is skipped and always inferred as false, i.e., CIIP is always disabled.

図10は、本開示の一例による、POC距離に基づいて予測リストを選択する、単一予
測ベースのCIIPのワークフローを示す図を示す。
FIG. 10 illustrates a diagram showing a workflow of a single-prediction based CIIP that selects a prediction list based on POC distance according to an example of the present disclosure.

MPM候補リスト構成のためのイントラCUとCIIPのイントラモードの調和
上記のように、現在のCIIPデザインは、イントラCUとCIIP CUのイントラ
モードを使用してそれらの隣接ブロックのMPM候補リストを形成する方法に関して、統
一されていない。具体的には、イントラCUとCIIP CUのイントラモードの両方で
は、CIIPモードでコーディングされた隣接ブロックのイントラモードが予測できる。
ただし、イントラCUのイントラモードのみでは、イントラCUのイントラモードが予測
できる。もう1つの統一されたデザインを実現するために、2つの方法は、MPMリスト
構成のためのイントラCUとCIIPのイントラモードの使用法を調和させて、このセク
ションで提案される。
Harmonization of intra-CU and CIIP intra-mode for MPM candidate list construction As mentioned above, current CIIP designs are not unified with respect to how intra-CU and CIIP CU intra-modes are used to form MPM candidate lists for their neighboring blocks. Specifically, both intra-CU and CIIP CU intra-modes can predict the intra-modes of neighboring blocks coded in CIIP mode.
However, only the intra mode of the intra CU can predict the intra mode of the intra CU. To achieve another unified design, two methods are proposed in this section to harmonize the usage of intra CU and intra mode of CIIP for MPM list construction.

第1の方法では、CIIPモードをMPMリスト構成のためのインターモードとして扱
うことが提案されている。具体的には、1つのCIIP CUまたは1つのイントラCU
のいずれかのMPMリストを生成するときには、隣接ブロックがCIIPモードでコーデ
ィングされている場合、隣接ブロックのイントラモードは使用不可としてマークされる。
このような方法では、CIIPブロックのイントラモードを使用してMPMリストを構成
することができない。逆に、第2の方法では、CIIPモードをMPMリスト構成のため
のイントラモードとして扱うことが提案されている。具体的には、この方法では、CII
P CUのイントラモードでは、隣接するCIIPブロックとイントラブロックの両方の
イントラモードが予測できる。図11Aと図11B(以下に説明)は、上記の2つの方法
が適用される場合のMPM候補リスト生成プロセスを示す。
The first method proposes treating the CIIP mode as an inter mode for MPM list construction. Specifically, one CIIP CU or one intra CU
When generating any of the MPM lists, if the neighboring block is coded in CIIP mode, the intra mode of the neighboring block is marked as disabled.
In this method, the intra mode of the CIIP block cannot be used to construct the MPM list. Conversely, in the second method, it is proposed to treat the CIIP mode as an intra mode for the purpose of constructing the MPM list.
For the intra mode of a P CU, the intra modes of both the neighboring CIIP blocks and intra blocks can be predicted. Figures 11A and 11B (described below) show the MPM candidate list generation process when the above two methods are applied.

本開示の他の実施形態は、ここで開示される本開示の仕様および実施を考慮することか
ら当業者には明らかである。本願は、その一般原則に従い、当技術分野で知られているま
たは慣習的な慣行の範囲内にある本開示からの逸脱を含む、本開示の任意の変形、使用、
または適合をカバーすることを意図している。本開示の真の範囲および精神は以下の特許
請求の範囲によって示され、明細書および実施例は単なる例として見なされることが意図
されている。
Other embodiments of the present disclosure will be apparent to those skilled in the art from consideration of the specification and practice of the present disclosure disclosed herein. This application is in accordance with its general principles and includes any modifications, uses, and variations of the present disclosure, including departures from the present disclosure that are within known or customary practice in the art.
It is intended that the specification and examples be considered as exemplary only, with a true scope and spirit of the disclosure being indicated by the following claims.

本開示は、上記に記載され、添付の図面に示されている具体的な例に限定されず、その
範囲から逸脱することなく、様々な修正および変更を行うことができることを理解された
い。本開示の範囲は、添付の特許請求の範囲によってのみ制限されることが意図されてい
る。
It is to be understood that the present disclosure is not limited to the specific examples described above and illustrated in the accompanying drawings, and various modifications and changes can be made without departing from the scope thereof, which is intended to be limited only by the scope of the appended claims.

図11Aは、本開示の一例による、MPM候補リスト生成のためにCIIPブロックを
有効にするときの方法のフローチャートを示す。
FIG. 11A illustrates a flowchart of a method when enabling a CIIP block for MPM candidate list generation according to an example of the present disclosure.

図11Bは、本開示の一例による、MPM候補リスト生成のためにCIIPブロックを
無効にするときの方法のフローチャートを示す。
FIG. 11B illustrates a flowchart of a method for disabling CIIP blocking for MPM candidate list generation according to an example of the present disclosure.

図12は、ユーザインターフェース1260と結合されたコンピューティング環境12
10を示す。コンピューティング環境1210は、データ処理サーバーの一部であり得る
。コンピューティング環境1210は、プロセッサ1220と、メモリ1240と、I/
Oインターフェース1250とを含む。
FIG. 12 illustrates a computing environment 1260 coupled with a user interface 1260.
12. The computing environment 1210 may be part of a data processing server. The computing environment 1210 includes a processor 1220, memory 1240, and I/O.
and an O interface 1250.

プロセッサ1220は、通常、表示、データ取得、データ通信、および画像処理に関連
する操作など、コンピューティング環境1210の全体的な操作を制御する。プロセッサ
1220は、上記の方法のすべてまたはいくつかのステップを行うための命令を実行する
1つまたは複数のプロセッサを含み得る。さらに、プロセッサ1220は、プロセッサ1
220と他の構成要素との間の相互作用を容易にする1つまたは複数の回路を含み得る。
プロセッサは、中央処理ユニット(CPU)、マイクロプロセッサ、シングルチップマシ
ン、GPUなどであり得る。
The processor 1220 typically controls the overall operation of the computing environment 1210, such as operations related to display, data acquisition, data communication, and image processing. The processor 1220 may include one or more processors that execute instructions for performing all or some of the steps of the methods described above.
220 and other components.
The processor may be a central processing unit (CPU), a microprocessor, a single chip machine, a GPU, or the like.

メモリ1240は、コンピューティング環境1210の動作をサポートするための様々
なタイプのデータを格納するように構成される。そのようなデータの例は、コンピューテ
ィング環境1210で動作する任意のアプリケーションまたは方法に用いる命令、ビデオ
データ、画像データなどを含む。メモリ1240は、任意のタイプの揮発性または非揮発
性メモリデバイス、または、それらの組み合わせ、例えば、静的ランダムアクセスメモリ
(SRAM)、電気的に消去可能なプログラマブル読み取り専用メモリ(EEPROM)
、消去可能プログラマブル読み取り専用メモリ(EPROM)、プログラム可能な読み取
り専用メモリ(PROM)、読み取り専用メモリ(ROM)、磁気メモリ、フラッシュメ
モリ、磁気ディスクまたは光ディスクを使用して実現できる。
Memory 1240 is configured to store various types of data to support the operation of computing environment 1210. Examples of such data include instructions for any application or method operating in computing environment 1210, video data, image data, etc. Memory 1240 may be any type of volatile or non-volatile memory device, or combination thereof, such as, for example, static random access memory (SRAM), electrically erasable programmable read only memory (EEPROM), etc.
, erasable programmable read only memory (EPROM), programmable read only memory (PROM), read only memory (ROM), magnetic memory, flash memory, magnetic disk or optical disk.

I/Oインターフェース1250は、プロセッサ1220と、キーボード、クリックホ
イール、ボタンなどの周辺インターフェースモジュールとの間のインターフェースを提供
する。ボタンには、ホームボタン、スキャン開始ボタン、およびスキャン停止ボタンが含
まれるが、これらに限定されていない。I/Oインターフェース1250は、エンコーダ
およびデコーダと結合することができる。
The I/O interface 1250 provides an interface between the processor 1220 and a peripheral interface module such as a keyboard, a click wheel, buttons, including but not limited to a home button, a start scan button, and a stop scan button. The I/O interface 1250 can be coupled to an encoder and a decoder.

一実施形態では、上記した方法を実行するために、コンピューティング環境1210内
のプロセッサ1220によって実行可能である、メモリ1240に含まれるような複数の
プログラムを含む非一時的なコンピュータ可読記憶媒体も提供される。例えば、非一時的
なコンピュータ可読記憶媒体は、ROM、RAM、CD-ROM、磁気テープ、フロッピ
ーディスク、光学データ記憶装置などであり得る。
In one embodiment, a non-transitory computer readable storage medium is also provided that includes a number of programs, such as those contained in memory 1240, executable by processor 1220 in computing environment 1210 to perform the methods described above. For example, the non-transitory computer readable storage medium may be a ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc.

非一時的なコンピュータ可読記憶媒体は、1つまたは複数のプロセッサを有するコンピ
ューティングデバイスによって実行するための複数のプログラムをその中に格納しており
、複数のプログラムは、1つまたは複数のプロセッサによって実行されると、コンピュー
ティングデバイスが上記した動作予測するための方法を実行するものである。
A non-transitory computer-readable storage medium has stored therein a plurality of programs for execution by a computing device having one or more processors, the plurality of programs, when executed by the one or more processors, causing the computing device to perform the method for predicting behavior described above.

一実施形態では、コンピューティング環境1210は、上述した方法を実行するために
、1つまたは複数の特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DS
P)、デジタル信号処理デバイス(DSPD)、プログラマブルロジックデバイス(PL
D)、フィールドプログラマブルゲートアレイ(FPGA)、グラフィカルプロセッシン
グユニット(GPU)、コントローラー、マイクロコントローラー、マイクロプロセッサ
ー、またはその他の電子コンポーネントにより実現できる。
In one embodiment, the computing environment 1210 may include one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), and/or other processors for performing the methods described above.
P), digital signal processing device (DSPD), programmable logic device (PL
D) may be implemented by a field programmable gate array (FPGA), a graphical processing unit (GPU), a controller, a microcontroller, a microprocessor, or other electronic components.

Claims (6)

現在の画像の現在のコーディングブロックと関連付けされた、時間順で現在の画像より前にある第1の参照画像と、現在の画像より後にある第2の参照画像を取得すること、
前記現在のコーディングブロックから前記第1の参照画像内の参照ブロックまでの第1の動きベクトルに基づく第1の予測を取得すること、
前記現在のコーディングブロックから前記第2の参照画像内の参照ブロックまでの第2の動きベクトルに基づく第2の予測を取得すること、および
少なくとも前記第1の予測および前記第2の予測に基づいて、前記現在のコーディングブロックの双方向予測を算出すること、を備え、該算出することは、前記現在のコーディングブロックの双方向予測の算出に複合インター・イントラ予測(CIIP)が適用されない条件下において、前記現在のコーディングブロックの双方向予測の算出時に双方向オプティカルフロー(BDOF)を有効にすること、前記現在のコーディングブロックの双方向予測の算出にCIIPが適用されるとの判断に応じて、前記現在のコーディングブロックの双方向予測の算出時にBDOFを無効にし、前記第1の予測および前記第2の予測の平均に基づく前記現在のコーディングブロックの双方向予測を算出すること、を含
イントラ予測モードは、平面モードを含み、
前記BDOFのオペレーションは、
前記第1の予測に関連付けられた予測サンプルについて第1の水平勾配値{(∂I (0) /∂x)(i,j)}と第1の垂直勾配値{(∂I (0) /∂y)(i,j)}を算出し、前記第2の予測に関連付けられた予測サンプルについて第2の水平勾配値{(∂I (1) /∂x)(i,j)}と第2の垂直勾配値{(∂I (1) /∂y)(i,j)}を算出し、I (0) (i,j)は、前記第1の予測に関連付けられたサンプル位置(i,j)における予測サンプルを表し、I (1) (i,j)は、前記第2の予測に関連付けられたサンプル位置(i,j)における予測サンプルを表し、
前記第1の予測、前記第2の予測、前記第1の水平勾配値、前記第1の垂直勾配値、前記第2の水平勾配値および前記第2の垂直勾配値に基づいて、前記現在のコーディングブロックの双方向予測を算出することを、含む、
ビデオエンコーディングの方法。
obtaining a first reference image that is associated with a current coding block of the current image and that is temporally preceding the current image and a second reference image that is temporally following the current image;
obtaining a first prediction based on a first motion vector from the current coding block to a reference block in the first reference image;
obtaining a second prediction based on a second motion vector from the current coding block to a reference block in the second reference image; and calculating a bidirectional prediction of the current coding block based on at least the first prediction and the second prediction, the calculating including: enabling a bidirectional optical flow (BDOF) when calculating the bidirectional prediction of the current coding block under a condition that a composite inter-intra prediction (CIIP) is not applied to the calculation of the bidirectional prediction of the current coding block; and disabling BDOF when calculating the bidirectional prediction of the current coding block in response to a determination that a CIIP is applied to the calculation of the bidirectional prediction of the current coding block, and calculating a bidirectional prediction of the current coding block based on an average of the first prediction and the second prediction .
The intra prediction modes include planar modes,
The BDOF operation is as follows:
calculating a first horizontal gradient value {(∂I (0) /∂x)(i,j)} and a first vertical gradient value {(∂I (0) /∂y)(i,j)} for a prediction sample associated with the first prediction, and calculating a second horizontal gradient value {(∂I (1) /∂x)(i,j)} and a second vertical gradient value {(∂I (1) /∂y)(i,j)} for a prediction sample associated with the second prediction, where I (0) (i,j) represents the prediction sample at sample position (i,j) associated with the first prediction and I (1) (i,j) represents the prediction sample at sample position (i,j) associated with the second prediction;
calculating a bi-directional prediction of the current coding block based on the first prediction, the second prediction, the first horizontal gradient value, the first vertical gradient value, the second horizontal gradient value, and the second vertical gradient value.
Video encoding method.
前記BDOFの有効化に対応して、前記現在のコーディングブロックの双方向予測を算出することは、
第1の予測に関連付けられた予測サンプルと第2の予測に関連付けられた予測サンプル間の差異を最小化することによって、各サブブロックの動き改善値を算出すること、および
前記動き改善値、前記第1の予測、前記第2の予測、前記第1の水平勾配値、前記第1の垂直勾配値、前記第2の水平勾配値および前記第2の垂直勾配値に基づいて、前記現在のコーディングブロックの双方向予測を算出することを、さらに含む、
請求項に記載の方法。
Calculating a bi-prediction of the current coding block in response to enabling the BDOF includes:
calculating a motion improvement value for each sub-block by minimizing a difference between a prediction sample associated with a first prediction and a prediction sample associated with a second prediction; and calculating a bidirectional prediction of the current coding block based on the motion improvement value, the first prediction, the second prediction, the first horizontal gradient value, the first vertical gradient value, the second horizontal gradient value, and the second vertical gradient value.
The method of claim 1 .
前記BDOFの有効化に対応して、前記現在のコーディングブロックの双方向予測を算出することは、
前記動き改善値、前記第1の水平勾配値、前記第1の垂直勾配値、前記第2の水平勾配値および前記第2の垂直勾配値に基づいて、BDOF値を算出すること、および
前記第1の予測、前記第2の予測、前記BDOF値に基づいて、前記現在のコーディングブロックの双方向予測を算出することを、さらに含む、
請求項に記載の方法。
Calculating a bi-prediction of the current coding block in response to enabling the BDOF includes:
calculating a BDOF value based on the motion improvement value, the first horizontal gradient value, the first vertical gradient value, the second horizontal gradient value, and the second vertical gradient value; and calculating a bi-directional prediction of the current coding block based on the first prediction, the second prediction, and the BDOF value.
The method of claim 2 .
一つまたは複数のプロセッサと、該一つまたは複数のプロセッサと接続される一つまたは複数の記憶装置を備えるビデオエンコーディング装置であって、
請求項1からの何れか1項に記載の方法を実行するように構成される、
ビデオエンコーディング装置。
1. A video encoding device comprising: one or more processors; and one or more storage devices coupled to the one or more processors,
Configured to carry out the method according to any one of claims 1 to 3 ,
Video encoding equipment.
一つまたは複数のプロセッサを有する演算装置によって実行される複数のプログラムを記憶する、非一時的なコンピュータ読み取り可能な記憶媒体であって、
前記複数のプログラムは前記一つまたは複数のプロセッサによって実行されて、前記演算装置に請求項1からの何れか1項に記載の方法を実行させる、
記憶媒体。
A non-transitory computer-readable storage medium storing a plurality of programs to be executed by a computing device having one or more processors,
The plurality of programs are executed by the one or more processors to cause the computing device to perform the method of any one of claims 1 to 3 .
Storage medium.
プロセッサによって実行されるときに、請求項1からの何れか1項に記載の方法を実施するインストラクションを含む、コンピュータ読み取り可能な記憶媒体に記憶されたコンピュータプログラム。 A computer program stored on a computer readable storage medium comprising instructions which, when executed by a processor, perform the method of any one of claims 1 to 3 .
JP2022109740A 2019-01-09 2022-07-07 VIDEO ENCODING METHOD, VIDEO ENCODING APPARATUS, STORAGE MEDIUM AND COMPUTER PROGRAM - Patent application Active JP7652742B2 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201962790421P 2019-01-09 2019-01-09
US62/790,421 2019-01-09
PCT/US2020/012826 WO2020146562A1 (en) 2019-01-09 2020-01-09 System and method for improving combined inter and intra prediction
JP2021540266A JP7223858B2 (en) 2019-01-09 2020-01-09 Video coding method, video coding device, computer readable storage medium and computer program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021540266A Division JP7223858B2 (en) 2019-01-09 2020-01-09 Video coding method, video coding device, computer readable storage medium and computer program

Publications (3)

Publication Number Publication Date
JP2022172057A JP2022172057A (en) 2022-11-15
JP2022172057A5 JP2022172057A5 (en) 2023-01-20
JP7652742B2 true JP7652742B2 (en) 2025-03-27

Family

ID=78890655

Family Applications (5)

Application Number Title Priority Date Filing Date
JP2021127431A Active JP7303255B2 (en) 2019-01-09 2021-08-03 Video coding method, video coding device, computer readable storage medium and computer program
JP2022088741A Pending JP2022119936A (en) 2019-01-09 2022-05-31 Systems and methods for improving composite inter and intra prediction
JP2022109740A Active JP7652742B2 (en) 2019-01-09 2022-07-07 VIDEO ENCODING METHOD, VIDEO ENCODING APPARATUS, STORAGE MEDIUM AND COMPUTER PROGRAM - Patent application
JP2023133311A Active JP7676485B2 (en) 2019-01-09 2023-08-18 VIDEO DECODING METHOD, VIDEO DECODING APPARATUS, NON-TRANSITORY COMPUTER-READABLE STORAGE MEDIUM, COMPUTER PROGRAM, AND BITSTREAM SIGNAL PROCESSING METHOD
JP2023138923A Active JP7678041B2 (en) 2019-01-09 2023-08-29 VIDEO ENCODING METHOD, VIDEO ENCODING APPARATUS, NON-TRANSITORY COMPUTER-READABLE STORAGE MEDIUM, COMPUTER PROGRAM, AND BITSTREAM SIGNAL PROCESSING METHOD

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2021127431A Active JP7303255B2 (en) 2019-01-09 2021-08-03 Video coding method, video coding device, computer readable storage medium and computer program
JP2022088741A Pending JP2022119936A (en) 2019-01-09 2022-05-31 Systems and methods for improving composite inter and intra prediction

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2023133311A Active JP7676485B2 (en) 2019-01-09 2023-08-18 VIDEO DECODING METHOD, VIDEO DECODING APPARATUS, NON-TRANSITORY COMPUTER-READABLE STORAGE MEDIUM, COMPUTER PROGRAM, AND BITSTREAM SIGNAL PROCESSING METHOD
JP2023138923A Active JP7678041B2 (en) 2019-01-09 2023-08-29 VIDEO ENCODING METHOD, VIDEO ENCODING APPARATUS, NON-TRANSITORY COMPUTER-READABLE STORAGE MEDIUM, COMPUTER PROGRAM, AND BITSTREAM SIGNAL PROCESSING METHOD

Country Status (1)

Country Link
JP (5) JP7303255B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3909241A4 (en) 2019-01-09 2022-04-06 Beijing Dajia Internet Information Technology Co., Ltd. System and method for improving combined inter and intra prediction
JP7303255B2 (en) * 2019-01-09 2023-07-04 ベイジン ダジア インターネット インフォメーション テクノロジー カンパニー リミテッド Video coding method, video coding device, computer readable storage medium and computer program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020061082A1 (en) 2018-09-21 2020-03-26 Vid Scale, Inc. Complexity reduction and bit-width control for bi-directional optical flow

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108650508B (en) * 2011-09-29 2022-07-29 夏普株式会社 Image decoding device, image decoding method, image encoding device, and image encoding method
CA3122137C (en) 2018-12-07 2024-01-02 Huawei Technologies Co., Ltd. An encoder, a decoder and corresponding methods of boundary strength derivation of deblocking filter
JP7303255B2 (en) 2019-01-09 2023-07-04 ベイジン ダジア インターネット インフォメーション テクノロジー カンパニー リミテッド Video coding method, video coding device, computer readable storage medium and computer program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020061082A1 (en) 2018-09-21 2020-03-26 Vid Scale, Inc. Complexity reduction and bit-width control for bi-directional optical flow

Also Published As

Publication number Publication date
JP7676485B2 (en) 2025-05-14
JP7678041B2 (en) 2025-05-15
JP2023162338A (en) 2023-11-08
JP2021192510A (en) 2021-12-16
JP2022119936A (en) 2022-08-17
JP7303255B2 (en) 2023-07-04
JP2022172057A (en) 2022-11-15
JP2023156465A (en) 2023-10-24

Similar Documents

Publication Publication Date Title
JP7223858B2 (en) Video coding method, video coding device, computer readable storage medium and computer program
JP7678041B2 (en) VIDEO ENCODING METHOD, VIDEO ENCODING APPARATUS, NON-TRANSITORY COMPUTER-READABLE STORAGE MEDIUM, COMPUTER PROGRAM, AND BITSTREAM SIGNAL PROCESSING METHOD
JP7313533B2 (en) Method and Apparatus in Predictive Refinement by Optical Flow
JP2023100979A (en) Methods and apparatuses for prediction refinement with optical flow, bi-directional optical flow, and decoder-side motion vector refinement
JP2023063506A (en) Method for deriving constructed affine merge candidate
CN117294842B (en) Video encoding and decoding method, apparatus, and non-transitory computer readable storage medium
KR102450491B1 (en) Systems and methods for combined inter and intra prediction
WO2024016955A1 (en) Out-of-boundary check in video coding

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230106

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240820

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250314

R150 Certificate of patent or registration of utility model

Ref document number: 7652742

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150