JP2024083558A - 動画像復号装置 - Google Patents
動画像復号装置 Download PDFInfo
- Publication number
- JP2024083558A JP2024083558A JP2024064079A JP2024064079A JP2024083558A JP 2024083558 A JP2024083558 A JP 2024083558A JP 2024064079 A JP2024064079 A JP 2024064079A JP 2024064079 A JP2024064079 A JP 2024064079A JP 2024083558 A JP2024083558 A JP 2024083558A
- Authority
- JP
- Japan
- Prior art keywords
- prediction
- flag
- unit
- reference picture
- slice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/11—Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/587—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/59—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
以下、図面を参照しながら本発明の実施形態について説明する。
本明細書で用いる演算子を以下に記載する。
本実施形態に係る動画像符号化装置11および動画像復号装置31の詳細な説明に先立って、動画像符号化装置11によって生成され、動画像復号装置31によって復号される符号化ストリームTeのデータ構造について説明する。
符号化ビデオシーケンスでは、処理対象のシーケンスSEQを復号するために動画像復号装置31が参照するデータの集合が規定されている。シーケンスSEQは、図4に示すように、ビデオパラメータセットVPS(Video Parameter Set)、シーケンスパラメータセットSPS(Sequence Parameter Set)、ピクチャパラメータセットPPS(Picture Parameter Set)、Adaptation Parameter Set(APS)、ピクチャPICT、及び、付加拡張情報SEI(Supplemental Enhancement Information)を含んでいる。
・ref_pic_resampling_enabled_flag:対象SPSを参照する単一のシーケンスに含まれる各画像を復号する場合に、解像度を可変とする機能(リサンプリング:resampling)を用いるか否かを規定するフラグである。別の側面から言えば、当該フラグは、予測画像の生成において参照される参照ピクチャのサイズが、単一のシーケンスが示す各画像間において変化することを示すフラグである。当該フラグの値が1である場合、上記リサンプリングが適用され、0である場合、適用されない。
・pic_width_max_in_luma_samples:単一のシーケンスにおける画像のうち、最大の幅を有する画像の幅を、輝度ブロック単位で指定するシンタックスである。また、当該シンタックスの値は、0ではなく、且つMax(8, MinCbSizeY)の整数倍であることが要求される。ここで、MinCbSizeYは、輝度ブロックの最小サイズによって定まる値である。
・pic_height_max_in_luma_samples:単一のシーケンスにおける画像のうち、最大の高さを有する画像の高さを、輝度ブロック単位で指定するシンタックスである。また、当該シンタックスの値は、0ではなく、且つMax(8, MinCbSizeY)の整数倍であることが要求される。
・sps_temporal_mvp_enabled_flag:対象シーケンスを復号する場合において、時間動きベクトル予測を用いるか否かを規定するフラグである。当該フラグの値が1であれば時間動きベクトル予測が用いられ、値が0であれば時間動きベクトル予測は用いられない。また、当該フラグを規定することにより、異なる解像度の参照ピクチャを参照する場合等に、参照する座標位置がずれてしまうことを防ぐことができる。
・pic_width_in_luma_samples:対象ピクチャの幅を指定するシンタックスである。当該シンタックスの値は、0ではなく、Max(8, MinCbSizeY)の整数倍であり、且つpic_width_max_in_luma_samples以下の値であることが要求される。
・pic_height_in_luma_samples:対象ピクチャの高さを指定するシンタックスである。当該シンタックスの値は、0ではなく、Max(8, MinCbSizeY)の整数倍であり、且つpic_height_max_in_luma_samples以下の値であることが要求される。
・conformance_window_flag:コンフォーマンス(クロッピング)ウィンドウオフセットパラメータが続いて通知されるか否かを示すフラグであって、コンフォーマンスウィンドウを表示する場所を示すフラグである。このフラグが1である場合、当該パラメータが通知され、0である場合、コンフォーマンスウインドウオフセットパラメータが存在しないことを示す。
・conf_win_left_offset、conf_win_right_offset、conf_win_top_offset、conf_win_bottom_offset:出力用のピクチャ座標で指定される矩形領域に関して、復号処理で出力されるピクチャの左、右、上、下位置を指定するためのオフセット値である。また、conformance_window_flagの値が0である場合、conf_win_left_offset、conf_win_right_offset、conf_win_top_offset、conf_win_bottom_offsetの値は0であるものと推定される。
・scaling_window_flag:スケーリングウインドウオフセットパラメータが対象PPSに存在するか否かを示すフラグであって、出力される画像サイズの規定に関するフラグである。このフラグが1である場合、当該パラメータがPPSに存在することを示しており、このフラグが0である場合、当該パラメータがPPSに存在しないことを示している。また、ref_pic_resampling_enabled_flagの値が0である場合、scaling_window_flagの値も0であることが要求される。
・scaling_win_left_offset、scaling_win_right_offset、scaling_win_top_offset、scaling_win_bottom_offset:スケーリング比率計算のために画像サイズに適用されるオフセットを、それぞれ、対象ピクチャの左、右、上、下位置について輝度サンプル単位で指定するシンタックスである。また、scaling_window_flagの値が0である場合、scaling_win_left_offset、scaling_win_right_offset、scaling_win_top_offset、scaling_win_bottom_offsetの値は0であるものと推定される。また、scaling_win_left_offset + scaling_win_right_offsetの値はpic_width_in_luma_samples未満であること、及びscaling_win_top_offset + scaling_win_bottom_offsetの値はpic_height_in_luma_samples未満であることが要求される。
PicOutputHeightL = pic_height_in_pic_size_units - (scaling_win_bottom_offset + scaling_win_top_offset)
・pps_collocated_from_l0_idc:collocated_from_l0_flagが、当該PPSを参照するスライスのスライスヘッダに存在するか否かを示すシンタックスである。当該シンタックスの値が0である場合、collocated_from_l0_flagが当該スライスヘッダに存在し、1又は2の場合、当該スライスヘッダには存在しないことを示している。
符号化ピクチャでは、処理対象のピクチャPICTを復号するために動画像復号装置31が参照するデータの集合が規定されている。ピクチャPICTは、図4に示すように、ピクチャヘッダPH、スライス0~スライスNS-1を含む(NSはピクチャPICTに含まれるスライスの総数)。
・pic_temporal_mvp_enabled_flag:当該ピクチャヘッダに関連付けられたスライスのインター予測に時間動きベクトル予測を用いるか否かを規定するフラグである。当該フラグの値が0である場合、当該ピクチャヘッダに関連付けられたスライスのシンタックス要素は、そのスライスの復号において時間動きベクトル予測が用いられないように制限される。当該フラグの値が1である場合、当該ピクチャヘッダに関連付けられたスライスの復号に時間動きベクトル予測が用いられることを示している。また、当該フラグが規定されていない場合、値が0であるものと推定される。
符号化スライスでは、処理対象のスライスSを復号するために動画像復号装置31が参照するデータの集合が規定されている。スライスは、図4に示すように、スライスヘッダ、および、スライスデータを含んでいる。
符号化スライスデータでは、処理対象のスライスデータを復号するために動画像復号装置31が参照するデータの集合が規定されている。スライスデータは、図4の符号化スライスヘッダに示すように、CTUを含んでいる。CTUは、スライスを構成する固定サイズ(例えば64x64)のブロックであり、最大符号化単位(LCU:Largest Coding Unit)と呼ぶこともある。
図4には、処理対象のCTUを復号するために動画像復号装置31が参照するデータの集合が規定されている。CTUは、再帰的な4分木分割(QT(Quad Tree)分割)、2分木分割(BT(Binary Tree)分割)あるいは3分木分割(TT(Ternary Tree)分割)により、符号化処理の基本的な単位である符号化ユニットCUに分割される。BT分割とTT分割を合わせてマルチツリー分割(MT(Multi Tree)分割)と呼ぶ。再帰的な4分木分割により得られる木構造のノードのことを符号化ノード(Coding Node)と称する。4分木、2分木、及び3分木の中間ノードは、符号化ノードであり、CTU自身も最上位の符号化ノードとして規定される。
図4は、処理対象の符号化ユニットを復号するために動画像復号装置31が参照するデータの集合が規定されている。具体的には、CUは、CUヘッダCUH、予測パラメータ、変換パラメータ、量子化変換係数等から構成される。CUヘッダでは予測モード等が規定される。
予測画像は、ブロックに付随する予測パラメータによって導出される。予測パラメータには、イントラ予測とインター予測の予測パラメータがある。
参照ピクチャリストは、参照ピクチャメモリ306に記憶された参照ピクチャからなるリストである。図5は、参照ピクチャおよび参照ピクチャリストの一例を示す概念図である。図5の参照ピクチャの一例を示す概念図において、矩形はピクチャ、矢印はピクチャの参照関係、横軸は時間、矩形中のI、P、Bは各々イントラピクチャ、単予測ピクチャ、双予測ピクチャ、矩形中の数字は復号順を示す。図に示すように、ピクチャの復号順は、I0、P1、B2、B3、B4であり、表示順は、I0、B3、B2、B4、P1である。図5には、ピクチャB3(対象ピクチャ)の参照ピクチャリストの例を示されている。参照ピクチャリストは、参照ピクチャの候補を表すリストであり、1つのピクチャ(スライス)が1つ以上の参照ピクチャリストを有してもよい。図の例では、対象ピクチャB3は、L0リストRefPicList0およびL1リストRefPicList1の2つの参照ピクチャリストを持つ。個々のCUでは、参照ピクチャリストRefPicListX(X=0または1)中のどのピクチャを実際に参照するかをrefIdxLXで指定する。図は、refIdxL0=2、refIdxL1=0の例である。なお、LXは、L0予測とL1予測を区別しない場合に用いられる記述方法であり、以降では、LXをL0、L1に置き換えることでL0リストに対するパラメータとL1リストに対するパラメータを区別する。
予測パラメータの復号(符号化)方法には、マージ予測(merge)モードとAMVP(Advanced Motion Vector Prediction、適応動きベクトル予測)モードがあり、merge_flagは、これらを識別するためのフラグである。マージ予測モードは、予測リスト利用フラグpredFlagLX、参照ピクチャインデックスrefIdxLX、動きベクトルmvLXを符号化データに含めずに、既に処理した近傍ブロックの予測パラメータ等から導出するモードである。AMVPモードは、inter_pred_idc、refIdxLX、mvLXを符号化データに含めるモードである。なお、mvLXは、予測ベクトルmvpLXを識別するmvp_LX_idxと差分ベクトルmvdLXとして符号化される。また、マージ予測モードの他に、アフィン予測モード、MMVD予測モードがあってもよい。
mvLXは、異なる2つのピクチャ上のブロック間のシフト量を示す。mvLXに関する予測ベクトル、差分ベクトルを、それぞれmvpLX、mvdLXと呼ぶ。
inter_pred_idcと、predFlagL0、predFlagL1の関係は以下のとおりであり、相互に変換可能である。
predFlagL0 = inter_pred_idc & 1
predFlagL1 = inter_pred_idc >> 1
なお、インター予測パラメータは、予測リスト利用フラグを用いても良いし、インター予測識別子を用いてもよい。また、予測リスト利用フラグを用いた判定は、インター予測識別子を用いた判定に置き替えてもよい。逆に、インター予測識別子を用いた判定は、予測リスト利用フラグを用いた判定に置き替えてもよい。
双予測であるかのフラグbiPredは、2つの予測リスト利用フラグがともに1であるかによって導出できる。例えば以下の式で導出できる。
あるいは、biPredは、インター予測識別子が2つの予測リスト(参照ピクチャ)を使うことを示す値であるか否かによっても導出できる。例えば以下の式で導出できる。
(動画像復号装置の構成)
本実施形態に係る動画像復号装置31(図6)の構成について説明する。
図7は、動画像復号装置31の概略的動作を説明するフローチャートである。
図9には、本実施形態に係るインター予測パラメータ導出部303の構成を示す概略図が示されている。インター予測パラメータ導出部303は、パラメータ復号部302から入力されたシンタックス要素に基づいて、予測パラメータメモリ307に記憶された予測パラメータを参照してインター予測パラメータを導出する。また、インター予測パラメータをインター予測画像生成部309、予測パラメータメモリ307に出力する。インター予測パラメータ導出部303及びその内部の要素であるAMVP予測パラメータ導出部3032、マージ予測パラメータ導出部3036、アフィン予測部30372、MMVD予測部30373、GPM予測部30377、DMVR部30537、MV加算部3038は、動画像符号化装置、動画像復号装置で共通する手段であるので、これらを総称して動きベクトル導出部(動きベクトル導出装置)と称してもよい。
((fRefWidth << 14)+(PicOutputWidthL >> 1)) / PicOutputWidthL
RefPicScale[ i ][ j ][ 1 ] =
((fRefHeight << 14)+(PicOutputHeightL >> 1)) / PicOutputHeightL
RefPicIsScaled[i][j] =
(RefPicScale[i][j][0] != (1<<14)) || (RefPicScale[i][j][1] != (1<<14))
ここで、変数PicOutputWidthLは、符号化ピクチャが参照される時に水平方向のスケーリング比を計算する時の値であり、符号化ピクチャの輝度の水平方向の画素数から左右のオフセット値を引いたものが用いられる。変数PicOutputHeightLは、符号化ピクチャが参照される時に垂直方向のスケーリング比を計算する時の値であり、符号化ピクチャの輝度の垂直方向の画素数から上下のオフセット値を引いたものが用いられる。変数fRefWidthは、リストiの参照リスト値jの参照ピクチャのPicOutputWidthLの値とし、変数fRefHightは、リストiの参照ピクチャリスト値jの参照ピクチャのPicOutputHeightLの値とする。
MV加算部3038では導出されたmvpLXとmvdLXを加算し、mvLXを導出する。
アフィン予測部30372は、1)対象ブロックの2つの制御点CP0、CP1、もしくは3つの制御点CP0, CP1, CP2の動きベクトルを導出し、2)対象ブロックのアフィン予測パラメータを導出し、3)アフィン予測パラメータから各サブブロックの動きベクトルを導出する。
図10には、本実施形態に係るマージ予測パラメータ導出部3036の構成を示す概略図が示されている。マージ予測パラメータ導出部3036は、マージ候補導出部30361、マージ候補選択部30362を備える。なお、マージ候補は、予測パラメータ(predFlagLX、mvLX、refIdxLX)を含んで構成され、マージ候補リストに格納される。マージ候補リストに格納されたマージ候補には、所定の規則に従ってインデックスが割り当てられる。
ここで、A1,B1,B0,A0,B2は各々、下記の座標を含むブロックから導出される動き情報である。図8の対象ピクチャでマージ候補の配置にA1,B1,B0,A0,B2の位置を示す。
B1: (xCb + cbWidth - 1, yCb - 1)
B0: (xCb + cbWidth, yCb - 1)
A0: (xCb - 1, yCb + cbHeight)
B2: (xCb - 1, yCb - 1)
対象ブロックの左上座標を(xCb, yCb)、幅cbWidth、高さcbHeightとする。
yColCtr = yCb+(cbHeight>>1)
xColCBr = xCb+cbWidth
yColCBr = yCb+ cbHeight
CBRが利用可能であればCBRの動きベクトルを利用してマージ候補COLを導出する。CBRが利用可能でなければCを使用してCOLを導出する。そして、availableFlagLXColを1に設定する。なお、参照ピクチャは、スライスヘッダにおいて通知されたcollocated_ref_idxであってもよい。
mvLXavgK[1] = (mvLXp0Cand[1]+mvLXp1Cand[1])/2
マージ候補導出部30361は、refIdxLXが0…Mであり、mvLXのX成分、Y成分が共に0であるゼロマージ候補Z0,…, ZMを導出しマージ候補リストに格納する。
i = 0
if( availableFlagA1 )
mergeCandList[ i++ ] = A1
if( availableFlagB1 )
mergeCandList[ i++ ] = B1
if( availableFlagB0 )
mergeCandList[ i++ ] = B0
if( availableFlagA0 )
mergeCandList[ i++ ] = A0
if( availableFlagB2 )
mergeCandList[ i++ ] = B2
if( availableFlagCol )
mergeCandList[ i++ ] = Col
if( availableFlagAvgK )
mergeCandList[ i++ ] = avgK
if( i < MaxNumMergeCand )
mergeCandList[ i++ ] = ZK
マージ候補選択部30362は、マージ候補リストに含まれるマージ候補のうち、merge_idxが示すマージ候補Nを以下の式で選択する。
ここでNは、マージ候補を示すラベルであり、A1,B1,B0,A0,B2,Col,avgK,ZKなどをとる。ラベルNで示されるマージ候補の動き情報は(mvLXN[0], mvLXN[0])、predFlagLXN, refIdxLXNで示される。
続いて、DMVR部30375が行うDMVR(Decoder side Motion Vector Refinement)処理について説明する。DMVR部30375は、対象CUに対して、merge_flagが1の場合、又は、スキップフラグskip_flagが1の場合、マージ予測部30374が導出する当該対象CUのmvLXを、参照画像を用いて修正する。具体的には、マージ予測部30374が導出する予測パラメータが双予測である場合において、2つの参照ピクチャに対応すると動きベクトルから導出される予測画像を用いて、動きベクトルを修正する。修正後のmvLXはインター予測画像生成部309に供給される。
また、RefPicIsScaled[0][refIdxLX]の値が1であるか、RefPicIsScaled[1][refIdxLX]の値が1であれば、cbProfFlagLXの値はFALSEに設定される。ここで、cbProfFlagLXは、アフィン予測のPrediction refinement(PROF)を行うか否かを規定するフラグである。
図10には、本実施形態に係るAMVP予測パラメータ導出部3032の構成を示す概略図が示されている。AMVP予測パラメータ導出部3032は、ベクトル候補導出部3033とベクトル候補選択部3034を備える。ベクトル候補導出部3033は、refIdxLXに基づいて予測パラメータメモリ307が記憶する復号済みの隣接ブロックの動きベクトルから予測ベクトル候補を導出し、予測ベクトル候補リストmvpListLX[]に格納する。
MV加算部3038は、AMVP予測パラメータ導出部3032から入力されたmvpLXと復号したmvdLXを加算してmvLXを算出する。加算部3038は、算出したmvLXをインター予測画像生成部309および予測パラメータメモリ307に出力する。
mvLX[1] = mvpLX[1]+mvdLX[1]
(サブブロックマージの詳細分類)
サブブロックマージが関連する予測処理の種類について纏める。上記のように、マージ予測とAMVP予測とに大別される。
・サブブロックマージ予測
サブブロックマージ予測は、更に、以下に類別される。
・アフィン予測
・継承アフィン予測(inferred affine prediction)
・構成アフィン予測(constructed affine prediction)
一方、AMVP予測は、以下に類別される。
・MVDアフィン予測
MVDアフィン予測は、更に、以下に類別される。
・6パラメータMVDアフィン予測
なお、MVDアフィン予測は、差分ベクトルを復号して用いるアフィン予測を指す。
predModeがインター予測モードを示す場合、インター予測画像生成部309は、インター予測パラメータ導出部303から入力されたインター予測パラメータと参照ピクチャを用いてインター予測によりブロックもしくはサブブロックの予測画像を生成する。
動き補償部3091(補間画像生成部3091)は、インター予測パラメータ導出部303から入力された、インター予測パラメータ(predFlagLX、refIdxLX、mvLX)に基づいて、参照ピクチャメモリ306から参照ブロックを読み出すことによって補間画像(動き補償画像)を生成する。参照ブロックは、refIdxLXで指定された参照ピクチャRefPicLX上で、対象ブロックの位置からmvLXシフトした位置のブロックである。ここで、mvLXが整数精度でない場合には、動き補償フィルタと呼ばれる小数位置の画素を生成するためのフィルタを施して、補間画像を生成する。
xFrac = mvLX[0]&(MVPREC-1)
yInt = yPb+(mvLX[1]>>(log2(MVPREC)))+y
yFrac = mvLX[1]&(MVPREC-1)
ここで、(xPb,yPb)は、bW*bHサイズのブロックの左上座標、x=0…bW-1、y=0…bH-1であり、MVPRECは、mvLXの精度(1/MVPREC画素精度)を示す。例えばMVPREC=16である。
続いて、動き補償部3091は、一時的画像temp[][]を垂直補間処理により、補間画像Pred[][]を導出する。以下のΣはk=0..NTAP-1のkに関する和、shift2は値のレンジを調整する正規化パラメータ、offset2=1<<(shift2-1)である。
以下、予測画像生成部308によって実行されるinterpolation filter処理であって、上述したリサンプリングが適用されて参照ピクチャのサイズが単一のシーケンス中で変化する場合におけるinterpolation filter処理について説明する。なお、この処理は、例えば動き補償部3091によって実行されるものであってもよい。
IntraInter合成部30951は、インター予測画像とイントラ予測画像の重み付け和により予測画像を生成する。
+(4 - w)*predSamplesInter[x][y] + 2)>> 2
ここで、predSamplesIntra[x][y]はイントラ予測画像で、planar予測に限定されている。predSamplesInter[x][y]は、再構成されたインター予測画像である。
GPM合成部30952は、上述したGPM予測を用いた予測画像を生成する。
次に、BDOF部30954が行うBDOF予測(Bi-Directional Optical Flow, BDOF処理)の詳細について説明する。BDOF部30954は、双予測モードにおいて、2つの予測画像(第1の予測画像及び第2の予測画像)及び勾配補正項を参照して予測画像を生成する。
重み予測部3094は、補間画像predSamplesLXからブロックの予測画像pbSamplesを生成する。
まず、重み予測処理を行うか否かを示す変数weightedPredFlagは次のように導出されている。slice_typeがPに等しい場合、weightedPredFlagはPPSで定義されるpps_weighted_pred_flagに等しく設定される。それ以外で、slice_typeがBに等しい場合、weightedPredFlagはPPSで定義されるpps_weighted_bipred_flag && (!dmvrFlag)に等しく設定される。
ここで、shift1=14-bitDepth、offset1=1<<(shift1-1)である。PredLXは、L0もしくはL1予測の補間画像である。
ここで、shift2=15-bitDepth、offset2=1<<(shift2-1)である。
w0 = LumaWeightL0[refIdxL0]
w1 = LumaWeightL1[refIdxL1]
o0 = luma_offset_l0[refIdxL0] <<(bitDepth - 8)
o1 = luma_offset_l1[refIdxL1] <<(bitDepth - 8)
それ以外(cIdxは0に等しくない色差)の場合、以下が適用される。
w0 = ChromaWeightL0[refIdxL0][cIdx - 1]
w1 = ChromaWeightL1[refIdxL1][cIdx - 1]
o0 = ChromaOffsetL0[refIdxL0][cIdx - 1] <<(bitDepth - 8)
o1 = ChromaOffsetL1[refIdxL1][cIdx - 1] <<(bitDepth - 8)
x = 0..nCbW - 1およびy = 0..nCbH - 1の予測画像の画素値pbSamples[x][y]は、次のように導出される。
pbSamples[x][y] = Clip3(0,(1 << bitDepth)- 1,
((predSamplesL0[x][y] * w0 + 2^(log2Wd - 1))>> log2Wd)+ o0)
else
pbSamples[x][y] = Clip3(0,(1<<bitDepth)-1, predSamplesL0[x][y]*w0 + o0)
それ以外で、もし、predFlagL0が0でpredFlagL1が1の場合、予測画像の画素値pbSamples[x][y]は、次のように導出される。
pbSamples[x][y] = Clip3(0,(1 << bitDepth)- 1,
((predSamplesL1[x][y] * w1 + 2^(log2Wd - 1))>> log2Wd)+ o1)
else
pbSamples[x][y] = Clip3(0,(1<<bitDepth)-1、predSamplesL1[x][y]*w1 + o1)
それ以外で、もし、predFlagL0は1に等しく、predFlagL1は1に等しい場合、予測画像の画素値pbSamples[x][y]は次のように導出される。
(predSamplesL0[x][y] * w0 + predSamplesL1[x][y] * w1 +
((o0 + o1 + 1)<< log2Wd))>>(log2Wd + 1))
(BCW予測)
BCW(Bi-prediction with CU-level Weights)予測は、CUレベルで予め決まった重み係数を切り替えることが可能な予測方法である。
現在の符号化ブロックの幅と高さを指定する2つの変数nCbWとnCbHと、(nCbW)x(nCbH)の2つの配列predSamplesL0およびpredSamplesL1と、予測リストを使うか否かを示すフラグpredFlagL0およびpredFlagL1と、参照インデックスrefIdxL0およびrefIdxL1と、BCW予測のインデックスbcw_idxと、輝度、色差成分のインデックスを指定する変数cIdxを入力し、BCW予測処理を行い、(nCbW)x(nCbH)の配列pbSamplesの予測画像の画素値を出力する。
(predSamplesL0[x][y] + predSamplesL1[x][y] + offset2)>> shift2)
それ以外の場合(bcwIdxが0と等しくない場合)、以下が適用される。
(w0 * predSamplesL0[x][y] +
w1 * predSamplesL1[x][y] + offset3)>>(shift2 + 3))
AMVP予測モードにおいてBCW予測が用いられる場合、インター予測パラメータ復号部303はbcw_idxを復号し、BCW部30955に送付する。また、マージ予測モードにおいてBCW予測が用いられる場合、インター予測パラメータ復号部303は、マージインデックスmerge_idxを復号し、マージ候補導出部30361は各マージ候補のbcwIdxを導出する。具体的には、マージ候補導出部30361は、マージ候補の導出に用いた隣接ブロックの重み係数を、対象ブロックに用いるマージ候補の重み係数として用いる。つまり、マージモードでは、過去に用いた重み係数を、対象ブロックの重み係数として継承する。
predModeがイントラ予測モードを示す場合、イントラ予測画像生成部310は、イントラ予測パラメータ導出部304から入力されたイントラ予測パラメータと参照ピクチャメモリ306から読み出した参照画素を用いてイントラ予測を行う。
次に、本実施形態に係る動画像符号化装置11の構成について説明する。図12は、本実施形態に係る動画像符号化装置11の構成を示すブロック図である。動画像符号化装置11は、予測画像生成部101、減算部102、変換・量子化部103、逆量子化・逆変換部105、加算部106、ループフィルタ107、予測パラメータメモリ(予測パラメータ記憶部、フレームメモリ)108、参照ピクチャメモリ(参照画像記憶部、フレームメモリ)109、符号化パラメータ決定部110、パラメータ符号化部111、予測パラメータ導出部120、エントロピー符号化部104を含んで構成される。
インター予測パラメータ符号化部112は図13に示すように、パラメータ符号化制御部1121、インター予測パラメータ導出部303を含んで構成される。インター予測パラメータ導出部303は動画像復号装置と共通の構成である。パラメータ符号化制御部1121は、マージインデックス導出部11211とベクトル候補インデックス導出部11212を含む。
イントラ予測パラメータ符号化部113は図14に示すように、パラメータ符号化制御部1131とイントラ予測パラメータ導出部304を備える。イントラ予測パラメータ導出部304は動画像復号装置と共通の構成である。
図15(a)は、非特許文献1のSequence Paramenter Set(SPS)のシンタクスの一部を示している。
(128 + delta_chroma_offset_l0[i][j] -
((128 * ChromaWeightL0[i][j])>> ChromaLog2WeightDenom)))
delta_chroma_offset_l0[i][j]の値は、-4*128から4*127の範囲内でなければならない。chroma_weight_l0_flag[i]が0に等しい場合、重み予測部3094はChromaOffsetL0[i][j]は0に等しいと推測する。
図19(b)は、非特許文献1の参照ピクチャリスト構造ref_pic_list_struct(listIdx、rplsIdx)を定義するシンタクスを示している。
上述した動画像符号化装置11及び動画像復号装置31は、動画像の送信、受信、記録、再生を行う各種装置に搭載して利用することができる。なお、動画像は、カメラ等により撮像された自然動画像であってもよいし、コンピュータ等により生成された人工動画像(CGおよびGUIを含む)であってもよい。
また、上述した動画像復号装置31および動画像符号化装置11の各ブロックは、集積回路(ICチップ)上に形成された論理回路によってハードウェア的に実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェア的に実現してもよい。
本発明の一態様に係る動画像復号装置は、
複数の参照ピクチャリスト構造を復号し、ピクチャ単位あるいはスライス単位で、前記複数の参照ピクチャリスト構造から一つの参照ピクチャリスト構造を選択するインター予測部を有し、
前記複数の参照ピクチャリスト構造においては、すべての参照ピクチャ数は1以上であることを特徴とする。
ピクチャ単位で、複数の参照ピクチャリスト構造から一つの参照ピクチャリスト構造を選択する場合は、ピクチャ単位で、実際に予測に用いる参照ピクチャ数を書き換える否かを示すフラグを復号し、
もし、当該フラグが真ならば、実際に予測に用いる参照ピクチャ数マイナス1の値を復号し、実際に用いる参照ピクチャ数を設定し、
もし、当該フラグが偽で、書き換えない場合は、参照ピクチャリスト構造のピクチャ数とデフォルトの実際に予測に用いる参照ピクチャ数とを比較して、小さい方の値を実際に用いる参照ピクチャ数とすることを特徴とする。
スライス単位で、複数の参照ピクチャリスト構造から一つの参照ピクチャリスト構造を選択する場合は、
Bスライスか、Pスライスで参照ピクチャリスト0の場合は、スライス単位で、実際に予測に用いる参照ピクチャ数を書き換える否かを示すフラグを復号し、
もし、当該フラグが真ならば、実際に予測に用いる参照ピクチャ数マイナス1の値を復号し、実際に用いる参照ピクチャ数を設定し、
もし、当該フラグが偽で、書き換えない場合は、参照ピクチャリスト構造のピクチャ数とデフォルトの実際に予測に用いる参照ピクチャ数とを比較して、小さい方の値を実際に用いる参照ピクチャ数とし、
もし、Iスライスか、Pスライスで参照ピクチャリスト1の場合は、参照ピクチャ数を0とすることを特徴とする。
ピクチャ単位で、複数の参照ピクチャリスト構造から一つの参照ピクチャリスト構造を選択する場合は、ピクチャ単位で実際に予測に用いる参照ピクチャ数を決定し、その数に基づいて、重み予測情報を復号し、
スライス単位で、複数の参照ピクチャリスト構造から一つの参照ピクチャリスト構造を選択する場合は、スライス単位で実際に予測に用いる参照ピクチャ数を決定し、その数に基づいて、重み予測情報を復号することを特徴とする。
301 エントロピー復号部
302 パラメータ復号部
303 インター予測パラメータ導出部
304 イントラ予測パラメータ導出部
305、107 ループフィルタ
306、109 参照ピクチャメモリ
307、108 予測パラメータメモリ
308、101 予測画像生成部
309 インター予測画像生成部
310 イントラ予測画像生成部
311、105 逆量子化・逆変換部
312、106 加算部
320 予測パラメータ導出部
11 画像符号化装置
102 減算部
103 変換・量子化部
104 エントロピー符号化部
110 符号化パラメータ決定部
111 パラメータ符号化部
112 インター予測パラメータ符号化部
113 イントラ予測パラメータ符号化部
120 予測パラメータ導出部
Claims (2)
- 動画像復号装置であって、
重み予測情報がピクチャヘッダにあるか否かを示す第1のフラグと、重み予測がBスライスに適用されるか否かを示す第2のフラグと、重み係数を導出するための第1のシンタックス要素と、少なくとも参照ピクチャリスト1に含まれるエントリの数を示す第2のシンタックス要素と、を復号するパラメータ復号部と、
インター予測パラメータを導出する予測パラメータ導出部と、
前記インター予測パラメータおよび参照ピクチャに基づいて補間画像を生成する動き補償部と、
前記第1のシンタックス要素を用いて前記重み係数を導出し、前記補間画像および前記重み係数を用いて予測画像を生成する重み予測部と、を備え、
前記パラメータ復号部は、前記第1のフラグおよび前記第2のフラグに基づいて前記参照ピクチャリスト1に含まれるエントリに対してシグナルされる重みの数を示す第3のシンタックス要素を復号し、
前記重み予測部は、前記第3のシンタックス要素が復号されない場合に前記参照ピクチャリスト1に含まれるエントリに対してシグナルされた前記重みの数を示す変数NumWeightsL1を0に等しくなるように設定し、
前記重み予測部は、前記変数NumWeightsL1の値が0に等しい場合、前記参照ピクチャリスト1のための前記重み係数に2の前記第1のシンタックス要素のべき乗値を設定することを特徴とする動画像復号装置。 - 前記重み予測部は、前記第1のフラグが、前記重み予測情報が前記ピクチャヘッダに存在することを示し、前記第2のフラグが、前記重み予測が前記Bスライスに適用されることを示し、かつ前記第2のシンタックス要素の値が0に等しい場合、前記変数NumWeightsL1を0に等しく設定することを特徴とする請求項1に記載の動画像復号装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024064079A JP2024083558A (ja) | 2020-03-17 | 2024-04-11 | 動画像復号装置 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020046124A JP7475908B2 (ja) | 2020-03-17 | 2020-03-17 | 予測画像生成装置、動画像復号装置及び動画像符号化装置 |
JP2024064079A JP2024083558A (ja) | 2020-03-17 | 2024-04-11 | 動画像復号装置 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020046124A Division JP7475908B2 (ja) | 2020-03-17 | 2020-03-17 | 予測画像生成装置、動画像復号装置及び動画像符号化装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024083558A true JP2024083558A (ja) | 2024-06-21 |
Family
ID=77746893
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020046124A Active JP7475908B2 (ja) | 2020-03-17 | 2020-03-17 | 予測画像生成装置、動画像復号装置及び動画像符号化装置 |
JP2024064079A Pending JP2024083558A (ja) | 2020-03-17 | 2024-04-11 | 動画像復号装置 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020046124A Active JP7475908B2 (ja) | 2020-03-17 | 2020-03-17 | 予測画像生成装置、動画像復号装置及び動画像符号化装置 |
Country Status (2)
Country | Link |
---|---|
US (4) | US11303927B2 (ja) |
JP (2) | JP7475908B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230143053A1 (en) * | 2020-04-01 | 2023-05-11 | Nec Corporation | Video encoding device, video decoding device, video encoding method, video decoding method, video system, and program |
US11800122B2 (en) * | 2021-08-17 | 2023-10-24 | Mediatek Inc. | Video processing apparatus using internal prediction buffer that is shared by multiple coding tools for prediction |
WO2024108391A1 (zh) * | 2022-11-22 | 2024-05-30 | Oppo广东移动通信有限公司 | 视频编解码方法、装置、设备、系统、及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021167758A1 (en) * | 2020-02-19 | 2021-08-26 | Bytedance Inc. | Signaling of prediction weights in general constraint information of a bitstream |
WO2021207423A1 (en) * | 2020-04-08 | 2021-10-14 | Beijing Dajia Internet Information Technology Co., Ltd. | Methods and apparatuses for signaling of syntax elements in video coding |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4015934B2 (ja) * | 2002-04-18 | 2007-11-28 | 株式会社東芝 | 動画像符号化方法及び装置 |
US9247258B2 (en) * | 2011-10-26 | 2016-01-26 | Qualcomm Incorporated | Unified design for picture partitioning schemes |
US9800869B2 (en) * | 2012-06-15 | 2017-10-24 | Google Technology Holdings LLC | Method and apparatus for efficient slice header processing |
US10085038B2 (en) | 2012-09-28 | 2018-09-25 | Sony Corporation | Encoding device, encoding method, decoding device, and decoding method |
US9313500B2 (en) * | 2012-09-30 | 2016-04-12 | Microsoft Technology Licensing, Llc | Conditional signalling of reference picture list modification information |
US20150271514A1 (en) * | 2014-03-18 | 2015-09-24 | Panasonic Intellectual Property Management Co., Ltd. | Prediction image generation method, image coding method, image decoding method, and prediction image generation apparatus |
US10855992B2 (en) * | 2018-12-20 | 2020-12-01 | Alibaba Group Holding Limited | On block level bi-prediction with weighted averaging |
KR20220100716A (ko) * | 2020-01-13 | 2022-07-15 | 엘지전자 주식회사 | 예측 가중 테이블 기반 영상/비디오 코딩 방법 및 장치 |
GB2592957A (en) * | 2020-03-11 | 2021-09-15 | Canon Kk | High level syntax for video coding and decoding |
-
2020
- 2020-03-17 JP JP2020046124A patent/JP7475908B2/ja active Active
-
2021
- 2021-03-15 US US17/201,627 patent/US11303927B2/en active Active
-
2022
- 2022-02-25 US US17/681,615 patent/US11716486B2/en active Active
-
2023
- 2023-06-09 US US18/207,703 patent/US12184891B2/en active Active
-
2024
- 2024-04-11 JP JP2024064079A patent/JP2024083558A/ja active Pending
- 2024-10-28 US US18/928,813 patent/US20250056039A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021167758A1 (en) * | 2020-02-19 | 2021-08-26 | Bytedance Inc. | Signaling of prediction weights in general constraint information of a bitstream |
WO2021207423A1 (en) * | 2020-04-08 | 2021-10-14 | Beijing Dajia Internet Information Technology Co., Ltd. | Methods and apparatuses for signaling of syntax elements in video coding |
Non-Patent Citations (3)
Title |
---|
HENDRY, SEUNG HWAN KIM, AND SANGHEON LEE: "[AHG9]: On picture level and slice level tool parameters", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-Q0200-r2, JPN6025013289, January 2020 (2020-01-01), pages 1 - 9, ISSN: 0005564315 * |
SACHIN DESHPANDE, ET AL.: "AHG9: On Reference Picture List Override Signalling", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-R0102-v1, JPN6025013287, April 2020 (2020-04-01), pages 1 - 5, ISSN: 0005564317 * |
YE-KUI WANG, ET AL.: "AHG9: Cleanups on RPL and related signalling", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-R0059-v1, JPN6025013288, April 2020 (2020-04-01), pages 1 - 11, ISSN: 0005564316 * |
Also Published As
Publication number | Publication date |
---|---|
US12184891B2 (en) | 2024-12-31 |
US11716486B2 (en) | 2023-08-01 |
US20220182660A1 (en) | 2022-06-09 |
JP2021150702A (ja) | 2021-09-27 |
US20250056039A1 (en) | 2025-02-13 |
US11303927B2 (en) | 2022-04-12 |
JP7475908B2 (ja) | 2024-04-30 |
US20210297693A1 (en) | 2021-09-23 |
US20230319305A1 (en) | 2023-10-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114762348B (zh) | 运动图像解码装置 | |
JP7650386B2 (ja) | 動画像復号装置 | |
JP7568625B2 (ja) | 画像復号装置および画像復号方法 | |
JP2024083558A (ja) | 動画像復号装置 | |
US20250016306A1 (en) | Video decoding apparatus, video coding apparatus, video decoding method, and video coding method | |
JP7620425B2 (ja) | 動画像符号化装置および動画像復号装置 | |
WO2021200658A1 (ja) | 動画像復号装置及び動画像復号方法 | |
JP2021027429A (ja) | 動画像符号化装置、動画像復号装置 | |
JP7465128B2 (ja) | 動画像符号化装置及び動画像復号装置 | |
JP7514611B2 (ja) | 動画像復号装置、動画像符号化装置、及び、予測画像生成装置 | |
WO2021235448A1 (ja) | 動画像符号化装置及び動画像復号装置 | |
JP2024149704A (ja) | 動画像復号装置及び画像符号化装置 | |
JP2021175009A (ja) | 動画像符号化装置及び動画像復号装置 | |
JP2021197558A (ja) | 動画像符号化装置及び動画像復号装置 | |
JP2025014089A (ja) | 動画像符号化装置、復号装置 | |
JP2022085475A (ja) | 動画像符号化装置、復号装置 | |
JP2021125798A (ja) | 動画像符号化装置、復号装置 | |
JP2021027458A (ja) | 動画像符号化装置、動画像復号装置、予測画像生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240411 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20250324 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20250401 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250522 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250617 |