[go: up one dir, main page]

WO2020184264A1 - Image decoding device, image decoding method, and program - Google Patents

Image decoding device, image decoding method, and program Download PDF

Info

Publication number
WO2020184264A1
WO2020184264A1 PCT/JP2020/008774 JP2020008774W WO2020184264A1 WO 2020184264 A1 WO2020184264 A1 WO 2020184264A1 JP 2020008774 W JP2020008774 W JP 2020008774W WO 2020184264 A1 WO2020184264 A1 WO 2020184264A1
Authority
WO
WIPO (PCT)
Prior art keywords
subblock
image
prediction
block
sub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2020/008774
Other languages
French (fr)
Japanese (ja)
Inventor
圭 河村
内藤 整
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Publication of WO2020184264A1 publication Critical patent/WO2020184264A1/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/583Motion compensation with overlapping blocks

Definitions

  • the present invention relates to an image decoding device, an image decoding method, and a program.
  • Non-Patent Document 1 An image coding method using intra-prediction or inter-prediction, conversion / quantization of a prediction residual signal, and entropy coding has been proposed (see, for example, Non-Patent Document 1).
  • an affine motion compensation prediction method has been proposed in the next-generation moving image coding method WC (see, for example, Non-Patent Document 2).
  • the affine motion compensation prediction method is a kind of motion compensation prediction method, and is configured to generate a prediction image by a motion vector and a translation model.
  • the block size to which the translation model is applied is a subblock of 4 ⁇ 4 pixels, while a different motion vector is derived for each subblock by affine transformation.
  • the affine transformation parameters are expressed as motion vectors at the vertices of the target block for which affine motion compensation prediction is performed in order to be consistent with the existing image coding method.
  • the motion vector at each vertex is called a "control point”.
  • the motion vector (mv x , mv y ) at an arbitrary pixel position in the case of the 4-parameter model shown in FIG. 9 (a) is derived by (Equation 1), and in the case of the 6-parameter model shown in FIG. 9 (b).
  • the motion vector (mv x , mv y ) at an arbitrary pixel position is derived by (Equation 2).
  • (mv 0x , mv 0y ) is the control point (movement vector) of the upper left vertex of the target block (subblock)
  • (mv 1x , mv 1y ) is the control point of the upper right vertex of the target block.
  • (Mv 2x , mv 2y ) are control points of the lower left vertex of the target block.
  • W is the width of the target block
  • H is the height of the target block.
  • affine motion compensation prediction can be performed only in units of 4 ⁇ 4 pixel subblocks, and the prediction performance is low. There was a problem.
  • the present invention has been made in view of the above-mentioned problems, and provides an image decoding device, an image decoding method, and a program capable of improving prediction performance while keeping the rate of increase in the number of subblocks constant.
  • the purpose is.
  • the first feature of the present invention is an image decoding device, which is a subblock division unit configured to acquire a first subblock and a second subblock by dividing a prediction target block at different division positions. And the motion vector generator configured to output the motion vector obtained by the affine transformation corresponding to the first subblock and the second subblock, and the first sub based on the motion vector.
  • the prediction target block is based on the motion compensation prediction unit configured to generate the prediction image of the block and the second subblock, the prediction image of the first subblock, and the prediction image of the second subblock. It is a gist to have an interpolation unit configured to generate a predicted image of.
  • the second feature of the present invention is an image decoding method, in which a step A of acquiring a first subblock and a second subblock by dividing a prediction target block at different division positions, and the first subblock and the first subblock A step B for outputting a motion vector obtained by an affine transformation corresponding to the second subblock, and a step C for generating a predicted image of the first subblock and the second subblock based on the motion vector. It is a gist to have a step D of generating a predicted image of the prediction target block based on the predicted image of the first subblock and the predicted image of the second subblock.
  • a third feature of the present invention is a program that causes a computer to function as an image decoding device, in which the image decoding device divides the prediction target block at different division positions to form a first subblock and a second subblock.
  • a subblock dividing unit configured to acquire the above, and a motion vector generating unit configured to output a motion vector obtained by an affine transformation corresponding to the first subblock and the second subblock.
  • a motion compensation prediction unit configured to generate a prediction image of the first subblock and the second subblock based on the motion vector, a prediction image of the first subblock, and the second subblock.
  • the gist is to have an interpolation unit configured to generate a predicted image of the predicted target block based on the predicted image of the sub-block.
  • an image decoding device an image decoding method and a program capable of improving the prediction performance while suppressing the increase rate of the number of subblocks to a constant level.
  • FIG. 1 is a diagram showing an example of a functional block of the image processing system 1 according to the first embodiment of the present invention.
  • the image processing system 1 includes an image coding device 100 that encodes a moving image and generates coded data, and an image decoding device 200 that decodes the coded data generated by the image coding device 100.
  • the above-mentioned coded data is transmitted and received between the image coding device 100 and the image decoding device 200, for example, via a transmission line.
  • FIG. 2 is a diagram showing an example of a functional block of the image coding device 100.
  • the image coding device 100 includes an inter prediction unit 101, an intra prediction unit 102, a conversion / quantization unit 103, an entropy coding unit 104, and an inverse conversion / inverse quantization unit 105. , An in-loop filter 106 and a frame buffer 107.
  • the inter-prediction unit 101 is configured to perform inter-prediction using the input image and the filtered locally decoded image (described later) input from the frame buffer 109 to generate and output the inter-prediction image.
  • the intra prediction unit 102 is configured to perform intra prediction using an input image and a locally decoded image before filtering (described later) to generate and output an intra prediction image.
  • the conversion / quantization unit 103 performs orthogonal conversion processing on the residual signal input from the subtraction unit 106, and performs quantization processing on the conversion coefficient obtained by such orthogonal conversion processing. It is configured to output the level value.
  • the entropy encoding unit 104 is configured to entropy-encode the quantization coefficient level value, conversion unit size and conversion size, motion compensation method, etc. input from the conversion / quantization unit 103 and output them as encoded data. There is.
  • the inverse conversion / inverse quantization unit 105 performs an inverse quantization process on the quantization coefficient level value input from the conversion / quantization unit 103, and reverses the conversion coefficient obtained by the inverse quantization process. It is configured to output the residual signal obtained by performing the orthogonal conversion process.
  • the subtraction unit 106 is configured to output a residual signal which is a difference between the input image and the intra prediction image or the inter prediction image.
  • the addition unit 107 is configured to output a pre-filter local decoding image obtained by adding the residual signal input from the inverse transformation / inverse quantization unit 105 and the intra-prediction image or the inter-prediction image.
  • the in-loop filter unit 108 applies in-loop filter processing such as deblocking filter processing to the pre-filter local decoding image input from the addition unit 107 to generate and output the post-filter local decoding image. It is configured.
  • the frame buffer 109 accumulates the filtered locally decoded image and appropriately supplies it to the inter-prediction unit as the filtered locally decoded image.
  • FIG. 3 is a block diagram of the image decoding device 200.
  • the image decoding device 200 includes an entropy decoding unit 201, an inverse conversion / inverse quantization unit 202, an inter prediction unit 203, an intra prediction unit 204, an addition unit 205, and an in-loop filter 206. And a frame buffer 207.
  • the entropy decoding unit 201 is configured to entropy decode the encoded data, derive the quantization coefficient level value, the conversion unit size and the conversion size, the motion compensation method, and the like, and output the coded data.
  • the inverse conversion / inverse quantization unit 202 performs an inverse quantization process on the quantization coefficient level value input from the entropy decoding unit 201, and an inverse orthogonal conversion process on the result obtained by the inverse quantization process. Is configured to be output as a residual signal.
  • the inter-prediction unit 203 is configured to perform inter-prediction using the filtered locally decoded image input from the frame buffer 207 to generate and output the inter-prediction image.
  • the intra prediction unit 204 is configured to perform intra prediction using the pre-filter locally decoded image input from the addition unit 205 to generate and output an intra prediction image.
  • the addition unit 205 combines the residual signal input from the inverse transformation / inverse quantization unit 202 with the prediction image (inter prediction image input from the inter prediction unit 203 or intra prediction image input from the intra prediction unit 204). It is configured to output the pre-filter locally decoded image obtained by addition.
  • the prediction image is a prediction with the highest expected coding performance obtained by entropy decoding among the inter prediction image input from the inter prediction unit 203 and the intra prediction image input from the intra prediction unit 204. It is a predicted image calculated by the method.
  • the in-loop filter 206 is configured to apply in-loop filter processing such as deblocking filter processing to the pre-filter locally decoded image input from the addition unit 205 to generate and output the post-filtered locally decoded image. ing.
  • the frame buffer 207 is configured to accumulate the filtered locally decoded image input from the in-loop filter 206, appropriately supply it to the inter-prediction unit 203 as the filtered locally decoded image, and output it as a decoded image. There is.
  • the inter-prediction unit 101 of the image coding device 100 and the inter-prediction unit 203 of the image decoding device 200 will be described with reference to FIGS. 4 to 6. Since the functions of the inter-prediction unit 101 of the image coding device 100 and the functions of the inter-prediction unit 203 of the image decoding device 200 are basically the same, the functions of the inter-prediction unit 203 of the image decoding device 200 will be taken as an example below. I will explain it by listing it.
  • the inter-prediction unit 203 of the image decoding apparatus 200 includes a normal sub-block division unit 101A, an additional sub-block division unit 101B, a motion vector generation unit 101C, and an affine motion vector generation unit 101D1 / 101D2.
  • the frame buffer 101E, the motion compensation prediction units 101F1 to 101F3, the addition unit 101G, and the selection unit 101H are provided.
  • the sub-block division unit 101A is configured to acquire the first sub-block by dividing the prediction target block at the first division position.
  • the normal sub-block division unit 101A divides the prediction target block based on the input coordinates and block size of the prediction target block to acquire the first sub-block, and obtains the first sub-block, and the coordinates of the first sub-block and It is configured to output the block size.
  • the normal subblock division unit 101A divides the prediction target block at the first division position X, and divides 16 subblocks (blocks composed of 4 ⁇ 4 pixels) B1. It may be configured to acquire.
  • the additional sub-block division unit 101B is configured to acquire the second sub-block by dividing the prediction target block at the second division position, which is a position deviated from the first division position by a predetermined pixel.
  • the additional sub-block division unit 101B grasps the first division position from the input coordinates and block size of the prediction target block, and is a position shifted by a predetermined pixel from the first division position. It is configured to divide the prediction target block at the division position, acquire the second subblock, and output the coordinates and block size of the second subblock.
  • the second division position may be a position shifted in the vertical direction and the horizontal direction by half the pixels of the first subblock from the first division position.
  • the additional sub-block division unit 101B divides the prediction target block at the second division position Y shifted in the vertical and horizontal directions by two pixels from the first division position X.
  • Nine second subblocks (blocks composed of 4 ⁇ 4 pixels) B2 may be acquired.
  • the additional subblock division 101B has the coordinates of nine second subblocks composed of 4 ⁇ 4 pixels and the coordinates and It is configured to output the block size.
  • the normal subblock division unit 101A and the additional subblock division unit 101B are configured to acquire the first subblock and the second subblock by dividing the prediction target block at different division positions. It constitutes a division part.
  • the motion vector generation unit 101C is configured to acquire the input coordinates and control points of the prediction target block and output the control points at the upper right vertices of the prediction target block as motion vectors.
  • the affine motion vector generation unit 101D1 is configured to output the motion vector obtained by the affine transformation corresponding to the first subblock.
  • the affine motion vector generation unit 101D2 is configured to output the motion vector obtained by the affine transformation corresponding to the second subblock.
  • the affine motion vector generation units 101D1 / 101D2 perform affine transformation using the input coordinates, block size and control points of the first subblock and the second subblock, and perform the affine transformation, and the first subblock and the second subblock and the second subblock. It is configured to output the motion vector corresponding to the subblock.
  • the frame buffer 101E is configured to output a fractional part of the reference pixel and motion vector indicated by the reference pixel subscript based on the input reference image subscript and motion vector of the block (or subblock). ..
  • the frame buffer 101E may be substituted by the frame buffer 109/207.
  • the motion compensation prediction unit 101F1 / 101F2 is configured to generate prediction images (interpolated images) of the first subblock and the second subblock based on the above-mentioned motion vector.
  • the motion compensation prediction unit 101F1 is configured to generate a prediction image of the second subblock based on the motion vector corresponding to the second subblock output from the frame buffer 101E.
  • the motion compensation prediction unit 101F1 is configured to generate a prediction image of the second subblock from the reference pixel output from the frame buffer 101E and the fractional part of the motion vector corresponding to the second subblock. Has been done.
  • the motion compensation prediction unit 101F2 is configured to generate a prediction image of the first subblock based on the motion vector corresponding to the first subblock output from the frame buffer 101E.
  • the motion compensation prediction unit 101F2 is configured to generate a prediction image of the first subblock from a reference pixel output from the frame buffer 101E and a fractional part of the motion vector corresponding to the first subblock. Has been done.
  • the motion compensation prediction unit 101F3 is configured to generate a prediction image of the prediction target block from the reference pixel output from the frame buffer 101E and a fractional part of the motion vector corresponding to the prediction target block.
  • the addition unit 101G constitutes an interpolation unit configured to generate a prediction image of the prediction target block based on the prediction image of the first subblock and the prediction image of the second subblock.
  • the addition unit 101G is configured to generate a prediction image of the prediction target block by weighted averaging the prediction image of the first subblock and the prediction image of the second subblock at a constant ratio. ing.
  • the selection unit 101H responds to the inter-prediction mode from the prediction image of the prediction target block output from the addition unit 101G and the prediction image of the prediction target block (when no subblock is used) output from the motion compensation prediction unit 101F3. It is configured to select and output a predicted image. The selection is determined by a control unit (not shown), and is signaled from the image coding device 100 to the image decoding device 200 as a motion compensation method.
  • step S101 the image decoding device 200 acquires the first subblock and the second subblock by dividing the prediction target block.
  • step S102 the image decoding device 200 generates a motion vector corresponding to the first subblock, a motion vector corresponding to the second subblock, and a motion vector corresponding to the prediction target subblock.
  • step S103 the image decoding device 200 generates a predicted image of the first subblock based on the motion vector corresponding to the first subblock, and generates a predicted image of the second subblock based on the motion vector corresponding to the second subblock.
  • a prediction image is generated, and a prediction image (when no subblock is used) of the prediction target block is generated based on the motion vector corresponding to the prediction target block.
  • step S104 the image decoding device 200 generates a predicted image of the prediction target block by weighted averaging the predicted image of the first subblock and the predicted image of the second subblock at a constant ratio.
  • step S105 the image decoding device 200 selects a prediction image according to the inter-prediction mode from the prediction image of the prediction target block generated in step S104 and the prediction image of the prediction target block generated in step S103.
  • the area of the reference pixel of the second subblock is not wider than the area of the reference pixel of the first subblock, so that each subblock does not increase the memory bandwidth. Prediction performance can be improved while maintaining the processing unit of.
  • the additional sub-block division unit 101B is configured to output a part of the second sub-block.
  • the additional subblock division unit 101B outputs the second subblock only to a certain ratio (for example, half, etc.) or less of the number of the first subblocks normally acquired by the subblock division unit 101A. It is configured as follows.
  • 16 first subblocks are normally generated by the subblock dividing unit 101A, and 9 additional subblocks 101B are generated by the additional subblock dividing unit 101B as shown in FIG. 7A.
  • a second subblock is generated.
  • the additional subblock division portion 101B is a shaded portion excluding a part of the second subblocks as shown in FIG. 7A. It is configured to output eight second subblocks.
  • the additional subblock dividing unit 101B outputs 49 second subblocks in the above-described first embodiment. In this embodiment, it may be configured to output 32 or less second subblocks.
  • the additional sub-block dividing unit 101B is configured to output 25 second sub-blocks when the second sub-block is reduced so as to have a checkered pattern.
  • the additional subblock dividing unit 101B is configured to output the first n second subblocks of the arbitrarily ordered blocks.
  • n is an integer, and is "32" when the rate of increase is 50%.
  • the prediction accuracy is predicted even though the additional calculation cost increases by a certain ratio even in the worst case. Can be improved.
  • Image processing system 100 ... Image coding devices 101, 203 ... Inter-prediction unit 101A ... Normal sub-block division unit 101B ... Additional sub-block division 101C ... Motion vector generation units 101D1, 101D2 ... Affine motion vector generation units 101F1 to 101F3 ... Motion compensation prediction unit 102, 204 ... Intra-prediction unit 103 ... Conversion / quantization unit 104 ... Entropy coding unit 105, 202 ... Inverse conversion / inverse quantization unit 106 ... Subtraction unit 101G, 107, 205 ... Addition unit 108, 206 ... In-loop filters 101E, 109, 207 ... Frame buffer 200 ... Entropy decoding unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

An image decoding device 200 includes: sub-block division units 101A/101B for acquiring a first sub-block and a second sub-block by dividing a prediction target block at different dividing positions; motion vector generation units 101D1/101D2 for outputting motion vectors obtained by affine transformations corresponding to the first sub-block and the second sub-block; motion compensation prediction units 101F1/101F2 for generating predicted images of the first sub-block and the second sub-block on the basis of the motion vectors; and an interpolation unit 101G for generating a predicted image of the prediction target block on the basis of the predicted image of the first sub-block and the predicted image of the second sub-block.

Description

画像復号装置、画像復号方法及びプログラムImage decoding device, image decoding method and program

 本発明は、画像復号装置、画像復号方法及びプログラムに関する。 The present invention relates to an image decoding device, an image decoding method, and a program.

 従来、イントラ予測又はインター予測、予測残差信号の変換・量子化、エントロピー符号化を用いた画像符号化方式が提案されている(例えば、非特許文献1参照)。 Conventionally, an image coding method using intra-prediction or inter-prediction, conversion / quantization of a prediction residual signal, and entropy coding has been proposed (see, for example, Non-Patent Document 1).

 また、インター予測方式の1つとして、アフィン動き補償予測方式が、次世代動画像符号化方式WCで提案されている(例えば、非特許文献2参照)。アフィン動き補償予測方式は、動き補償予測方式の一種であり、動きベクトル及び平行移動モデルにより予測画像を生成するように構成されている。 Further, as one of the inter-prediction methods, an affine motion compensation prediction method has been proposed in the next-generation moving image coding method WC (see, for example, Non-Patent Document 2). The affine motion compensation prediction method is a kind of motion compensation prediction method, and is configured to generate a prediction image by a motion vector and a translation model.

 図8に示すように、アフィン動き補償予測方式では、平行移動モデルを適用するブロックサイズを4×4画素のサブブロックとする一方で、アフィン変換によりサブブロックごとに異なる動きベクトルを導出する。 As shown in FIG. 8, in the affine motion compensation prediction method, the block size to which the translation model is applied is a subblock of 4 × 4 pixels, while a different motion vector is derived for each subblock by affine transformation.

 ここで、アフィン変換のパラメータは、既存の画像符号化方式との整合性を取るため、アフィン動き補償予測を行う対象ブロックの頂点における動きベクトルとして表現する。なお、各頂点における動きベクトルを「制御点」と呼ぶ。 Here, the affine transformation parameters are expressed as motion vectors at the vertices of the target block for which affine motion compensation prediction is performed in order to be consistent with the existing image coding method. The motion vector at each vertex is called a "control point".

 図9(a)に示す4パラメータモデルの場合の任意の画素位置における動きベクトル(mv,mv)は、(式1)によって導出され、図9(b)に示す6パラメータモデルの場合の任意の画素位置における動きベクトル(mv,mv)は、(式2)によって導出される。 The motion vector (mv x , mv y ) at an arbitrary pixel position in the case of the 4-parameter model shown in FIG. 9 (a) is derived by (Equation 1), and in the case of the 6-parameter model shown in FIG. 9 (b). The motion vector (mv x , mv y ) at an arbitrary pixel position is derived by (Equation 2).

Figure JPOXMLDOC01-appb-M000001
Figure JPOXMLDOC01-appb-M000001

Figure JPOXMLDOC01-appb-M000002
Figure JPOXMLDOC01-appb-M000002

 ここで、(mv0x,mv0y)は、対象ブロック(サブブロック)の左上頂点の制御点(動きベクトル)であり、(mv1x,mv1y)は、対象ブロックの右上頂点の制御点であり、(mv2x,mv2y)は、対象ブロックの左下頂点の制御点である。また、Wは、対象ブロックの幅であり、Hは、対象ブロックの高さである。 Here, (mv 0x , mv 0y ) is the control point (movement vector) of the upper left vertex of the target block (subblock), and (mv 1x , mv 1y ) is the control point of the upper right vertex of the target block. , (Mv 2x , mv 2y ) are control points of the lower left vertex of the target block. Further, W is the width of the target block, and H is the height of the target block.

 また、かかる動きベクトル(mv,mv)を導出する式は、任意の画素位置に適用可能だが、上述のように、4×4画素のサブブロックで1つの動きベクトルを共有する。 Further, the formula for deriving such motion vector (mv x, mv y) is but can be applied to any pixel position, as described above, sharing one motion vector in sub-blocks of 4 × 4 pixels.

ITU-T H.265 High Efficiency Video CodingITU-T H.265 High Efficiency Video Coding Versatile Video Coding(Draft 4)Versatile Video Coding (Draft 4)

 しかしながら、上述の技術では、既存の動き補償予測方式との整合性を優先するために、4×4画素のサブブロック単位でしかアフィン動き補償予測を行うことができず、予測性能が低いというという問題点があった。  However, in the above-mentioned technology, in order to prioritize consistency with the existing motion compensation prediction method, affine motion compensation prediction can be performed only in units of 4 × 4 pixel subblocks, and the prediction performance is low. There was a problem.

 そこで、本発明は、上述の課題に鑑みてなされたものであり、サブブロック数の増加割合を一定に抑えつつ、予測性能を向上させることができる画像復号装置、画像復号方法及びプログラムを提供することを目的とする。 Therefore, the present invention has been made in view of the above-mentioned problems, and provides an image decoding device, an image decoding method, and a program capable of improving prediction performance while keeping the rate of increase in the number of subblocks constant. The purpose is.

 本発明の第1の特徴は、画像復号装置であって、異なる分割位置で予測対象ブロックを分割することによって第1サブブロック及び第2サブブロックを取得するように構成されているサブブロック分割部と、前記第1サブブロック及び前記第2サブブロックに対応するアフィン変換によって得られた動きベクトルを出力するように構成されている動きベクトル生成部と、前記動きベクトルに基づいて、前記第1サブブロック及び前記第2サブブロックの予測画像を生成するように構成されている動き補償予測部と、前記第1サブブロックの予測画像及び前記第2サブブロックの予測画像に基づいて、前記予測対象ブロックの予測画像を生成するように構成されている補間部とを有することを要旨とする。 The first feature of the present invention is an image decoding device, which is a subblock division unit configured to acquire a first subblock and a second subblock by dividing a prediction target block at different division positions. And the motion vector generator configured to output the motion vector obtained by the affine transformation corresponding to the first subblock and the second subblock, and the first sub based on the motion vector. The prediction target block is based on the motion compensation prediction unit configured to generate the prediction image of the block and the second subblock, the prediction image of the first subblock, and the prediction image of the second subblock. It is a gist to have an interpolation unit configured to generate a predicted image of.

 本発明の第2の特徴は、画像復号方法であって、異なる分割位置で予測対象ブロックを分割することによって第1サブブロック及び第2サブブロックを取得する工程Aと、前記第1サブブロック及び前記第2サブブロックに対応するアフィン変換によって得られた動きベクトルを出力する工程Bと、前記動きベクトルに基づいて、前記第1サブブロック及び前記第2サブブロックの予測画像を生成する工程Cと、前記第1サブブロックの予測画像及び前記第2サブブロックの予測画像に基づいて、前記予測対象ブロックの予測画像を生成する工程Dとを有することを要旨とする。 The second feature of the present invention is an image decoding method, in which a step A of acquiring a first subblock and a second subblock by dividing a prediction target block at different division positions, and the first subblock and the first subblock A step B for outputting a motion vector obtained by an affine transformation corresponding to the second subblock, and a step C for generating a predicted image of the first subblock and the second subblock based on the motion vector. It is a gist to have a step D of generating a predicted image of the prediction target block based on the predicted image of the first subblock and the predicted image of the second subblock.

 本発明の第3の特徴は、コンピュータを、画像復号装置として機能させるプログラムであって、前記画像復号装置は、 異なる分割位置で予測対象ブロックを分割することによって第1サブブロック及び第2サブブロックを取得するように構成されているサブブロック分割部と、前記第1サブブロック及び前記第2サブブロックに対応するアフィン変換によって得られた動きベクトルを出力するように構成されている動きベクトル生成部と、前記動きベクトルに基づいて、前記第1サブブロック及び前記第2サブブロックの予測画像を生成するように構成されている動き補償予測部と、前記第1サブブロックの予測画像及び前記第2サブブロックの予測画像に基づいて、前記予測対象ブロックの予測画像を生成するように構成されている補間部とを有することを要旨とする。 A third feature of the present invention is a program that causes a computer to function as an image decoding device, in which the image decoding device divides the prediction target block at different division positions to form a first subblock and a second subblock. A subblock dividing unit configured to acquire the above, and a motion vector generating unit configured to output a motion vector obtained by an affine transformation corresponding to the first subblock and the second subblock. A motion compensation prediction unit configured to generate a prediction image of the first subblock and the second subblock based on the motion vector, a prediction image of the first subblock, and the second subblock. The gist is to have an interpolation unit configured to generate a predicted image of the predicted target block based on the predicted image of the sub-block.

 本発明によれば、サブブロック数の増加割合を一定に抑えつつ、予測性能を向上させることができる画像復号装置、画像復号方法及びプログラムを提供することができる。 According to the present invention, it is possible to provide an image decoding device, an image decoding method and a program capable of improving the prediction performance while suppressing the increase rate of the number of subblocks to a constant level.

一実施形態に係る画像処理システム100の構成の一例を示す図である。It is a figure which shows an example of the structure of the image processing system 100 which concerns on one Embodiment. 一実施形態に係る画像符号化装置100の機能ブロックの一例を示す図である。It is a figure which shows an example of the functional block of the image coding apparatus 100 which concerns on one Embodiment. 一実施形態に係る画像復号装置200の機能ブロックの一例を示す図である。It is a figure which shows an example of the functional block of the image decoding apparatus 200 which concerns on one Embodiment. 一実施形態に係る画像符号化装置100のインター予測部101及び画像復号装置200のインター予測部203の機能ブロックの一例を示す図である。It is a figure which shows an example of the functional block of the inter-prediction unit 101 of the image coding apparatus 100 and the inter-prediction unit 203 of the image decoding apparatus 200 which concerns on one Embodiment. 一実施形態に係る画像符号化装置100のインター予測部101及び画像復号装置200のインター予測部203の追加サブブロック分割部101Bによって分割されるサブブロック及び通常サブブロック分割部101Aによって分割されるサブブロックの一例を示す図である。Sub-blocks divided by the additional sub-block division section 101B of the inter-prediction unit 101 of the image coding device 100 and the inter-prediction unit 203 of the image decoding device 200 according to one embodiment, and sub-blocks divided by the normal sub-block division section 101A. It is a figure which shows an example of a block. 一実施形態に係る画像復号装置200の動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation of the image decoding apparatus 200 which concerns on one Embodiment. 一実施形態に係る画像符号化装置100のインター予測部101及び画像復号装置200のインター予測部203の追加サブブロック分割部101Bによって分割されるサブブロック及び通常サブブロック分割部101Aによって分割されるサブブロックの一例を示す図である。Sub-blocks divided by the additional sub-block division section 101B of the inter-prediction unit 101 of the image coding device 100 and the inter-prediction unit 203 of the image decoding device 200 according to one embodiment, and sub-blocks divided by the normal sub-block division section 101A. It is a figure which shows an example of a block. 従来技術を説明するための図である。It is a figure for demonstrating the prior art. 従来技術を説明するための図である。It is a figure for demonstrating the prior art.

 以下、本発明の実施の形態について図面を参照しながら、説明する。なお、以下の実施形態における構成要素は適宜、既存の構成要素などとの置き換えが可能であり、また、他の既存の構成要素との組み合わせを含む様々なバリエーションが可能である。したがって、以下の実施形態の記載をもって、特許請求の範囲に記載された発明の内容を限定するものではない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The components in the following embodiments can be replaced with existing components as appropriate, and various variations including combinations with other existing components are possible. Therefore, the description of the following embodiments does not limit the content of the invention described in the claims.

(第1実施形態)
 図1は、本発明の第1実施形態に係る画像処理システム1の機能ブロックの一例を示す図である。画像処理システム1は、動画像を符号化して符号化データを生成する画像符号化装置100と、画像符号化装置100により生成された符号化データを復号する画像復号装置200とを備える。画像符号化装置100と画像復号装置200との間では、上述の符号化データが、例えば、伝送路を介して送受信される。
(First Embodiment)
FIG. 1 is a diagram showing an example of a functional block of the image processing system 1 according to the first embodiment of the present invention. The image processing system 1 includes an image coding device 100 that encodes a moving image and generates coded data, and an image decoding device 200 that decodes the coded data generated by the image coding device 100. The above-mentioned coded data is transmitted and received between the image coding device 100 and the image decoding device 200, for example, via a transmission line.

 図2は、画像符号化装置100の機能ブロックの一例を示す図である。図2に示すように、画像符号化装置100は、インター予測部101と、イントラ予測部102と、変換・量子化部103と、エントロピー符号化部104と、逆変換・逆量子化部105と、インループフィルタ106と、フレームバッファ107とを備える。 FIG. 2 is a diagram showing an example of a functional block of the image coding device 100. As shown in FIG. 2, the image coding device 100 includes an inter prediction unit 101, an intra prediction unit 102, a conversion / quantization unit 103, an entropy coding unit 104, and an inverse conversion / inverse quantization unit 105. , An in-loop filter 106 and a frame buffer 107.

 インター予測部101は、入力画像及びフレームバッファ109から入力されるフィルタ後局所復号画像(後述)を用いて、インター予測を行ってインター予測画像を生成して出力するように構成されている。 The inter-prediction unit 101 is configured to perform inter-prediction using the input image and the filtered locally decoded image (described later) input from the frame buffer 109 to generate and output the inter-prediction image.

 イントラ予測部102は、入力画像及びフィルタ前局所復号画像(後述)を用いて、イントラ予測を行ってイントラ予測画像を生成して出力するように構成されている。 The intra prediction unit 102 is configured to perform intra prediction using an input image and a locally decoded image before filtering (described later) to generate and output an intra prediction image.

 変換・量子化部103は、減算部106から入力される残差信号に対して直交変換処理を行い、かかる直交変換処理により得られる変換係数に対して量子化処理を行って得られる量子化係数レベル値を出力するように構成されている。 The conversion / quantization unit 103 performs orthogonal conversion processing on the residual signal input from the subtraction unit 106, and performs quantization processing on the conversion coefficient obtained by such orthogonal conversion processing. It is configured to output the level value.

 エントロピー符号化部104は、変換・量子化部103から入力される量子化係数レベル値、変換ユニットサイズ及び変換サイズ、動き補償方式等をエントロピー符号化して符号化データとして出力するように構成されている。 The entropy encoding unit 104 is configured to entropy-encode the quantization coefficient level value, conversion unit size and conversion size, motion compensation method, etc. input from the conversion / quantization unit 103 and output them as encoded data. There is.

 逆変換・逆量子化部105は、変換・量子化部103から入力される量子化係数レベル値に対して逆量子化処理を行い、かかる逆量子化処理により得られた変換係数に対して逆直交変換処理を行って得られる残差信号を出力するように構成されている。 The inverse conversion / inverse quantization unit 105 performs an inverse quantization process on the quantization coefficient level value input from the conversion / quantization unit 103, and reverses the conversion coefficient obtained by the inverse quantization process. It is configured to output the residual signal obtained by performing the orthogonal conversion process.

 減算部106は、入力画像とイントラ予測画像或いはインター予測画像との差分である残差信号を出力するように構成されている。 The subtraction unit 106 is configured to output a residual signal which is a difference between the input image and the intra prediction image or the inter prediction image.

 加算部107は、逆変換・逆量子化部105から入力される残差信号とイントラ予測画像或いはインター予測画像とを加算して得られるフィルタ前局所復号画像を出力するように構成されている。 The addition unit 107 is configured to output a pre-filter local decoding image obtained by adding the residual signal input from the inverse transformation / inverse quantization unit 105 and the intra-prediction image or the inter-prediction image.

 インループフィルタ部108は、加算部107から入力されるフィルタ前局所復号画像に対して、デブロッキングフィルタ処理等のインループフィルタ処理を適用してフィルタ後局所復号画像を生成して出力するように構成されている。 The in-loop filter unit 108 applies in-loop filter processing such as deblocking filter processing to the pre-filter local decoding image input from the addition unit 107 to generate and output the post-filter local decoding image. It is configured.

 フレームバッファ109は、フィルタ後局所復号画像を蓄積し、適宜、フィルタ後局所復号画像としてインター予測部に供給する。 The frame buffer 109 accumulates the filtered locally decoded image and appropriately supplies it to the inter-prediction unit as the filtered locally decoded image.

 図3は、画像復号装置200のブロック図である。図3に示すように、画像復号装置200は、エントロピー復号部201と、逆変換・逆量子化部202と、インター予測部203と、イントラ予測部204と、加算部205と、インループフィルタ206と、フレームバッファ207とを備える。 FIG. 3 is a block diagram of the image decoding device 200. As shown in FIG. 3, the image decoding device 200 includes an entropy decoding unit 201, an inverse conversion / inverse quantization unit 202, an inter prediction unit 203, an intra prediction unit 204, an addition unit 205, and an in-loop filter 206. And a frame buffer 207.

 エントロピー復号部201は、符号化データをエントロピー復号し、量子化係数レベル値、変換ユニットサイズ及び変換サイズ、動き補償方式等を導出して出力するように構成されている。 The entropy decoding unit 201 is configured to entropy decode the encoded data, derive the quantization coefficient level value, the conversion unit size and the conversion size, the motion compensation method, and the like, and output the coded data.

 逆変換・逆量子化部202は、エントロピー復号部201から入力される量子化係数レベル値に対して逆量子化処理を行い、かかる逆量子化処理により得られた結果に対して逆直交変換処理を行って残差信号として出力するように構成されている。 The inverse conversion / inverse quantization unit 202 performs an inverse quantization process on the quantization coefficient level value input from the entropy decoding unit 201, and an inverse orthogonal conversion process on the result obtained by the inverse quantization process. Is configured to be output as a residual signal.

 インター予測部203は、フレームバッファ207から入力されるフィルタ後局所復号画像を用いて、インター予測を行ってインター予測画像を生成して出力するように構成されている。 The inter-prediction unit 203 is configured to perform inter-prediction using the filtered locally decoded image input from the frame buffer 207 to generate and output the inter-prediction image.

 イントラ予測部204は、加算部205から入力されるフィルタ前局所復号画像を用いて、イントラ予測を行ってイントラ予測画像を生成して出力するように構成されている。 The intra prediction unit 204 is configured to perform intra prediction using the pre-filter locally decoded image input from the addition unit 205 to generate and output an intra prediction image.

 加算部205は、逆変換・逆量子化部202から入力される残差信号と予測画像(インター予測部203から入力されるインター予測画像或いはイントラ予測部204から入力されるイントラ予測画像)とを加算して得られるフィルタ前局所復号画像を出力するように構成されている。 The addition unit 205 combines the residual signal input from the inverse transformation / inverse quantization unit 202 with the prediction image (inter prediction image input from the inter prediction unit 203 or intra prediction image input from the intra prediction unit 204). It is configured to output the pre-filter locally decoded image obtained by addition.

 ここで、予測画像とは、インター予測部203から入力されるインター予測画像及びイントラ予測部204から入力されるイントラ予測画像のうち、エントロピー復号により得られた最も高い符号化性能の期待される予測方法により算出された予測画像のことである。 Here, the prediction image is a prediction with the highest expected coding performance obtained by entropy decoding among the inter prediction image input from the inter prediction unit 203 and the intra prediction image input from the intra prediction unit 204. It is a predicted image calculated by the method.

 インループフィルタ206は、加算部205から入力されるフィルタ前局所復号画像に対してデブロックフィルタ処理等のインループフィルタ処理を適用してフィルタ後局所復号画像を生成して出力するように構成されている。 The in-loop filter 206 is configured to apply in-loop filter processing such as deblocking filter processing to the pre-filter locally decoded image input from the addition unit 205 to generate and output the post-filtered locally decoded image. ing.

 フレームバッファ207は、インループフィルタ206から入力されるフィルタ後局所復号画像を蓄積し、適宜、フィルタ後局所復号画像としてインター予測部203に供給するとともに、復号済み画像として出力するように構成されている。 The frame buffer 207 is configured to accumulate the filtered locally decoded image input from the in-loop filter 206, appropriately supply it to the inter-prediction unit 203 as the filtered locally decoded image, and output it as a decoded image. There is.

 図4~図6を参照して、画像符号化装置100のインター予測部101及び画像復号装置200のインター予測部203について説明する。画像符号化装置100のインター予測部101の機能及び画像復号装置200のインター予測部203の機能は、基本的に同一であるため、以下、画像復号装置200のインター予測部203の機能を例に挙げて説明する。 The inter-prediction unit 101 of the image coding device 100 and the inter-prediction unit 203 of the image decoding device 200 will be described with reference to FIGS. 4 to 6. Since the functions of the inter-prediction unit 101 of the image coding device 100 and the functions of the inter-prediction unit 203 of the image decoding device 200 are basically the same, the functions of the inter-prediction unit 203 of the image decoding device 200 will be taken as an example below. I will explain it by listing it.

 図4に示すように、画像復号装置200のインター予測部203は、通常サブブロック分割部101Aと、追加サブブロック分割部101Bと、動きベクトル生成部101Cと、アフィン動きベクトル生成部101D1/101D2と、フレームバッファ101Eと、動き補償予測部101F1~101F3と、加算部101Gと、選択部101Hとを備える。 As shown in FIG. 4, the inter-prediction unit 203 of the image decoding apparatus 200 includes a normal sub-block division unit 101A, an additional sub-block division unit 101B, a motion vector generation unit 101C, and an affine motion vector generation unit 101D1 / 101D2. , The frame buffer 101E, the motion compensation prediction units 101F1 to 101F3, the addition unit 101G, and the selection unit 101H are provided.

 通常サブブロック分割部101Aは、第1分割位置で予測対象ブロックを分割することによって第1サブブロックを取得するように構成されている。 Normally, the sub-block division unit 101A is configured to acquire the first sub-block by dividing the prediction target block at the first division position.

 具体的には、通常サブブロック分割部101Aは、入力された予測対象ブロックの座標及びブロックサイズに基づいて予測対象ブロックを分割して第1サブブロックを取得し、かかる第1サブブロックの座標及びブロックサイズを出力するように構成されている。 Specifically, the normal sub-block division unit 101A divides the prediction target block based on the input coordinates and block size of the prediction target block to acquire the first sub-block, and obtains the first sub-block, and the coordinates of the first sub-block and It is configured to output the block size.

 例えば、図5(b)に示すように、通常サブブロック分割部101Aは、第1分割位置Xにおいて予測対象ブロックを分割し、16個のサブブロック(4×4の画素からなるブロック)B1を取得するように構成されていてもよい。 For example, as shown in FIG. 5B, the normal subblock division unit 101A divides the prediction target block at the first division position X, and divides 16 subblocks (blocks composed of 4 × 4 pixels) B1. It may be configured to acquire.

 追加サブブロック分割部101Bは、第1分割位置から所定画素分だけずれた位置である第2分割位置で予測対象ブロックを分割することによって第2サブブロックを取得するように構成されている。 The additional sub-block division unit 101B is configured to acquire the second sub-block by dividing the prediction target block at the second division position, which is a position deviated from the first division position by a predetermined pixel.

 具体的には、追加サブブロック分割部101Bは、入力された予測対象ブロックの座標及びブロックサイズから第1分割位置を把握し、かかる第1分割位置から所定画素分だけずらした位置である第2分割位置で予測対象ブロックを分割して第2サブブロックを取得し、かかる第2サブブロックの座標及びブロックサイズを出力するように構成されている。 Specifically, the additional sub-block division unit 101B grasps the first division position from the input coordinates and block size of the prediction target block, and is a position shifted by a predetermined pixel from the first division position. It is configured to divide the prediction target block at the division position, acquire the second subblock, and output the coordinates and block size of the second subblock.

 ここで、第2分割位置は、第1分割位置から第1サブブロックの半分の画素分だけ縦方向及び横方向にずれた位置であってもよい。 Here, the second division position may be a position shifted in the vertical direction and the horizontal direction by half the pixels of the first subblock from the first division position.

 例えば、図5(a)に示すように、追加サブブロック分割部101Bは、第1分割位置Xから2画素分だけ縦方向及び横方向にずらした第2分割位置Yで予測対象ブロックを分割し、9個の第2サブブロック(4×4の画素からなるブロック)B2を取得するように構成されていてもよい。 For example, as shown in FIG. 5A, the additional sub-block division unit 101B divides the prediction target block at the second division position Y shifted in the vertical and horizontal directions by two pixels from the first division position X. , Nine second subblocks (blocks composed of 4 × 4 pixels) B2 may be acquired.

 アフィン動き補償予測は、4×4画素のサブブロック単位で行われるため、図5の例では、追加サブブロック分割部101Bは、4×4の画素からなる9個の第2サブブロックの座標及びブロックサイズを出力するように構成されている。 Since the affine motion compensation prediction is performed in units of 4 × 4 pixel subblocks, in the example of FIG. 5, the additional subblock division 101B has the coordinates of nine second subblocks composed of 4 × 4 pixels and the coordinates and It is configured to output the block size.

 ここで、通常サブブロック分割部101A及び追加サブブロック分割部101Bは、異なる分割位置で予測対象ブロックを分割することによって第1サブブロック及び第2サブブロックを取得するように構成されているサブブロック分割部を構成する。 Here, the normal subblock division unit 101A and the additional subblock division unit 101B are configured to acquire the first subblock and the second subblock by dividing the prediction target block at different division positions. It constitutes a division part.

 動きベクトル生成部101Cは、入力された予測対象ブロックの座標及び制御点を取得し、かかる予測対象ブロックの右上の頂点の制御点を動きベクトルとして出力するように構成されている。 The motion vector generation unit 101C is configured to acquire the input coordinates and control points of the prediction target block and output the control points at the upper right vertices of the prediction target block as motion vectors.

 アフィン動きベクトル生成部101D1は、第1サブブロックに対応するアフィン変換によって得られた動きベクトルを出力するように構成されている。同様に、アフィン動きベクトル生成部101D2は、第2サブブロックに対応するアフィン変換によって得られた動きベクトルを出力するように構成されている。 The affine motion vector generation unit 101D1 is configured to output the motion vector obtained by the affine transformation corresponding to the first subblock. Similarly, the affine motion vector generation unit 101D2 is configured to output the motion vector obtained by the affine transformation corresponding to the second subblock.

 具体的には、アフィン動きベクトル生成部101D1/101D2は、入力された第1サブブロック及び第2サブブロックの座標、ブロックサイズ及び制御点を用いてアフィン変換を行い、第1サブブロック及び第2サブブロックに対応する動きベクトルを出力するように構成されている。 Specifically, the affine motion vector generation units 101D1 / 101D2 perform affine transformation using the input coordinates, block size and control points of the first subblock and the second subblock, and perform the affine transformation, and the first subblock and the second subblock and the second subblock. It is configured to output the motion vector corresponding to the subblock.

 フレームバッファ101Eは、入力された参照画像添字及びブロック(又は、サブブロック)の動きベクトルに基づいて、かかる参照画素添字によって示される参照画素及び動きベクトルの小数部分を出力するように構成されている。なお、フレームバッファ101Eは、フレームバッファ109/207によって代用されてよい。 The frame buffer 101E is configured to output a fractional part of the reference pixel and motion vector indicated by the reference pixel subscript based on the input reference image subscript and motion vector of the block (or subblock). .. The frame buffer 101E may be substituted by the frame buffer 109/207.

 動き補償予測部101F1/101F2は、上述の動きベクトルに基づいて、第1サブブロック及び第2サブブロックの予測画像(補間画像)を生成するように構成されている。 The motion compensation prediction unit 101F1 / 101F2 is configured to generate prediction images (interpolated images) of the first subblock and the second subblock based on the above-mentioned motion vector.

 具体的には、動き補償予測部101F1は、フレームバッファ101Eから出力される第2サブブロックに対応する動きベクトルに基づいて、第2サブブロックの予測画像を生成するように構成されている。 Specifically, the motion compensation prediction unit 101F1 is configured to generate a prediction image of the second subblock based on the motion vector corresponding to the second subblock output from the frame buffer 101E.

 より具体的には、動き補償予測部101F1は、フレームバッファ101Eから出力される参照画素及び第2サブブロックに対応する動きベクトルの小数部分から、第2サブブロックの予測画像を生成するように構成されている。 More specifically, the motion compensation prediction unit 101F1 is configured to generate a prediction image of the second subblock from the reference pixel output from the frame buffer 101E and the fractional part of the motion vector corresponding to the second subblock. Has been done.

 また、動き補償予測部101F2は、フレームバッファ101Eから出力される第1サブブロックに対応する動きベクトルに基づいて、第1サブブロックの予測画像を生成するように構成されている。 Further, the motion compensation prediction unit 101F2 is configured to generate a prediction image of the first subblock based on the motion vector corresponding to the first subblock output from the frame buffer 101E.

 より具体的には、動き補償予測部101F2は、フレームバッファ101Eから出力される参照画素及び第1サブブロックに対応する動きベクトルの小数部分から、第1サブブロックの予測画像を生成するように構成されている。 More specifically, the motion compensation prediction unit 101F2 is configured to generate a prediction image of the first subblock from a reference pixel output from the frame buffer 101E and a fractional part of the motion vector corresponding to the first subblock. Has been done.

 また、動き補償予測部101F3は、フレームバッファ101Eから出力される参照画素及び予測対象ブロックに対応する動きベクトルの小数部分から、予測対象ブロックの予測画像を生成するように構成されている。 Further, the motion compensation prediction unit 101F3 is configured to generate a prediction image of the prediction target block from the reference pixel output from the frame buffer 101E and a fractional part of the motion vector corresponding to the prediction target block.

 加算部101Gは、第1サブブロックの予測画像及び第2サブブロックの予測画像に基づいて、予測対象ブロックの予測画像を生成するように構成されている補間部を構成する。 The addition unit 101G constitutes an interpolation unit configured to generate a prediction image of the prediction target block based on the prediction image of the first subblock and the prediction image of the second subblock.

 具体的には、加算部101Gは、第1サブブロックの予測画像と第2サブブロックの予測画像とを一定の比率で加重平均することによって、予測対象ブロックの予測画像を生成するように構成されている。 Specifically, the addition unit 101G is configured to generate a prediction image of the prediction target block by weighted averaging the prediction image of the first subblock and the prediction image of the second subblock at a constant ratio. ing.

 選択部101Hは、加算部101Gから出力される予測対象ブロックの予測画像及び動き補償予測部101F3から出力される予測対象ブロックの予測画像(サブブロックを使わない場合)から、インター予測モードに応じた予測画像を選択して出力するように構成されている。なお、かかる選択は、図示しない制御部により判定され、動き補償方式として画像符号化装置100から画像復号装置200にシグナリングされる。 The selection unit 101H responds to the inter-prediction mode from the prediction image of the prediction target block output from the addition unit 101G and the prediction image of the prediction target block (when no subblock is used) output from the motion compensation prediction unit 101F3. It is configured to select and output a predicted image. The selection is determined by a control unit (not shown), and is signaled from the image coding device 100 to the image decoding device 200 as a motion compensation method.

 図6を参照して、本実施形態に係る画像復号装置200の動作の一例について説明する。 An example of the operation of the image decoding device 200 according to the present embodiment will be described with reference to FIG.

 図6に示すように、ステップS101において、画像復号装置200は、予測対象ブロックを分割することによって第1サブブロック及び第2サブブロックを取得する。 As shown in FIG. 6, in step S101, the image decoding device 200 acquires the first subblock and the second subblock by dividing the prediction target block.

 ステップS102において、画像復号装置200は、第1サブブロックに対応する動きベクトル、第2サブブロックに対応する動きベクトル及び予測対象サブブロックに対応する動きベクトルを生成する。 In step S102, the image decoding device 200 generates a motion vector corresponding to the first subblock, a motion vector corresponding to the second subblock, and a motion vector corresponding to the prediction target subblock.

 ステップS103において、画像復号装置200は、第1サブブロックに対応する動きベクトルに基づいて第1サブブロックの予測画像を生成し、第2サブブロックに対応する動きベクトルに基づいて第2サブブロックの予測画像を生成し、予測対象ブロックに対応する動きベクトルに基づいて予測対象ブロックの予測画像(サブブロックを使用しない場合)を生成する。 In step S103, the image decoding device 200 generates a predicted image of the first subblock based on the motion vector corresponding to the first subblock, and generates a predicted image of the second subblock based on the motion vector corresponding to the second subblock. A prediction image is generated, and a prediction image (when no subblock is used) of the prediction target block is generated based on the motion vector corresponding to the prediction target block.

 ステップS104において、画像復号装置200は、第1サブブロックの予測画像と第2サブブロックの予測画像とを一定の比率で加重平均することによって、予測対象ブロックの予測画像を生成する。 In step S104, the image decoding device 200 generates a predicted image of the prediction target block by weighted averaging the predicted image of the first subblock and the predicted image of the second subblock at a constant ratio.

 ステップS105において、画像復号装置200は、ステップS104において生成された予測対象ブロックの予測画像及びステップS103において生成された予測対象ブロックの予測画像から、インター予測モードに応じた予測画像を選択する。 In step S105, the image decoding device 200 selects a prediction image according to the inter-prediction mode from the prediction image of the prediction target block generated in step S104 and the prediction image of the prediction target block generated in step S103.

 本実施形態に係る画像処理システム1によれば、第2サブブロックの参照画素の領域は、第1サブブロックの参照画素の領域よりも広がらないため、メモリ帯域を増加させることなく、サブブロックごとの処理単位も維持しつつ、予測性能を向上することができる。 According to the image processing system 1 according to the present embodiment, the area of the reference pixel of the second subblock is not wider than the area of the reference pixel of the first subblock, so that each subblock does not increase the memory bandwidth. Prediction performance can be improved while maintaining the processing unit of.

(第2実施形態)
 以下、図7を参照して、本発明の第2実施形態に係る画像処理システム1について、上述の第1実施形態に係る画像処理システム1との相違点に着目して説明する。
(Second Embodiment)
Hereinafter, the image processing system 1 according to the second embodiment of the present invention will be described with reference to FIG. 7, focusing on the differences from the image processing system 1 according to the first embodiment described above.

 本実施形態において、追加サブブロック分割部101Bは、第2サブブロックの一部について出力するように構成されている。 In the present embodiment, the additional sub-block division unit 101B is configured to output a part of the second sub-block.

 具体的には、追加サブブロック分割部101Bは、通常サブブロック分割部101Aによって取得される第1サブブロックの個数の一定割合(例えば、半分等)以下に限定して第2サブブロックを出力するように構成されている。 Specifically, the additional subblock division unit 101B outputs the second subblock only to a certain ratio (for example, half, etc.) or less of the number of the first subblocks normally acquired by the subblock division unit 101A. It is configured as follows.

 例えば、図7(b)に示すように、通常サブブロック分割部101Aによって16個の第1サブブロックが生成され、図7(a)に示すように、追加サブブロック分割部101Bによって9個の第2サブブロックが生成される。 For example, as shown in FIG. 7B, 16 first subblocks are normally generated by the subblock dividing unit 101A, and 9 additional subblocks 101B are generated by the additional subblock dividing unit 101B as shown in FIG. 7A. A second subblock is generated.

 追加サブブロック分割部101Bは、第2サブブロックの個数を第1サブブロックの個数の半分以下とする場合、図7(a)に示すように、第2サブブロックの一部を除く斜線部分の8個の第2サブブロックを出力するように構成されている。 When the number of the second subblocks is half or less of the number of the first subblocks, the additional subblock division portion 101B is a shaded portion excluding a part of the second subblocks as shown in FIG. 7A. It is configured to output eight second subblocks.

 同様に、通常ブロック分割部101Aによって64個の第1サブブロックが出力される場合、追加サブブロック分割部101Bは、上述の第1実施形態では、49個の第2サブブロックを出力するが、本実施形態では、32個以下の第2サブブロックを出力するように構成されていてもよい。 Similarly, when 64 first subblocks are output by the normal block dividing unit 101A, the additional subblock dividing unit 101B outputs 49 second subblocks in the above-described first embodiment. In this embodiment, it may be configured to output 32 or less second subblocks.

 例えば、追加サブブロック分割部101Bは、市松模様となるように第2サブブロックを削減する場合、25個の第2サブブロックを出力するように構成されている。 For example, the additional sub-block dividing unit 101B is configured to output 25 second sub-blocks when the second sub-block is reduced so as to have a checkered pattern.

 或いは、追加サブブロック分割部101Bは、任意の順序付けされたブロックのうち先頭n個の第2サブブロックを出力するように構成されている。ここで、nは整数であり、増加率を5割とする場合には「32」となる。 Alternatively, the additional subblock dividing unit 101B is configured to output the first n second subblocks of the arbitrarily ordered blocks. Here, n is an integer, and is "32" when the rate of increase is 50%.

 本実施形態に係る画像処理システム1によれば、第2サブブロックの個数を一定割合に抑えているため、追加の演算コストもワーストケースにおいても一定割合の増加となるにもかかわらず、予測精度を向上させることができる。 According to the image processing system 1 according to the present embodiment, since the number of the second subblocks is suppressed to a certain ratio, the prediction accuracy is predicted even though the additional calculation cost increases by a certain ratio even in the worst case. Can be improved.

1…画像処理システム
100…画像符号化装置
101、203…インター予測部
101A…通常サブブロック分割部
101B…追加サブブロック分割部
101C…動きベクトル生成部
101D1、101D2…アフィン動きベクトル生成部
101F1~101F3…動き補償予測部
102、204…イントラ予測部
103…変換・量子化部
104…エントロピー符号化部
105、202…逆変換・逆量子化部
106…減算部
101G、107、205…加算部
108、206…インループフィルタ
101E、109、207…フレームバッファ
200…エントロピー復号部
1 ... Image processing system 100 ... Image coding devices 101, 203 ... Inter-prediction unit 101A ... Normal sub-block division unit 101B ... Additional sub-block division 101C ... Motion vector generation units 101D1, 101D2 ... Affine motion vector generation units 101F1 to 101F3 ... Motion compensation prediction unit 102, 204 ... Intra-prediction unit 103 ... Conversion / quantization unit 104 ... Entropy coding unit 105, 202 ... Inverse conversion / inverse quantization unit 106 ... Subtraction unit 101G, 107, 205 ... Addition unit 108, 206 ... In-loop filters 101E, 109, 207 ... Frame buffer 200 ... Entropy decoding unit

Claims (6)

 異なる分割位置で予測対象ブロックを分割することによって第1サブブロック及び第2サブブロックを取得するように構成されているサブブロック分割部と、
 アフィン変換によって前記第1サブブロック及び前記第2サブブロックに対応する動きベクトルを取得するように構成されている動きベクトル生成部と、
 前記動きベクトルに基づいて、前記第1サブブロック及び前記第2サブブロックの予測画像を生成するように構成されている動き補償予測部と、
 前記サブブロックの予測画像に基づいて、前記予測対象ブロックの予測画像を生成するように構成されている補間部とを有することを特徴とする画像復号装置。
A subblock division unit configured to acquire the first subblock and the second subblock by dividing the prediction target block at different division positions, and
A motion vector generator configured to acquire motion vectors corresponding to the first subblock and the second subblock by affine transformation, and
A motion compensation prediction unit configured to generate a prediction image of the first subblock and the second subblock based on the motion vector.
An image decoding device comprising an interpolation unit configured to generate a predicted image of the predicted target block based on the predicted image of the sub-block.
 前記サブブロック分割部は、
  第1分割位置で前記予測対象ブロックを分割することによって第1サブブロックを取得するように構成されている通常サブブロック分割部と、
  前記第1分割位置から所定画素分だけずれた位置である第2分割位置で前記予測対象ブロックを分割することによって第2サブブロックを取得するように構成されている追加サブブロック分割部とを有することを特徴とする請求項1に記載の画像復号装置。
The sub-block division portion
A normal subblock division unit configured to acquire the first subblock by dividing the prediction target block at the first division position, and
It has an additional sub-block division unit configured to acquire a second sub-block by dividing the prediction target block at a second division position which is a position deviated by a predetermined pixel from the first division position. The image decoding apparatus according to claim 1.
 前記第2分割位置は、前記第1分割位置から前記第1サブブロックの半分の画素分だけ縦方向及び横方向にずれた位置であることを特徴とする請求項2に記載の画像復号装置。 The image decoding apparatus according to claim 2, wherein the second division position is a position deviated from the first division position by half a pixel of the first subblock in the vertical direction and the horizontal direction.  前記追加サブブロック分割部は、前記第2サブブロックの一部について出力するように構成されていることを特徴とする請求項2又は3に記載の画像復号装置。 The image decoding device according to claim 2 or 3, wherein the additional sub-block dividing unit is configured to output a part of the second sub-block.  異なる分割位置で予測対象ブロックを分割することによって第1サブブロック及び第2サブブロックを取得する工程Aと、
 前記第1サブブロック及び前記第2サブブロックに対応するアフィン変換によって得られた動きベクトルを出力する工程Bと、
 前記動きベクトルに基づいて、前記第1サブブロック及び前記第2サブブロックの予測画像を生成する工程Cと、
 前記第1サブブロックの予測画像及び前記第2サブブロックの予測画像に基づいて、前記予測対象ブロックの予測画像を生成する工程Dとを有することを特徴とする画像復号方法。
Step A to acquire the first subblock and the second subblock by dividing the prediction target block at different division positions, and
Step B that outputs the motion vector obtained by the affine transformation corresponding to the first subblock and the second subblock, and
Step C of generating a predicted image of the first subblock and the second subblock based on the motion vector, and
An image decoding method comprising a step D of generating a predicted image of the predicted target block based on the predicted image of the first subblock and the predicted image of the second subblock.
 コンピュータを、画像復号装置として機能させるプログラムであって、
 前記画像復号装置は、
 異なる分割位置で予測対象ブロックを分割することによって第1サブブロック及び第2サブブロックを取得するように構成されているサブブロック分割部と、
 前記第1サブブロック及び前記第2サブブロックに対応するアフィン変換によって得られた動きベクトルを出力するように構成されている動きベクトル生成部と、
 前記動きベクトルに基づいて、前記第1サブブロック及び前記第2サブブロックの予測画像を生成するように構成されている動き補償予測部と、
 前記第1サブブロックの予測画像及び前記第2サブブロックの予測画像に基づいて、前記予測対象ブロックの予測画像を生成するように構成されている補間部とを有することを特徴とするプログラム。
A program that makes a computer function as an image decoding device.
The image decoding device is
A subblock division unit configured to acquire the first subblock and the second subblock by dividing the prediction target block at different division positions, and
A motion vector generator configured to output a motion vector obtained by an affine transformation corresponding to the first subblock and the second subblock, and a motion vector generator.
A motion compensation prediction unit configured to generate a prediction image of the first subblock and the second subblock based on the motion vector.
A program characterized by having an interpolation unit configured to generate a predicted image of the predicted target block based on the predicted image of the first subblock and the predicted image of the second subblock.
PCT/JP2020/008774 2019-03-11 2020-03-02 Image decoding device, image decoding method, and program Ceased WO2020184264A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019044305A JP7026064B2 (en) 2019-03-11 2019-03-11 Image decoder, image decoding method and program
JP2019-044305 2019-03-11

Publications (1)

Publication Number Publication Date
WO2020184264A1 true WO2020184264A1 (en) 2020-09-17

Family

ID=72427904

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/008774 Ceased WO2020184264A1 (en) 2019-03-11 2020-03-02 Image decoding device, image decoding method, and program

Country Status (2)

Country Link
JP (1) JP7026064B2 (en)
WO (1) WO2020184264A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180070102A1 (en) * 2015-05-15 2018-03-08 Huawei Technologies Co., Ltd. Adaptive Affine Motion Compensation Unit Determing in Video Picture Coding Method, Video Picture Decoding Method, Coding Device, and Decoding Device
WO2020008334A1 (en) * 2018-07-01 2020-01-09 Beijing Bytedance Network Technology Co., Ltd. Efficient affine merge motion vector derivation

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180070102A1 (en) * 2015-05-15 2018-03-08 Huawei Technologies Co., Ltd. Adaptive Affine Motion Compensation Unit Determing in Video Picture Coding Method, Video Picture Decoding Method, Coding Device, and Decoding Device
WO2020008334A1 (en) * 2018-07-01 2020-01-09 Beijing Bytedance Network Technology Co., Ltd. Efficient affine merge motion vector derivation

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KAI ZHANG ET AL.: "CE4-related: Interweaved Prediction for Affine Motion Compensation", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/ IEC JTC 1/SC 29/WG 11, JVET-K0102-V2, 11TH MEETING, July 2018 (2018-07-01), Ljubljana, SI, pages 1 - 4 *
KAI ZHANG ET AL.: "Non-CE2: Interweaved Prediction for Affine Motion Compensation", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/ IEC JTC 1/SC 29/WG 11, JVET-M0268-V3 , 13TH MEETING, January 2019 (2019-01-01), Marrakech, MA, pages 1 - 4 *

Also Published As

Publication number Publication date
JP7026064B2 (en) 2022-02-25
JP2020150342A (en) 2020-09-17

Similar Documents

Publication Publication Date Title
KR102668077B1 (en) Apparatus and method for image coding and decoding
JP6352141B2 (en) Moving picture encoding apparatus, moving picture decoding apparatus, moving picture compression transmission system, moving picture encoding method, moving picture decoding method, and program
JPWO2009047917A1 (en) Video encoding method and video decoding method
JP2023036776A (en) Method and apparatus for prediction refinement using optical flow
JP5898452B2 (en) Intra prediction apparatus, encoding apparatus, decoding apparatus, and program
KR20110015625A (en) Method and apparatus for locally adaptive filtering for motion compensation interpolation and reference picture filtering
US8031778B2 (en) Picture decoding device and method
WO2011099440A1 (en) Predictive coding method for motion vector, predictive decoding method for motion vector, video coding device, video decoding device, and programs therefor
WO2018055910A1 (en) Moving-image decoder, moving-image decoding method, moving-image encoder, moving-image encoding method, and computer readable recording medium
WO2014157386A1 (en) Video encoding device and video decoding device
KR20250099673A (en) Video coding method and apparatus using interpolation filter for intra prediction
US20160065958A1 (en) Method for encoding a plurality of input images, and storage medium having program stored thereon and apparatus
JP2018107692A (en) Moving picture decoding apparatus, moving picture decoding method, moving picture encoding apparatus, moving picture encoding method, and computer-readable recording medium
JP2007288810A (en) Image encoding method, image decoding method, image encoding device, image decoding device, image encoding program, image decoding program, and computer-readable recording medium
KR102674037B1 (en) Image encoding device, image encoding method, image decoding device, image decoding method, and computer program
JP7604600B2 (en) Image decoding device, image decoding method and program
JP7026064B2 (en) Image decoder, image decoding method and program
JP6539580B2 (en) Inter prediction apparatus, inter prediction method, moving picture coding apparatus, moving picture decoding apparatus, and computer readable recording medium
JP2013138502A (en) Coding apparatus, control method of the same, and computer program
WO2021131464A1 (en) Image decoding device, image decoding method, and program
JP7034363B2 (en) Image decoder, image decoding method and program
JP7061737B1 (en) Image decoder, image decoding method and program
JP7134118B2 (en) Image decoding device, image decoding method and program
JP6917718B2 (en) Predictors, encoders, decoders, and programs
JP2025058743A (en) Image encoding device, image encoding method, image decoding device, image decoding method, and computer program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20770002

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20770002

Country of ref document: EP

Kind code of ref document: A1