[go: up one dir, main page]

WO2025159579A1 - Image encoding/decoding method and device - Google Patents

Image encoding/decoding method and device

Info

Publication number
WO2025159579A1
WO2025159579A1 PCT/KR2025/001496 KR2025001496W WO2025159579A1 WO 2025159579 A1 WO2025159579 A1 WO 2025159579A1 KR 2025001496 W KR2025001496 W KR 2025001496W WO 2025159579 A1 WO2025159579 A1 WO 2025159579A1
Authority
WO
WIPO (PCT)
Prior art keywords
block
information
current block
type
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
PCT/KR2025/001496
Other languages
French (fr)
Korean (ko)
Inventor
최기호
진현정
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyung Hee University
Original Assignee
Kyung Hee University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyung Hee University filed Critical Kyung Hee University
Priority claimed from KR1020250011567A external-priority patent/KR20250117306A/en
Publication of WO2025159579A1 publication Critical patent/WO2025159579A1/en
Pending legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/43Hardware specially adapted for motion estimation or compensation
    • H04N19/433Hardware specially adapted for motion estimation or compensation characterised by techniques for memory access
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Definitions

  • the present invention relates to a video encoding/decoding method and device, and more specifically, to a video encoding/decoding method and device with improved syntax coding and algorithm.
  • High-resolution, high-quality video such as HD (High Definition) and UHD (Ultra High Definition) video
  • HD High Definition
  • UHD Ultra High Definition
  • various techniques are used, such as an intra prediction technique that predicts the pixel values included in the current picture using pixel information in the current picture, an intra prediction technique that predicts the pixel values included in the current picture from the pictures before or after the current picture, a transform and quantization technique for compressing the energy of the residual signal, which is the difference between the predicted signal and the original signal, and an entropy coding technique that assigns short codes to values with high appearance frequencies and long codes to values with low appearance frequencies.
  • various tools are being developed to implement each technique in order to improve the efficiency of image coding.
  • the image can be restored and reproduced through an image decoding technique that uses a technique and tools corresponding to the image coding technique.
  • video data can be effectively compressed, transmitted, stored, and played back.
  • the present disclosure aims to provide a video encoding/decoding method and device that improves the inefficiency of syntax coding and enhances the compression efficiency of video data.
  • the present disclosure aims to provide a video encoding/decoding method and device that improves the compression efficiency of video data by improving the information reference process in the encoding/decoding process.
  • the present disclosure aims to provide a video encoding/decoding method and device that improves the compression efficiency of video data by improving the algorithm of the encoding/decoding process.
  • a video decoding method includes the steps of: deriving block splitting permission information for a current block; deriving context information of a multi-type tree splitting flag based on the block splitting permission information; deriving a value of a multi-type tree splitting flag of the current block based on the derived context information; and splitting the current block based on the multi-type tree splitting flag, wherein when a tree type of the current block is a dual tree, the block splitting permission information is derived according to a color component of the current block, and wherein the context information of the multi-type tree splitting flag can be derived based on the block splitting permission information derived according to the color component.
  • An image decoding method characterized in that in the above image decoding method, the multi-type tree splitting flag is a flag indicating the direction of multi-type tree splitting.
  • An image decoding method characterized in that in the above image decoding method, the block division permission information includes vertical division permission information and horizontal division permission information.
  • the vertical direction division permission information includes information on whether vertical direction bi-division is allowed and information on whether vertical direction tri-division is allowed.
  • the horizontal direction division permission information includes information on whether horizontal direction bi-division is allowed and information on whether horizontal direction tri-division is allowed.
  • An image decoding method characterized in that, in the above image decoding method, context information of a multi-type tree split flag is derived based on a comparison result between a value of vertical direction splitting permission information and a value of horizontal direction splitting permission information.
  • An image decoding method characterized in that in the above image decoding method, the multi-type tree splitting flag is a flag indicating the type of multi-type tree splitting.
  • a video encoding method includes a step of determining block splitting permission information for a current block, a step of determining a multi-type tree splitting flag of the current block, a step of determining context information of the multi-type tree splitting flag based on the block splitting permission information, and a step of encoding the multi-type tree splitting flag based on the context information, wherein when a tree type of the current block is a dual tree, the block splitting permission information may be derived based on a color component of the current block, and the context information of the multi-type tree splitting flag may be derived based on the block splitting permission information derived based on the color component.
  • a non-transitory computer-readable recording medium storing a bitstream generated by a video encoding method includes a step of determining block splitting permission information for a current block, a step of determining a multi-type tree splitting flag of the current block, a step of determining context information of the multi-type tree splitting flag based on the block splitting permission information, and a step of encoding the multi-type tree splitting flag based on the context information, wherein when the tree type of the current block is a dual tree, the block splitting permission information is derived based on a color component of the current block, and the context information of the multi-type tree splitting flag is derived based on the block splitting permission information derived based on the color component.
  • the bitstream generated by the video encoding method can be stored.
  • a method for transmitting a bitstream generated by a video encoding method includes the steps of transmitting the bitstream, determining block splitting permission information for a current block, determining a multi-type tree splitting flag of the current block, determining context information of the multi-type tree splitting flag based on the block splitting permission information, and encoding the multi-type tree splitting flag based on the context information, wherein when the tree type of the current block is a dual tree, the block splitting permission information is derived based on a color component of the current block, and the context information of the multi-type tree splitting flag is derived based on the block splitting permission information derived based on the color component.
  • a bitstream generated by the video encoding method can be transmitted.
  • a video encoding/decoding method and device can be provided that improves the inefficiency of syntax coding and enhances the compression efficiency of video data.
  • a method and device for encoding/decoding an image can be provided that improves the compression efficiency of image data by improving an information reference process in an encoding/decoding process.
  • a video encoding/decoding method and device can be provided that improves the compression efficiency of video data by improving the algorithm of the encoding/decoding process.
  • a recording medium storing a bitstream generated by the image encoding method or device of the present invention can be provided.
  • FIG. 1 is a block diagram illustrating an image encoding device according to one embodiment of the present disclosure.
  • FIG. 2 is a block diagram illustrating an image decoding device according to one embodiment of the present disclosure.
  • FIG. 3 is a diagram schematically illustrating a video coding system to which the present disclosure can be applied.
  • FIG. 4 is a diagram exemplifying a content streaming system to which an embodiment according to the present disclosure can be applied.
  • FIG. 5 is a flowchart illustrating an image decoding method for determining context information of syntax elements for an adaptive loop filter according to an embodiment of the present disclosure.
  • FIG. 6 is a flowchart illustrating an image decoding method for determining prediction mode condition information of a current block according to an embodiment of the present disclosure.
  • FIG. 7 is a diagram illustrating a signaling mechanism of block division related syntax elements according to one embodiment of the present disclosure.
  • FIG. 8 is a flowchart illustrating an image decoding method for determining context information of syntax elements regarding multi-type tree division of a current block according to an embodiment of the present disclosure.
  • FIG. 9 is a parameter model for determining a motion vector in an affine model-based inter prediction according to an embodiment of the present disclosure.
  • FIG. 10 is a flowchart illustrating an image decoding method for changing the resolution of an affine motion vector difference of a current block according to an embodiment of the present disclosure.
  • FIG. 11 is a diagram illustrating a segmentation structure of a current block based on an index indicating a geometric segmentation mode according to one embodiment of the present disclosure.
  • FIG. 12 is a diagram illustrating a current block predicted by a geometric segmentation mode according to one embodiment of the present disclosure.
  • FIG. 13 is a flowchart illustrating an image decoding method for storing motion information of a current block in a geometric segmentation mode according to an embodiment of the present disclosure.
  • first and second may be used to describe various components, these components should not be limited by these terms. These terms are used solely to distinguish one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a "second component,” and similarly, a second component may also be referred to as a "first component.”
  • first component may be referred to as a "second component”
  • second component may also be referred to as a "first component.”
  • the term “and/or” includes a combination of multiple related items described herein or any of multiple related items described herein.
  • image may refer to a video or a picture that constitutes a video.
  • image may refer to a video or a picture that constitutes a video.
  • picture may be used interchangeably and have the same meaning.
  • An image can be encoded by an image encoding device, and an image encoded by the image encoding device can be decoded by an image decoding device.
  • An image encoding device may also be referred to as an encoder or encoder.
  • an image decoding device may also be referred to as a decoder or decoder.
  • the target block may refer to a block being encoded and/or a block being decoded.
  • the target block may be the current block, which is the block currently being encoded or decoded.
  • target block expression and “current block” may be used interchangeably and have the same meaning.
  • a block and “unit” may be used interchangeably and interchangeably.
  • the term “unit” may refer to a unit comprising a luminance component block and a corresponding chrominance component block.
  • a coding tree unit may comprise a luminance component coding tree block and two corresponding chrominance component coding tree blocks.
  • sample may be a unit that constitutes a block.
  • pixel may be used interchangeably and have the same meaning.
  • FIG. 1 is a block diagram illustrating an image encoding device according to one embodiment of the present disclosure.
  • an image encoding device (100) may include an image segmentation unit (101), an intra prediction unit (102), an inter prediction unit (103), a subtraction unit (104), a transformation unit (105), a quantization unit (106), an entropy encoding unit (107), an inverse quantization unit (108), an inverse transformation unit (109), an addition unit (110), a filter unit (111), and a memory (112).
  • each component shown in Fig. 1 is independently depicted to represent different characteristic functions in the video encoding device, and does not mean that each component is composed of separate hardware or a single software component. That is, each component is listed and included as a separate component for convenience of explanation, and at least two components among each component may be combined to form a single component, or one component may be divided into multiple components to perform a function, and such integrated and separate embodiments of each component are also included in the scope of the present disclosure as long as they do not deviate from the essence of the present disclosure.
  • components may not be essential components that perform the essential functions of the present disclosure, but may be optional components merely used to enhance performance.
  • the present disclosure may be implemented by including only components essential to implementing the essence of the present disclosure, excluding components used solely for performance enhancement.
  • a structure that includes only essential components, excluding optional components used solely for performance enhancement, is also within the scope of the present disclosure.
  • the image segmentation unit (101) can segment an input image into at least one block.
  • the input image can have various shapes and sizes such as a sequence, a picture, a slice, a tile, a segment, a tile group, a coding tree block, etc.
  • the image segmentation unit (101) can segment one input picture into a plurality of sub-pictures defined as a group of rectangular slices, segment each sub-picture into the tiles/slices, and segment the tiles/slices into coding tree blocks.
  • the image segmentation unit (101) can recursively segment the segmented coding tree block.
  • the terminal node segmented from the coding tree block may be referred to as a coding unit (CU).
  • the block may mean a coding unit (CU), or a prediction unit (PU) or a transformation unit (TU) segmented from the coding unit (CU).
  • the segmentation may be performed based on at least one of a quadtree, a binary tree, and a ternary tree.
  • a quadtree is a method of segmenting an upper block into lower blocks whose width and height are half of those of the upper block.
  • a binary tree is a method of segmenting an upper block into lower blocks whose width or height is half of that of the upper block.
  • a ternary tree is a method of segmenting an upper block into three lower blocks.
  • the three lower blocks may be obtained by segmenting the width or height of the upper block at a ratio of 1:2:1.
  • blocks can have not only square but also non-square shapes.
  • Blocks can first be partitioned into a quad tree.
  • Blocks corresponding to leaf nodes of the quad tree can be left unpartitioned, or can be partitioned into a binary tree or a ternary tree.
  • Leaf nodes of the binary tree or ternary tree can be units of encoding, prediction, and/or transformation.
  • the image segmentation unit (101) can recursively segment the CTU into not only a quad tree (QT) but also a multi-type tree (MTT).
  • the MTT can be composed of a binary tree (BT) and a triple tree (TT).
  • the MTT structure can be divided into a vertical binary tree splitting mode (SPLIT_BT_VER), a horizontal binary tree splitting mode (SPLIT_BT_HOR), a vertical ternary tree splitting mode (SPLIT_TT_VER), and a horizontal triple splitting mode (SPLIT_TT_HOR).
  • the image segmentation unit (101) can segment a CTU by applying a dual tree that uses different CTU segmentation structures for luminance and chrominance components, or by applying a single tree in which luminance and chrominance CTBs (Coding Tree Blocks) within a CTU share a coding tree structure.
  • luminance and chrominance CTBs Coding Tree Blocks
  • the prediction unit (102, 103) may include an intra-prediction unit (102) that performs intra-prediction and an inter-prediction unit (103) that performs inter-prediction.
  • the prediction unit (102, 103) may determine whether to use intra-prediction or inter-prediction for a prediction unit.
  • the prediction unit (102, 103) may determine specific information (e.g., intra-prediction mode, inter-prediction mode, motion vector, reference picture, etc.) according to the determined prediction method.
  • the processing unit where the prediction is performed and the processing unit where the prediction method and specific contents are determined may be different.
  • the prediction unit (102, 103) may determine the prediction method and prediction mode for each prediction unit, and perform prediction according to the transformation unit.
  • the prediction unit may encode the input image using a third mode (e.g., IBC mode, Palette mode, etc.) other than the intra mode and the inter mode.
  • a third mode e.g., IBC mode, Palette mode, etc.
  • the third mode may be classified as the intra mode or the inter mode. In this disclosure, the third mode will be described only when a specific description thereof is required.
  • the intra prediction unit (102) can generate a prediction block of the current block based on the intra prediction mode of the current block and reference pixel information around the current block, which is pixel information within the current picture. If a neighboring block of the current block is predicted by inter prediction, the reference pixels included in the inter-predicted neighboring block can be replaced with reference pixels within another neighboring block that has been intra-predicted. That is, if a reference pixel is not available, the intra prediction unit (102) can perform intra prediction of the current block by replacing the unavailable reference pixel with at least one reference pixel among the available reference pixels.
  • the intra prediction unit (102) can use multiple reference pixel lines for intra prediction of the current block. If multiple reference pixel lines are available, information indicating a reference pixel line used for intra prediction among the multiple reference pixel lines can be signaled.
  • Intra prediction modes used for intra prediction may include a directional prediction mode that uses reference pixel information according to the prediction direction, and a non-directional mode that does not use directional information. Additionally, the mode for predicting luminance information and the mode for predicting chrominance information may be different, and the intra prediction mode information of the luminance component block or the predicted luminance signal information may be utilized to predict chrominance information.
  • the intra prediction unit (102) may include a reference sample filter, an interpolation filter, and a DC filter.
  • the reference sample filter is a filter that performs filtering on the reference pixels of the current block and may be adaptively applied depending on the prediction mode, size, shape, and/or whether the reference pixel of the current prediction unit is included in a reference pixel line immediately adjacent to the current block. If the prediction mode of the current block is a mode that does not perform reference pixel filtering, the reference pixel filter may not be applied.
  • An interpolation filter is a filter that interpolates and filters prediction samples of the current block, and can be adaptively applied depending on the prediction mode, size, shape, and/or whether the reference pixel of the current prediction unit is included in the reference pixel line immediately adjacent to the current block.
  • a prediction block can be generated by applying a DC filter.
  • the inter prediction unit (103) generates a prediction block using the previously restored reference image stored in the memory (112), the inter prediction mode, and the motion information.
  • inter prediction may mean motion prediction or motion compensation.
  • the inter prediction unit (103) can set the inter mode of a coding block to one of the Skip Mode, Merge Mode, and Advanced Motion Vector Prediction (AMVP) mode in order to perform motion prediction and/or motion compensation.
  • the inter prediction unit (103) can perform motion prediction and/or motion compensation for the current block according to the set mode.
  • AMVP Advanced Motion Vector Prediction
  • the inter prediction unit (103) may perform motion prediction and/or motion compensation for a prediction block by applying an affine mode of sub-PU-based prediction, a Subblock-based Temporal Motion Vector Prediction (SbTMVP) mode, and a MMVD (Merge with MVD) mode and a GPM (Geometric Partitioning Mode) mode of PU-based prediction based on the inter prediction mode.
  • SBTMVP Subblock-based Temporal Motion Vector Prediction
  • MMVD Merge with MVD
  • GPM Gateometric Partitioning Mode
  • the inter prediction unit (103) may perform motion prediction and/or motion compensation for a prediction block by applying a History-based MVP (HMVP), a Pairwise Average MVP (PAMVP), a Combined Intra/Inter Prediction (CIIP), an Adaptive Motion Vector Resolution (AMVR), a Decoder-side Motion Vector Refinement (DMVR), a Bi-Directional Optical-Flow (BDOF), a Prediction Refinement With Optical Flow (PROF), a Bi-predictive with CU Weights (BCW), etc. to improve the performance of each mode.
  • HMVP History-based MVP
  • PAMVP Pairwise Average MVP
  • CIIP Combined Intra/Inter Prediction
  • AMVR Adaptive Motion Vector Resolution
  • DMVR Decoder-side Motion Vector Refinement
  • BDOF Bi-Directional Optical-Flow
  • PROF Prediction Refinement With Optical Flow
  • BCW Bi-predictive with CU Weights
  • AFFINE mode can be used in both AMVP and MERGE modes. It is a technique with high encoding efficiency.
  • AFFINE mode can be a prediction mode that uses a 4-parameter affine motion model using two control point motion vectors (CPMV) or a 6-parameter affine motion model using three control point motion vectors.
  • CPMV can be a vector representing an affine motion model of any one of the top left, top right, and bottom left of the current block.
  • the motion information may include, for example, a motion vector, a reference picture index, a list 1 prediction flag, a list 0 prediction flag, a half-sample interpolation filter index, a bidirectional prediction weight index, etc.
  • a residual block containing residual value information which is the difference value between the prediction unit generated in the prediction unit (102, 103) and the original block of the prediction unit, can be generated.
  • the generated residual block can be input to the transformation unit (130) and transformed.
  • the subtraction unit (104) subtracts the block to be encoded from the prediction block generated by the intra prediction unit (102) or inter prediction unit (103) to generate a residual block of the current block.
  • the residual value (residual block) between the generated prediction block and the original block can be input to the transformation unit (105).
  • the prediction mode information, motion vector information, etc. used for prediction can be encoded together with the residual value in the entropy encoding unit (107) and transmitted to the decoder.
  • the prediction mode information, motion vector information, etc. used for prediction can be encoded together with the residual value in the entropy encoding unit (107) and transmitted to the decoder.
  • the transformation unit (105) can perform a transformation on a residual block including residual data to generate and output a transform coefficient.
  • the transform coefficient may be a coefficient value generated by performing a transformation on the residual block.
  • the transformation unit (105) may also skip the transformation on the residual block.
  • the conversion unit (105) can determine a conversion type and a conversion kernel based on at least one of encoding parameters such as the size, color component, and prediction mode of the conversion block, and perform conversion on the conversion block using the determined conversion type and conversion kernel.
  • the transformation unit (105) may perform transformation on a 4x4 luminance residual block generated as an intra prediction result using a transformation type and transformation kernel according to DST (Discrete Sine Transform), and may perform transformation on the remaining residual blocks using a transformation type and transformation kernel according to DCT (Discrete Cosine Transform).
  • DST Discrete Sine Transform
  • DCT Discrete Cosine Transform
  • the transform unit (105) may apply the Multiple Transform Selection (MTS) technology that performs the transform by selectively using several transform types and transform kernels. That is, the transform unit (105) may perform the transform in units of sub-blocks using the Sub-block Transform (SBT) technology. Specifically, the SBT may be applied only to inter-prediction blocks, and the current block may be divided into 1 ⁇ 2 or 1 ⁇ 4 sizes in the vertical or horizontal direction, and the transform may be performed on only one of the blocks. For example, the transform unit (105) may perform the transform on the leftmost or rightmost block among the vertically divided current blocks, and may perform the transform on the topmost or bottommost block among the horizontally divided current blocks.
  • MTS Multiple Transform Selection
  • SBT Sub-block Transform
  • the transform unit (105) may apply LFNST (Low Frequency Non-Separable Transform), which is a technology that applies a secondary transform to a residual signal that has been transformed into a frequency domain through DCT or DST.
  • LFNST additionally performs a transform on a 4x4 or 8x8 low-frequency region in the upper left, thereby concentrating the residual coefficients in the upper left.
  • the quantization unit (106) can quantize the transform coefficients or residual signals converted to the frequency domain by the transform unit (105) according to a quantization parameter (QP).
  • QP quantization parameter
  • the quantization parameter can vary depending on the block or the importance of the image.
  • the value produced by the quantization unit (106) can be provided to the dequantization unit (108) and the entropy encoding unit (107).
  • the above transformation unit (105) and/or quantization unit (106) may be optionally included in the image encoding device (100). That is, the image encoding device (100) may encode the residual block by performing at least one of transformation or quantization on the residual data of the residual block, or by skipping both transformation and quantization. Even if neither transformation nor quantization is performed in the image encoding device (100), or neither transformation nor quantization is performed, a block that is input to the entropy encoding unit (107) is typically referred to as a transformation block.
  • the entropy encoding unit (107) can generate and output a bitstream by performing entropy encoding according to a probability distribution on values output by the quantization unit (106), coding parameter values output during the encoding process, information for decoding an image, etc.
  • the information for decoding an image may include syntax elements, etc.
  • Coding parameters may include not only information (flags, indexes, etc.) encoded in an encoding device (100) and signaled to a decoding device (200), such as syntax elements, but also information derived during an encoding process or a decoding process, and may mean information necessary when encoding or decoding an image.
  • the entropy encoding unit (107) can encode various information such as coefficient information of a transform block, block type information, prediction mode information, division unit information, prediction unit information, transmission unit information, motion vector information, reference frame information, block interpolation information, and filtering information.
  • the coefficients of a transform block can be encoded in units of sub-blocks within the transform block.
  • various syntax elements can be encoded, such as Last_sig, a syntax element indicating the position of the first non-zero coefficient in reverse scan order, Coded_sub_blk_flag, a flag indicating whether there is at least one non-zero coefficient in the subblock, Sig_coeff_flag, a flag indicating whether the coefficient is non-zero, Abs_greater1_flag, a flag indicating whether the absolute value of the coefficient is greater than 1, Abs_greater2_flag, a flag indicating whether the absolute value of the coefficient is greater than 2, and Sign_flag, a flag indicating the sign of the coefficient.
  • the residual value of the coefficient that is not encoded by the above syntax elements alone can be encoded through the syntax element remaining_coeff.
  • entropy coding When entropy coding is applied, a small number of bits are allocated to symbols with a high occurrence probability, and a large number of bits are allocated to symbols with a low occurrence probability, thereby representing the symbols, thereby reducing the size of the bit string for the symbols to be encoded.
  • the input data is entropy encoded.
  • entropy coding can use various coding methods such as Exponential Golomb and CABAC (Context-Adaptive Binary Arithmetic Coding).
  • the inverse quantization unit (108) and the inverse transformation unit (109) can inverse quantize the values quantized in the quantization unit (106) and inversely transform the values transformed in the transformation unit (105).
  • the residual values generated in the inverse quantization unit (108) and the inverse transformation unit (109) can be combined with the prediction units predicted through the motion estimation unit, motion compensation unit, and intra prediction unit (102) included in the prediction unit (102, 103) to generate a reconstructed block.
  • the addition unit (110) adds the prediction blocks generated in the prediction units (102, 103) and the residual blocks generated through the inverse transformation unit (109) to generate a reconstructed block.
  • the filter unit (111) can apply a deblocking filter, a sample adaptive offset (SAO), an adaptive loop filter (ALF), LMCS (Luma Mapping with Chroma Scaling), etc. as a filtering technique to a restored sample, restored block, or restored image, in whole or in part.
  • a deblocking filter a sample adaptive offset (SAO), an adaptive loop filter (ALF), LMCS (Luma Mapping with Chroma Scaling), etc.
  • a deblocking filter can remove block distortion caused by boundaries between blocks in a reconstructed picture.
  • a deblocking filter can be applied to the current block based on the pixels contained in several columns or rows within the block.
  • a strong filter or a weak filter can be applied depending on the required deblocking filtering strength.
  • horizontal and vertical filtering can be processed in parallel when performing vertical and horizontal filtering.
  • Sample adaptive offset may be a method of correcting the offset from the original image on a sample-by-sample basis for an image on which deblocking has been performed.
  • the filter unit (111) may use a method of dividing the samples included in the image into a certain number of regions, determining the regions to perform the offset, and applying the offset to the regions, or a method of applying the offset by considering the edge information of each sample.
  • Adaptive Loop Filtering can be performed based on the comparison of the filtered restored image with the original image. After dividing the pixels contained in the image into predetermined groups, a filter to be applied to each group can be determined, and filtering can be performed differentially for each group. Information regarding whether to apply ALF can be transmitted by luminance signal for each coding unit (CU), and the shape and filter coefficients of the ALF filter to be applied can vary depending on each block. Furthermore, the same type (fixed type) of ALF filter can be applied regardless of the characteristics of the target block.
  • ALF Adaptive Loop Filtering
  • An adaptive loop filter can perform filtering based on a comparison of the reconstructed image and the original image. By dividing the samples contained in the image into predetermined groups and determining the filter to be applied to each group, filtering can be performed differentially for each group. Information regarding whether to apply an adaptive loop filter can be signaled for each coding block, and the shape and filter coefficients of the adaptive loop filter applied to each block can vary.
  • the memory (112) can store a restored block or picture produced through the filter unit (111).
  • the memory (112) can include a reference picture buffer.
  • the restored block or picture stored in the memory (112) can be provided to the prediction unit (102, 103) when performing inter prediction.
  • FIG. 2 is a block diagram illustrating an image decoding device (200) according to one embodiment of the present disclosure.
  • the image decoding device (200) may include an entropy decoding unit (201), an inverse quantization unit (202), an inverse transformation unit (203), a prediction unit (204, 205), an addition unit (206), a filter unit (207), and a memory (208).
  • the image decoding device (200) can receive a bitstream output by the image encoding device (100).
  • the image decoding device (200) can receive a bitstream stored in a computer-readable recording medium, or can receive a bitstream streamed through a wired/wireless transmission medium.
  • the image decoding device (200) can decode the bitstream to generate a restored image or a decoded image, and can output the restored image or the decoded image.
  • the entropy decoding unit (201) can generate symbols by performing entropy decoding according to a probability distribution for the bitstream.
  • the generated symbols may include symbols in the form of quantized levels.
  • the entropy decoding method may be the reverse process of the entropy encoding method described above.
  • the entropy decoding unit (201) can change a one-dimensional vector-shaped coefficient into a two-dimensional block-shaped coefficient through a transform coefficient scanning method to decode a transform coefficient level (quantized level).
  • the entropy decoding unit (201) can perform entropy decoding in a procedure opposite to that of the entropy encoding unit (107) of the video encoding device (100). For example, various methods such as Exponential Golomb and CABAC (Context-Adaptive Binary Arithmetic Coding) can be applied in response to the method performed in the video encoder.
  • Exponential Golomb and CABAC Context-Adaptive Binary Arithmetic Coding
  • the entropy decoding unit (201) can obtain a bin corresponding to the syntax element from the bitstream and determine a context model using the syntax element and the decoding information of the block to be decoded or the surrounding blocks or the information of the symbol/bin decoded in the previous step. Then, the entropy decoding unit (201) can predict the occurrence probability of the received bin according to the determined context model and perform arithmetic decoding of the bin to derive the value of the syntax element. Thereafter, the context model of the bin to be decoded thereafter can be updated based on the determined context model.
  • the entropy decoding unit (201) can obtain a bin corresponding to the syntax element through a bitstream and decode the input bin by applying a uniform probability distribution.
  • a context model can be assigned and updated for each context-coded (regularly coded) bean.
  • the context model can be specified based on a context index (ctxIdx: context index) or a context index increment (ctxInc: context index increment).
  • the context index can be derived based on the context index increment. For example, information indicating a context model for each of the regularly coded bins can be derived based on the sum of context index offsets (ctxIdxOffset: context index offset). For example, the context index increment information can be derived differently for each bin. And, the context index offset can be derived as the lowest value of the context index.
  • the context index offset can be a value generally used to distinguish from context models for other syntax elements, and the context model for a syntax element can be distinguished or derived based on the context index increment information.
  • the entropy decoding unit (201) can decode and obtain various information such as coefficient information of the transform block as described above, block type information, prediction mode information, division unit information, prediction unit information, transmission unit information, motion vector information, reference frame information, block interpolation information, and filtering information.
  • the entropy decoding unit (201) can decode information related to a coding tree block.
  • the entropy decoding unit (201) can derive information indicating whether splitting is allowed.
  • the information indicating whether splitting is allowed may include allowSplitQt, which is information indicating whether quadtree splitting is allowed, allowSplitBtVer, which is information indicating whether vertical bisector splitting is allowed, allowSplitBtHor, which is information indicating whether horizontal bisector splitting is allowed, allowSplitTtVer, which is information indicating whether vertical trisector splitting is allowed, and allowSplitTtHor, which is information indicating whether horizontal trisector splitting is allowed.
  • the information indicating whether splitting is allowed may be determined based on the width, height, position, tree type information (treeType), split mode information, and mode type information (modeType) of the current coding tree block.
  • the entropy decoding unit (201) can decode syntax elements related to division of a coding block based on information indicating whether division is allowed.
  • syntax elements related to splitting a coding block may include split_cu_flag indicating whether to split a coding block, split_qt_flag indicating whether to split a coding block into a quadtree, mtt_split_cu_vertical_flag indicating whether to split a coding block into a multi-type tree in the vertical direction, and mtt_split_cu_binary_flag indicating whether to split a coding block into two into a multi-type tree.
  • the coding tree block can be partitioned according to a multi-type tree structure, which is a partitioning structure using one of a quadripartite structure and/or a bipartite structure and a ternary partitioning structure.
  • a coding tree block can be split into four blocks based on the value of split_cu_flag.
  • the quad-split coding block can then be further split into four blocks based on the value of split_qt_flag.
  • a coding block that is not split into a quad-tree can be referred to as a quad-tree leaf node.
  • a coding block, which is a quadtree leaf node can be split according to a multi-type tree structure. That is, the split type of a coding block, which is a quadtree leaf node, can be determined as a bipartition structure or a tripartition structure depending on the values of mtt_split_cu_vertical_flag, which indicates whether a multi-type tree is vertically split, and mtt_split_cu_binary_flag, which indicates whether a multi-type tree is bipartite.
  • the binary splitting structure can include vertical binary splitting (SPLIT_BT_VER) and horizontal binary splitting (SPLIT_BT_HOR).
  • Vertical binary splitting (SPLIT_BT_VER) can be a structure that divides the current coding block into two equal parts vertically.
  • horizontal binary splitting (SPLIT_BT_HOR) can be a structure that divides the current coding block into two equal parts horizontally.
  • the ternary splitting structure can include vertical ternary splitting (SPLIT_TT_VER) and horizontal ternary splitting (SPLIT_TT_HOR).
  • Vertical ternary splitting (SPLIT_TT_VER) can be a structure that vertically splits the current coding block in a ratio of 1:2:1.
  • horizontal ternary splitting (SPLIT_TT_HOR) can be a structure that horizontally splits the current coding block in a ratio of 1:2:1.
  • the multi-type tree split structure can be determined as shown in Table 1 below based on a combination of the values of mtt_split_cu_vertical_flag, which indicates whether to split the coding block vertically, and mtt_split_cu_binary_flag, which indicates whether to split the coding block into which the multi-type tree is split into two.
  • the inverse quantization unit (202) performs inverse quantization on a quantized transform block to generate a transform block. It operates substantially the same as the inverse quantization unit (108) of Fig. 1.
  • the inverse transform unit (203) performs an inverse transform on the transform block to generate a residual block.
  • the transform method can be determined based on information regarding the prediction method (inter or intra prediction), the size and/or shape of the block, the intra prediction mode, etc. It operates substantially the same as the inverse transform unit (109) of FIG. 1.
  • the inverse transform unit (203) may perform inverse transform using a transform type and transform kernel according to DST (Discrete Sine Transform) on the transform coefficient levels of the 4x4 luminance component generated as an intra prediction result, and may perform inverse transform using a transform type and transform kernel according to DCT (Discrete Cosine Transform) on the remaining transform coefficient levels.
  • DST Discrete Sine Transform
  • DCT Discrete Cosine Transform
  • the inverse transform unit (203) may apply MTS (Multiple Transform Selection) technology to perform transformation by selectively using multiple transformation kernels.
  • MTS Multiple Transform Selection
  • the inverse transform unit (203) may apply LFNST (Low Frequency Non-Separable Transform), which is a technology that applies a secondary inverse transform to a transform coefficient level inversely transformed through a DCT or DST-based transform type and transform kernel.
  • LFNST Low Frequency Non-Separable Transform
  • the prediction unit (204, 205) can generate a prediction block based on the prediction block generation related information provided by the entropy decoding unit (201) and the previously decoded block or picture information provided by the memory (208).
  • the prediction unit (204, 205) may include an intra prediction unit (204) and an inter prediction unit (205).
  • the prediction unit (204, 205) may receive various information such as prediction unit information input from the entropy decoding unit (201), prediction mode information of the intra prediction method, and motion prediction-related information of the inter prediction method, and may distinguish a prediction unit from a current encoding unit and determine a prediction mode of the prediction unit.
  • the intra prediction unit (204) can generate a prediction block of the current block based on the intra prediction mode of the current block and reference pixel information around the current block, which is pixel information within the current picture.
  • the intra prediction unit (204) can generate a prediction block based on reference pixel information surrounding the current block, which is pixel information within the current picture.
  • the intra prediction unit (204) can use multiple reference pixel lines for intra prediction. When multiple reference pixel lines are available, the intra prediction unit (204) can obtain information indicating a reference pixel line used for intra prediction from among the multiple reference pixel lines.
  • the intra prediction mode used for intra prediction may be a directional prediction mode or a non-directional mode. Furthermore, the mode for predicting luminance information may be different from the mode for predicting chrominance information, and the intra prediction mode information of the luminance component block or the predicted luminance signal information may be utilized to predict chrominance information.
  • the intra prediction unit (204) operates substantially the same as the intra prediction unit (102) of FIG. 1.
  • the inter prediction unit (205) may perform inter prediction on the current prediction unit based on information included in at least one picture among the previous picture or the subsequent picture of the current picture including the current prediction unit, using information necessary for inter prediction of the current prediction unit provided by the image encoding device (100). Alternatively, inter prediction may be performed based on information of some pre-restored area within the current picture including the current prediction unit.
  • the inter prediction unit (205) can set the inter mode of a coding block to one of the Skip Mode, Merge Mode, and Advanced Motion Vector Prediction (AMVP) mode in order to perform motion prediction and/or motion compensation.
  • the inter prediction unit (205) can perform motion compensation on a prediction block according to the set mode.
  • AMVP Advanced Motion Vector Prediction
  • the inter prediction unit (205) can perform motion compensation for a prediction block by applying the AFFINE mode of sub-PU based prediction, the SbTMVP (Subblock-based Temporal Motion Vector Prediction) mode, and the MMVD (Merge with MVD) mode and the GPM (Geometric Partitioning Mode) mode of PU based prediction based on the inter prediction mode.
  • the inter prediction unit (205) can perform motion compensation for a prediction block by applying the HMVP (History based MVP), the PAMVP (Pairwise Average MVP), the CIIP (Combined Intra/Inter Prediction), the AMVR (Adaptive Motion Vector Resolution), the BDOF (Bi-Directional Optical-Flow), the BCW (Bi-predictive with CU Weights), etc. to improve the performance of each mode.
  • HMVP History based MVP
  • PAMVP Packet Control MVP
  • CIIP Combined Intra/Inter Prediction
  • AMVR Adaptive Motion Vector Resolution
  • BDOF Bi-Directional Optical-Flow
  • BCW Bi-predictive with CU Weights
  • the motion information may include, for example, a motion vector, a reference picture index, a list 1 prediction flag, a list 0 prediction flag, a half-sample interpolation filter index, a bidirectional prediction weight index, etc.
  • the inter prediction unit (205) can operate substantially the same as the inter prediction unit (103) of FIG. 1.
  • the addition unit (206) adds the prediction block generated by the intra prediction unit (204) or inter prediction unit (205) and the residual block generated by the inverse transformation unit (203) to generate a restored block. It operates substantially the same as the addition unit (110) of Fig. 1.
  • the filter unit (207) can reduce various types of noise occurring in restored blocks.
  • the filter unit (207) can include a deblocking filter, a sample adaptive offset, an adaptive loop filter (ALF), and an LMCS.
  • ALF adaptive loop filter
  • the filter unit (207) can receive information on whether each filter is applied, information on the strength of the filter, etc. from the image encoding device (100).
  • the filter unit (207) of the image decoding device (200) can receive filter-related information provided from the image encoding device (100) and perform filtering on the corresponding block in the image decoding device (200).
  • the filter unit (207) can operate substantially the same as the filter unit (111) of FIG. 1.
  • the memory (208) can store the restoration block generated by the addition unit (206).
  • the memory (208) can include a reference picture buffer.
  • the memory (208) can operate substantially the same as the memory (112) of FIG. 1.
  • FIG. 3 is a diagram schematically illustrating a video coding system to which the present disclosure can be applied.
  • a video coding system may include an encoding device (10) and a decoding device (20).
  • the encoding device (10) may transmit encoded video and/or image information or data to the decoding device (20) in the form of a file or streaming through a digital storage medium or a network.
  • An encoding device (10) may include an image generating unit (11), an encoding unit (12), and a transmission unit (13).
  • a decoding device (20) may include a receiving unit (21), a decoding unit (22), and an image reproducing unit (23).
  • the encoding unit (12) may be referred to as a video/image encoding unit, and the decoding unit (22) may be referred to as a video/image decoding unit.
  • the transmission unit (13) may be included in the encoding unit (12).
  • the receiving unit (21) may be included in the decoding unit (22).
  • the image reproducing unit (23) may include a display unit, and the display unit may be configured as a separate device or an external component.
  • the image generation unit (11) can obtain a video/image through a process of capturing, synthesizing, or generating a video/image.
  • the image generation unit (11) can include a video/image capture device and/or a video/image generation device.
  • the video/image capture device can include, for example, one or more cameras, a video/image archive including previously captured video/images, etc.
  • the video/image generation device can include, for example, a computer, a tablet, a smartphone, etc., and can (electronically) generate a video/image.
  • a virtual video/image can be generated through a computer, etc., in which case the video/image capture process can be replaced with a process of generating related data.
  • the encoding unit (12) can encode the input video/image.
  • the encoding unit (12) can perform a series of procedures such as prediction, transformation, and quantization for compression and encoding efficiency.
  • the encoding unit (12) can output encoded data (encoded video/image information) in the form of a bitstream.
  • the detailed configuration of the encoding unit (12) can be configured in the same manner as the encoding device (100) of FIG. 1 described above.
  • the transmission unit (13) can transmit encoded video/image information or data output in the form of a bitstream to the reception unit (21) of the decoding device (20) via a digital storage medium or a network in the form of a file or streaming.
  • the digital storage medium can include various storage media such as USB, SD, CD, DVD, Blu-ray, HDD, SSD, etc.
  • the transmission unit (13) can include an element for generating a media file through a predetermined file format and can include an element for transmission via a broadcasting/communication network.
  • the reception unit (21) can extract/receive the bitstream from the storage medium or network and transmit it to the decoding unit (22).
  • the decoding unit (22) can decode video/image by performing a series of procedures such as inverse quantization, inverse transformation, and prediction corresponding to the operation of the encoding unit (12).
  • the detailed configuration of the decoding unit (22) can be configured identically to the decoding device (200) of FIG. 2 described above.
  • the image playback unit (23) can render decrypted video/images.
  • the rendered video/images can be displayed through the display unit.
  • FIG. 4 is a diagram exemplifying a content streaming system to which an embodiment according to the present disclosure can be applied.
  • a content streaming system to which an embodiment of the present disclosure is applied may largely include a multimedia input device, a media storage, an encoding server, a streaming server, a web server, and a user device.
  • the encoding server compresses content input from multimedia input devices such as smartphones, cameras, CCTVs, etc. into digital data, creates a bitstream, and transmits it to the streaming server.
  • the encoding server compresses content already stored in a media storage into digital data, creates a bitstream, and transmits it to the streaming server.
  • the encoding server may be omitted.
  • the above bitstream can be generated by an image encoding method and/or an image encoding device to which an embodiment of the present disclosure is applied, and the streaming server can temporarily or non-temporarily store the bitstream during the process of transmitting or receiving the bitstream.
  • the streaming server transmits multimedia data to a user device based on a user request via a web server, and the web server can act as an intermediary to inform the user of available services.
  • the web server transmits the request to the streaming server, and the streaming server can transmit multimedia data to the user device.
  • the content streaming system may include a separate control server, and in this case, the control server may play a role in controlling commands/responses between each device within the content streaming system.
  • the streaming server can receive content from a media repository and/or encoding server. For example, when receiving content from the encoding server, the content can be received in real time. In this case, to provide a smooth streaming service, the streaming server can store the bitstream for a certain period of time.
  • Examples of the user devices may include mobile phones, smart phones, laptop computers, digital broadcasting terminals, personal digital assistants (PDAs), portable multimedia players (PMPs), navigation devices, slate PCs, tablet PCs, ultrabooks, wearable devices (e.g., smartwatches, smart glasses, HMDs), digital TVs, desktop computers, digital signage, etc.
  • PDAs personal digital assistants
  • PMPs portable multimedia players
  • navigation devices slate PCs
  • tablet PCs tablet PCs
  • ultrabooks ultrabooks
  • wearable devices e.g., smartwatches, smart glasses, HMDs
  • digital TVs desktop computers, digital signage, etc.
  • Each server within the above content streaming system can be operated as a distributed server, in which case data received from each server can be processed in a distributed manner.
  • contextual information about the syntax of the current block can be derived using information from adjacent blocks. Based on this derived contextual information, a context model is determined, enabling decoding of the syntax for the block.
  • the syntax for the current block may be syntax for an adaptive loop filter.
  • the syntax for the adaptive loop filter may include alf_ctb_flag indicating whether to apply the adaptive loop filter, alf_ctb_cc_cb_idc[ctbX][ctbY] indicating whether to apply a cross-component filter to the cb component, and alf_ctb_cc_cr_idc[ctbX][ctbY] indicating whether to apply a cross-component filter to the cr component.
  • cIdx can indicate the color component of the current block.
  • ctbX can indicate the x-axis position of the coding tree block containing the current block within the frame
  • ctbY can indicate the y-axis position of the coding tree block containing the current block within the frame.
  • ctbX and ctbY can be derived as follows.
  • the positions of the blocks neighboring the current block (ctbAx, ctbAy) and (ctbLx, ctbLy), can be derived as follows.
  • the context information of syntax elements for the adaptive loop filter can be derived as follows.
  • context information can be derived by utilizing condL, a condition regarding the left neighboring block, which is a block adjacent to the left of the current block, availableL, which indicates the availability of the left neighboring block, condA, a condition regarding the upper neighboring block, which is a block adjacent to the upper of the current block, and availableA, which indicates the availability of the upper neighboring block.
  • condL, availableL, condA, and availableA can be derived as shown in Table 2 below.
  • condition information condL regarding the left neighboring block in order to derive condition information condL regarding the left neighboring block, availability information availableL of the left neighboring block, condition information condA regarding the upper neighboring block, and availability information availableA of the upper neighboring block, a block neighboring to the current block must be determined. Then, neighboring blocks are specified based on the color component information (cIdx) and position information (ctbX, ctbY) of the current block, and condition and availability information of each neighboring block can be derived based on the specified neighboring blocks.
  • cIdx color component information
  • position information ctbX, ctbY
  • context information for syntax elements can be derived independently of the color components of the current block. Therefore, by using fewer context models during decoding, memory usage can be reduced. Furthermore, by reducing the number of accesses during decoding, encoding and decoding speeds can be improved.
  • the neighboring blocks of the current block used to derive context information can be determined using values that are not dependent on the color component (e.g., cIdx) value of the current block.
  • the color component value can be a representative value of 0, 1, or 2.
  • the neighboring blocks can be determined based on the representative value of the color component.
  • condition information e.g., condL, condA
  • availability information e.g., availableL, availableA
  • cIdx determined by the encoder can be implicitly or explicitly transmitted to the decoder.
  • Embodiments of the present disclosure can also be applied to cases where the coding tree structure is independent of color components. Embodiments of the present disclosure can also be applied to cases where the coding tree structure is not independent of color components.
  • a method for image decoding that determines context information of syntax elements for an adaptive loop filter may be as described below.
  • FIG. 5 is a flowchart illustrating an image decoding method for determining context information of syntax elements for an adaptive loop filter according to an embodiment of the present disclosure.
  • the image decoding method of FIG. 5 may be performed by an image decoding device.
  • the image decoding device can derive availability information of blocks adjacent to the current block and encoding information related to an adaptive loop filter (S510).
  • S510 adaptive loop filter
  • the image decoding device can derive context information of encoding information related to the adaptive loop filter of the current block based on availability information of blocks adjacent to the current block and encoding information related to the adaptive loop filter (S520).
  • the image decoding device can decode encoding information related to the adaptive loop filter of the current block based on the derived context information (S530).
  • the encoding information of blocks adjacent to the current block can be determined regardless of the color component of the current block.
  • a bitstream can be generated by an image encoding method including the steps described in FIG. 5.
  • the bitstream can be stored on a non-transitory computer-readable recording medium and can also be transmitted (or streamed).
  • prediction mode condition information for each sub-block of a coding tree block can be derived based on coding parameters including information on the partition structure of the coding tree block. Then, prediction mode type information for each sub-block can be determined based on the value of the prediction mode condition information.
  • the prediction mode type information may be determined as a first mode type using one of intra prediction, IBC, and palette modes.
  • the value of the prediction mode condition information is a second value (e.g., 2)
  • information on the availability of the inter prediction mode may be additionally signaled. If the information on the availability of the inter prediction mode indicates that inter prediction cannot be used, the mode type information may be determined as the first mode type. Conversely, if the information on the availability of the inter prediction mode indicates that inter prediction can be used, the mode type information may be determined as the second mode type that uses the inter prediction mode.
  • the mode type information may be set to be the same as the mode type information of the current coding tree.
  • the mode type information may have a value of any one of the first mode type, the second mode type, and the third mode type indicating to use one of all prediction modes including intra prediction, IBC (intra block copy), palette mode, and inter prediction, according to the mode type information of the current coding tree.
  • the prediction mode condition information can be derived as shown in Tables 3 to 5 below.
  • the value of the prediction mode condition information (e.g., ModeTypeCondition) may be determined as 0.
  • the first condition among the sub-conditions may mean that the type of the current slice is I, and each coding tree block included in the slice is implicitly quadtree split into 64x64 luma sample coding blocks.
  • the second condition may mean that the mode type of the current coding tree block is other than MODE_TYPE_ALL.
  • the value of the prediction mode condition information may be determined as 1.
  • the first condition among the sub-conditions may mean that the area of the current block is 64 and the current block is divided into four.
  • the second condition may mean that the area of the current block is 64 and the current block is divided into three horizontally or vertically.
  • the third condition may mean that the area of the current block is 32 and the current block is divided into two horizontally or vertically.
  • the prediction mode condition information may be determined according to the type of the current slice.
  • the third condition may mean that the width of the current block is 8, and the current block is horizontally divided into two.
  • the fourth condition may mean that the height of the current block is 16 and the current block is divided into three vertical parts.
  • the value of the prediction mode condition information can be determined as 1.
  • the value of the prediction mode condition information can be determined as 2.
  • the value of the prediction mode condition information may be determined as 0 regardless of the type of the current slice.
  • the process of determining the value of the prediction mode condition information based on the current slice type may be used infrequently. This is because situations where only one of the sub-conditions is satisfied occur infrequently. Therefore, the utility of the process of determining the value of the prediction mode condition information based on the current slice type may be low. Consequently, encoding efficiency may be reduced.
  • conditions for determining the value of prediction mode condition information based on the type of the current slice can be defined as shown in Table 6 below.
  • the prediction mode condition information can be determined according to the type of the current slice.
  • the third condition may mean that the width of the current block is 8, and the current block is divided into two horizontally.
  • the fourth condition may mean that the height of the current block is 16, and the current block is divided into three vertically.
  • the value of the prediction mode condition information may be determined as 1.
  • the value of the prediction mode condition information may be determined as 2.
  • the prediction mode condition information may be determined according to the type of the current slice.
  • the predefined number may be an integer greater than or equal to 2.
  • the prediction mode condition information may be determined according to the type of the current slice.
  • the signaling information may be signaled in units such as sequences, GOP picture slices, and CTUs.
  • the method for determining the prediction mode condition information defined in Table 5 and the method for determining the prediction mode condition information defined in Table 6 may differ in the following situations.
  • the current block can simultaneously satisfy the first and third conditions defined in Tables 5 and 6.
  • the prediction mode condition information of the current block can be determined as 0.
  • the value of the prediction mode condition information can be determined based on the type of the slice when one or more of the multiple conditions are satisfied, the value of the prediction mode condition information of the current block can be determined based on the slice type.
  • the current block can simultaneously satisfy the second and fourth conditions defined in Tables 5 and 6.
  • the value of the prediction mode condition information can be determined based on the type of the slice when only one of the multiple conditions is satisfied, the value of the prediction mode condition information of the current block can be determined as 0.
  • the value of the prediction mode condition information can be determined based on the type of the slice when one or more of the multiple conditions are satisfied, the value of the prediction mode condition information of the current block can be determined based on the slice type.
  • a video decoding method for determining prediction mode condition information of the current block may be as described below.
  • FIG. 6 is a flowchart illustrating an image decoding method for determining prediction mode condition information of a current block according to an embodiment of the present disclosure.
  • the image decoding method of FIG. 6 can be performed by an image decoding device.
  • the image decoding device can determine condition information of the prediction mode of the current coding tree block (S610).
  • the video decoding device can determine the prediction mode of blocks divided from the current coding tree block based on condition information of the prediction mode (S620).
  • condition information of the prediction mode can be set to the first value.
  • the first set of conditions may include a first condition that is satisfied when the type of the current slice is I and each coding tree block included in the slice is implicitly divided into 64x64 luma sample coding blocks, a second condition that is satisfied when the current coding tree block can use all prediction modes, a third condition that is satisfied when the chrominance component format of the current coding tree block is monochrome, and a fourth condition that is satisfied when the chrominance component format of the current coding tree block is a 4:4:4 format.
  • condition information of the prediction mode can be set to a second value.
  • the second set of conditions may include a first condition that is satisfied when the area of the current coding tree block is 64 and the current coding tree block is divided into four, a second condition that is satisfied when the area of the current coding tree block is 64 and the current coding tree block is divided into three, and a third condition that is satisfied when the area of the current coding tree block is 32 and the current coding tree block is divided into two.
  • the condition information of the prediction mode may be determined based on the slice type.
  • the condition information of the prediction mode may be determined based on whether the slice type is an I slice.
  • the third set of conditions may include a first condition that is satisfied when the area of the current coding tree block is 64, the current coding tree block is horizontally divided into two or vertically divided into two, and the chrominance component format of the current coding tree block is a 4:2:0 format, a second condition that is satisfied when the area of the current coding tree block is 128, the current coding tree block is horizontally divided into three or vertically divided into three, and the chrominance component format of the current coding tree block is a 4:2:0 format, a third condition that is satisfied when the width of the current coding tree block is 8, and the current coding tree block is horizontally divided into two, and a fourth condition that is satisfied when the height of the current coding tree block is 16, and the current coding tree block is vertically divided into three.
  • condition information of the prediction mode can be set to the first value.
  • the prediction mode of the block to be split may be set to be the same as the prediction mode of the current coding tree block. If the condition information of the prediction mode is the second value, the prediction mode of the block to be split may be determined as one of the intra prediction, IBC, and palette modes. If the condition information of the prediction mode is the third value, the prediction mode of the block to be split may be determined as the inter prediction mode based on additional information.
  • the video decoding device can generate prediction blocks of blocks divided from the current coding tree block based on the prediction mode (S630).
  • a bitstream can be generated by an image encoding method including the steps described in FIG. 6.
  • the bitstream can be stored on a non-transitory computer-readable recording medium and can also be transmitted (or streamed).
  • the tree type of a sub-block can be determined based on the prediction mode type information of the sub-blocks divided from the current coding tree block. Specifically, the tree type can be determined as a single tree or a dual tree depending on the value of the prediction mode condition information of the sub-block.
  • the tree type may be determined as a dual tree.
  • the tree type of the sub-block of the luminance component may be dual tree luma (DUAL_TREE_LUMA)
  • the tree type of the sub-block of the chrominance component may be dual tree chroma (DUAL_TREE_CHROMA).
  • block partition information of a sub-block of a luminance component can be derived. Then, a block partition structure of a sub-block of a luminance component can be determined based on the derived block partition information. Separately, block partition information of a sub-block of a color component can be derived. Then, a block partition structure of a sub-block of a color component can be determined based on the derived block partition information.
  • the partition structure of the luminance component sub-block may be different from the partition structure of the chrominance component sub-block.
  • the block partition information may include syntax elements related to partitioning of a coding tree block.
  • the syntax elements related to partitioning of a coding tree block may be signaled as follows.
  • FIG. 7 is a diagram illustrating a signaling mechanism of block division related syntax elements according to one embodiment of the present disclosure.
  • an initial coding tree block may be a root node of a quadtree.
  • the coding tree block which is the root node, may be split into four.
  • Information e.g., qt_split_flag
  • qt_split_flag indicating whether to perform quadrupling for the current coding block (e.g., coding tree unit/quadtree node (CTU/QT_node) or coding unit node (CU_node)
  • CTU/QT_node coding tree unit/quadtree node
  • CU_node coding unit node
  • qt_split_flag is a second value (e.g., "0")
  • the current coding block may not be split into four.
  • a coding block that is not split into four may be referred to as a leaf node (QT_leaf_node) of the quadtree.
  • the coding block which is a leaf node of each quadtree, can be further divided into a multi-type tree structure. That is, the coding block, which is a leaf node of the quadtree, can be a coding unit node (MTT_CU_node) of the multi-type tree.
  • a multi-type tree split direction flag (e.g., mtt_split_cu_vertical_flag) of the current coding unit may be signaled. For example, if the value of the multi-type tree split direction flag is 1, the current coding unit may be split in the vertical direction. On the other hand, if the value of the multi-type tree split direction flag is 0, the current coding unit may be split in the horizontal direction.
  • the multi-type tree split type flag (e.g., mtt_split_cu_binary_flag) of the current coding unit may be signaled. For example, if the value of the multi-type tree split type flag is 1, the current coding unit may be split into two. On the other hand, if the value of the multi-type tree split type flag is 0, the current coding unit may be split into three.
  • context information can be derived as defined in Table 7 below. Then, the multi-type tree splitting direction flag can be entropy decoded based on the derived context information.
  • the context information ctxInc of the multi-type tree split direction flag (e.g., mtt_split_cu_vertical_flag) may be set to 4.
  • the context information ctxInc of the multi-type tree split direction flag (e.g., mtt_split_cu_vertical_flag) can be set to 3.
  • context information of a multi-type tree split type flag can be used.
  • the context information of the multi-type tree splitting direction flag can be derived regardless of the color components of the current block.
  • block partitioning-related syntax elements can be obtained for each of the luminance and chrominance components.
  • the multi-type tree partitioning direction flags for each of the luminance and chrominance components can be decoded using the same context information, regardless of the color information. Therefore, encoding efficiency may be reduced.
  • context information of the multi-type tree splitting direction flag can be derived for each of the luminance component and the chrominance component.
  • block splitting permission information can be derived based on the color component.
  • context information of a multi-type tree splitting direction flag can be derived based on the block splitting permission information.
  • context information of a multi-type tree splitting direction flag of a luminance component can be derived based on block splitting permission information of a luminance component.
  • context information of a multi-type tree splitting direction flag of a chrominance component can be derived based on block splitting permission information of a chrominance component. Therefore, context information of a multi-type tree splitting direction flag suitable for a color component of a coding block can be derived.
  • context information of the multi-type tree split direction flag is derived for each of the luminance component and the chrominance component
  • context information of the multi-type tree split type flag can be derived for each of the luminance component and the chrominance component.
  • context information of the multi-type tree split type flag of the luminance component can be derived using the value and context information of the multi-type tree split direction flag of the luminance component.
  • context information of the multi-type tree split type flag of the chrominance component can be derived using the value and context information of the multi-type tree split direction flag of the chrominance component.
  • the context information of the multi-type tree splitting direction flag can be derived based on block splitting permission information derived according to a predetermined color component.
  • the signaling information can include information indicating a predetermined color component.
  • the signaling information can be signaled in units such as a sequence, a GOP picture slice, and a CTU.
  • a method for image decoding that determines context information of syntax elements regarding multi-type tree partitioning of the current block may be as described below.
  • FIG. 8 is a flowchart illustrating an image decoding method for determining context information of syntax elements related to multi-type tree partitioning of a current block according to an embodiment of the present disclosure.
  • the image decoding method of FIG. 8 may be performed by an image decoding device.
  • the image decoding device can derive block splitting permission information for the current block (S810).
  • the block splitting permission information can be derived based on the color components of the current block.
  • the video decoding device can derive context information of a multi-type tree split flag based on block split permission information (S820).
  • the context information of the multi-type tree split flag can be derived based on block split permission information derived according to a color component.
  • the block splitting permission information may include vertical splitting permission information and horizontal splitting permission information.
  • the vertical splitting permission information may include information on whether vertical bisection is allowed and information on whether vertical trisection is allowed.
  • the horizontal splitting permission information may include information on whether horizontal bisection is allowed and information on whether horizontal trisection is allowed.
  • the context information of the multi-type tree split flag can be derived based on the result of comparing the value of the vertical split permission information and the value of the horizontal split permission information.
  • the image decoding device can derive the value of the multi-type tree split flag of the current block based on the derived context information (S830).
  • the video decoding device can split the current block based on a multi-type tree split flag (S840).
  • the multi-type tree split flag may be a flag indicating the direction of the multi-type tree split.
  • the multi-type tree split flag may be a flag indicating the type of the multi-type tree split.
  • the image encoding device can perform the following image encoding method.
  • the video encoding device can determine block splitting allowance information for the current block.
  • the video encoding device can determine the multi-type tree split flag of the current block.
  • the video encoding device can determine context information of a multi-type tree split flag based on block splitting permission information.
  • the video encoding device can encode the multi-type tree split flag based on context information.
  • the block splitting permission information can be derived based on the color component of the current block.
  • the context information of the multi-type tree split flag can be derived based on the block split permission information derived according to the color component.
  • a bitstream can be generated by the image encoding method described above.
  • the bitstream can be stored on a non-transitory computer-readable recording medium and can also be transmitted (or streamed).
  • inter-prediction can be performed based on the inter-prediction mode of the current block.
  • the inter-prediction mode can be affine model-based inter-prediction.
  • the motion vector of the current block can be determined as follows.
  • FIG. 9 is a parameter model for determining a motion vector in an affine model-based inter prediction according to an embodiment of the present disclosure.
  • the motion vector of the current block to be inter-predicted based on an affine model can be derived by a motion model using two or more control point motion vectors (CPMVs).
  • CPMVs control point motion vectors
  • the motion vector can be derived using either a 4-parameter model or a 6-parameter model.
  • the parameter model illustrated in Fig. 9(a) may be a four-parameter model using two control point motion vectors mv 0 and mv 1 .
  • the motion vector of a pixel within the current block can be derived according to the following mathematical equation.
  • the parameter model illustrated in Fig. 9(b) may be a 6-parameter model using three control point motion vectors mv 0 , mv 1 , and mv 2 .
  • the motion vector of a pixel within the current block can be derived according to the mathematical formula below.
  • mv0 ⁇ mv 0x
  • mv 0y ⁇ is a control point motion vector at a position adjacent to the upper left corner of the current block
  • mv1 ⁇ mv 1x
  • mv 1y ⁇ is a control point motion vector at a position at the upper right corner of the current block
  • mv2 ⁇ mv 2x
  • mv 2y ⁇ may be a control point motion vector at a position at the lower left corner of the current block.
  • W and H may indicate the width and height of the current block, respectively
  • AMVR Adaptive Motion Vector Resolution
  • AMVR can be a technique for decoding the motion vector difference of the current block at various resolutions. In other words, when AMVR is applied, the resolution of the motion vector difference of the current block can be determined differently depending on the coding parameters of the current block.
  • the resolution of the motion vector difference can be determined based on at least one of the affine indicator, the prediction mode of the current block, and information regarding the resolution of the motion vector difference.
  • Information regarding the resolution of the motion vector difference can include a flag indicating whether AMVR is applied and information regarding the precision index of the AMVR.
  • the resolution of the motion vector difference of the current block can be determined according to Table 8 below.
  • the resolution of the motion vector difference of the current block can be determined as one of 1/4 sample, 1/16 sample, and 1 sample unit based on the amvr_flag and amvr_precision_idx values.
  • the resolution of the motion vector difference of the current block can be determined as one of 1 sample unit and 4 sample units based on the amvr_flag and amvr_precision_idx values.
  • the resolution of the motion vector difference of the current block can be determined as one of 1/4 sample unit, 1/2 sample unit, 1 sample unit, and 4 sample unit based on the amvr_flag and amvr_precision_idx values. Then, a shift value corresponding to the value of the resolution can be determined.
  • the motion vector difference of the current block can be changed as shown in Table 9 below.
  • the resolution of the motion vector difference in the first prediction direction and the motion vector difference in the second prediction direction may be changed.
  • compIdx can be a vector component index having a value of 0 to 1.
  • the affine motion vector difference may be a control point motion vector difference (MvdCp).
  • a shift operation can be applied to MvdCpL0[x0][y0][0][0], MvdCpL1[x0][y0][0][1], MvdCpL0[x0][y0][1][0], MvdCpL1[x0][y0][1][1], MvdCpL0[x0][y0][2][0], and MvdCpL1[x0][y0][2][1] by the AMVRShift value.
  • cpIdx can be an index of a control point having a value of 0 to 2.
  • compIdx can be a vector component index having a value of 0 to 1.
  • a shift operation can be applied only to the x-component of the affine motion vector difference in the first direction, and a shift operation can be applied only to the y-component of the affine motion vector difference in the second direction.
  • different resolutions can be set for each affine motion vector difference vector component.
  • a shift operation can be applied to the affine motion vector differences in all prediction directions and to all components of the affine motion vector differences. That is, if the inter prediction of the current block is an inter prediction based on an affine model, the resolution of the motion vector difference of the current block can be changed as shown in Table 10 below.
  • shift operations can be applied to all vector components of the affine motion vector differences in the first and second directions. Therefore, the resolution of the affine motion vector differences can be uniformly changed for all vector components. This minimizes errors resulting from differences in the resolution of the affine motion vector differences. Consequently, decoding efficiency can be improved.
  • An image decoding method for changing the resolution of the affine motion vector difference of the current block may be as described below.
  • FIG. 10 is a flowchart illustrating an image decoding method for changing the resolution of an affine motion vector difference of a current block according to an embodiment of the present disclosure.
  • the image decoding method of FIG. 10 can be performed by an image decoding device.
  • the image decoding device can derive an affine motion vector difference of a current block (S1010).
  • the affine motion vector difference can include a first prediction direction affine motion vector difference and a second prediction direction affine motion vector difference.
  • the first prediction direction affine motion vector difference and the second prediction direction affine motion vector difference can be defined by a control point indicator and a motion vector component indicator.
  • the control point indicator can indicate a value of 0, 1, or 2.
  • the motion vector component indicator can indicate 0 indicating an x component and 1 indicating a y component.
  • the video decoding device can derive shift information (S1020).
  • the shift information can be derived based on the resolution of the motion vector.
  • the resolution of the motion vector can be derived based on the affine indicator of the current block and information about the adaptive motion vector resolution (AMVR).
  • AMVR adaptive motion vector resolution
  • the information about the adaptive motion vector resolution can include a flag indicating whether AMVR is applied and a precision index of the AMVR.
  • the image decoding device can change the resolution of the affine motion vector difference based on shift information (S1030).
  • a bitstream can be generated by an image encoding method including the steps described in FIG. 10.
  • the bitstream can be stored on a non-transitory computer-readable recording medium and can also be transmitted (or streamed).
  • the prediction mode of the current block can be determined by geometric partitioning mode (GPM), a submode of inter prediction.
  • GPM geometric partitioning mode
  • the current block can be divided into two blocks by a single straight line.
  • the straight line dividing the current block can be derived from the partitioning direction and the partitioning offset.
  • Each block divided from the current block can be inter-predicted using differently derived motion information.
  • indices indicating the geometric partitioning mode and merge indices may be signaled.
  • the indices indicating the geometric partitioning mode may indicate a combination of the direction and offset of a straight line that divides the current block.
  • the indices indicating the geometric partitioning mode may indicate a combination of the direction and offset of a straight line that divides the current block, as shown in Table 11 below.
  • the current block can be split according to an index that indicates the geometric splitting mode, as described below.
  • FIG. 11 is a diagram illustrating a segmentation structure of a current block based on an index indicating a geometric segmentation mode according to one embodiment of the present disclosure.
  • the solid line within the square may be a straight line that divides the current block.
  • the blocks of the square may be geometrically divided according to the solid line.
  • the straight lines dividing each of the 20 squares may have different angles (angleIdx).
  • the straight lines may have different offsets (distanceIdx).
  • the straight lines indicated by solid lines are defined by indices indicating geometric segmentation modes and can segment the current block.
  • the straight lines indicated by dotted lines may not be defined by indices indicating geometric segmentation modes.
  • merge indices can indicate merge candidates for deriving motion information for each block split from the current block. Accordingly, motion information for each block split from the current block can be derived based on the motion information of merge candidates indicated by different merge indices. Furthermore, based on the derived motion information, prediction values for each block split from the current block can be generated.
  • the predicted values for each block can be weighted and combined to generate a predicted block for the current block. Furthermore, motion information for the predicted current block can be stored using a geometric segmentation mode.
  • FIG. 12 is a diagram illustrating a current block predicted by a geometric segmentation mode according to one embodiment of the present disclosure.
  • a first prediction value which is a prediction value for a first split block (1210)
  • a second prediction value which is a prediction value for a second split block (1220)
  • the first prediction value and the second prediction value can be weighted.
  • the distance (d) between the sample in the current block and the straight line that divides the current block can be derived.
  • the weight value ⁇ 0 applied to the sample in the current block can be derived.
  • the predicted value of the sample in the current block can be derived by applying ⁇ 0 to the first predicted value and applying 1- ⁇ 0 to the second predicted value.
  • the motion information of the current block can be stored based on the motion information of the first partition block and the second partition block.
  • the motion information of the current block can be used in the decoding process of the subsequent block.
  • the motion information of the current block can be stored in units of 4x4 blocks.
  • the motion information of the current block can be stored as shown in Table 12 below.
  • motion information of the current block in geometric segmentation mode can be stored.
  • the motion information of the current block can include motion vector information, reference picture information, prediction direction utilization information, and bidirectional prediction index.
  • the motion information of the current block in the geometric partition mode does not include interpolation filter information.
  • the interpolation filter may be an interpolation filter for inter-predicted luma samples.
  • the interpolation filter may be a half-sample interpolation filter.
  • the interpolation filter information may be an index (e.g., hpelIfIdx) indicating the type of the interpolation filter, which is an interpolation filter for fractional sample positions.
  • the motion information of the current block in geometric segmentation mode does not include interpolation filter information. Therefore, when using the motion information of the current block during the inter-prediction process of a subsequently predicted block, interpolation filter information may not be obtained.
  • the motion information of the current block predicted in geometric segmentation mode can be stored as shown in Table 13 below.
  • motion information of the current block in geometric segmentation mode can be stored.
  • the motion information of the current block may further include motion vector information, reference picture information, prediction direction utilization information, bidirectional prediction index, and interpolation filter information. Therefore, when the motion information of the current block is used in the inter prediction process of a block to be predicted later, motion information including the interpolation filter information of the current block can be obtained.
  • fractional sample interpolation may be applied to the samples of the current block.
  • Fractional sample interpolation may be performed by applying interpolation filter coefficients to the samples of the current block in the vertical and horizontal directions.
  • the interpolation filter coefficients may be defined as shown in Table 14 below.
  • the interpolation coefficient can be determined based on the interpolation filter information (e.g., hpelIfIdx) of the current block.
  • an interpolation filter coefficient is determined based on the interpolation filter information of the current block, and the interpolation filter coefficient is applied to the prediction sample of the current block, so that a prediction block of a block referencing the current block can be generated.
  • An image decoding method for storing motion information of the current block in geometric segmentation mode may be as described below.
  • FIG. 13 is a flowchart illustrating an image decoding method for storing motion information of a current block in a geometric segmentation mode according to an embodiment of the present disclosure.
  • the image decoding method of FIG. 13 may be performed by an image decoding device.
  • the image decoding device can derive a geometric segmentation index of the current block (S1310).
  • the geometric segmentation index can be used to derive the angle of the segmentation line and the distance between the block center and the segmentation line.
  • the segmentation line can asymmetrically segment the current block.
  • the video decoding device can generate a final prediction block by weighting the first prediction block and the second prediction block of the current block based on the geometric segmentation index (S1320).
  • the first prediction block may be generated based on the first motion information
  • the second prediction block may be generated based on the second motion information.
  • the first motion information may be different from the second motion information.
  • the weight applied to the sample of the first prediction block can be derived based on the distance between the dividing line and the sample.
  • the video decoding device can store motion information of the current block based on motion information of the first prediction block and the second prediction block (S1330).
  • the motion information of the current block can be stored in units of 4x4 blocks.
  • the motion information of the current block to be stored may include a motion vector, reference picture information, prediction direction information, bidirectional prediction index information, and interpolation filter information.
  • the value of the bidirectional prediction index information may be fixed to 0.
  • a bitstream can be generated by an image encoding method including the steps described in FIG. 13.
  • the bitstream can be stored on a non-transitory computer-readable recording medium and can also be transmitted (or streamed).
  • Various embodiments of the present disclosure may be implemented by hardware, firmware, software, or a combination thereof.
  • the embodiments may be implemented by one or more Application Specific Integrated Circuits (ASICs), Digital Signal Processors (DSPs), Digital Signal Processing Devices (DSPDs), Programmable Logic Devices (PLDs), Field Programmable Gate Arrays (FPGAs), general processors, controllers, microcontrollers, microprocessors, etc.
  • ASICs Application Specific Integrated Circuits
  • DSPs Digital Signal Processors
  • DSPDs Digital Signal Processing Devices
  • PLDs Programmable Logic Devices
  • FPGAs Field Programmable Gate Arrays
  • general processors controllers, microcontrollers, microprocessors, etc.
  • various embodiments of the present disclosure may be implemented in the form of program commands that can be executed by various computer components and recorded on a computer-readable recording medium.
  • a bitstream generated by the encoding method according to the above embodiment may be stored on a non-transitory computer-readable recording medium.
  • the computer-readable recording medium may include program commands, data files, data structures, etc., either singly or in combination.
  • the program commands recorded on the computer-readable recording medium may be those specifically designed and configured for the present disclosure or may be known and available to those skilled in the art of computer software.
  • the present invention can be used in a device for encoding an image, a device for decoding an image, and a recording medium for storing a bitstream.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

The present invention relates to an image encoding/decoding method and device. The image decoding method according to one embodiment of the present invention comprises the steps of: deriving block division permission information about the current block; deriving context information of a multi-type tree division flag on the basis of the block division permission information; deriving a value of the multi-type tree division flag of the current block on the basis of the derived context information; and dividing the current block on the basis of the multi-type tree division flag, wherein, if the tree type of the current block is a dual tree, the block division permission information is derived according to a color component of the current block, and, here, the context information of the multi-type tree division flag can be derived on the basis of block division permission information derived according to the color component.

Description

영상 부호화/복호화 방법 및 장치Video encoding/decoding method and device

본 발명은 영상 부호화/복호화 방법 및 장치에 관한 것으로서, 보다 구체적으로는, 신택스 코딩 및 알고리즘을 개선한 영상 부호화/복호화 방법 및 장치에 관한 것이다. The present invention relates to a video encoding/decoding method and device, and more specifically, to a video encoding/decoding method and device with improved syntax coding and algorithm.

최근, 동영상과 같은 멀티미디어 데이터의 수요가 급격히 증가하고 있다. 특히, HD(High Definition) 영상 및 UHD(Ultra High Definition) 영상과 같이 고해상도, 고품질의 영상에 대한 수요가 다양한 응용 분야에서 증가하고 있다. 고해상도, 고품질의 영상 데이터는 기존의 영상 데이터에 비하여 큰 데이터 양을 가진다. 따라서, 고해상도, 고품질의 영상 데이터를 저장 및/또는 전송하기 위한 전송 비용과 저장 비용은 기존의 영상 데이터에 비해서 증가하게 된다. Recently, the demand for multimedia data, such as video, has been rapidly increasing. In particular, the demand for high-resolution, high-quality video, such as HD (High Definition) and UHD (Ultra High Definition) video, is growing across a wide range of applications. High-resolution, high-quality video data typically requires significantly more data volume than conventional video data. Consequently, the transmission and storage costs for storing and/or transmitting high-resolution, high-quality video data increase compared to conventional video data.

이러한 문제들을 해결하기 위해서는 더 높은 해상도 및 화질을 갖는 영상에 대한 고효율 영상 부호화(encoding)/복호화(decoding) 기술이 요구된다. To solve these problems, high-efficiency image encoding/decoding technology for images with higher resolution and quality is required.

영상을 부호화하기 위해, 현재 픽처 내의 화소 정보를 이용하여 현재 픽처에 포함된 화소값을 예측하는 인트라 예측 기술, 현재 픽처의 이전 또는 이후 픽처로부터 현재 픽처에 포함된 화소 값을 예측하는 인트라 예측 기술, 예측 신호화 원본 신호 간의 차이인 잔여 신호의 에너지를 압축하기 위한 변환 및 양자화 기술, 높은 출연 빈도를 가지는 값에 짧은 부호를 할당하고 낮은 출현 빈도를 가지는 값에 긴 부호를 할당하는 엔트로피 부호화 기술 등 다양한 기술이 사용된다. 그리고, 영상 부호화 효율을 향상시키기 위해, 각각의 기술을 구현하기 위한 다양한 툴들이 개발되고 있다. 그리고, 부호화된 영상을 복호화하기 위해, 영상 부호화 기술에 대응되는 기술, 및 툴들을 이용하는 영상 복호화 기술을 통해, 영상이 복원되고 재생될 수 있다. In order to encode an image, various techniques are used, such as an intra prediction technique that predicts the pixel values included in the current picture using pixel information in the current picture, an intra prediction technique that predicts the pixel values included in the current picture from the pictures before or after the current picture, a transform and quantization technique for compressing the energy of the residual signal, which is the difference between the predicted signal and the original signal, and an entropy coding technique that assigns short codes to values with high appearance frequencies and long codes to values with low appearance frequencies. In addition, various tools are being developed to implement each technique in order to improve the efficiency of image coding. In addition, in order to decode an encoded image, the image can be restored and reproduced through an image decoding technique that uses a technique and tools corresponding to the image coding technique.

이러한 영상 부호화 기술 및 영상 복호화 기술을 이용해 영상 데이터를 효과적으로 압축하여 전송 또는 저장하고, 재생할 수 있다. Using these video encoding and decoding technologies, video data can be effectively compressed, transmitted, stored, and played back.

본 개시는 신택스 코딩의 비효율성을 개선하고, 영상 데이터의 압축 효율을 향상시키는 영상 부호화/복호화 방법 및 장치를 제공하는 것을 목적으로 한다.The present disclosure aims to provide a video encoding/decoding method and device that improves the inefficiency of syntax coding and enhances the compression efficiency of video data.

또한, 본 개시는 부호화/복호화 과정에서 정보 참조 과정을 개선하여 영상 데이터의 압축 효율을 향상시키는 영상 부호화/복호화 방법 및 장치를 제공하는 것을 목적으로 한다.In addition, the present disclosure aims to provide a video encoding/decoding method and device that improves the compression efficiency of video data by improving the information reference process in the encoding/decoding process.

또한, 본 개시는 부호화/복호화 과정의 알고리즘을 개선하여 영상 데이터의 압축 효율을 향상시키는 영상 부호화/복호화 방법 및 장치를 제공하는 것을 목적으로 한다.In addition, the present disclosure aims to provide a video encoding/decoding method and device that improves the compression efficiency of video data by improving the algorithm of the encoding/decoding process.

본 개시를 통해 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않는다. 또한, 본 개시에서 언급되지 않은 또 다른 기술적 과제들은 본 개시로부터 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. The technical challenges to be achieved through this disclosure are not limited to the technical challenges mentioned above. Furthermore, other technical challenges not mentioned in this disclosure will be readily apparent to those skilled in the art from this disclosure.

본 발명의 일 실시예에 따른 영상 복호화 방법은, 현재 블록에 대한 블록 분할 허용 정보를 유도하는 단계, 상기 블록 분할 허용 정보를 기초로 멀티 타입 트리 분할 플래그의 컨텍스트 정보를 유도하는 단계, 유도된 컨텍스트 정보를 기초로 상기 현재 블록의 멀티 타입 트리 분할 플래그의 값을 유도하는 단계, 및 상기 멀티 타입 트리 분할 플래그를 기초로 현재 블록을 분할하는 단계를 포함하고, 상기 현재 블록의 트리 타입이 듀얼 트리인 경우, 상기 블록 분할 허용 정보는 상기 현재 블록의 색 성분에 따라 유도되고, 여기서, 멀티 타입 트리 분할 플래그의 컨텍스트 정보는 색 성분에 따라 유도된 블록 분할 허용 정보를 기초로 유도될 수 있다. A video decoding method according to one embodiment of the present invention includes the steps of: deriving block splitting permission information for a current block; deriving context information of a multi-type tree splitting flag based on the block splitting permission information; deriving a value of a multi-type tree splitting flag of the current block based on the derived context information; and splitting the current block based on the multi-type tree splitting flag, wherein when a tree type of the current block is a dual tree, the block splitting permission information is derived according to a color component of the current block, and wherein the context information of the multi-type tree splitting flag can be derived based on the block splitting permission information derived according to the color component.

상기 영상 복호화 방법에 있어서, 상기 멀티 타입 트리 분할 플래그는 멀티 타입 트리 분할의 방향을 지시하는 플래그인 것을 특징으로 하는, 영상 복호화 방법. An image decoding method, characterized in that in the above image decoding method, the multi-type tree splitting flag is a flag indicating the direction of multi-type tree splitting.

상기 영상 복호화 방법에 있어서, 상기 블록 분할 허용 정보는 수직 방향 분할 허용 정보 및 수평 방향 분할 허용 정보를 포함하는 것을 특징으로 하는, 영상 복호화 방법. An image decoding method, characterized in that in the above image decoding method, the block division permission information includes vertical division permission information and horizontal division permission information.

상기 영상 복호화 방법에 있어서, 수직 방향 분할 허용 정보는 수직 방향 이분할 허용 여부 정보 및 수직 방향 삼분할 허용 여부 정보를 포함하는 것을 특징으로 하는, 영상 복호화 방법. An image decoding method, characterized in that in the above image decoding method, the vertical direction division permission information includes information on whether vertical direction bi-division is allowed and information on whether vertical direction tri-division is allowed.

상기 영상 복호화 방법에 있어서, 수평 방향 분할 허용 정보는 수평 방향 이분할 허용 여부 정보 및 수평 방향 삼분할 허용 여부 정보를 포함하는 것을 특징으로 하는, 영상 복호화 방법. An image decoding method, characterized in that in the above image decoding method, the horizontal direction division permission information includes information on whether horizontal direction bi-division is allowed and information on whether horizontal direction tri-division is allowed.

상기 영상 복호화 방법에 있어서, 멀티 타입 트리 분할 플래그의 컨텍스트 정보는 수직 방향 분할 허용 정보의 값과 수평 방향 분할 허용 정보의 값의 비교 결과를 기초로 유도되는 것을 특징으로 하는, 영상 복호화 방법. An image decoding method, characterized in that, in the above image decoding method, context information of a multi-type tree split flag is derived based on a comparison result between a value of vertical direction splitting permission information and a value of horizontal direction splitting permission information.

상기 영상 복호화 방법에 있어서, 상기 멀티 타입 트리 분할 플래그는 멀티 타입 트리 분할의 타입을 지시하는 플래그인 것을 특징으로 하는, 영상 복호화 방법. An image decoding method, characterized in that in the above image decoding method, the multi-type tree splitting flag is a flag indicating the type of multi-type tree splitting.

본 발명의 일 실시예에 따른 영상 부호화 방법은, 현재 블록에 대한 블록 분할 허용 정보를 결정하는 단계, 상기 현재 블록의 멀티 타입 트리 분할 플래그를 결정하는 단계, 상기 블록 분할 허용 정보를 기초로 상기 멀티 타입 트리 분할 플래그의 컨텍스트 정보를 결정하는 단계, 및 상기 컨텍스트 정보를 기초로 상기 멀티 타입 트리 분할 플래그를 부호화하는 단계를 포함하고, 상기 현재 블록의 트리 타입이 듀얼 트리인 경우, 상기 블록 분할 허용 정보는 상기 현재 블록의 색 성분에 따라 유도되고, 상기 멀티 타입 트리 분할 플래그의 컨텍스트 정보는 색 성분에 따라 유도된 블록 분할 허용 정보를 기초로 유도될 수 있다. A video encoding method according to one embodiment of the present invention includes a step of determining block splitting permission information for a current block, a step of determining a multi-type tree splitting flag of the current block, a step of determining context information of the multi-type tree splitting flag based on the block splitting permission information, and a step of encoding the multi-type tree splitting flag based on the context information, wherein when a tree type of the current block is a dual tree, the block splitting permission information may be derived based on a color component of the current block, and the context information of the multi-type tree splitting flag may be derived based on the block splitting permission information derived based on the color component.

본 발명의 일 실시예에 따른 영상 부호화 방법에 의해 생성된 비트스트림을 저장하는 비 일시적 컴퓨터 판독가능한 기록 매체는, 현재 블록에 대한 블록 분할 허용 정보를 결정하는 단계, 상기 현재 블록의 멀티 타입 트리 분할 플래그를 결정하는 단계, 상기 블록 분할 허용 정보를 기초로 상기 멀티 타입 트리 분할 플래그의 컨텍스트 정보를 결정하는 단계, 및 상기 컨텍스트 정보를 기초로 상기 멀티 타입 트리 분할 플래그를 부호화하는 단계를 포함하고, 상기 현재 블록의 트리 타입이 듀얼 트리인 경우, 상기 블록 분할 허용 정보는 상기 현재 블록의 색 성분에 따라 유도되고, 상기 멀티 타입 트리 분할 플래그의 컨텍스트 정보는 색 성분에 따라 유도된 블록 분할 허용 정보를 기초로 유도되는 영상 부호화 방법에 의해 생성되는 비트스트림을 저장할 수 있다. A non-transitory computer-readable recording medium storing a bitstream generated by a video encoding method according to one embodiment of the present invention includes a step of determining block splitting permission information for a current block, a step of determining a multi-type tree splitting flag of the current block, a step of determining context information of the multi-type tree splitting flag based on the block splitting permission information, and a step of encoding the multi-type tree splitting flag based on the context information, wherein when the tree type of the current block is a dual tree, the block splitting permission information is derived based on a color component of the current block, and the context information of the multi-type tree splitting flag is derived based on the block splitting permission information derived based on the color component. The bitstream generated by the video encoding method can be stored.

본 발명의 일 실시예에 따른 영상 부호화 방법에 의해 생성된 비트스트림의 전송 방법은 상기 비트스트림을 전송하는 단계를 포함하고, 현재 블록에 대한 블록 분할 허용 정보를 결정하는 단계, 상기 현재 블록의 멀티 타입 트리 분할 플래그를 결정하는 단계, 상기 블록 분할 허용 정보를 기초로 상기 멀티 타입 트리 분할 플래그의 컨텍스트 정보를 결정하는 단계, 및 상기 컨텍스트 정보를 기초로 상기 멀티 타입 트리 분할 플래그를 부호화하는 단계를 포함하고, 상기 현재 블록의 트리 타입이 듀얼 트리인 경우, 상기 블록 분할 허용 정보는 상기 현재 블록의 색 성분에 따라 유도되고, 상기 멀티 타입 트리 분할 플래그의 컨텍스트 정보는 색 성분에 따라 유도된 블록 분할 허용 정보를 기초로 유도되는 영상 부호화 방법에 의해 생성되는 비트스트림을 전송할 수 있다. A method for transmitting a bitstream generated by a video encoding method according to one embodiment of the present invention includes the steps of transmitting the bitstream, determining block splitting permission information for a current block, determining a multi-type tree splitting flag of the current block, determining context information of the multi-type tree splitting flag based on the block splitting permission information, and encoding the multi-type tree splitting flag based on the context information, wherein when the tree type of the current block is a dual tree, the block splitting permission information is derived based on a color component of the current block, and the context information of the multi-type tree splitting flag is derived based on the block splitting permission information derived based on the color component. A bitstream generated by the video encoding method can be transmitted.

본 개시에 따르면, 신택스 코딩의 비효율성을 개선하고, 영상 데이터의 압축 효율을 향상시키는 영상 부호화/복호화 방법 및 장치가 제공될 수 있다. According to the present disclosure, a video encoding/decoding method and device can be provided that improves the inefficiency of syntax coding and enhances the compression efficiency of video data.

또한, 본 개시에 따르면, 부호화/복호화 과정에서 정보 참조 과정을 개선하여 영상 데이터의 압축 효율을 향상시키는 영상 부호화/복호화 방법 및 장치가 제공될 수 있다.In addition, according to the present disclosure, a method and device for encoding/decoding an image can be provided that improves the compression efficiency of image data by improving an information reference process in an encoding/decoding process.

또한, 본 개시에 따르면, 부호화/복호화 과정의 알고리즘을 개선하여 영상 데이터의 압축 효율을 향상시키는 영상 부호화/복호화 방법 및 장치가 제공될 수 있다.In addition, according to the present disclosure, a video encoding/decoding method and device can be provided that improves the compression efficiency of video data by improving the algorithm of the encoding/decoding process.

또한, 본 개시에 따르면, 본 발명의 영상 부호화 방법 또는 장치에 의해 생성된 비트스트림을 저장한 기록 매체가 제공될 수 있다.In addition, according to the present disclosure, a recording medium storing a bitstream generated by the image encoding method or device of the present invention can be provided.

본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. The effects that can be obtained from the present disclosure are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art to which the present invention pertains from the description below.

도 1은 본 개시의 일 실시예에 따른 영상 부호화 장치를 나타낸 블록도이다.FIG. 1 is a block diagram illustrating an image encoding device according to one embodiment of the present disclosure.

도 2는 본 개시의 일 실시예에 따른 영상 복호화 장치를 나타낸 블록도이다. FIG. 2 is a block diagram illustrating an image decoding device according to one embodiment of the present disclosure.

도 3은 본 개시가 적용될 수 있는 비디오 코딩 시스템을 개략적으로 나타내는 도면이다.FIG. 3 is a diagram schematically illustrating a video coding system to which the present disclosure can be applied.

도 4는 본 개시에 따른 실시예가 적용될 수 있는 컨텐츠 스트리밍 시스템을 예시적으로 나타내는 도면이다. FIG. 4 is a diagram exemplifying a content streaming system to which an embodiment according to the present disclosure can be applied.

도 5는 본 개시의 일 실시 예에 따른 적응적 루프 필터에 관한 신택스 요소들의 컨텍스트 정보를 결정하는 방법에 대한 영상 복호화 방법을 나타내는 흐름도이다. FIG. 5 is a flowchart illustrating an image decoding method for determining context information of syntax elements for an adaptive loop filter according to an embodiment of the present disclosure.

도 6은 본 개시의 일 실시 예에 따른 현재 블록의 예측 모드 조건 정보를 결정하는 방법에 대한 영상 복호화 방법을 나타내는 흐름도이다. FIG. 6 is a flowchart illustrating an image decoding method for determining prediction mode condition information of a current block according to an embodiment of the present disclosure.

도 7은 본 개시의 일 실시예에 따른 블록 분할 관련 신택스 요소들의 시그널링 메커니즘을 도시한 도면이다. FIG. 7 is a diagram illustrating a signaling mechanism of block division related syntax elements according to one embodiment of the present disclosure.

도 8은 본 개시의 일 실시 예에 따른 현재 블록의 멀티 타입 트리 분할에 관한 신택스 요소들의 컨텍스트 정보를 결정하는 방법에 대한 영상 복호화 방법을 나타내는 흐름도이다. FIG. 8 is a flowchart illustrating an image decoding method for determining context information of syntax elements regarding multi-type tree division of a current block according to an embodiment of the present disclosure.

도 9는 본 개시의 일 실시 예에 따른 아핀 모델 기반 인터 예측에서, 움직임 벡터를 결정하기 위한 파라미터 모델이다. FIG. 9 is a parameter model for determining a motion vector in an affine model-based inter prediction according to an embodiment of the present disclosure.

도 10은 본 개시의 일 실시 예에 따른 현재 블록의 아핀 움직임 벡터 차분의 해상도를 변경하는 방법에 대한 영상 복호화 방법을 나타내는 흐름도이다. FIG. 10 is a flowchart illustrating an image decoding method for changing the resolution of an affine motion vector difference of a current block according to an embodiment of the present disclosure.

도 11은 본 개시의 일 실시예에 따른 기하학적 분할 모드를 지시하는 인덱스에 기초한 현재 블록의 분할 구조를 도시한 도면이다.FIG. 11 is a diagram illustrating a segmentation structure of a current block based on an index indicating a geometric segmentation mode according to one embodiment of the present disclosure.

도 12는 본 개시의 일 실시예에 따른 기하학적 분할 모드에 의해 예측되는 현재 블록을 도시한 도면이다. FIG. 12 is a diagram illustrating a current block predicted by a geometric segmentation mode according to one embodiment of the present disclosure.

도 13은 본 개시의 일 실시 예에 따른 기하학적 분할 모드인 현재 블록의 움직임 정보를 저장하는 방법에 대한 영상 복호화 방법을 나타내는 흐름도이다. FIG. 13 is a flowchart illustrating an image decoding method for storing motion information of a current block in a geometric segmentation mode according to an embodiment of the present disclosure.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.The present invention is susceptible to various modifications and embodiments. Specific embodiments are illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, but rather to encompass all modifications, equivalents, and alternatives falling within the spirit and technical scope of the present invention. Throughout the description of each drawing, similar reference numerals have been used to designate similar components.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.While terms such as "first" and "second" may be used to describe various components, these components should not be limited by these terms. These terms are used solely to distinguish one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a "second component," and similarly, a second component may also be referred to as a "first component." The term "and/or" includes a combination of multiple related items described herein or any of multiple related items described herein.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다거나 "직접 접속되어"있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being "connected" or "connected" to another component, it should be understood that it may be directly connected or connected to that other component, but that there may be other components intervening. Conversely, when a component is referred to as being "directly connected" or "connected" to another component, it should be understood that there are no other components intervening.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is only used to describe specific embodiments and is not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly indicates otherwise. In this application, it should be understood that the terms "comprise" or "have" indicate the presence of a feature, number, step, operation, component, part, or combination thereof described in the specification, but do not exclude in advance the possibility of the presence or addition of one or more other features, numbers, steps, operations, components, parts, or combinations thereof.

이하, 첨부한 도면들을 참조하여, 본 개시의 실시예들을 상세하게 설명한다. 이하, 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다. Hereinafter, embodiments of the present disclosure will be described in detail with reference to the attached drawings. Hereinafter, identical components in the drawings will be designated by the same reference numerals, and redundant descriptions of identical components will be omitted.

아래의 설명에서, 영상은 비디오 또는 비디오를 구성하는 픽처를 의미할 수 있다. 영상, 픽처, 프레임 각각의 용어는 서로 동일한 의미로 사용될 수 있으며, 서로 대체하여 사용될 수 있다. In the description below, "image" may refer to a video or a picture that constitutes a video. The terms "image," "picture," and "frame" may be used interchangeably and have the same meaning.

영상은 영상 부호화 장치에 의해 부호화될 수 있다, 그리고, 영상 부호화 장치에 의해 부호화된 영상은 영상 복호화 장치에 의해 복호화될 수 있다. An image can be encoded by an image encoding device, and an image encoded by the image encoding device can be decoded by an image decoding device.

영상 부호화 장치는 부호화기 또는 인코더로도 지칭될 수 있다. 그리고, 영상 복호화 장치는 복호화기 또는 디코더로도 지칭될 수 있다. An image encoding device may also be referred to as an encoder or encoder. And, an image decoding device may also be referred to as a decoder or decoder.

아래의 설명에서, 대상 블록은 부호화되는 블록 및/또는 복호화되는 블록을 의미할 수 있다. 예를 들어, 대상 블록은 현재 부호화되거나 복호화되는 블록인 현재 블록일 수 있다. 대상 블록 표현 및 현재 블록이라는 용어는 서로 동일한 의미로 사용될 수 있으며, 서로 대체하여 사용될 수 있다. In the description below, the target block may refer to a block being encoded and/or a block being decoded. For example, the target block may be the current block, which is the block currently being encoded or decoded. The terms "target block expression" and "current block" may be used interchangeably and have the same meaning.

아래의 설명에서 블록 및 유닛이라는 용어는 서로 동일한 의미로 사용될 수 있으며, 서로 대체하여 사용될 수 있다. 또는, 유닛이라는 용어는 휘도 성분 블록 및 그에 상응하는 색차 성분 블록을 포함하는 단위를 의미할 수 있다. 예를 들어, 코딩 트리 유닛(coding tree unit)은 휘도 성분 코딩 트리 블록 및 이에 상응하는 2개의 색차 성분 코딩 트리 블록을 포함할 수 있다. In the description below, the terms "block" and "unit" may be used interchangeably and interchangeably. Alternatively, the term "unit" may refer to a unit comprising a luminance component block and a corresponding chrominance component block. For example, a coding tree unit may comprise a luminance component coding tree block and two corresponding chrominance component coding tree blocks.

아래의 설명에서, 샘플은 블록을 구성하는 단위일 수 있다. 그리고, 샘플, 화소 및 픽셀이라는 용어는 서로 동일한 의미로 사용될 수 있으며, 서로 대체하여 사용될 수 있다. In the description below, a sample may be a unit that constitutes a block. The terms "sample," "pixel," and "pixel" may be used interchangeably and have the same meaning.

도 1은 본 개시의 일 실시예에 따른 영상 부호화 장치를 나타낸 블록도이다.FIG. 1 is a block diagram illustrating an image encoding device according to one embodiment of the present disclosure.

도 1을 참조하면, 영상 부호화 장치(100)는 영상 분할부(101), 인트라 예측부(102), 인터 예측부(103), 감산부(104), 변환부(105), 양자화부(106), 엔트로피 부호화부(107), 역양자화부(108), 역변환부(109), 가산부(110), 필터부(111) 및 메모리(112)를 포함할 수 있다.Referring to FIG. 1, an image encoding device (100) may include an image segmentation unit (101), an intra prediction unit (102), an inter prediction unit (103), a subtraction unit (104), a transformation unit (105), a quantization unit (106), an entropy encoding unit (107), an inverse quantization unit (108), an inverse transformation unit (109), an addition unit (110), a filter unit (111), and a memory (112).

도 1에 나타난 각 구성부들은 영상 부호화 장치에서 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시한 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 포함한 것으로 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수개의 구성부로 나뉘어져 기능을 수행할 수 있고 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 개시의 본질에서 벗어나지 않는 한 본 개시의 권리범위에 포함된다. Each component shown in Fig. 1 is independently depicted to represent different characteristic functions in the video encoding device, and does not mean that each component is composed of separate hardware or a single software component. That is, each component is listed and included as a separate component for convenience of explanation, and at least two components among each component may be combined to form a single component, or one component may be divided into multiple components to perform a function, and such integrated and separate embodiments of each component are also included in the scope of the present disclosure as long as they do not deviate from the essence of the present disclosure.

또한, 일부의 구성 요소는 본 개시에서 본질적인 기능을 수행하는 필수적인 구성 요소는 아니고 단지 성능을 향상시키기 위한 선택적 구성 요소일 수 있다. 본 개시는 단지 성능 향상을 위해 사용되는 구성 요소를 제외한 본 개시의 본질을 구현하는데 필수적인 구성부만을 포함하여 구현될 수 있고, 단지 성능 향상을 위해 사용되는 선택적 구성 요소를 제외한 필수 구성 요소만을 포함한 구조도 본 개시의 권리범위에 포함된다.Additionally, some components may not be essential components that perform the essential functions of the present disclosure, but may be optional components merely used to enhance performance. The present disclosure may be implemented by including only components essential to implementing the essence of the present disclosure, excluding components used solely for performance enhancement. A structure that includes only essential components, excluding optional components used solely for performance enhancement, is also within the scope of the present disclosure.

영상 분할부(101)는 입력된 영상을 적어도 하나의 블록으로 분할할 수 있다. 이 때, 입력된 영상은 시퀀스, 픽처, 슬라이스, 타일, 세그먼트, 타일 그룹, 코딩 트리 블록 등 다양한 형태와 크기를 가질 수 있다. 다른 실시예에 따르면, 영상 분할부(101)는 입력된 하나의 픽처를 직사각형 모양의 슬라이스의 그룹으로 정의되는 다수개의 서브픽처(sub-picture)로 분할하고, 각 서브픽처를 상기 타일/슬라이스로 분할하고, 타일/슬라이스를 코딩 트리 블록으로 분할할 수도 있다. The image segmentation unit (101) can segment an input image into at least one block. At this time, the input image can have various shapes and sizes such as a sequence, a picture, a slice, a tile, a segment, a tile group, a coding tree block, etc. According to another embodiment, the image segmentation unit (101) can segment one input picture into a plurality of sub-pictures defined as a group of rectangular slices, segment each sub-picture into the tiles/slices, and segment the tiles/slices into coding tree blocks.

또한, 영상 분할부(101)는 분할된 코딩 트리 블록을 재귀적으로 분할할 수 있다. 코딩 트리 블록으로부터 분할된 말단 노드는 부호화 단위(CU)로 지칭될 수 있다. 블록은 부호화 단위(CU), 또는, 부호화 단위(CU)로부터 분할된 예측 단위(PU) 또는 변환 단위(TU)를 의미할 수 있다. 상기 분할은 쿼드 트리(Quadtree), 바이너리 트리(Biniary tree) 및 터너리 트리(ternary tree) 중 적어도 하나에 기반하여 수행될 수 있다. 쿼드 트리는 상위 블록을 너비와 높이가 상위 블록의 절반인 하위 블록으로 사분할하는 방식이다. 바이너리 트리는 상위 블록을 너비 또는 높이 중 어느 하나가 상위 블록의 절반인 하위 블록으로 이분할하는 방식이다. 터너리 트리는 상위 블록을 3개의 하위 블록으로 분할하는 방식이다. 예컨대, 상기 3개의 하위 블록은 상기 상위 블록의 너비 또는 높이를 1:2:1의 비율로 분할함으로써 획득될 수 있다. 전술한 바이너리 트리 기반의 분할을 통해, 블록은 정방형뿐만 아니라 비정방형의 형태를 가질 수 있다. 블록은 먼저 쿼드 트리 분할될 수 있다. 쿼드 트리의 리프(leaf) 노드에 해당하는 블록은 분할되지 않거나, 바이너리 트리 분할 또는 터너리 트리 분할될 수 있다. 바이너리 트리 또는 터너리 트리의 리프 노드는 부호화, 예측 및/또는 변환의 단위일 수 있다. In addition, the image segmentation unit (101) can recursively segment the segmented coding tree block. The terminal node segmented from the coding tree block may be referred to as a coding unit (CU). The block may mean a coding unit (CU), or a prediction unit (PU) or a transformation unit (TU) segmented from the coding unit (CU). The segmentation may be performed based on at least one of a quadtree, a binary tree, and a ternary tree. A quadtree is a method of segmenting an upper block into lower blocks whose width and height are half of those of the upper block. A binary tree is a method of segmenting an upper block into lower blocks whose width or height is half of that of the upper block. A ternary tree is a method of segmenting an upper block into three lower blocks. For example, the three lower blocks may be obtained by segmenting the width or height of the upper block at a ratio of 1:2:1. Through the binary tree-based partitioning described above, blocks can have not only square but also non-square shapes. Blocks can first be partitioned into a quad tree. Blocks corresponding to leaf nodes of the quad tree can be left unpartitioned, or can be partitioned into a binary tree or a ternary tree. Leaf nodes of the binary tree or ternary tree can be units of encoding, prediction, and/or transformation.

영상 분할부(101)는 CTU를 쿼드 트리(QT) 뿐만 아니라 멀티 타입 트리(MTT: Multi-Type Tree)로 재귀적으로 분할할 수 있다. 여기서, MTT는 BT(Binary Tree)와 TT(Triple Tree)로 구성될 수 있다. 예를 들어, MTT구조에는 수직 바이너리 트리 분할 모드(SPLIT_BT_VER), 수평 바이너리 트리 분할 모드(SPLIT_BT_HOR), 수직 터너리 트리 분할 모드(SPLIT_TT_VER), 수평 삼분할 모드(SPLIT_TT_HOR)로 구분될 수 있다. The image segmentation unit (101) can recursively segment the CTU into not only a quad tree (QT) but also a multi-type tree (MTT). Here, the MTT can be composed of a binary tree (BT) and a triple tree (TT). For example, the MTT structure can be divided into a vertical binary tree splitting mode (SPLIT_BT_VER), a horizontal binary tree splitting mode (SPLIT_BT_HOR), a vertical ternary tree splitting mode (SPLIT_TT_VER), and a horizontal triple splitting mode (SPLIT_TT_HOR).

또한 영상 분할부(101)는 휘도와 색차 성분의 CTU 분할 구조를 서로 다르게 사용하는 듀얼 트리(dual tree)를 적용하거나, CTU 내의 휘도와 색차 CTB (Coding Tree Block)들이 코딩 트리 구조를 공유하는 싱글 트리(single tree)를 적용하여 CTU를 분할할 수 있다. In addition, the image segmentation unit (101) can segment a CTU by applying a dual tree that uses different CTU segmentation structures for luminance and chrominance components, or by applying a single tree in which luminance and chrominance CTBs (Coding Tree Blocks) within a CTU share a coding tree structure.

예측부(102, 103)는 인트라 예측을 수행하는 인트라 예측부(102)와 인터 예측을 수행하는 인터 예측부(103)를 포함할 수 있다. 예측부(102, 103)는 예측 단위에 대해 인트라 예측을 사용할 것인지 또는 인터 예측을 수행할 것인지를 결정할 수 있다. 또한 예측부(102, 103)는 결정된 예측 방법에 따른 구체적인 정보(예컨대, 인트라 예측 모드, 인터 예측 모드, 모션 벡터, 참조 픽쳐 등)를 결정할 수 있다. 이때, 예측이 수행되는 처리 단위와 예측 방법 및 구체적인 내용이 정해지는 처리 단위는 다를 수 있다. 예를 들어, 예측부(102, 103)는 예측 단위마다 예측의 방법과 예측 모드 등을 결정하고, 변환 단위에 따라 예측을 수행할 수 있다. The prediction unit (102, 103) may include an intra-prediction unit (102) that performs intra-prediction and an inter-prediction unit (103) that performs inter-prediction. The prediction unit (102, 103) may determine whether to use intra-prediction or inter-prediction for a prediction unit. In addition, the prediction unit (102, 103) may determine specific information (e.g., intra-prediction mode, inter-prediction mode, motion vector, reference picture, etc.) according to the determined prediction method. At this time, the processing unit where the prediction is performed and the processing unit where the prediction method and specific contents are determined may be different. For example, the prediction unit (102, 103) may determine the prediction method and prediction mode for each prediction unit, and perform prediction according to the transformation unit.

다른 실시예에 따르면, 예측부는 인트라 모드 및 인터 모드 이외의 모드인 제3의 모드(예, IBC 모드, Palette 모드 등)를 이용하여 입력 영상을 부호화할 수 있다. 다만, 제3의 모드가 인트라 모드 또는 인터 모드와 유사한 기능적 특징을 가지는 경우, 제3의 모드는 인트라 모드 또는 인터 모드로 분류될 수 있다. 본 개시에서는, 제3의 모드에 대한 구체적인 설명이 필요한 경우에만 제3의 모드에 대해 기술할 것이다. In another embodiment, the prediction unit may encode the input image using a third mode (e.g., IBC mode, Palette mode, etc.) other than the intra mode and the inter mode. However, if the third mode has functional characteristics similar to the intra mode or the inter mode, the third mode may be classified as the intra mode or the inter mode. In this disclosure, the third mode will be described only when a specific description thereof is required.

인트라 예측부(102)는 현재 블록의 인트라 예측 모드 및 현재 픽쳐 내의 화소 정보인 현재 블록 주변의 참조 픽셀 정보를 기초로 현재 블록의 예측 블록을 생성할 수 있다. 현재 블록의 주변 블록이 인터 예측에 의해 예측된 경우, 인터 예측된 주변 블록에 포함되는 참조 픽셀들은 인트라 예측된 주변의 다른 블록 내의 참조 픽셀로 대체될 수 있다. 즉, 참조 픽셀이 가용하지 않는 경우, 인트라 예측부(102)는 가용하지 않은 참조 픽셀을 가용한 참조 픽셀 중 적어도 하나의 참조 픽셀로 대체하여 현재 블록의 인트라 예측을 수행할 수 있다. The intra prediction unit (102) can generate a prediction block of the current block based on the intra prediction mode of the current block and reference pixel information around the current block, which is pixel information within the current picture. If a neighboring block of the current block is predicted by inter prediction, the reference pixels included in the inter-predicted neighboring block can be replaced with reference pixels within another neighboring block that has been intra-predicted. That is, if a reference pixel is not available, the intra prediction unit (102) can perform intra prediction of the current block by replacing the unavailable reference pixel with at least one reference pixel among the available reference pixels.

인트라 예측부(102)는 현재 블록의 인트라 예측을 위해, 복수의 참조 픽셀 라인을 이용할 수 있다. 복수의 참조 픽셀 라인이 이용 가능한 경우, 복수의 참조 픽셀 라인들 중에서, 인트라 예측에 사용되는 참조 픽셀 라인을 지시하는 정보가 시그널링될 수 있다.The intra prediction unit (102) can use multiple reference pixel lines for intra prediction of the current block. If multiple reference pixel lines are available, information indicating a reference pixel line used for intra prediction among the multiple reference pixel lines can be signaled.

인트라 예측에 사용되는 인트라 예측 모드는 참조 픽셀 정보를 예측 방향에 따라 사용하는 방향성 예측 모드와 방향성 정보를 사용하지 않는 비방향성 모드를 포함할 수 있다. 또한, 휘도 정보를 예측하기 위한 모드와 색차 정보를 예측하기 위한 모드가 상이할 수 있고, 색차 정보를 예측하기 위해 휘도 성분 블록의 인트라 예측 모드 정보 또는 예측된 휘도 신호 정보를 활용할 수 있다.Intra prediction modes used for intra prediction may include a directional prediction mode that uses reference pixel information according to the prediction direction, and a non-directional mode that does not use directional information. Additionally, the mode for predicting luminance information and the mode for predicting chrominance information may be different, and the intra prediction mode information of the luminance component block or the predicted luminance signal information may be utilized to predict chrominance information.

인트라 예측부(102)는 참조 화소 필터(reference sample filter), 보간 필터(interpolation filter), DC 필터를 포함할 수 있다. 참조 화소 필터는 현재 블록의 참조 화소에 필터링을 수행하는 필터로써 현재 예측 단위의 예측 모드, 크기, 형태 및/또는 참조 픽셀이 현재 블록에 바로 인접한 참조 픽셀 라인에 포함되는지의 여부에 따라 적응적으로 적용될 수 있다. 현재 블록의 예측 모드가 참조 화소 필터링을 수행하지 않는 모드일 경우, 참조 화소 필터는 적용되지 않을 수 있다. The intra prediction unit (102) may include a reference sample filter, an interpolation filter, and a DC filter. The reference sample filter is a filter that performs filtering on the reference pixels of the current block and may be adaptively applied depending on the prediction mode, size, shape, and/or whether the reference pixel of the current prediction unit is included in a reference pixel line immediately adjacent to the current block. If the prediction mode of the current block is a mode that does not perform reference pixel filtering, the reference pixel filter may not be applied.

보간 필터는 현재 블록의 예측 샘플을 보간하고 필터링을 수행하는 필터로써 현재 예측 단위의 예측 모드, 크기, 형태 및/또는 참조 픽셀이 현재 블록에 바로 인접한 참조 픽셀 라인에 포함되는지의 여부에 따라 적응적으로 적용될 수 있다. An interpolation filter is a filter that interpolates and filters prediction samples of the current block, and can be adaptively applied depending on the prediction mode, size, shape, and/or whether the reference pixel of the current prediction unit is included in the reference pixel line immediately adjacent to the current block.

현재 블록의 예측 모드가 DC 모드일 경우, DC 필터를 적용하여 예측 블록이 생성될 수 있다. If the prediction mode of the current block is DC mode, a prediction block can be generated by applying a DC filter.

인터 예측부(103)는, 메모리(112)에 저장된 기 복원된 참조영상과 인터 예측 모드 및 움직임 정보를 이용하여 예측 블록을 생성한다. 여기서, 인터 예측은 움직임 예측 또는 움직임 보상을 의미할 수 있다. The inter prediction unit (103) generates a prediction block using the previously restored reference image stored in the memory (112), the inter prediction mode, and the motion information. Here, inter prediction may mean motion prediction or motion compensation.

인터 예측부(103)는 움직임 예측 및/또는 움직임 보상을 수행하기 위해, 코딩 블록의 인터 모드를 스킵 모드(Skip Mode), 머지 모드(Merge Mode), 향상된 움직임 벡터 예측(Advanced Motion Vector Prediction; AMVP) 모드 중 하나의 방법으로 설정할 수 있다. 그리고, 인터 예측부(103)는 설정된 모드에 따라 현재 블록에 대한 움직임 예측 및/또는 움직임 보상을 수행할 수 있다. The inter prediction unit (103) can set the inter mode of a coding block to one of the Skip Mode, Merge Mode, and Advanced Motion Vector Prediction (AMVP) mode in order to perform motion prediction and/or motion compensation. In addition, the inter prediction unit (103) can perform motion prediction and/or motion compensation for the current block according to the set mode.

또한, 인터 예측부(103)는 인터 예측 모드를 기초로, sub-PU 기반 예측의 아핀(affine) 모드, SbTMVP (Subblock-based Temporal Motion Vector Prediction) 모드, 및 PU 기반 예측의 MMVD(Merge with MVD) 모드, GPM(Geometric Partitioning Mode) 모드를 적용하여 예측 블록에 대한 움직임 예측 및/또는 움직임 보상을 수행할 수 있다. 또한, 인터 예측부(103)는 각 모드의 성능 향상을 위하여 HMVP(History based MVP), PAMVP(Pairwise Average MVP), CIIP(Combined Intra/Inter Prediction), AMVR(Adaptive Motion Vector Resolution), DMVR(Decoder side Motion Vector Refinement), BDOF(Bi-Directional Optical-Flow), PROF(Prediction Refinement With Optical Flow), BCW(Bi-predictive with CU Weights) 등을 적용하여 예측 블록에 대한 움직임 예측 및/또는 움직임 보상을 수행할 수 있다. In addition, the inter prediction unit (103) may perform motion prediction and/or motion compensation for a prediction block by applying an affine mode of sub-PU-based prediction, a Subblock-based Temporal Motion Vector Prediction (SbTMVP) mode, and a MMVD (Merge with MVD) mode and a GPM (Geometric Partitioning Mode) mode of PU-based prediction based on the inter prediction mode. In addition, the inter prediction unit (103) may perform motion prediction and/or motion compensation for a prediction block by applying a History-based MVP (HMVP), a Pairwise Average MVP (PAMVP), a Combined Intra/Inter Prediction (CIIP), an Adaptive Motion Vector Resolution (AMVR), a Decoder-side Motion Vector Refinement (DMVR), a Bi-Directional Optical-Flow (BDOF), a Prediction Refinement With Optical Flow (PROF), a Bi-predictive with CU Weights (BCW), etc. to improve the performance of each mode.

여기서, AFFINE 모드는 AMVP와 MERGE 모드에서 모두 사용될 수 있다. 되고 부호화 효율 또한 높은 기술이다. AFFINE 모드는 두 개의 컨트롤 포인트 움직임 벡터(control point motion vector, CPMV)를 사용하는 4 파라미터 아핀 움직임 모델과 세 개의 컨트롤 포인트 움직임 벡터를 사용하는 6 파라미터 아핀 움직임 모델을 사용하는 예측 모드일 수 있다. 여기서, CPMV는 현재 블록의 왼쪽 상단, 오른쪽 상단, 왼쪽 하단 중 어느 하나의 아핀 움직임 모델을 표현하는 벡터일 수 있다. Here, AFFINE mode can be used in both AMVP and MERGE modes. It is a technique with high encoding efficiency. AFFINE mode can be a prediction mode that uses a 4-parameter affine motion model using two control point motion vectors (CPMV) or a 6-parameter affine motion model using three control point motion vectors. Here, CPMV can be a vector representing an affine motion model of any one of the top left, top right, and bottom left of the current block.

움직임 정보는 예컨대 움직임 벡터, 참조 픽처 인덱스, 리스트 1 예측 플래그, 리스트 0 예측 플래그, 하프 샘플 보간 필터 인덱스, 양방향 예측 가중치 인덱스 등을 포함할 수 있다. The motion information may include, for example, a motion vector, a reference picture index, a list 1 prediction flag, a list 0 prediction flag, a half-sample interpolation filter index, a bidirectional prediction weight index, etc.

예측부(102, 103)에서 생성된 예측 단위와 예측 단위의 원본 블록 간의 차이값인 잔차값(Residual) 정보를 포함하는 잔차 블록이 생성될 수 있다. 생성된 잔차 블록은 변환부(130)로 입력되어 변환될 수 있다. A residual block containing residual value information, which is the difference value between the prediction unit generated in the prediction unit (102, 103) and the original block of the prediction unit, can be generated. The generated residual block can be input to the transformation unit (130) and transformed.

감산부(104)는 현재 부호화하려는 블록과 인트라 예측부(102) 혹은 인터 예측부(103)에서 생성된 예측 블록을 감산하여 현재 블록의 잔차 블록을 생성한다. 생성된 예측 블록과 원본 블록 사이의 잔차값(잔차 블록)은 변환부(105)로 입력될 수 있다. The subtraction unit (104) subtracts the block to be encoded from the prediction block generated by the intra prediction unit (102) or inter prediction unit (103) to generate a residual block of the current block. The residual value (residual block) between the generated prediction block and the original block can be input to the transformation unit (105).

또한, 예측을 위해 사용한 예측 모드 정보, 모션 벡터 정보 등은 잔차값과 함께 엔트로피 부호화부(107)에서 부호화되어 복호화기에 전달될 수 있다. 특정한 부호화 모드를 사용할 경우, 예측부(102, 103)를 통해 예측 블록을 생성하지 않고, 원본 블록을 그대로 부호화하여 복호화부에 전송하는 것도 가능하다.Additionally, the prediction mode information, motion vector information, etc. used for prediction can be encoded together with the residual value in the entropy encoding unit (107) and transmitted to the decoder. When using a specific encoding mode, it is also possible to encode the original block as is and transmit it to the decoding unit without generating a prediction block through the prediction unit (102, 103).

변환부(105)에서는 잔차 데이터를 포함한 잔차 블록에 대해 변환(transform)을 수행하여 변환 계수(transform coefficient)를 생성하고 출력할 수 있다. 여기서, 변환 계수는 잔여 블록에 대한 변환을 수행함으로써 생성된 계수 값일 수 있다. 변환 생략(transform skip) 모드가 적용되는 경우, 변환부(105)는 잔여 블록에 대한 변환을 생략할 수도 있다. The transformation unit (105) can perform a transformation on a residual block including residual data to generate and output a transform coefficient. Here, the transform coefficient may be a coefficient value generated by performing a transformation on the residual block. When the transform skip mode is applied, the transformation unit (105) may also skip the transformation on the residual block.

변환부(105)는 변환 블록의 크기, 색 성분, 예측 모드 등의 부호화 파라미터 중 적어도 하나를 기초로 변환 타입 및 변환 커널을 결정하고, 결정된 변환 타입 및 변환 커널을 사용하여, 변환 블록에 변환을 수행할 수 있다. The conversion unit (105) can determine a conversion type and a conversion kernel based on at least one of encoding parameters such as the size, color component, and prediction mode of the conversion block, and perform conversion on the conversion block using the determined conversion type and conversion kernel.

일 실시예에 따르면, 변환부(105)는 인트라 예측 결과 생성된 4x4 휘도 잔차 블록에 DST(Discrete Sine Transform)에 따른 변환 타입 및 변환 커널을 사용하여 변환을 수행하고, 나머지 잔차 블록에 대해서는 DCT(Discrete Cosine Transform)에 따른 변환 타입 및 변환 커널을 사용하여 변환을 수행할 수 있다. According to one embodiment, the transformation unit (105) may perform transformation on a 4x4 luminance residual block generated as an intra prediction result using a transformation type and transformation kernel according to DST (Discrete Sine Transform), and may perform transformation on the remaining residual blocks using a transformation type and transformation kernel according to DCT (Discrete Cosine Transform).

다른 실시예에 따르면, 변환부(105)는 여러 변환 타입 및 변환 커널을 선택적으로 사용하여 변환을 수행하는 MTS(Multiple Transform Selection) 기술을 적용할 수도 있다. 즉, 변환부(105)는 SBT(Sub-block Transform) 기술을 통해 서브블록 단위로 변환을 수행할 수 있다. 구체적으로, SBT는 인터 예측 블록에만 적용될 수 있으며, 현재 블록을 수직 혹은 수평 방향으로 ½ 혹은 ¼ 크기로 분할한 뒤 그 중 하나의 블록에 대해서만 변환을 수행할 수 있다. 예를 들어, 변환부(105)는 수직으로 분할한 현재 블록 중에서, 맨 왼쪽 혹은 맨 오른쪽 블록에 대해 변환을 수행하고, 수평으로 분할한 현재 블록 중에서, 맨 위쪽 혹은 맨 아래쪽 블록에 대하여 변환을 수행할 수 있다. According to another embodiment, the transform unit (105) may apply the Multiple Transform Selection (MTS) technology that performs the transform by selectively using several transform types and transform kernels. That is, the transform unit (105) may perform the transform in units of sub-blocks using the Sub-block Transform (SBT) technology. Specifically, the SBT may be applied only to inter-prediction blocks, and the current block may be divided into ½ or ¼ sizes in the vertical or horizontal direction, and the transform may be performed on only one of the blocks. For example, the transform unit (105) may perform the transform on the leftmost or rightmost block among the vertically divided current blocks, and may perform the transform on the topmost or bottommost block among the horizontally divided current blocks.

다른 실시예에 따르면, 변환부(105)는 DCT 또는 DST를 통해 주파수 영역으로 변환된 잔차 신호에, 2차 변환 (secondary transform)을 적용하는 기술인 LFNST(Low Frequency Non-Separable Transform)를 적용할 수도 있다. LFNST는 좌측 상단의 4x4 또는 8x8의 저주파수 영역에 대해서 변환을 추가적으로 수행하여 잔차 계수를 좌측 상단으로 집중시킬 수 있게 된다.According to another embodiment, the transform unit (105) may apply LFNST (Low Frequency Non-Separable Transform), which is a technology that applies a secondary transform to a residual signal that has been transformed into a frequency domain through DCT or DST. LFNST additionally performs a transform on a 4x4 or 8x8 low-frequency region in the upper left, thereby concentrating the residual coefficients in the upper left.

양자화부(106)는 변환부(105)에서 주파수 영역으로 변환된 변환 계수 또는 잔여 신호를 양자화 매개변수 (QP, Quantization parameter)에 따라 양자화할 수 있다. 블록에 따라 또는 영상의 중요도에 따라 양자화 매개변수는 변할 수 있다. 양자화부(106)에서 산출된 값은 역양자화부(108)와 엔트로피 부호화부(107)에 제공될 수 있다. The quantization unit (106) can quantize the transform coefficients or residual signals converted to the frequency domain by the transform unit (105) according to a quantization parameter (QP). The quantization parameter can vary depending on the block or the importance of the image. The value produced by the quantization unit (106) can be provided to the dequantization unit (108) and the entropy encoding unit (107).

상기 변환부(105) 및/또는 양자화부(106)는, 영상 부호화 장치(100)에 선택적으로 포함될 수 있다. 즉, 영상 부호화 장치(100)는, 잔차 블록의 잔차 데이터에 대해 변환 또는 양자화 중 적어도 하나를 수행하거나, 변환 및 양자화를 모두 스킵하여 잔차 블록을 부호화할 수 있다. 영상 부호화 장치(100)에서 변환 또는 양자화 중 어느 하나가 수행되지 않거나, 변환 및 양자화 모두 수행되지 않더라도, 엔트로피 부호화부(107)의 입력으로 들어가는 블록을 통상적으로 변환 블록이라 일컫는다. The above transformation unit (105) and/or quantization unit (106) may be optionally included in the image encoding device (100). That is, the image encoding device (100) may encode the residual block by performing at least one of transformation or quantization on the residual data of the residual block, or by skipping both transformation and quantization. Even if neither transformation nor quantization is performed in the image encoding device (100), or neither transformation nor quantization is performed, a block that is input to the entropy encoding unit (107) is typically referred to as a transformation block.

엔트로피 부호화부(107)는 양자화부(106)에 의해 출력된 값들 또는 부호화 과정에서 출력된 코딩 파라미터(Coding Parameter) 값, 영상의 복호화를 위한 정보 등에 대하여 확률 분포에 따른 엔트로피 부호화를 수행함으로써 비트스트림(bitstream)을 생성하고 출력할 수 있다. 여기서, 영상의 복호화를 위한 정보는 구문 요소(syntax element) 등을 포함할 수 있다. The entropy encoding unit (107) can generate and output a bitstream by performing entropy encoding according to a probability distribution on values output by the quantization unit (106), coding parameter values output during the encoding process, information for decoding an image, etc. Here, the information for decoding an image may include syntax elements, etc.

부호화 파라미터(Coding Parameter)는 구문 요소 (syntax element)와 같이 부호화 장치(100)에서 부호화되어 복호화 장치(200)로 시그널링되는 정보(플래그, 색인 등)뿐만 아니라, 부호화 과정 혹은 복호화 과정에서 유도되는 정보를 포함할 수 있으며, 영상을 부호화하거나 복호화할 때 필요한 정보를 의미할 수 있다. Coding parameters may include not only information (flags, indexes, etc.) encoded in an encoding device (100) and signaled to a decoding device (200), such as syntax elements, but also information derived during an encoding process or a decoding process, and may mean information necessary when encoding or decoding an image.

엔트로피 부호화부(107)는 변환 블록의 계수 정보, 블록 타입 정보, 예측 모드 정보, 분할 단위 정보, 예측 단위 정보, 전송 단위 정보, 모션 벡터 정보, 참조 프레임 정보, 블록의 보간 정보, 필터링 정보 등 다양한 정보를 부호화할 수 있다. 변환 블록의 계수들은, 변환 블록 내 서브 블록 단위로, 부호화될 수 있다. The entropy encoding unit (107) can encode various information such as coefficient information of a transform block, block type information, prediction mode information, division unit information, prediction unit information, transmission unit information, motion vector information, reference frame information, block interpolation information, and filtering information. The coefficients of a transform block can be encoded in units of sub-blocks within the transform block.

변환 블록의 계수의 부호화를 위하여, 역스캔 순서로 최초의 0이 아닌 계수의 위치를 알리는 신택스 요소(syntax element)인 Last_sig, 서브블록 내에 0이 아닌 계수가 적어도 하나 이상 있는지를 알리는 플래그인 Coded_sub_blk_flag, 0이 아닌 계수인지를 알리는 플래그인 Sig_coeff_flag, 계수의 절대값이 1 보다 큰지를 알리는 플래그인 Abs_greater1_flag, 계수의 절대값이 2 보다 큰지를 알리는 플래그인 Abs_greater2_flag, 계수의 부호를 나타내는 플래그인 Sign_flag 등의 다양한 신택스 요소들이 부호화될 수 있다. 상기 신택스 요소들만으로 부호화되지 않는 계수의 잔여값은 신택스 요소 remaining_coeff를 통해 부호화될 수 있다. For encoding the coefficients of a transform block, various syntax elements can be encoded, such as Last_sig, a syntax element indicating the position of the first non-zero coefficient in reverse scan order, Coded_sub_blk_flag, a flag indicating whether there is at least one non-zero coefficient in the subblock, Sig_coeff_flag, a flag indicating whether the coefficient is non-zero, Abs_greater1_flag, a flag indicating whether the absolute value of the coefficient is greater than 1, Abs_greater2_flag, a flag indicating whether the absolute value of the coefficient is greater than 2, and Sign_flag, a flag indicating the sign of the coefficient. The residual value of the coefficient that is not encoded by the above syntax elements alone can be encoded through the syntax element remaining_coeff.

엔트로피 부호화가 적용되는 경우, 높은 발생 확률을 갖는 심볼(symbol)에 적은 수의 비트가 할당되고 낮은 발생 확률을 갖는 심볼에 많은 수의 비트가 할당되어 심볼이 표현됨으로써, 부호화 대상 심볼들에 대한 비트열의 크기가 감소될 수 있다. 입력 데이터를 엔트로피 부호화한다. 예를 들어, 엔트로피 부호화는 지수 골롬(Exponential Golomb), CABAC(Context-Adaptive Binary Arithmetic Coding)과 같은 다양한 부호화 방법을 사용할 수 있다.When entropy coding is applied, a small number of bits are allocated to symbols with a high occurrence probability, and a large number of bits are allocated to symbols with a low occurrence probability, thereby representing the symbols, thereby reducing the size of the bit string for the symbols to be encoded. The input data is entropy encoded. For example, entropy coding can use various coding methods such as Exponential Golomb and CABAC (Context-Adaptive Binary Arithmetic Coding).

역양자화부(108) 및 역변환부(109)는 양자화부(106)에서 양자화된 값들을 역양자화하고 변환부(105)에서 변환된 값들을 역변환할 수 있다. 역양자화부(108) 및 역변환부(109)에서 생성된 잔차값(Residual)은 예측부(102, 103)에 포함된 움직임 추정부, 움직임 보상부 및 인트라 예측부(102)를 통해서 예측된 예측 단위와 합쳐져 복원 블록(Reconstructed Block)을 생성할 수 있다. 가산부(110)는, 예측부(102, 103)에서 생성된 예측 블록과, 역 변환부(109)를 통해 생성된 잔차 블록을 가산하여 복원 블록을 생성한다.The inverse quantization unit (108) and the inverse transformation unit (109) can inverse quantize the values quantized in the quantization unit (106) and inversely transform the values transformed in the transformation unit (105). The residual values generated in the inverse quantization unit (108) and the inverse transformation unit (109) can be combined with the prediction units predicted through the motion estimation unit, motion compensation unit, and intra prediction unit (102) included in the prediction unit (102, 103) to generate a reconstructed block. The addition unit (110) adds the prediction blocks generated in the prediction units (102, 103) and the residual blocks generated through the inverse transformation unit (109) to generate a reconstructed block.

필터부(111)는 디블록킹 필터(deblocking filter), 샘플 적응적 오프셋(Sample Adaptive Offset; SAO), 적응적 루프 필터(Adaptive Loop Filter; ALF), LMCS (Luma Mapping with Chroma Scaling) 등을 복원 샘플, 복원 블록 또는 복원 영상에, 전부 또는 일부 필터링 기술로 적용할 수 있다. The filter unit (111) can apply a deblocking filter, a sample adaptive offset (SAO), an adaptive loop filter (ALF), LMCS (Luma Mapping with Chroma Scaling), etc. as a filtering technique to a restored sample, restored block, or restored image, in whole or in part.

디블록킹 필터는 복원된 픽쳐에서 블록간의 경계로 인해 생긴 블록 왜곡을 제거할 수 있다. 디블록킹을 수행할지 여부를 판단하기 위해 블록에 포함된 몇 개의 열 또는 행에 포함된 픽셀을 기초로 현재 블록에 디블록킹 필터 적용할지 여부를 판단할 수 있다. 블록에 디블록킹 필터를 적용하는 경우 필요한 디블록킹 필터링 강도에 따라 강한 필터(Strong Filter) 또는 약한 필터(Weak Filter)를 적용할 수 있다. 또한 디블록킹 필터를 적용함에 있어 수직 필터링 및 수평 필터링 수행시 수평 방향 필터링 및 수직 방향 필터링이 병행 처리되도록 할 수 있다.A deblocking filter can remove block distortion caused by boundaries between blocks in a reconstructed picture. To determine whether to perform deblocking, a deblocking filter can be applied to the current block based on the pixels contained in several columns or rows within the block. When applying a deblocking filter to a block, a strong filter or a weak filter can be applied depending on the required deblocking filtering strength. Furthermore, when applying a deblocking filter, horizontal and vertical filtering can be processed in parallel when performing vertical and horizontal filtering.

샘플 적응적 오프셋은 디블록킹을 수행한 영상에 대해 샘플 단위로 원본 영상과의 오프셋을 보정하는 방법일 수 있다. 필터부(111)는 영상에 포함된 샘플을 일정한 수의 영역으로 구분한 후 오프셋을 수행할 영역을 결정하고 해당 영역에 오프셋을 적용하는 방법 또는 각 샘플의 에지 정보를 고려하여 오프셋을 적용하는 방법을 사용할 수 있다. Sample adaptive offset may be a method of correcting the offset from the original image on a sample-by-sample basis for an image on which deblocking has been performed. The filter unit (111) may use a method of dividing the samples included in the image into a certain number of regions, determining the regions to perform the offset, and applying the offset to the regions, or a method of applying the offset by considering the edge information of each sample.

ALF(Adaptive Loop Filtering)는 필터링한 복원 영상과 원래의 영상을 비교한 값을 기초로 수행될 수 있다. 영상에 포함된 픽셀을 소정의 그룹으로 나눈 후 해당 그룹에 적용될 하나의 필터를 결정하여 그룹마다 차별적으로 필터링을 수행할 수 있다. ALF를 적용할지 여부에 관련된 정보는 휘도 신호는 부호화 단위(Coding Unit, CU) 별로 전송될 수 있고, 각각의 블록에 따라 적용될 ALF 필터의 모양 및 필터 계수는 달라질 수 있다. 또한, 적용 대상 블록의 특성에 상관없이 동일한 형태(고정된 형태)의 ALF 필터가 적용될 수 있다. Adaptive Loop Filtering (ALF) can be performed based on the comparison of the filtered restored image with the original image. After dividing the pixels contained in the image into predetermined groups, a filter to be applied to each group can be determined, and filtering can be performed differentially for each group. Information regarding whether to apply ALF can be transmitted by luminance signal for each coding unit (CU), and the shape and filter coefficients of the ALF filter to be applied can vary depending on each block. Furthermore, the same type (fixed type) of ALF filter can be applied regardless of the characteristics of the target block.

적응적 루프 필터는 복원 영상 및 원래의 영상을 비교한 값에 기반하여 필터링을 수행할 수 있다. 영상에 포함된 샘플을 소정의 그룹으로 나눈 후 해당 그룹에 적용될 필터를 결정하여 그룹마다 차별적으로 필터링을 수행할 수 있다. 적응적 루프 필터를 적용할지 여부에 관련된 정보는 코딩 블록 별로 시그널링될 수 있고, 각각의 블록에 따라 적용될 적응적 루프 필터의 모양 및 필터 계수는 달라질 수 있다.An adaptive loop filter can perform filtering based on a comparison of the reconstructed image and the original image. By dividing the samples contained in the image into predetermined groups and determining the filter to be applied to each group, filtering can be performed differentially for each group. Information regarding whether to apply an adaptive loop filter can be signaled for each coding block, and the shape and filter coefficients of the adaptive loop filter applied to each block can vary.

메모리(112)는 필터부(111)를 통해 산출된 복원 블록 또는 픽쳐를 저장할 수 있다. 메모리(112)는 참조 픽처 버퍼를 포함할 수 있다. 또한, 메모리(112)는 저장된 복원 블록 또는 픽쳐는 인터 예측을 수행할 때 예측부(102, 103)에 제공될 수 있다.The memory (112) can store a restored block or picture produced through the filter unit (111). The memory (112) can include a reference picture buffer. In addition, the restored block or picture stored in the memory (112) can be provided to the prediction unit (102, 103) when performing inter prediction.

다음으로, 본 개시의 일 실시예에 따른 영상 복호화 장치를 도면을 참조하여 설명한다. Next, an image decoding device according to one embodiment of the present disclosure will be described with reference to the drawings.

도 2는 본 개시의 일 실시예에 따른 영상 복호화 장치(200)를 나타낸 블록도이다. FIG. 2 is a block diagram illustrating an image decoding device (200) according to one embodiment of the present disclosure.

도 2를 참조하면, 영상 복호화 장치(200)는 엔트로피 복호화부(201), 역양자화부(202), 역변환부(203), 예측부(204, 205), 가산부(206), 필터부(207), 및 메모리(208)를 포함할 수 있다. Referring to FIG. 2, the image decoding device (200) may include an entropy decoding unit (201), an inverse quantization unit (202), an inverse transformation unit (203), a prediction unit (204, 205), an addition unit (206), a filter unit (207), and a memory (208).

영상 복호화 장치(200)는 영상 부호화 장치(100)에 의해 출력된 비트스트림을 수신할 수 있다. 영상 복호화 장치(200)는 컴퓨터 판독가능한 기록 매체에 저장된 비트스트림을 수신하거나, 유/무선 전송 매체를 통해 스트리밍되는 비트스트림을 수신할 수 있다. 영상 복호화 장치(200)는 비트스트림을 복호화하여, 복원된 영상 또는 복호화된 영상을 생성할 수 있고, 복원된 영상 또는 복호화된 영상을 출력할 수 있다. The image decoding device (200) can receive a bitstream output by the image encoding device (100). The image decoding device (200) can receive a bitstream stored in a computer-readable recording medium, or can receive a bitstream streamed through a wired/wireless transmission medium. The image decoding device (200) can decode the bitstream to generate a restored image or a decoded image, and can output the restored image or the decoded image.

엔트로피 복호화부(201)는 비트스트림에 대한 확률 분포에 따른 엔트로피 복호화를 수행함으로써 심볼들을 생성할 수 있다. 생성된 심볼들은 양자화된 레벨 형태의 심볼을 포함할 수 있다. 여기에서, 엔트로피 복호화 방법은 상술된 엔트로피 부호화 방법의 역과정일 수 있다.The entropy decoding unit (201) can generate symbols by performing entropy decoding according to a probability distribution for the bitstream. The generated symbols may include symbols in the form of quantized levels. Here, the entropy decoding method may be the reverse process of the entropy encoding method described above.

엔트로피 복호화부(201)는 변환 계수 레벨(양자화된 레벨)을 복호화하기 위해 변환 계수 스캐닝 방법을 통해 1차원의 벡터 형태 계수를 2차원의 블록 형태로 변경할 수 있다. The entropy decoding unit (201) can change a one-dimensional vector-shaped coefficient into a two-dimensional block-shaped coefficient through a transform coefficient scanning method to decode a transform coefficient level (quantized level).

엔트로피 복호화부(201)는 영상 부호화 장치(100)의 엔트로피 부호화부(107)에서 엔트로피 부호화를 수행한 것과 반대의 절차로 엔트로피 복호화를 수행할 수 있다. 예를 들어, 영상 부호화기에서 수행된 방법에 대응하여 지수 골롬(Exponential Golomb), CABAC(Context-Adaptive Binary Arithmetic Coding)과 같은 다양한 방법이 적용될 수 있다. The entropy decoding unit (201) can perform entropy decoding in a procedure opposite to that of the entropy encoding unit (107) of the video encoding device (100). For example, various methods such as Exponential Golomb and CABAC (Context-Adaptive Binary Arithmetic Coding) can be applied in response to the method performed in the video encoder.

신택스 요소가 컨텍스트 모델을 기반으로 복호화되는 경우, 엔트로피 복호화부(201)는 비트스트림으로부터 신택스 요소에 해당하는 빈을 획득하고, 신택스 요소와 복호화 대상 블록 또는 주변 블록의 디코딩 정보 혹은 이전 단계에서 디코딩된 심볼/빈의 정보를 이용하여 컨텍스트 모델(context model)을 결정할 수 있다. 그리고, 엔트로피 복호화부(201)는 결정된 컨텍스트 모델에 따라 수신된 빈(bin)의 발생 확률을 예측하여 빈의 산술 디코딩(arithmetic decoding)를 수행하여 신택스 요소의 값을 도출할 수 있다. 이후, 결정된 컨텍스트 모델을 기초로, 이후 복호화되는 빈의 컨텍스트 모델이 업데이트될 수 있다.When a syntax element is decoded based on a context model, the entropy decoding unit (201) can obtain a bin corresponding to the syntax element from the bitstream and determine a context model using the syntax element and the decoding information of the block to be decoded or the surrounding blocks or the information of the symbol/bin decoded in the previous step. Then, the entropy decoding unit (201) can predict the occurrence probability of the received bin according to the determined context model and perform arithmetic decoding of the bin to derive the value of the syntax element. Thereafter, the context model of the bin to be decoded thereafter can be updated based on the determined context model.

또한, 예를 들어, 신택스 요소가 바이패스 디코딩되는 경우, 엔트로피 복호화부(201)는 비트스트림을 통하여 신택스 요소에 해당하는 빈을 획득하고, 균일한 확률 분포를 적용해 입력되는 빈을 복호화할 수 있다. Additionally, for example, when a syntax element is bypass decoded, the entropy decoding unit (201) can obtain a bin corresponding to the syntax element through a bitstream and decode the input bin by applying a uniform probability distribution.

컨텍스트 모델은 컨텍스트 코딩(정규 코딩)되는 빈 별로 할당 및 업데이트될 수 있다. 컨텍스트 모델은 컨텍스트 인덱스(ctxIdx: context index) 또는 컨텍스트 인덱스 증감(ctxInc: context index increment)을 기반으로 특정될 수 있다. 컨텍스트 인덱스는 컨텍스트 인덱스 증감을 기반으로 도출될 수 있다. 예를 들어, 정규 코딩되는 빈들 각각에 대한 컨텍스트 모델을 지시하는 정보들은 컨텍스트 인덱스 오프셋(ctxIdxOffset: context index offset)의 합에 기초하여 도출될 수 있다. 예를 들어, 컨텍스트 인덱스 증감 정보는 각 빈별로 다르게 도출될 수 있다. 그리고, 컨텍스트 인덱스 오프셋은 컨텍스트 인덱스의 최소값(the lowest value)로 유도될 수 있다. 컨텍스트 인덱스 오프셋은 일반적으로 다른 신택스 요소에 대한 컨텍스트 모델들과의 구분을 위하여 이용되는 값일 수 있으며, 하나의 신택스 요소에 대한 컨텍스트 모델은 컨텍스트 인덱스 증감 정보를 기반으로 구분 또는 도출될 수 있다. A context model can be assigned and updated for each context-coded (regularly coded) bean. The context model can be specified based on a context index (ctxIdx: context index) or a context index increment (ctxInc: context index increment). The context index can be derived based on the context index increment. For example, information indicating a context model for each of the regularly coded bins can be derived based on the sum of context index offsets (ctxIdxOffset: context index offset). For example, the context index increment information can be derived differently for each bin. And, the context index offset can be derived as the lowest value of the context index. The context index offset can be a value generally used to distinguish from context models for other syntax elements, and the context model for a syntax element can be distinguished or derived based on the context index increment information.

엔트로피 복호화부(201)는, 전술한 바와 같은 변환 블록의 계수 정보, 블록 타입 정보, 예측 모드 정보, 분할 단위 정보, 예측 단위 정보, 전송 단위 정보, 모션 벡터 정보, 참조 프레임 정보, 블록의 보간 정보, 필터링 정보 등 다양한 정보를 복호화하여 획득할 수 있다. The entropy decoding unit (201) can decode and obtain various information such as coefficient information of the transform block as described above, block type information, prediction mode information, division unit information, prediction unit information, transmission unit information, motion vector information, reference frame information, block interpolation information, and filtering information.

엔트로피 복호화부(201)는 코딩 트리 블록에 관련된 정보를 복호화할 수 있다. 엔트로피 복호화부(201)는 분할 허용 여부를 지시하는 정보들을 유도할 수 있다. 여기서, 분할 허용 여부를 지시하는 정보들은 쿼드트리 분할의 허용 여부를 지시하는 정보인 allowSplitQt, 수직 이분할의 허용 여부를 지시하는 정보인 allowSplitBtVer, 수평 이분할의 허용 여부를 지시하는 정보인 allowSplitBtHor, 수직 삼분할의 허용 여부를 지시하는 정보인 allowSplitTtVer, 수평 삼분할의 허용 여부를 지시하는 정보인 allowSplitTtHor를 포함할 수 있다. 분할 허용 여부를 지시하는 정보들은 현재 코딩 트리 블록의 너비, 높이, 위치, 트리 타입 정보(treeType), 분할 모드 정보, 모드 타입 정보(modeType)를 기초로 결정될 수 있다. The entropy decoding unit (201) can decode information related to a coding tree block. The entropy decoding unit (201) can derive information indicating whether splitting is allowed. Here, the information indicating whether splitting is allowed may include allowSplitQt, which is information indicating whether quadtree splitting is allowed, allowSplitBtVer, which is information indicating whether vertical bisector splitting is allowed, allowSplitBtHor, which is information indicating whether horizontal bisector splitting is allowed, allowSplitTtVer, which is information indicating whether vertical trisector splitting is allowed, and allowSplitTtHor, which is information indicating whether horizontal trisector splitting is allowed. The information indicating whether splitting is allowed may be determined based on the width, height, position, tree type information (treeType), split mode information, and mode type information (modeType) of the current coding tree block.

엔트로피 복호화부(201)는 분할 허용 여부를 지시하는 정보들을 기초로 코딩 블록의 분할 관련 신택스 요소들을 복호화될 수 있다. The entropy decoding unit (201) can decode syntax elements related to division of a coding block based on information indicating whether division is allowed.

예를 들어, 코딩 블록의 분할 관련 신택스 요소들은 코딩 블록의 분할 여부를 지시하는 split_cu_flag, 코딩 블록의 쿼드트리 분할 여부를 지시하는 split_qt_flag, 멀티 타입 트리 분할되는 코딩 블록의 수직 방향 분할 여부를 지시하는 mtt_split_cu_vertical_flag 및 멀티 타입 트리 분할되는 코딩 블록의 이분할 여부를 지시하는 mtt_split_cu_binary_flag 등을 포함할 수 있다. For example, syntax elements related to splitting a coding block may include split_cu_flag indicating whether to split a coding block, split_qt_flag indicating whether to split a coding block into a quadtree, mtt_split_cu_vertical_flag indicating whether to split a coding block into a multi-type tree in the vertical direction, and mtt_split_cu_binary_flag indicating whether to split a coding block into two into a multi-type tree.

여기서, 코딩 트리 블록은 사분할 구조 및/또는 이분할 구조 및 삼분할 분할 구조 중 하나를 사용하는 분할 구조인 멀티 타입 트리 구조에 따라 분할될 수 있다. Here, the coding tree block can be partitioned according to a multi-type tree structure, which is a partitioning structure using one of a quadripartite structure and/or a bipartite structure and a ternary partitioning structure.

먼저, 코딩 트리 블록은 split_cu_flag의 값을 기초로 사분할될 수 있다. 사분할된 코딩 블록은 split_qt_flag의 값에 따라 사분할될 수 있다. 쿼드트리 분할되지 않는 코딩 블록을 쿼드트리 리프 노드라고 지칭할 수 있다. First, a coding tree block can be split into four blocks based on the value of split_cu_flag. The quad-split coding block can then be further split into four blocks based on the value of split_qt_flag. A coding block that is not split into a quad-tree can be referred to as a quad-tree leaf node.

쿼드트리 리프 노드인 코딩 블록은 멀티 타입 트리 구조에 따라 분할될 수 있다. 즉, 쿼드트리 리프 노드인 코딩 블록의 분할 타입은 멀티 타입 트리 수직 방향 분할 여부를 지시하는 mtt_split_cu_vertical_flag 및 멀티 타입 트리 이분할 여부를 지시하는 mtt_split_cu_binary_flag의 값에 따라 이분할 구조 및 삼분할 구조로 결정될 수 있다. A coding block, which is a quadtree leaf node, can be split according to a multi-type tree structure. That is, the split type of a coding block, which is a quadtree leaf node, can be determined as a bipartition structure or a tripartition structure depending on the values of mtt_split_cu_vertical_flag, which indicates whether a multi-type tree is vertically split, and mtt_split_cu_binary_flag, which indicates whether a multi-type tree is bipartite.

이분할 구조는 수직 이분할(vertical binary splitting, SPLIT_BT_VER)과 수평 이분할(hotizontal binary splitting, SPLIT_BT_HOR)을 포함할 수 있다. 수직 이분할(SPLIT_BT_VER)은 현재 코딩 블록을 수직 방향으로 2등분으로 분할하는 구조일 수 있다. 반면, 수평 이분할(SPLIT_BT_HOR)은 현재 코딩 블록을 수평 방향으로 2등분으로 분할하는 구조일 수 있다. The binary splitting structure can include vertical binary splitting (SPLIT_BT_VER) and horizontal binary splitting (SPLIT_BT_HOR). Vertical binary splitting (SPLIT_BT_VER) can be a structure that divides the current coding block into two equal parts vertically. On the other hand, horizontal binary splitting (SPLIT_BT_HOR) can be a structure that divides the current coding block into two equal parts horizontally.

삼분할 구조는 수직 삼분할(vertical ternary splitting, SPLIT_TT_VER)과 수평 삼분할(hotizontal ternary splitting, SPLIT_TT_HOR)을 포함할 수 있다. 수직 삼분할(SPLIT_TT_VER)은 현재 코딩 블록을 수직 방향으로 1:2:1의 비율로 분할하는 구조일 수 있다. 반면, 수평 삼분할(SPLIT_TT_HOR)은 현재 코딩 블록을 수평 방향으로 1:2:1의 비율로 분할하는 구조일 수 있다. The ternary splitting structure can include vertical ternary splitting (SPLIT_TT_VER) and horizontal ternary splitting (SPLIT_TT_HOR). Vertical ternary splitting (SPLIT_TT_VER) can be a structure that vertically splits the current coding block in a ratio of 1:2:1. On the other hand, horizontal ternary splitting (SPLIT_TT_HOR) can be a structure that horizontally splits the current coding block in a ratio of 1:2:1.

멀티 타입 트리 분할 구조는 코딩 블록의 수직 방향 분할 여부를 지시하는 mtt_split_cu_vertical_flag 및 멀티 타입 트리 분할되는 코딩 블록의 이분할 여부를 지시하는 mtt_split_cu_binary_flag의 값의 조합에 따라 아래 표 1과 같이 결정될 수 있다. The multi-type tree split structure can be determined as shown in Table 1 below based on a combination of the values of mtt_split_cu_vertical_flag, which indicates whether to split the coding block vertically, and mtt_split_cu_binary_flag, which indicates whether to split the coding block into which the multi-type tree is split into two.

역 양자화부(202)는 양자화된 변환 블록에 역 양자화를 수행하여 변환 블록을 생성한다. 도 1의 역 양자화부(108)와 실질적으로 동일하게 동작한다.The inverse quantization unit (202) performs inverse quantization on a quantized transform block to generate a transform block. It operates substantially the same as the inverse quantization unit (108) of Fig. 1.

역 변환부(203)는 변환 블록에 역 변환을 수행하여 잔차 블록을 생성한다. 이때, 변환 방법은 예측 방법(인터 또는 인트라 예측), 블록의 크기 및/또는 형태, 인트라 예측 모드 등에 관한 정보를 기반으로 결정될 수 있다. 도 1의 역 변환부(109)와 실질적으로 동일하게 동작한다. The inverse transform unit (203) performs an inverse transform on the transform block to generate a residual block. At this time, the transform method can be determined based on information regarding the prediction method (inter or intra prediction), the size and/or shape of the block, the intra prediction mode, etc. It operates substantially the same as the inverse transform unit (109) of FIG. 1.

일 실시예에 따르면, 역 변환부(203)는 인트라 예측 결과 생성된 4x4 휘도 성분의 변환 계수 레벨에 DST(Discrete Sine Transform)에 따른 변환 타입 및 변환 커널을 사용하여 역변환을 수행하고, 나머지 변환 계수 레벨에 대해서는 DCT(Discrete Cosine Transform)에 따른 변환 타입 및 변환 커널을 사용하여 역변환을 수행할 수 있다. According to one embodiment, the inverse transform unit (203) may perform inverse transform using a transform type and transform kernel according to DST (Discrete Sine Transform) on the transform coefficient levels of the 4x4 luminance component generated as an intra prediction result, and may perform inverse transform using a transform type and transform kernel according to DCT (Discrete Cosine Transform) on the remaining transform coefficient levels.

다른 실시예에 따르면, 역 변환부(203)는 여러 변환 커널을 선택적으로 사용하여 변환을 수행하는 MTS(Multiple Transform Selection) 기술을 적용할 수도 있다. According to another embodiment, the inverse transform unit (203) may apply MTS (Multiple Transform Selection) technology to perform transformation by selectively using multiple transformation kernels.

다른 실시예에 따르면, 역 변환부(203)는 DCT 또는 DST 기반 변환 타입 및 변환 커널을 통해 역 변환된 변환 계수 레벨에, 2차 역 변환 (secondary inverse transform)을 적용하는 기술인 LFNST(Low Frequency Non-Separable Transform)를 적용할 수도 있다. According to another embodiment, the inverse transform unit (203) may apply LFNST (Low Frequency Non-Separable Transform), which is a technology that applies a secondary inverse transform to a transform coefficient level inversely transformed through a DCT or DST-based transform type and transform kernel.

예측부(204, 205)는 엔트로피 복호화부(201)에서 제공된 예측 블록 생성 관련 정보와 메모리(208)에서 제공된 이전에 복호화된 블록 또는 픽쳐 정보를 기초로 예측 블록을 생성할 수 있다. The prediction unit (204, 205) can generate a prediction block based on the prediction block generation related information provided by the entropy decoding unit (201) and the previously decoded block or picture information provided by the memory (208).

예측부(204, 205)는 인트라 예측부(204) 및 인터 예측부(205)를 포함할 수 있다. 예측부(204, 205)는 엔트로피 복호화부(201)에서 입력되는 예측 단위 정보, 인트라 예측 방법의 예측 모드 정보, 인터 예측 방법의 모션 예측 관련 정보 등 다양한 정보를 입력 받고 현재 부호화 단위로부터 예측 단위를 구분하고, 예측 단위의 예측 모드를 결정할 수 있다. The prediction unit (204, 205) may include an intra prediction unit (204) and an inter prediction unit (205). The prediction unit (204, 205) may receive various information such as prediction unit information input from the entropy decoding unit (201), prediction mode information of the intra prediction method, and motion prediction-related information of the inter prediction method, and may distinguish a prediction unit from a current encoding unit and determine a prediction mode of the prediction unit.

인트라 예측부(204)는 현재 블록의 인트라 예측 모드 및 현재 픽쳐 내의 화소 정보인 현재 블록 주변의 참조 픽셀 정보를 기초로 현재 블록의 예측 블록을 생성할 수 있다. The intra prediction unit (204) can generate a prediction block of the current block based on the intra prediction mode of the current block and reference pixel information around the current block, which is pixel information within the current picture.

인트라 예측부(204)는 현재 픽쳐 내의 화소 정보인 현재 블록 주변의 참조 픽셀 정보를 기초로 예측 블록을 생성할 수 있다. 인트라 예측부(204)는 인트라 예측을 위해, 복수의 참조 픽셀 라인을 이용할 수 있다. 복수의 참조 픽셀 라인이 이용 가능한 경우, 인트라 예측부(204)는 복수의 참조 픽셀 라인들 중에서, 인트라 예측에 사용되는 참조 픽셀 라인을 지시하는 정보를 획득할 수 있다. The intra prediction unit (204) can generate a prediction block based on reference pixel information surrounding the current block, which is pixel information within the current picture. The intra prediction unit (204) can use multiple reference pixel lines for intra prediction. When multiple reference pixel lines are available, the intra prediction unit (204) can obtain information indicating a reference pixel line used for intra prediction from among the multiple reference pixel lines.

인트라 예측에 사용되는 인트라 예측 모드는 방향성 예측 모드 또는 비방향성 모드일 수 있다. 또한, 휘도 정보를 예측하기 위한 모드와 색차 정보를 예측하기 위한 모드가 상이할 수 있고, 색차 정보를 예측하기 위해 휘도 성분 블록의 인트라 예측 모드 정보 또는 예측된 휘도 신호 정보를 활용할 수 있다.The intra prediction mode used for intra prediction may be a directional prediction mode or a non-directional mode. Furthermore, the mode for predicting luminance information may be different from the mode for predicting chrominance information, and the intra prediction mode information of the luminance component block or the predicted luminance signal information may be utilized to predict chrominance information.

인트라 예측부(204)는 도 1의 인트라 예측부(102)와 실질적으로 동일하게 동작한다.The intra prediction unit (204) operates substantially the same as the intra prediction unit (102) of FIG. 1.

인터 예측부(205)는 영상 부호화 장치(100)에서 제공된 현재 예측 단위의 인터 예측에 필요한 정보를 이용해 현재 예측 단위가 포함된 현재 픽쳐의 이전 픽쳐 또는 이후 픽쳐 중 적어도 하나의 픽쳐에 포함된 정보를 기초로 현재 예측 단위에 대한 인터 예측을 수행할 수 있다. 또는, 현재 예측 단위가 포함된 현재 픽쳐 내에서 기-복원된 일부 영역의 정보를 기초로 인터 예측을 수행할 수도 있다. The inter prediction unit (205) may perform inter prediction on the current prediction unit based on information included in at least one picture among the previous picture or the subsequent picture of the current picture including the current prediction unit, using information necessary for inter prediction of the current prediction unit provided by the image encoding device (100). Alternatively, inter prediction may be performed based on information of some pre-restored area within the current picture including the current prediction unit.

인터 예측부(205)는 움직임 예측 및/또는 움직임 보상을 수행하기 위해, 코딩 블록의 인터 모드를 스킵 모드(Skip Mode), 머지 모드(Merge Mode), 향상된 움직임 벡터 예측(Advanced Motion Vector Prediction; AMVP) 모드 중 하나의 방법으로 설정할 수 있다. 그리고, 인터 예측부(205)는 설정된 모드에 따라 예측 블록에 대한 움직임 보상을 수행할 수 있다. The inter prediction unit (205) can set the inter mode of a coding block to one of the Skip Mode, Merge Mode, and Advanced Motion Vector Prediction (AMVP) mode in order to perform motion prediction and/or motion compensation. In addition, the inter prediction unit (205) can perform motion compensation on a prediction block according to the set mode.

또한, 인터 예측부(205)는 인터 예측 모드를 기초로, sub-PU 기반 예측의 AFFINE 모드, SbTMVP (Subblock-based Temporal Motion Vector Prediction) 모드, 및 PU 기반 예측의 MMVD(Merge with MVD) 모드, GPM(Geometric Partitioning Mode) 모드를 적용하여 예측 블록에 대한 움직임 보상을 수행할 수 있다. 또한, 인터 예측부(205)는 각 모드의 성능 향상을 위하여 HMVP(History based MVP), PAMVP(Pairwise Average MVP), CIIP(Combined Intra/Inter Prediction), AMVR(Adaptive Motion Vector Resolution), BDOF(Bi-Directional Optical-Flow), BCW(Bi-predictive with CU Weights) 등을 적용하여 예측 블록에 대한 움직임 보상을 수행할 수 있다. In addition, the inter prediction unit (205) can perform motion compensation for a prediction block by applying the AFFINE mode of sub-PU based prediction, the SbTMVP (Subblock-based Temporal Motion Vector Prediction) mode, and the MMVD (Merge with MVD) mode and the GPM (Geometric Partitioning Mode) mode of PU based prediction based on the inter prediction mode. In addition, the inter prediction unit (205) can perform motion compensation for a prediction block by applying the HMVP (History based MVP), the PAMVP (Pairwise Average MVP), the CIIP (Combined Intra/Inter Prediction), the AMVR (Adaptive Motion Vector Resolution), the BDOF (Bi-Directional Optical-Flow), the BCW (Bi-predictive with CU Weights), etc. to improve the performance of each mode.

움직임 정보는 예컨대 움직임 벡터, 참조 픽처 인덱스, 리스트 1 예측 플래그, 리스트 0 예측 플래그, 하프 샘플 보간 필터 인덱스, 양방향 예측 가중치 인덱스 등을 포함할 수 있다. The motion information may include, for example, a motion vector, a reference picture index, a list 1 prediction flag, a list 0 prediction flag, a half-sample interpolation filter index, a bidirectional prediction weight index, etc.

인터 예측부(205)는 도 1의 인터 예측부(103)와 실질적으로 동일하게 동작할 수 있다. The inter prediction unit (205) can operate substantially the same as the inter prediction unit (103) of FIG. 1.

가산부(206)는, 인트라 예측부(204) 혹은 인터 예측부(205)에서 생성된 예측 블록과 역 변환부(203)를 통해 생성된 잔차 블록를 가산하여 복원 블록을 생성한다. 도 1의 가산부(110)와 실질적으로 동일하게 동작한다.The addition unit (206) adds the prediction block generated by the intra prediction unit (204) or inter prediction unit (205) and the residual block generated by the inverse transformation unit (203) to generate a restored block. It operates substantially the same as the addition unit (110) of Fig. 1.

필터부(207)는, 복원된 블록들에 발생하는 여러 종류의 노이즈를 감소시킬 수 있다. 필터부(207)는 디블록킹 필터, 샘플 적응적 오프셋, 적응적 루프 필터(Adaptive Loop Filter; ALF), LMCS를 포함할 수 있다. The filter unit (207) can reduce various types of noise occurring in restored blocks. The filter unit (207) can include a deblocking filter, a sample adaptive offset, an adaptive loop filter (ALF), and an LMCS.

필터부(207)는 영상 부호화 장치(100)로부터 각각의 필터의 적용 여부에 대한 정보, 필터 세기에 대한 정보 등을 제공받을 수 있다. 영상 복호화 장치(200)의 필터부(207)는 영상 부호화 장치(100)에서 제공된 필터 관련 정보를 제공받고 영상 복호화 장치(200)에서 해당 블록에 대한 필터링을 수행할 수 있다. The filter unit (207) can receive information on whether each filter is applied, information on the strength of the filter, etc. from the image encoding device (100). The filter unit (207) of the image decoding device (200) can receive filter-related information provided from the image encoding device (100) and perform filtering on the corresponding block in the image decoding device (200).

필터부(207)는 도 1의 필터부(111)와 실질적으로 동일하게 동작할 수 있다.The filter unit (207) can operate substantially the same as the filter unit (111) of FIG. 1.

메모리(208)는 가산부(206)에 의해 생성된 복원 블록을 저장할 수 있다. 예를 들어, 메모리(208)는 참조 픽처 버퍼를 포함할 수 있다. 메모리(208)는 도 1의 메모리(112)와 실질적으로 동일하게 동작할 수 있다. The memory (208) can store the restoration block generated by the addition unit (206). For example, the memory (208) can include a reference picture buffer. The memory (208) can operate substantially the same as the memory (112) of FIG. 1.

도 3은 본 개시가 적용될 수 있는 비디오 코딩 시스템을 개략적으로 나타내는 도면이다. FIG. 3 is a diagram schematically illustrating a video coding system to which the present disclosure can be applied.

일 실시예에 따른 비디오 코딩 시스템은 부호화 장치(10) 및 복호화 장치(20)를 포함할 수 있다. 부호화 장치(10)는 부호화된 비디오(video) 및/또는 영상(image) 정보 또는 데이터를 파일 또는 스트리밍 형태로 디지털 저장매체 또는 네트워크를 통하여 복호화 장치(20)로 전달할 수 있다. A video coding system according to one embodiment may include an encoding device (10) and a decoding device (20). The encoding device (10) may transmit encoded video and/or image information or data to the decoding device (20) in the form of a file or streaming through a digital storage medium or a network.

일 실시예에 따른 부호화 장치(10)는 이미지 생성부(11), 부호화부(12), 전송부(13)를 포함할 수 있다. 일 실시예에 따른 복호화 장치(20)는 수신부(21), 복호화부(22) 및 이미지 재생부(23)를 포함할 수 있다. 상기 부호화부(12)는 비디오/영상 부호화부라고 불릴 수 있고, 상기 복호화부(22)는 비디오/영상 복호화부라고 불릴 수 있다. 전송부(13)는 부호화부(12)에 포함될 수 있다. 수신부(21)는 복호화부(22)에 포함될 수 있다. 이미지 재생부(23)는 디스플레이부를 포함할 수도 있고, 디스플레이부는 별개의 디바이스 또는 외부 컴포넌트로 구성될 수도 있다.An encoding device (10) according to one embodiment may include an image generating unit (11), an encoding unit (12), and a transmission unit (13). A decoding device (20) according to one embodiment may include a receiving unit (21), a decoding unit (22), and an image reproducing unit (23). The encoding unit (12) may be referred to as a video/image encoding unit, and the decoding unit (22) may be referred to as a video/image decoding unit. The transmission unit (13) may be included in the encoding unit (12). The receiving unit (21) may be included in the decoding unit (22). The image reproducing unit (23) may include a display unit, and the display unit may be configured as a separate device or an external component.

이미지 생성부(11)는 비디오/영상의 캡쳐, 합성 또는 생성 과정 등을 통하여 비디오/영상을 획득할 수 있다. 이미지 생성부(11)는 비디오/영상 캡쳐 디바이스 및/또는 비디오/영상 생성 디바이스를 포함할 수 있다. 비디오/영상 캡쳐 디바이스는 예를 들어, 하나 이상의 카메라, 이전에 캡쳐된 비디오/영상을 포함하는 비디오/영상 아카이브 등을 포함할 수 있다. 비디오/영상 생성 디바이스는 예를 들어 컴퓨터, 타블렛 및 스마트폰 등을 포함할 수 있으며 (전자적으로) 비디오/영상을 생성할 수 있다. 예를 들어, 컴퓨터 등을 통하여 가상의 비디오/영상이 생성될 수 있으며, 이 경우 관련 데이터가 생성되는 과정으로 비디오/영상 캡쳐 과정이 갈음될 수 있다.The image generation unit (11) can obtain a video/image through a process of capturing, synthesizing, or generating a video/image. The image generation unit (11) can include a video/image capture device and/or a video/image generation device. The video/image capture device can include, for example, one or more cameras, a video/image archive including previously captured video/images, etc. The video/image generation device can include, for example, a computer, a tablet, a smartphone, etc., and can (electronically) generate a video/image. For example, a virtual video/image can be generated through a computer, etc., in which case the video/image capture process can be replaced with a process of generating related data.

부호화부(12)는 입력 비디오/영상을 부호화할 수 있다. 부호화부(12)는 압축 및 부호화 효율을 위하여 예측, 변환, 양자화 등 일련의 절차를 수행할 수 있다. 부호화부(12)는 부호화된 데이터(부호화된 비디오/영상 정보)를 비트스트림(bitstream) 형태로 출력할 수 있다. 상기 부호화부(12)의 상세 구성은 전술한 도 1의 부호화 장치(100)와 동일하게 구성될 수 있다. The encoding unit (12) can encode the input video/image. The encoding unit (12) can perform a series of procedures such as prediction, transformation, and quantization for compression and encoding efficiency. The encoding unit (12) can output encoded data (encoded video/image information) in the form of a bitstream. The detailed configuration of the encoding unit (12) can be configured in the same manner as the encoding device (100) of FIG. 1 described above.

전송부(13)는 비트스트림 형태로 출력된 부호화된 비디오/영상 정보 또는 데이터를 파일 또는 스트리밍 형태로 디지털 저장매체 또는 네트워크를 통하여 복호화 장치(20)의 수신부(21)로 전달할 수 있다. 디지털 저장 매체는 USB, SD, CD, DVD, 블루레이, HDD, SSD 등 다양한 저장 매체를 포함할 수 있다. 전송부(13)는 미리 정해진 파일 포맷을 통하여 미디어 파일을 생성하기 위한 엘리먼트를 포함할 수 있고, 방송/통신 네트워크를 통한 전송을 위한 엘리먼트를 포함할 수 있다. 수신부(21)는 상기 저장매체 또는 네트워크로부터 상기 비트스트림을 추출/수신하여 복호화부(22)로 전달할 수 있다.The transmission unit (13) can transmit encoded video/image information or data output in the form of a bitstream to the reception unit (21) of the decoding device (20) via a digital storage medium or a network in the form of a file or streaming. The digital storage medium can include various storage media such as USB, SD, CD, DVD, Blu-ray, HDD, SSD, etc. The transmission unit (13) can include an element for generating a media file through a predetermined file format and can include an element for transmission via a broadcasting/communication network. The reception unit (21) can extract/receive the bitstream from the storage medium or network and transmit it to the decoding unit (22).

복호화부(22)는 부호화부(12)의 동작에 대응하는 역양자화, 역변환, 예측 등 일련의 절차를 수행하여 비디오/영상을 복호화할 수 있다. 상기 복호화부(22)의 상세 구성은 전술한 도 2의 복호화 장치(200)와 동일하게 구성될 수 있다. The decoding unit (22) can decode video/image by performing a series of procedures such as inverse quantization, inverse transformation, and prediction corresponding to the operation of the encoding unit (12). The detailed configuration of the decoding unit (22) can be configured identically to the decoding device (200) of FIG. 2 described above.

이미지 재생부(23)는 복호화된 비디오/영상을 렌더링할 수 있다. 렌더링된 비디오/영상은 디스플레이부를 통하여 디스플레이될 수 있다. The image playback unit (23) can render decrypted video/images. The rendered video/images can be displayed through the display unit.

도 4는 본 개시에 따른 실시예가 적용될 수 있는 컨텐츠 스트리밍 시스템을 예시적으로 나타내는 도면이다.FIG. 4 is a diagram exemplifying a content streaming system to which an embodiment according to the present disclosure can be applied.

도 4에 도시된 바와 같이, 본 개시의 실시예가 적용된 컨텐츠 스트리밍 시스템은 크게 멀티미디어 입력 장치, 미디어 저장소, 인코딩 서버, 스트리밍 서버, 웹 서버, 및 사용자 장치를 포함할 수 있다.As illustrated in FIG. 4, a content streaming system to which an embodiment of the present disclosure is applied may largely include a multimedia input device, a media storage, an encoding server, a streaming server, a web server, and a user device.

상기 인코딩 서버는 스마트폰, 카메라, CCTV 등과 같은 멀티미디어 입력 장치들로부터 입력된 컨텐츠를 디지털 데이터로 압축하여 비트스트림을 생성하고 이를 상기 스트리밍 서버로 전송하는 역할을 한다. 또는 인코딩 서버는 미디어 저장소에 기 저장된 컨텐츠를 디지털 데이터로 압축하여 비트스트림을 생성하고 이를 상기 스트리밍 서버로 전송하는 역할을 한다. The encoding server compresses content input from multimedia input devices such as smartphones, cameras, CCTVs, etc. into digital data, creates a bitstream, and transmits it to the streaming server. Alternatively, the encoding server compresses content already stored in a media storage into digital data, creates a bitstream, and transmits it to the streaming server.

다른 예로, 스마트폰, 카메라, CCTV 등과 같은 멀티미디어 입력 장치들이 비트스트림을 직접 생성하는 경우, 상기 인코딩 서버는 생략될 수도 있다.As another example, if multimedia input devices such as smartphones, cameras, CCTVs, etc. directly generate bitstreams, the encoding server may be omitted.

상기 비트스트림은 본 개시의 실시예가 적용된 영상 부호화 방법 및/또는 영상 부호화 장치에 의해 생성될 수 있고, 상기 스트리밍 서버는 상기 비트스트림을 전송 또는 수신하는 과정에서 일시적으로 또는 비일시적으로 상기 비트스트림을 저장할 수 있다. The above bitstream can be generated by an image encoding method and/or an image encoding device to which an embodiment of the present disclosure is applied, and the streaming server can temporarily or non-temporarily store the bitstream during the process of transmitting or receiving the bitstream.

상기 스트리밍 서버는 웹 서버를 통한 사용자 요청에 기반하여 멀티미디어 데이터를 사용자 장치에 전송하고, 상기 웹 서버는 사용자에게 어떠한 서비스가 있는지를 알려주는 매개체 역할을 할 수 있다. 사용자 장치가 상기 웹 서버에 원하는 서비스를 요청하면, 상기 웹 서버는 이를 스트리밍 서버에 전달하고, 상기 스트리밍 서버는 사용자 장치에게 멀티미디어 데이터를 전송할 수 있다. 이때, 상기 컨텐츠 스트리밍 시스템은 별도의 제어 서버를 포함할 수 있고, 이 경우 상기 제어 서버는 상기 컨텐츠 스트리밍 시스템 내 각 장치 간 명령/응답을 제어하는 역할을 수행할 수 있다.The streaming server transmits multimedia data to a user device based on a user request via a web server, and the web server can act as an intermediary to inform the user of available services. When the user device requests a desired service from the web server, the web server transmits the request to the streaming server, and the streaming server can transmit multimedia data to the user device. At this time, the content streaming system may include a separate control server, and in this case, the control server may play a role in controlling commands/responses between each device within the content streaming system.

상기 스트리밍 서버는 미디어 저장소 및/또는 인코딩 서버로부터 컨텐츠를 수신할 수 있다. 예를 들어, 상기 인코딩 서버로부터 컨텐츠를 수신하는 경우, 상기 컨텐츠를 실시간으로 수신할 수 있다. 이 경우, 원활한 스트리밍 서비스를 제공하기 위하여 상기 스트리밍 서버는 상기 비트스트림을 일정 시간동안 저장할 수 있다. The streaming server can receive content from a media repository and/or encoding server. For example, when receiving content from the encoding server, the content can be received in real time. In this case, to provide a smooth streaming service, the streaming server can store the bitstream for a certain period of time.

상기 사용자 장치의 예로는, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)), 디지털 TV, 데스크탑 컴퓨터, 디지털 사이니지 등이 있을 수 있다. Examples of the user devices may include mobile phones, smart phones, laptop computers, digital broadcasting terminals, personal digital assistants (PDAs), portable multimedia players (PMPs), navigation devices, slate PCs, tablet PCs, ultrabooks, wearable devices (e.g., smartwatches, smart glasses, HMDs), digital TVs, desktop computers, digital signage, etc.

상기 컨텐츠 스트리밍 시스템 내 각 서버들은 분산 서버로 운영될 수 있으며, 이 경우 각 서버에서 수신하는 데이터는 분산 처리될 수 있다. Each server within the above content streaming system can be operated as a distributed server, in which case data received from each server can be processed in a distributed manner.

비디오 복호화 과정에서, 현재 블록에 인접한 블록들의 정보를 활용하여 현재 블록에 대한 신택스의 컨텍스트 정보가 유도될 수 있다. 그리고, 유도된 컨텍스트 정보를 기초로 컨텍스트 모델이 결정되어, 블록에 대한 신택스들을 복호화할 수 있다. During video decoding, contextual information about the syntax of the current block can be derived using information from adjacent blocks. Based on this derived contextual information, a context model is determined, enabling decoding of the syntax for the block.

예를 들어, 현재 블록에 대한 신택스는 적응적 루프 필터에 관한 신택스일 수 있다. 구체적으로, 적응적 루프 필터에 관한 신택스는 적응적 루프 필터의 적용 여부를 지시하는 alf_ctb_flag, cb 성분에 대하여 교차 성분(cross-component) 필터의 적용 여부를 지시하는 alf_ctb_cc_cb_idc[ctbX][ctbY] 및 cr 성분에 대하여 교차 성분(cross-component) 필터의 적용 여부를 지시하는 alf_ctb_cc_cr_idc[ctbX][ctbY]을 포함할 수 있다. For example, the syntax for the current block may be syntax for an adaptive loop filter. Specifically, the syntax for the adaptive loop filter may include alf_ctb_flag indicating whether to apply the adaptive loop filter, alf_ctb_cc_cb_idc[ctbX][ctbY] indicating whether to apply a cross-component filter to the cb component, and alf_ctb_cc_cr_idc[ctbX][ctbY] indicating whether to apply a cross-component filter to the cr component.

여기서, cIdx는 현재 블록의 색 성분(color component)를 지시할 수 있다. 그리고, ctbX는 프레임내에서 현재 블록을 포함하는 코딩 트리 블록의 x축 상 위치를 지시하고, ctbY는 프레임내에서 현재 블록을 포함하는 코딩 트리 블록의 y축 상 위치를 지시할 수 있다. ctbX 및 ctbY는 아래와 같이 유도될 수 있다. Here, cIdx can indicate the color component of the current block. In addition, ctbX can indicate the x-axis position of the coding tree block containing the current block within the frame, and ctbY can indicate the y-axis position of the coding tree block containing the current block within the frame. ctbX and ctbY can be derived as follows.

그리고, 현재 블록에 이웃한 블록들의 위치인 (ctbAx, ctbAy) 및 (ctbLx, ctbLy)는 아래와 같이 유도될 수 있다. And, the positions of the blocks neighboring the current block, (ctbAx, ctbAy) and (ctbLx, ctbLy), can be derived as follows.

적응적 루프 필터에 관한 신택스 요소들의 컨텍스트 정보는 아래와 같이 유도될 수 있다. The context information of syntax elements for the adaptive loop filter can be derived as follows.

컨텍스트 정보를 유도하기 위해, 현재 블록의 좌측에 인접한 블록인 좌측 이웃 블록에 관한 조건인 condL, 좌측 이웃 블록의 가용성을 지시하는 availableL, 현재 블록의 상측에 인접한 블록인 상측 이웃 블록에 관한 조건인 condA, 상측 이웃 블록의 가용성을 지시하는 availableA를 활용하여 컨텍스트 정보(ctxInc)가 유도될 수 있다. 여기서, condL, availableL, condA, 및 availableA는 아래 표 2와 같이 유도될 수 있다. To derive context information, context information (ctxInc) can be derived by utilizing condL, a condition regarding the left neighboring block, which is a block adjacent to the left of the current block, availableL, which indicates the availability of the left neighboring block, condA, a condition regarding the upper neighboring block, which is a block adjacent to the upper of the current block, and availableA, which indicates the availability of the upper neighboring block. Here, condL, availableL, condA, and availableA can be derived as shown in Table 2 below.

즉, 수학식 3 및 표 2를 참조하면, 좌측 이웃 블록에 관한 조건 정보 condL, 좌측 이웃 블록의 가용성 정보 availableL, 상측 이웃 블록에 관한 조건 정보 condA, 상측 이웃 블록의 가용성 정보 availableA를 유도하기 위해서 현재 블록에 이웃한 블록을 결정하여야 한다. 그리고, 현재 블록의 색 성분 정보(cIdx) 및 위치 정보(ctbX, ctbY)를 기초로 이웃 블록들이 특정되고, 특정된 이웃 블록들을 기초로 이웃 블록들 각각의 조건 및 가용성 정보가 유도될 수 있다. That is, referring to mathematical expression 3 and Table 2, in order to derive condition information condL regarding the left neighboring block, availability information availableL of the left neighboring block, condition information condA regarding the upper neighboring block, and availability information availableA of the upper neighboring block, a block neighboring to the current block must be determined. Then, neighboring blocks are specified based on the color component information (cIdx) and position information (ctbX, ctbY) of the current block, and condition and availability information of each neighboring block can be derived based on the specified neighboring blocks.

또는, 신택스 요소의 컨텍스트 정보는 현재 블록의 색 성분에 의존하지 아니하고 유도될 수 있다. 따라서, 복호화 과정에서 컨텍스트 모델을 적게 사용함으로써, 메모리 사용량을 감소시킬 수 있다. 또한, 복호화 과정에서의 액세스 횟수를 감소시켜 부호화 및 복호화 속도를 향상시킬 수 있다. Alternatively, context information for syntax elements can be derived independently of the color components of the current block. Therefore, by using fewer context models during decoding, memory usage can be reduced. Furthermore, by reducing the number of accesses during decoding, encoding and decoding speeds can be improved.

구체적으로, 컨텍스트 정보를 유도하기 위해 사용되는 현재 블록의 이웃 블록은 현재 블록의 색 성분(예를 들어, cIdx) 값에 종속되지 않은 값을 이용하여 결정될 수 있다. 예를 들어, 색 성분 값은 0, 1, 또는 2 중 하나의 대표 값일 수 있다. 그리고, 이웃 블록은 색 성분의 대표 값을 기초로 결정될 수 있다. Specifically, the neighboring blocks of the current block used to derive context information can be determined using values that are not dependent on the color component (e.g., cIdx) value of the current block. For example, the color component value can be a representative value of 0, 1, or 2. Then, the neighboring blocks can be determined based on the representative value of the color component.

그리고, 현재 블록의 색 성분 cIdx 값에 종속되지 않은 색 성분 값을 기초로 결정된 이웃 블록들의 정보를 이용하여 이웃 블록에 관한 조건 정보 (예를 들어, condL, condA) 및 이웃 블록의 가용성 정보 (예를 들어, availableL, availableA)가 유도될 수 있다. 이를 위해서, 인코더에 의해 결정된 cIdx의 대표 값이 묵시적 또는 명시적으로 디코더로 전달될 수 있다. In addition, condition information (e.g., condL, condA) and availability information (e.g., availableL, availableA) about neighboring blocks can be derived using information about neighboring blocks determined based on color component values that are not dependent on the color component cIdx value of the current block. For this purpose, a representative value of cIdx determined by the encoder can be implicitly or explicitly transmitted to the decoder.

본 개시의 실시예는 코딩 트리 구조가 색 성분에 독립적인 경우에도 적용될 수 있다. 또한 본 개시의 실시예는 코딩 트리 구조가 색 성분에 독립적이지 않은 경우에도 적용될 수 있다. Embodiments of the present disclosure can also be applied to cases where the coding tree structure is independent of color components. Embodiments of the present disclosure can also be applied to cases where the coding tree structure is not independent of color components.

적응적 루프 필터에 관한 신택스 요소들의 컨텍스트 정보를 결정하는 방법에 대한 영상 복호화 방법은 아래에 설명하는 바와 같을 수 있다. A method for image decoding that determines context information of syntax elements for an adaptive loop filter may be as described below.

도 5는 본 개시의 일 실시 예에 따른 적응적 루프 필터에 관한 신택스 요소들의 컨텍스트 정보를 결정하는 방법에 대한 영상 복호화 방법을 나타내는 흐름도이다. 도 5의 영상 복호화 방법은 영상 복호화 장치에 의해 수행될 수 있다.FIG. 5 is a flowchart illustrating an image decoding method for determining context information of syntax elements for an adaptive loop filter according to an embodiment of the present disclosure. The image decoding method of FIG. 5 may be performed by an image decoding device.

도 5를 참조하면, 영상 복호화 장치는 현재 블록에 인접한 블록들의 가용성 정보 및 적응적 루프 필터에 관련된 부호화 정보를 유도할 수 있다(S510). Referring to FIG. 5, the image decoding device can derive availability information of blocks adjacent to the current block and encoding information related to an adaptive loop filter (S510).

영상 복호화 장치는 현재 블록에 인접한 블록들의 가용성 정보 및 적응적 루프 필터에 관련된 부호화 정보를 기초로, 현재 블록의 적응적 루프 필터에 관련된 부호화 정보의 컨텍스트 정보를 유도할 수 있다(S520). The image decoding device can derive context information of encoding information related to the adaptive loop filter of the current block based on availability information of blocks adjacent to the current block and encoding information related to the adaptive loop filter (S520).

영상 복호화 장치는 유도된 컨텍스트 정보를 기초로 현재 블록의 적응적 루프 필터에 관련된 부호화 정보를 복호화할 수 있다(S530). The image decoding device can decode encoding information related to the adaptive loop filter of the current block based on the derived context information (S530).

여기서, 현재 블록에 인접한 블록들의 부호화 정보는 현재 블록의 색 성분과 무관하게 결정될 수 있다. Here, the encoding information of blocks adjacent to the current block can be determined regardless of the color component of the current block.

한편, 도 5에서 설명한 단계들은 영상 부호화 방법에서도 동일하게 수행될 수 있다. 또한, 도 5에서 설명한 단계를 포함하는 영상 부호화 방법에 의해 비트스트림이 생성될 수 있다. 상기 비트스트림은 비 일시적 컴퓨터 판독가능한 기록매체에 저장될 수 있으며, 또한, 전송(또는 스트리밍)될 수 있다. Meanwhile, the steps described in FIG. 5 can be performed in the same manner in an image encoding method. Furthermore, a bitstream can be generated by an image encoding method including the steps described in FIG. 5. The bitstream can be stored on a non-transitory computer-readable recording medium and can also be transmitted (or streamed).

비디오 복호화 과정에서, 코딩 트리 블록의 분할 구조 정보를 포함하는 코딩 파라미터를 기초로, 코딩 트리 블록의 하위 블록들 각각의 예측 모드 조건 정보가 유도될 수 있다. 그리고, 예측 모드 조건 정보의 값에 기반하여 하위 블록들 각각의 예측 모드 타입 정보가 결정될 수 있다. During a video decoding process, prediction mode condition information for each sub-block of a coding tree block can be derived based on coding parameters including information on the partition structure of the coding tree block. Then, prediction mode type information for each sub-block can be determined based on the value of the prediction mode condition information.

예측 모드 조건 정보의 값이 제1 값(예를 들어, 1)이면, 예측 모드 타입 정보는 인트라 예측, IBC 및 팔레트 모드 중 하나를 이용하는 제1 모드 타입으로 결정될 수 있다. If the value of the prediction mode condition information is a first value (e.g., 1), the prediction mode type information may be determined as a first mode type using one of intra prediction, IBC, and palette modes.

반면, 예측 모드 조건 정보의 값이 제2 값(예를 들어, 2)인 경우, 인터 예측 모드의 가용 여부 정보가 추가로 시그널링될 수 있다. 인터 예측 모드의 가용 여부 정보가 인터 예측을 사용할 수 없음을 지시하는 경우, 모드 타입 정보는 제1 모드 타입으로 결정될 수 있다. 그에 반해, 인터 예측 모드의 가용 여부 정보가 인터 예측을 사용할 수 있음을 지시하는 경우, 모드 타입 정보는 인터 예측 모드를 이용하는 제2 모드 타입으로 결정될 수 있다. On the other hand, if the value of the prediction mode condition information is a second value (e.g., 2), information on the availability of the inter prediction mode may be additionally signaled. If the information on the availability of the inter prediction mode indicates that inter prediction cannot be used, the mode type information may be determined as the first mode type. Conversely, if the information on the availability of the inter prediction mode indicates that inter prediction can be used, the mode type information may be determined as the second mode type that uses the inter prediction mode.

예측 모드 조건 정보의 값이 제3 값(예를 들어, 0)인 경우, 모드 타입 정보는 현재 코딩 트리의 모드 타입 정보와 동일하게 설정될 수 있다. 여기서, 모드 타입 정보는 현재 코딩 트리의 모드 타입 정보에 따라, 제1 모드 타입, 제2 모드 타입 및 인트라 예측, IBC(intra block copy), 팔레트 모드, 및 인터 예측을 포함하는 모든 예측 모드 중 하나를 이용함을 지시하는 제3 모드 타입 중 어느 하나의 값을 가질 수 있다. When the value of the prediction mode condition information is a third value (e.g., 0), the mode type information may be set to be the same as the mode type information of the current coding tree. Here, the mode type information may have a value of any one of the first mode type, the second mode type, and the third mode type indicating to use one of all prediction modes including intra prediction, IBC (intra block copy), palette mode, and inter prediction, according to the mode type information of the current coding tree.

여기서, 예측 모드 조건 정보는 아래의 표 3 내지 표 5와 같이 유도될 수 있다. Here, the prediction mode condition information can be derived as shown in Tables 3 to 5 below.

표 3에 따르면, 하위 조건들 중 하나 이상이 충족되는 경우, 예측 모드 조건 정보(예를 들어, ModeTypeCondition)의 값은 0으로 결정될 수 있다. 여기서, 하위 조건 중 제1 조건은 현재 슬라이스의 타입이 I이고, 슬라이스에 포함되는 각각의 코딩 트리 블록이 64x64 루마 샘플 코딩 블록으로 암묵적 쿼드트리 분할(implicit quadtree split)되는 경우를 의미할 수 있다. 제2 조건은 현재 코딩 트리 블록의 모드 타입이 MODE_TYPE_ALL 이외인 경우를 의미할 수 있다. 제3 조건은 현재 코딩 블록의 색차 성분 포맷이 모노크롬인 경우(sps_chroma_format_idc=0)를 의미할 수 있다. 그리고, 제4 조건은 현재 코딩 블록의 색차 성분 포맷이 4:4:4 포맷인 경우(sps_chroma_format_idc=3)를 의미할 수 있다.According to Table 3, if one or more of the sub-conditions are satisfied, the value of the prediction mode condition information (e.g., ModeTypeCondition) may be determined as 0. Here, the first condition among the sub-conditions may mean that the type of the current slice is I, and each coding tree block included in the slice is implicitly quadtree split into 64x64 luma sample coding blocks. The second condition may mean that the mode type of the current coding tree block is other than MODE_TYPE_ALL. The third condition may mean that the chrominance component format of the current coding block is monochrome (sps_chroma_format_idc=0). And, the fourth condition may mean that the chrominance component format of the current coding block is a 4:4:4 format (sps_chroma_format_idc=3).

표 4에 따르면, 표 3에 정의된 조건이 충족되지 않고, 하위 조건들 중 하나 이상이 충족되는 경우, 예측 모드 조건 정보의 값은 1로 결정될 수 있다. 여기서, 하위 조건 중 제1 조건은 현재 블록의 면적이 64이고, 현재 블록이 사분할 되는 경우를 의미할 수 있다. 제2 조건은 현재 블록의 면적이 64이고, 현재 블록이 수평 방향 삼분할 또는 수직 방향 삼분할되는 경우를 의미할 수 있다. 제3 조건은 현재 블록의 면적이 32이고, 현재 블록이 수평 방향 이분할 또는 수직 방향 이분할되는 경우를 의미할 수 있다.According to Table 4, if the condition defined in Table 3 is not satisfied and at least one of the sub-conditions is satisfied, the value of the prediction mode condition information may be determined as 1. Here, the first condition among the sub-conditions may mean that the area of the current block is 64 and the current block is divided into four. The second condition may mean that the area of the current block is 64 and the current block is divided into three horizontally or vertically. The third condition may mean that the area of the current block is 32 and the current block is divided into two horizontally or vertically.

표 5에 따르면, 표 3 내지 표 4에 정의된 조건이 충족되지 않고, 하위 조건들 중 하나가 충족되는 경우, 예측 모드 조건 정보는 현재 슬라이스의 타입에 따라 결정될 수 있다. 여기서, 하위 조건 중 제1 조건은 현재 블록의 면적이 64이고, 현재 블록이 수평 방향 이분할 또는 수직 방향 이분할되며, 현재 블록의 색차 성분 포맷이 4:2:0 포맷인 경우(sps_chroma_format_idc=1)를 의미할 수 있다. 제2 조건은 현재 블록의 면적이 128이고, 현재 블록이 수평 방향 삼분할 또는 수직 방향 삼분할되며, 현재 블록의 색차 성분 포맷이 4:2:0 포맷인 경우(sps_chroma_format_idc=1)를 의미할 수 있다. 제3 조건은 현재 블록의 너비가 8이고, 현재 블록이 수평 방향 이분할되는 경우를 의미할 수 있다. 그리고, 제4 조건은 현재 블록의 높이가 16이고, 현재 블록이 수직 방향 삼분할되는 경우를 의미할 수 있다. According to Table 5, when the conditions defined in Tables 3 and 4 are not satisfied and one of the sub-conditions is satisfied, the prediction mode condition information may be determined according to the type of the current slice. Here, the first condition among the sub-conditions may mean that the area of the current block is 64, the current block is horizontally divided into two or vertically divided into two, and the chrominance component format of the current block is a 4:2:0 format (sps_chroma_format_idc=1). The second condition may mean that the area of the current block is 128, the current block is horizontally divided into three or vertically divided into three, and the chrominance component format of the current block is a 4:2:0 format (sps_chroma_format_idc=1). The third condition may mean that the width of the current block is 8, and the current block is horizontally divided into two. And, the fourth condition may mean that the height of the current block is 16 and the current block is divided into three vertical parts.

그리고, 하위 조건들 중에서 하나의 조건이 충족되고, 현재 슬라이스의 타입이 I 슬라이스인 경우, 예측 모드 조건 정보의 값은 1로 결정될 수 있다. 그에 반해, 하위 조건들 중에서 하나의 조건이 충족되고, 현재 슬라이스의 타입이 I 슬라이스가 아닌 경우, 예측 모드 조건 정보의 값은 2로 결정될 수 있다. And, if one of the sub-conditions is satisfied and the type of the current slice is an I slice, the value of the prediction mode condition information can be determined as 1. On the other hand, if one of the sub-conditions is satisfied and the type of the current slice is not an I slice, the value of the prediction mode condition information can be determined as 2.

반면, 하위 조건들이 충족되지 아니하거나, 하위 조건들 중 두 개 이상의 조건들이 충족되는 경우, 예측 모드 조건 정보의 값은 현재 슬라이스의 타입과 무관하게 0으로 결정될 수 있다. On the other hand, if the sub-conditions are not met or two or more of the sub-conditions are met, the value of the prediction mode condition information may be determined as 0 regardless of the type of the current slice.

표 5에서 정의된 바에 따르면, 현재 슬라이스의 타입에 기초하여 예측 모드 조건 정보의 값을 결정하는 과정은 낮은 빈도로 사용될 수 있다. 이는, 하위 조건들 중에서 하나의 조건만을 충족하는 상황은 낮은 빈도로 발생하기 때문이다. 따라서, 현재 슬라이스의 타입에 기초하여 예측 모드 조건 정보의 값을 결정하는 과정의 활용도가 떨어질 수 있다. 따라서, 부호화 효율이 저하될 수 있다. As defined in Table 5, the process of determining the value of the prediction mode condition information based on the current slice type may be used infrequently. This is because situations where only one of the sub-conditions is satisfied occur infrequently. Therefore, the utility of the process of determining the value of the prediction mode condition information based on the current slice type may be low. Consequently, encoding efficiency may be reduced.

부호화 효율을 향상시키기 위해, 현재 슬라이스의 타입에 기초하여 예측 모드 조건 정보의 값을 결정하기 위한 조건을 아래의 표 6과 같이 정의할 수있다. To improve encoding efficiency, conditions for determining the value of prediction mode condition information based on the type of the current slice can be defined as shown in Table 6 below.

구체적으로, 표 3 내지 표 4에 정의된 조건이 충족되지 않고, 표 6에 정의된 하위 조건들 중 하나 혹은 그 이상의 조건들이 충족되는 경우, 예측 모드 조건 정보는 현재 슬라이스의 타입에 따라 결정될 수 있다. Specifically, if the conditions defined in Tables 3 to 4 are not met and one or more of the sub-conditions defined in Table 6 are met, the prediction mode condition information can be determined according to the type of the current slice.

여기서, 하위 조건 중 제1 조건은 현재 블록의 면적이 64이고, 현재 블록이 수평 방향 이분할 또는 수직 방향 이분할되며, 현재 블록의 색차 성분 포맷이 4:2:0 포맷인 경우(sps_chroma_format_idc=1)를 의미할 수 있다. 제2 조건은 현재 블록의 면적이 128이고, 현재 블록이 수평 방향 삼분할 또는 수직 방향 삼분할되며, 현재 블록의 색차 성분 포맷이 4:2:0 포맷인 경우(sps_chroma_format_idc=1)를 의미할 수 있다. 제3 조건은 현재 블록의 너비가 8이고, 현재 블록이 수평 방향 이분할되는 경우를 의미할 수 있다. 그리고, 제4 조건은 현재 블록의 높이가 16이고, 현재 블록이 수직 방향 삼분할되는 경우를 의미할 수 있다. Here, the first condition among the sub-conditions may mean that the area of the current block is 64, the current block is divided into two horizontally or vertically, and the chrominance component format of the current block is a 4:2:0 format (sps_chroma_format_idc=1). The second condition may mean that the area of the current block is 128, the current block is divided into three horizontally or vertically, and the chrominance component format of the current block is a 4:2:0 format (sps_chroma_format_idc=1). The third condition may mean that the width of the current block is 8, and the current block is divided into two horizontally. And, the fourth condition may mean that the height of the current block is 16, and the current block is divided into three vertically.

여기서, 표 6에 정의된 하위 조건들 중 하나 혹은 그 이상의 조건들이 충족되고, 현재 슬라이스의 타입이 I 슬라이스인 경우, 예측 모드 조건 정보의 값은 1로 결정될 수 있다. 그에 반해, 표 6에 정의된 하위 조건들 중 하나 혹은 그 이상의 조건들이 충족되고, 현재 슬라이스의 타입이 I 슬라이스가 아닌 경우, 예측 모드 조건 정보의 값은 2로 결정될 수 있다. Here, if one or more of the sub-conditions defined in Table 6 are satisfied and the type of the current slice is an I slice, the value of the prediction mode condition information may be determined as 1. On the other hand, if one or more of the sub-conditions defined in Table 6 are satisfied and the type of the current slice is not an I slice, the value of the prediction mode condition information may be determined as 2.

또는, 표 3 내지 표 4에 정의된 조건이 충족되지 않고, 표 6에 정의된 하위 조건들 중 미리 정의된 개수 이상의 조건들이 충족되는 경우, 예측 모드 조건 정보는 현재 슬라이스의 타입에 따라 결정될 수 있다. 여기서, 미리 정의된 개수는 2 이상의 정수일 수 있다. Alternatively, if the conditions defined in Tables 3 to 4 are not satisfied and a predefined number or more of the sub-conditions defined in Table 6 are satisfied, the prediction mode condition information may be determined according to the type of the current slice. Here, the predefined number may be an integer greater than or equal to 2.

또는, 본 개시의 다른 실시예에 따르면, 표 3 내지 표 4에 정의된 조건이 충족되지 않고, 표 6에 정의된 하위 조건들 중 시그널링 정보에 의해 결정된 개수 이상의 조건들이 충족되는 경우, 예측 모드 조건 정보는 현재 슬라이스의 타입에 따라 결정될 수 있다. 여기서, 상기 시그널링 정보는 시퀀스, GOP 픽처 슬라이스, CTU 등의 단위로 시그널링될 수 있다. Alternatively, according to another embodiment of the present disclosure, if the conditions defined in Tables 3 to 4 are not satisfied, and a number of conditions determined by signaling information or more among the sub-conditions defined in Table 6 are satisfied, the prediction mode condition information may be determined according to the type of the current slice. Here, the signaling information may be signaled in units such as sequences, GOP picture slices, and CTUs.

표 5에 정의된 예측 모드 조건 정보의 결정 방법과 표 6에 정의된 예측 모드 조건 정보의 결정 방법은 아래와 같은 상황에서 차이를 가질 수 있다. The method for determining the prediction mode condition information defined in Table 5 and the method for determining the prediction mode condition information defined in Table 6 may differ in the following situations.

현재 블록은 8x8 크기의 블록이고, 현재 블록의 멀티 타입 분할 모드는 수직 방향 이분할 모드이며, 그리고, 현재 블록의 색차 성분 포맷은 4:2:0 포맷인 경우, 현재 블록은 표 5 및 표 6에 정의된 제1 조건과 제3 조건을 동시에 만족할 수 있다. If the current block is a block of 8x8 size, the multi-type division mode of the current block is a vertical bi-division mode, and the chrominance component format of the current block is a 4:2:0 format, the current block can simultaneously satisfy the first and third conditions defined in Tables 5 and 6.

위와 같은 경우, 표 5에 따르면, 복수의 조건들 중 하나의 조건만을 만족하는 경우에 슬라이스의 타입에 기초하여 예측 모드 조건 정보의 값을 결정할 수 있으므로, 현재 블록의 예측 모드 조건 정보는 0으로 결정될 수 있다. In the above case, according to Table 5, since the value of the prediction mode condition information can be determined based on the type of the slice when only one of the multiple conditions is satisfied, the prediction mode condition information of the current block can be determined as 0.

반면, 위와 같은 경우, 표 6에 따르면, 복수의 조건들 중 하나 이상의 조건을 만족하는 경우에 슬라이스의 타입에 기초하여 예측 모드 조건 정보의 값을 결정할 수 있으므로, 현재 블록의 예측 모드 조건 정보의 값은 슬라이스 타입에 따라 결정될 수 있다. On the other hand, in the case above, according to Table 6, since the value of the prediction mode condition information can be determined based on the type of the slice when one or more of the multiple conditions are satisfied, the value of the prediction mode condition information of the current block can be determined based on the slice type.

한편, 현재 블록은 16x8 크기의 블록이고, 현재 블록의 멀티 타입 분할 모드는 수직 방향 삼분할 모드이며, 그리고, 현재 블록의 색차 성분 포맷이 4:2:0 포맷인 경우, 현재 블록은 표 5 및 표 6에 정의된 제2 조건과 제4 조건을 동시에 만족할 수 있다. Meanwhile, if the current block is a block of 16x8 size, the multi-type division mode of the current block is a vertical three-division mode, and the chrominance component format of the current block is a 4:2:0 format, the current block can simultaneously satisfy the second and fourth conditions defined in Tables 5 and 6.

위와 같은 경우, 표 5에 따르면, 복수의 조건들 중 하나의 조건만을 만족하는 경우에 슬라이스의 타입에 기초하여 예측 모드 조건 정보의 값을 결정할 수 있으므로, 현재 블록의 예측 모드 조건 정보의 값은 0으로 결정될 수 있다. In the above case, according to Table 5, since the value of the prediction mode condition information can be determined based on the type of the slice when only one of the multiple conditions is satisfied, the value of the prediction mode condition information of the current block can be determined as 0.

반면, 위와 같은 경우, 표 6에 따르면, 복수의 조건들 중 하나 이상의 조건을 만족하는 경우에 슬라이스의 타입에 기초하여 예측 모드 조건 정보의 값을 결정할 수 있으므로, 현재 블록의 예측 모드 조건 정보의 값은 슬라이스 타입에 따라 결정될 수 있다. On the other hand, in the case above, according to Table 6, since the value of the prediction mode condition information can be determined based on the type of the slice when one or more of the multiple conditions are satisfied, the value of the prediction mode condition information of the current block can be determined based on the slice type.

즉, 표 6에 따르면, 현재 슬라이스의 타입에 기초하여 예측 모드 조건 정보의 값을 결정하는 과정의 활용성을 증가시킬 수 있다. That is, according to Table 6, the usability of the process of determining the value of the prediction mode condition information based on the type of the current slice can be increased.

현재 블록의 예측 모드 조건 정보를 결정하는 방법에 대한 영상 복호화 방법은 아래에 설명하는 바와 같을 수 있다. A video decoding method for determining prediction mode condition information of the current block may be as described below.

도 6은 본 개시의 일 실시 예에 따른 현재 블록의 예측 모드 조건 정보를 결정하는 방법에 대한 영상 복호화 방법을 나타내는 흐름도이다. 도 6의 영상 복호화 방법은 영상 복호화 장치에 의해 수행될 수 있다.FIG. 6 is a flowchart illustrating an image decoding method for determining prediction mode condition information of a current block according to an embodiment of the present disclosure. The image decoding method of FIG. 6 can be performed by an image decoding device.

도 6을 참조하면, 영상 복호화 장치는 현재 코딩 트리 블록의 예측 모드의 조건 정보를 결정할 수 있다(S610). Referring to FIG. 6, the image decoding device can determine condition information of the prediction mode of the current coding tree block (S610).

영상 복호화 장치는 예측 모드의 조건 정보를 기초로 현재 코딩 트리 블록으로부터 분할되는 블록들의 예측 모드를 결정할 수 있다(S620). The video decoding device can determine the prediction mode of blocks divided from the current coding tree block based on condition information of the prediction mode (S620).

여기서, 제1 조건 세트의 조건들 중 적어도 하나의 조건이 참인 경우, 상기 예측 모드의 조건 정보는 제1 값으로 설정될 수 있다. Here, if at least one condition among the conditions of the first condition set is true, the condition information of the prediction mode can be set to the first value.

여기서, 제1 조건 세트는, 현재 슬라이스의 타입이 I이고, 슬라이스에 포함되는 각각의 코딩 트리 블록이 64x64 루마 샘플 코딩 블록으로 암묵적 사분할되는 경우 충족되는 제1 조건, 현재 코딩 트리 블록이 모든 예측 모드를 이용할 수 있는 경우 충족되는 제2 조건, 현재 코딩 트리 블록의 색차 성분 포맷이 모노크롬인 경우 충족되는 제3 조건, 및 현재 코딩 트리 블록의 색차 성분 포맷이 4:4:4 포맷인 경우 총족되는 제4 조건을 포함할 수 있다. Here, the first set of conditions may include a first condition that is satisfied when the type of the current slice is I and each coding tree block included in the slice is implicitly divided into 64x64 luma sample coding blocks, a second condition that is satisfied when the current coding tree block can use all prediction modes, a third condition that is satisfied when the chrominance component format of the current coding tree block is monochrome, and a fourth condition that is satisfied when the chrominance component format of the current coding tree block is a 4:4:4 format.

여기서, 제1 조건 세트의 조건들 중 적어도 하나의 조건이 참이 아니고, 제2 조건 세트의 조건들 중 적어도 하나의 조건이 참인 경우, 상기 예측 모드의 조건 정보는 제2 값으로 설정될 수 있다. Here, if at least one condition among the conditions of the first condition set is not true and at least one condition among the conditions of the second condition set is true, the condition information of the prediction mode can be set to a second value.

여기서, 제2 조건 세트는, 현재 코딩 트리 블록의 면적이 64이고, 현재 코딩 트리 블록이 사분할되는 경우 충족되는 제1 조건, 현재 코딩 트리 블록의 면적이 64이고, 현재 코딩 트리 블록이 삼분할되는 경우 충족되는 제2 조건, 및 현재 코딩 트리 블록의 면적이 32이고, 현재 코딩 트리 블록이 이분할되는 경우 충족되는 제3 조건을 포함할 수 있다. Here, the second set of conditions may include a first condition that is satisfied when the area of the current coding tree block is 64 and the current coding tree block is divided into four, a second condition that is satisfied when the area of the current coding tree block is 64 and the current coding tree block is divided into three, and a third condition that is satisfied when the area of the current coding tree block is 32 and the current coding tree block is divided into two.

여기서, 제1 조건 세트의 조건들 중 적어도 하나의 조건이 참이 아니고, 제2 조건 세트의 조건들 중 적어도 하나의 조건이 참이 아니며, 제3 조건 세트의 조건들 중 적어도 하나의 조건이 참인 경우, 예측 모드의 조건 정보는 슬라이스 타입에 기초하여 결정될 수 있다. 여기서, 예측 모드의 조건 정보는 슬라이스 타입이 I 슬라이스인지 여부에 기초하여 결정될 수 있다.Here, if at least one condition of the first condition set is not true, at least one condition of the second condition set is not true, and at least one condition of the third condition set is true, the condition information of the prediction mode may be determined based on the slice type. Here, the condition information of the prediction mode may be determined based on whether the slice type is an I slice.

여기서, 제3 조건 세트는, 현재 코딩 트리 블록의 면적이 64이고, 현재 코딩 트리 블록이 수평 방향 이분할 또는 수직 방향 이분할되며, 현재 코딩 트리 블록의 색차 성분 포맷이 4:2:0 포맷인 경우 충족되는 제1 조건, 현재 코딩 트리 블록의 면적이 128이고, 현재 코딩 트리 블록이 수평 방향 삼분할 또는 수직 방향 삼분할되며, 현재 코딩 트리 블록의 색차 성분 포맷이 4:2:0 포맷인 경우 충족되는 제2 조건, 현재 코딩 트리 블록의 너비가 8이고, 현재 코딩 트리 블록이 수평 방향 이분할되는 경우 충족되는 제3 조건, 및 현재 코딩 트리 블록의 높이가 16이고, 현재 코딩 트리 블록이 수직 방향 삼분할되는 경우 충족되는 제4 조건을 포함할 수 있다. Here, the third set of conditions may include a first condition that is satisfied when the area of the current coding tree block is 64, the current coding tree block is horizontally divided into two or vertically divided into two, and the chrominance component format of the current coding tree block is a 4:2:0 format, a second condition that is satisfied when the area of the current coding tree block is 128, the current coding tree block is horizontally divided into three or vertically divided into three, and the chrominance component format of the current coding tree block is a 4:2:0 format, a third condition that is satisfied when the width of the current coding tree block is 8, and the current coding tree block is horizontally divided into two, and a fourth condition that is satisfied when the height of the current coding tree block is 16, and the current coding tree block is vertically divided into three.

여기서, 제1 조건 세트의 조건들 중 적어도 하나의 조건이 참이 아니고, 제2 조건 세트의 조건들 중 적어도 하나의 조건이 참이 아니며, 제3 조건 세트의 조건들 중 적어도 하나의 조건이 참이 아닌 경우, 예측 모드의 조건 정보는 상기 제1 값으로 설정될 수 있다. Here, if at least one condition among the conditions of the first condition set is not true, at least one condition among the conditions of the second condition set is not true, and at least one condition among the conditions of the third condition set is not true, the condition information of the prediction mode can be set to the first value.

여기서, 예측 모드의 조건 정보가 제1 값인 경우, 분할되는 블록의 예측 모드는 현재 코딩 트리 블록의 예측 모드와 동일하게 설정될 수 있다. 예측 모드의 조건 정보가 제2 값인 경우, 분할되는 블록의 예측 모드는 인트라 예측, IBC 및 팔레트 모드 중 하나의 예측 모드로 결정될 수 있다. 예측 모드의 조건 정보가 제3 값인 경우, 분할되는 블록의 예측 모드는 추가 정보에 기초하여 인터 예측 모드로 결정될 수 있다. Here, if the condition information of the prediction mode is the first value, the prediction mode of the block to be split may be set to be the same as the prediction mode of the current coding tree block. If the condition information of the prediction mode is the second value, the prediction mode of the block to be split may be determined as one of the intra prediction, IBC, and palette modes. If the condition information of the prediction mode is the third value, the prediction mode of the block to be split may be determined as the inter prediction mode based on additional information.

영상 복호화 장치는 예측 모드에 기반하여, 현재 코딩 트리 블록으로부터 분할되는 블록들의 예측 블록을 생성할 수 있다(S630). The video decoding device can generate prediction blocks of blocks divided from the current coding tree block based on the prediction mode (S630).

한편, 도 6에서 설명한 단계들은 영상 부호화 방법에서도 동일하게 수행될 수 있다. 또한, 도 6에서 설명한 단계를 포함하는 영상 부호화 방법에 의해 비트스트림이 생성될 수 있다. 상기 비트스트림은 비 일시적 컴퓨터 판독가능한 기록매체에 저장될 수 있으며, 또한, 전송(또는 스트리밍)될 수 있다.Meanwhile, the steps described in FIG. 6 can be performed in the same manner in an image encoding method. Furthermore, a bitstream can be generated by an image encoding method including the steps described in FIG. 6. The bitstream can be stored on a non-transitory computer-readable recording medium and can also be transmitted (or streamed).

비디오 복호화 과정에서, 현재 코딩 트리 블록으로부터 분할되는 하위 블록들의 예측 모드 타입 정보를 기초로, 하위 블록의 트리 타입이 결정될 수 있다. 구체적으로, 하위 블록의 예측 모드 조건 정보의 값에 따라서, 트리 타입이 싱글 트리 또는 듀얼 트리로 결정될 수 있다. During a video decoding process, the tree type of a sub-block can be determined based on the prediction mode type information of the sub-blocks divided from the current coding tree block. Specifically, the tree type can be determined as a single tree or a dual tree depending on the value of the prediction mode condition information of the sub-block.

하위 블록의 예측 모드 타입 정보가, 인트라 예측, IBC 및 팔레트 모드가 가용함을 지시하는 제1 모드 타입을 지시하는 경우, 트리 타입은 듀얼 트리로 결정될 수 있다. 이 때, 휘도 성분의 하위 블록의 트리 타입은 듀얼 트리 루마(DUAL_TREE_LUMA)이고, 색차 성분의 하위 블록의 트리 타입은 듀얼 트리 크로마(DUAL_TREE_CHROMA)일 수 있다. If the prediction mode type information of the sub-block indicates a first mode type indicating that intra prediction, IBC, and palette modes are available, the tree type may be determined as a dual tree. In this case, the tree type of the sub-block of the luminance component may be dual tree luma (DUAL_TREE_LUMA), and the tree type of the sub-block of the chrominance component may be dual tree chroma (DUAL_TREE_CHROMA).

트리 타입이 듀얼 트리로 결정된 경우, 휘도 성분의 하위 블록의 블록 분할 정보가 유도될 수 있다. 그리고, 유도된 블록 분할 정보를 기초로 휘도 성분의 하위 블록의 블록 분할 구조가 결정될 수 있다. 이와 별개로, 색상 성분의 하위 블록의 블록 분할 정보가 유도될 수 있다. 그리고, 유도된 블록 분할 정보를 기초로 색상 성분의 하위 블록의 블록 분할 구조가 결정될 수 있다. If the tree type is determined to be a dual tree, block partition information of a sub-block of a luminance component can be derived. Then, a block partition structure of a sub-block of a luminance component can be determined based on the derived block partition information. Separately, block partition information of a sub-block of a color component can be derived. Then, a block partition structure of a sub-block of a color component can be determined based on the derived block partition information.

즉, 트리 타입이 듀얼 트리인 경우, 색 성분에 따라 블록 분할 정보가 유도될 수 있다. 따라서, 휘도 성분 하위 블록의 분할 구조는 색차 성분 하위 블록의 분할 구조와 다를 수 있다. That is, if the tree type is a dual tree, block partition information can be derived based on the color component. Accordingly, the partition structure of the luminance component sub-block may be different from the partition structure of the chrominance component sub-block.

여기서, 블록 분할 정보는 코딩 트리 블록의 분할 관련 신택스 요소들을 포함할 수 있다. 코딩 트리 블록의 분할 관련 신택스 요소들은 아래와 같이 시그널링될 수 있다. Here, the block partition information may include syntax elements related to partitioning of a coding tree block. The syntax elements related to partitioning of a coding tree block may be signaled as follows.

도 7은 본 개시의 일 실시예에 따른 블록 분할 관련 신택스 요소들의 시그널링 메커니즘을 도시한 도면이다. FIG. 7 is a diagram illustrating a signaling mechanism of block division related syntax elements according to one embodiment of the present disclosure.

도 7을 참조하면, 초기 코딩 트리 블록은 쿼드트리의 루트(root) 노드일 수 있다. 루트 노드인 코딩 트리 블록은 사분할될 수 있다. 현재 코딩 블록(예를 들어, 코딩 트리 유닛/쿼드트리 노드(CTU/QT_node) 또는 코딩 유닛 노드(CU_node))에 대해 사분할 수행 여부를 지시하는 정보(예를 들어, qt_split_flag)가 시그널링될 수 있다. 예를 들어, qt_split_flag가 제1 값(예를 들어, "1")이면, 현재 코딩 블록은 사분할될 수 있다. 반면, qt_split_flag가 제2 값(예를 들어, "0")이면, 현재 코딩 블록은 사분할되지 않을 수 있다. 사분할되지 않는 코딩 블록은 쿼드트리의 리프 노드(QT_leaf_node)로 지칭될 수 있다. Referring to FIG. 7, an initial coding tree block may be a root node of a quadtree. The coding tree block, which is the root node, may be split into four. Information (e.g., qt_split_flag) indicating whether to perform quadrupling for the current coding block (e.g., coding tree unit/quadtree node (CTU/QT_node) or coding unit node (CU_node)) may be signaled. For example, if qt_split_flag is a first value (e.g., "1"), the current coding block may be split into four. On the other hand, if qt_split_flag is a second value (e.g., "0"), the current coding block may not be split into four. A coding block that is not split into four may be referred to as a leaf node (QT_leaf_node) of the quadtree.

각 쿼드트리의 리프 노드인 코딩 블록은 멀티 타입 트리 구조로 더 분할될 수 있다. 즉, 쿼드트리의 리프 노드인 코딩 블록은 멀티 타입 트리의 코딩 유닛 노드(MTT_CU_node)일 수 있다. The coding block, which is a leaf node of each quadtree, can be further divided into a multi-type tree structure. That is, the coding block, which is a leaf node of the quadtree, can be a coding unit node (MTT_CU_node) of the multi-type tree.

멀티 타입 트리 구조에서, 현재 코딩 유닛의 멀티 타입 트리 분할 방향 플래그(예를 들어, mtt_split_cu_vertical_flag)가 시그널링될 수 있다. 예를 들어, 멀티 타입 트리 분할 방향 플래그의 값이 1인 경우, 현재 코딩 유닛은 수직 방향으로 분할될 수 있다. 반면, 멀티 타입 트리 분할 방향 플래그의 값이 0인 경우, 현재 코딩 유닛은 수평 방향으로 분할될 수 있다. In a multi-type tree structure, a multi-type tree split direction flag (e.g., mtt_split_cu_vertical_flag) of the current coding unit may be signaled. For example, if the value of the multi-type tree split direction flag is 1, the current coding unit may be split in the vertical direction. On the other hand, if the value of the multi-type tree split direction flag is 0, the current coding unit may be split in the horizontal direction.

이후, 현재 코딩 유닛의 멀티 타입 트리 분할 타입 플래그(예를 들어, mtt_split_cu_binary_flag)가 시그널링될 수 있다. 예를 들어, 멀티 타입 트리 분할 타입 플래그의 값이 1인 경우, 현재 코딩 유닛은 이분할될 수 있다. 반면, 멀티 타입 트리 분할 타입 플래그의 값이 0인 경우, 현재 코딩 유닛은 삼분할될 수 있다. Afterwards, the multi-type tree split type flag (e.g., mtt_split_cu_binary_flag) of the current coding unit may be signaled. For example, if the value of the multi-type tree split type flag is 1, the current coding unit may be split into two. On the other hand, if the value of the multi-type tree split type flag is 0, the current coding unit may be split into three.

여기서, 멀티 타입 트리 분할 방향 플래그를 복호화하기 위해서, 아래 표 7에 정의된 바에 따라 컨텍스트 정보가 유도될 수 있다. 그리고, 멀티 타입 트리 분할 방향 플래그는 유도된 컨텍스트 정보를 기초로 엔트로피 복호화될 수 있다. Here, in order to decode the multi-type tree splitting direction flag, context information can be derived as defined in Table 7 below. Then, the multi-type tree splitting direction flag can be entropy decoded based on the derived context information.

표 7에 정의된 바에 따르면, 수직 방향 분할 허용 정보들(예를 들어, allowSplitBtVer, allowSplitTtVer)의 값의 합이 수평 방향 분할 허용 정보들(예를 들어, allowSplitBtHor, allowSplitTtHor 등)의 합보다 큰 경우, 멀티 타입 트리 분할 방향 플래그(예를 들어, mtt_split_cu_vertical_flag)의 컨텍스트 정보 ctxInc는 4로 설정될 수 있다. As defined in Table 7, if the sum of the values of vertical direction split permission information (e.g., allowSplitBtVer, allowSplitTtVer) is greater than the sum of horizontal direction split permission information (e.g., allowSplitBtHor, allowSplitTtHor, etc.), the context information ctxInc of the multi-type tree split direction flag (e.g., mtt_split_cu_vertical_flag) may be set to 4.

반면, 수직 방향 분할 허용 정보들(예를 들어, allowSplitBtVer, allowSplitTtVer)의 값의 합이 수평 방향 분할 허용 정보들(예를 들어, allowSplitBtHor, allowSplitTtHor 등)의 합보다 작은 경우, 멀티 타입 트리 분할 방향 플래그(예를 들어, mtt_split_cu_vertical_flag)의 컨텍스트 정보 ctxInc는 3으로 설정될 수 있다. On the other hand, if the sum of the values of vertical direction split permission information (e.g., allowSplitBtVer, allowSplitTtVer) is less than the sum of horizontal direction split permission information (e.g., allowSplitBtHor, allowSplitTtHor, etc.), the context information ctxInc of the multi-type tree split direction flag (e.g., mtt_split_cu_vertical_flag) can be set to 3.

또한, 멀티 타입 트리 분할 타입 플래그의 컨텍스트 정보를 유도하기 위해, 멀티 타입 트리 분할 방향 플래그의 컨텍스트 정보가 이용될 수 있다. Additionally, to derive context information of a multi-type tree split type flag, context information of a multi-type tree split direction flag can be used.

다만, 표 7에 정의된 바에 따르면, 멀티 타입 트리 분할 방향 플래그의 컨텍스트 정보는 현재 블록의 색 성분(Color components)와는 무관하게 유도될 수 있다. However, as defined in Table 7, the context information of the multi-type tree splitting direction flag can be derived regardless of the color components of the current block.

듀얼 트리 분할 구조에 따르면, 휘도 성분 및 색차 성분 각각에 대해 블록 분할 관련 신택스 요소가 획득될 수 있다. 그럼에도 불구하고, 휘도 성분 및 색차 성분 각각의 멀티 타입 트리 분할 방향 플래그는 색상 정보와 무관하게 동일한 컨텍스트 정보를 이용하여 복호화될 수 있다. 따라서, 부호화 효율이 감소될 수 있다. According to the dual-tree partitioning structure, block partitioning-related syntax elements can be obtained for each of the luminance and chrominance components. However, the multi-type tree partitioning direction flags for each of the luminance and chrominance components can be decoded using the same context information, regardless of the color information. Therefore, encoding efficiency may be reduced.

부호화 효율을 향상시키기 위해, 트리 타입이 듀얼 트리인 경우, 멀티 타입 트리 분할 방향 플래그의 컨텍스트 정보는 휘도 성분 및 색차 성분 각각에 대하여 유도될 수 있다. To improve encoding efficiency, when the tree type is a dual tree, context information of the multi-type tree splitting direction flag can be derived for each of the luminance component and the chrominance component.

구체적으로, 트리 타입이 듀얼 트리인 경우, 블록 분할 허용 정보는 색 성분에 따라 유도될 수 있다. 그리고, 블록 분할 허용 정보를 기초로 멀티 타입 트리 분할 방향 플래그의 컨텍스트 정보가 유도될 수 있다. 일 예로, 휘도 성분의 블록 분할 허용 정보를 기초로, 휘도 성분의 멀티 타입 트리 분할 방향 플래그의 컨텍스트 정보가 유도될 수 있다. 그리고, 색차 성분의 블록 분할 허용 정보를 기초로, 색차 성분의 멀티 타입 트리 분할 방향 플래그의 컨텍스트 정보가 유도될 수 있다. 따라서, 코딩 블록의 색 성분에 적합한 멀티 타입 트리 분할 방향 플래그의 컨텍스트 정보가 유도될 수 있다. Specifically, when the tree type is a dual tree, block splitting permission information can be derived based on the color component. Then, context information of a multi-type tree splitting direction flag can be derived based on the block splitting permission information. For example, context information of a multi-type tree splitting direction flag of a luminance component can be derived based on block splitting permission information of a luminance component. Then, context information of a multi-type tree splitting direction flag of a chrominance component can be derived based on block splitting permission information of a chrominance component. Therefore, context information of a multi-type tree splitting direction flag suitable for a color component of a coding block can be derived.

또한, 멀티 타입 트리 분할 방향 플래그의 컨텍스트 정보가 휘도 성분 및 색차 성분 각각에 대해 유도되는 경우, 멀티 타입 트리 분할 타입 플래그의 컨텍스트 정보는 휘도 성분 및 색차 성분 각각에 대해 유도될 수 있다. In addition, when context information of the multi-type tree split direction flag is derived for each of the luminance component and the chrominance component, context information of the multi-type tree split type flag can be derived for each of the luminance component and the chrominance component.

즉, 트리 타입이 듀얼 트리인 경우, 휘도 성분의 멀티 타입 트리 분할 방향 플래그의 값 및 컨텍스트 정보를 이용하여, 휘도 성분의 멀티 타입 트리 분할 타입 플래그의 컨텍스트 정보가 유도될 수 있다. 그리고, 색차 성분의 멀티 타입 트리 분할 방향 플래그의 값 및 컨텍스트 정보를 이용하여, 색차 성분의 멀티 타입 트리 분할 타입 플래그의 컨텍스트 정보가 유도될 수 있다. That is, when the tree type is a dual tree, context information of the multi-type tree split type flag of the luminance component can be derived using the value and context information of the multi-type tree split direction flag of the luminance component. And, context information of the multi-type tree split type flag of the chrominance component can be derived using the value and context information of the multi-type tree split direction flag of the chrominance component.

또는, 현재 블록의 색 성분과 무관하게 멀티 타입 트리 분할 방향 플래그의 컨텍스트 정보를 유도할 것을 지시하는 정보가 시그널링되는 경우, 소정의 색 성분에 따라 유도되는 블록 분할 허용 정보를 기초로 멀티 타입 트리 분할 방향 플래그의 컨텍스트 정보가 유도될 수 있다. 여기서, 상기 시그널링 정보는 소정의 색 성분을 지시하는 정보를 포함할 수 있다. 그리고, 상기 시그널링 정보는 시퀀스, GOP 픽처 슬라이스, CTU 등의 단위로 시그널링될 수 있다. Alternatively, if information indicating that context information of a multi-type tree splitting direction flag is to be derived regardless of the color component of the current block is signaled, the context information of the multi-type tree splitting direction flag can be derived based on block splitting permission information derived according to a predetermined color component. Here, the signaling information can include information indicating a predetermined color component. In addition, the signaling information can be signaled in units such as a sequence, a GOP picture slice, and a CTU.

현재 블록의 멀티 타입 트리 분할에 관한 신택스 요소들의 컨텍스트 정보를 결정하는 방법에 대한 영상 복호화 방법은 아래에 설명하는 바와 같을 수 있다.A method for image decoding that determines context information of syntax elements regarding multi-type tree partitioning of the current block may be as described below.

도 8은 본 개시의 일 실시 예에 따른 현재 블록의 멀티 타입 트리 분할에 관한 신택스 요소들의 컨텍스트 정보를 결정하는 방법에 대한 영상 복호화 방법을 나타내는 흐름도이다. 도 8의 영상 복호화 방법은 영상 복호화 장치에 의해 수행될 수 있다. FIG. 8 is a flowchart illustrating an image decoding method for determining context information of syntax elements related to multi-type tree partitioning of a current block according to an embodiment of the present disclosure. The image decoding method of FIG. 8 may be performed by an image decoding device.

도 8을 참조하면, 영상 복호화 장치는 현재 블록에 대한 블록 분할 허용 정보를 유도할 수 있다(S810). 여기서, 현재 블록의 트리 타입이 듀얼 트리인 경우, 블록 분할 허용 정보는 현재 블록의 색 성분에 따라 유도될 수 있다.Referring to FIG. 8, the image decoding device can derive block splitting permission information for the current block (S810). Here, if the tree type of the current block is a dual tree, the block splitting permission information can be derived based on the color components of the current block.

영상 복호화 장치는 블록 분할 허용 정보를 기초로 멀티 타입 트리 분할 플래그의 컨텍스트 정보를 유도할 수 있다(S820). 여기서, 멀티 타입 트리 분할 플래그의 컨텍스트 정보는 색 성분에 따라 유도된 블록 분할 허용 정보를 기초로 유도될 수 있다. The video decoding device can derive context information of a multi-type tree split flag based on block split permission information (S820). Here, the context information of the multi-type tree split flag can be derived based on block split permission information derived according to a color component.

여기서, 블록 분할 허용 정보는 수직 방향 분할 허용 정보 및 수평 방향 분할 허용 정보를 포함할 수 있다. 수직 방향 분할 허용 정보는 수직 방향 이분할 허용 여부 정보 및 수직 방향 삼분할 허용 여부 정보를 포함할 수 있다. 그리고, 수평 방향 분할 허용 정보는 수평 방향 이분할 허용 여부 정보 및 수평 방향 삼분할 허용 여부 정보를 포함할 수 있다. Here, the block splitting permission information may include vertical splitting permission information and horizontal splitting permission information. The vertical splitting permission information may include information on whether vertical bisection is allowed and information on whether vertical trisection is allowed. In addition, the horizontal splitting permission information may include information on whether horizontal bisection is allowed and information on whether horizontal trisection is allowed.

여기서, 멀티 타입 트리 분할 플래그의 컨텍스트 정보는 수직 방향 분할 허용 정보의 값과 수평 방향 분할 허용 정보의 값의 비교 결과를 기초로 유도될 수 있다. Here, the context information of the multi-type tree split flag can be derived based on the result of comparing the value of the vertical split permission information and the value of the horizontal split permission information.

영상 복호화 장치는 유도된 컨텍스트 정보를 기초로 상기 현재 블록의 멀티 타입 트리 분할 플래그의 값을 유도할 수 있다(S830). The image decoding device can derive the value of the multi-type tree split flag of the current block based on the derived context information (S830).

영상 복호화 장치는 멀티 타입 트리 분할 플래그를 기초로 현재 블록을 분할할 수 있다(S840). 여기서, 멀티 타입 트리 분할 플래그는 멀티 타입 트리 분할의 방향을 지시하는 플래그일 수 있다. 또는, 멀티 타입 트리 분할 플래그는 멀티 타입 트리 분할의 타입을 지시하는 플래그일 수 있다. The video decoding device can split the current block based on a multi-type tree split flag (S840). Here, the multi-type tree split flag may be a flag indicating the direction of the multi-type tree split. Alternatively, the multi-type tree split flag may be a flag indicating the type of the multi-type tree split.

한편, 영상 부호화 장치는 아래와 같은 영상 부호화 방법을 수행할 수 있다. Meanwhile, the image encoding device can perform the following image encoding method.

구체적으로, 영상 부호화 장치는 현재 블록에 대한 블록 분할 허용 정보를 결정할 수 있다. Specifically, the video encoding device can determine block splitting allowance information for the current block.

영상 부호화 장치는 현재 블록의 멀티 타입 트리 분할 플래그를 결정할 수 있다. The video encoding device can determine the multi-type tree split flag of the current block.

영상 부호화 장치는 블록 분할 허용 정보를 기초로 멀티 타입 트리 분할 플래그의 컨텍스트 정보를 결정할 수 있다. The video encoding device can determine context information of a multi-type tree split flag based on block splitting permission information.

영상 부호화 장치는 컨텍스트 정보를 기초로 상기 멀티 타입 트리 분할 플래그를 부호화할 수 있다. The video encoding device can encode the multi-type tree split flag based on context information.

여기서, 현재 블록의 트리 타입이 듀얼 트리인 경우, 블록 분할 허용 정보는 현재 블록의 색 성분에 따라 유도될 수 있다. Here, if the tree type of the current block is a dual tree, the block splitting permission information can be derived based on the color component of the current block.

여기서, 멀티 타입 트리 분할 플래그의 컨텍스트 정보는 색 성분에 따라 유도된 블록 분할 허용 정보를 기초로 유도될 수 있다. Here, the context information of the multi-type tree split flag can be derived based on the block split permission information derived according to the color component.

상술한 영상 부호화 방법에 의해 비트스트림이 생성될 수 있다. 상기 비트스트림은 비 일시적 컴퓨터 판독가능한 기록매체에 저장될 수 있으며, 또한, 전송(또는 스트리밍)될 수 있다. A bitstream can be generated by the image encoding method described above. The bitstream can be stored on a non-transitory computer-readable recording medium and can also be transmitted (or streamed).

비디오 복호화 과정에서, 현재 블록의 인터 예측 모드를 기초로 인터 예측이 수행될 수 있다. 예를 들어, 인터 예측 모드는 아핀 모델 기반 인터 예측일 수 있다. 아핀 모델 기반 인터 예측에서, 현재 블록의 움직임 벡터는 아래와 같이 결정될 수 있다. During video decoding, inter-prediction can be performed based on the inter-prediction mode of the current block. For example, the inter-prediction mode can be affine model-based inter-prediction. In affine model-based inter-prediction, the motion vector of the current block can be determined as follows.

도 9는 본 개시의 일 실시 예에 따른 아핀 모델 기반 인터 예측에서, 움직임 벡터를 결정하기 위한 파라미터 모델이다. FIG. 9 is a parameter model for determining a motion vector in an affine model-based inter prediction according to an embodiment of the present disclosure.

도 9를 참고하면, 아핀 모델 기반 인터 예측되는 현재 블록의 움직임 벡터는 2개 이상의 컨트롤 포인트 움직임 벡터(Control Point Motion Vector, CPMV)를 이용하는 움직임 모델에 의해 유도될 수 있다. 현재 블록이 아핀 모델 기반 인터 예측되는 경우, 움직임 벡터는 4-파라미터 모델 및 6-파라미터 모델 중 하나를 이용하여 유도될 수 있다. Referring to Fig. 9, the motion vector of the current block to be inter-predicted based on an affine model can be derived by a motion model using two or more control point motion vectors (CPMVs). When the current block is inter-predicted based on an affine model, the motion vector can be derived using either a 4-parameter model or a 6-parameter model.

구체적으로, 도 9(a)에 도시된 파라미터 모델은 2개의 컨트롤 포인트 움직임 벡터 mv0, mv1를 이용하는 4-파라미터 모델일 수 있다. 4-파라미터 모델에서, 현재 블록 내의 화소의 움직임 벡터는 아래의 수학식에 따라 유도될 수 있다. Specifically, the parameter model illustrated in Fig. 9(a) may be a four-parameter model using two control point motion vectors mv 0 and mv 1 . In the four-parameter model, the motion vector of a pixel within the current block can be derived according to the following mathematical equation.

그리고, 도 9(b)에 도시된 파라미터 모델은 3개의 컨트롤 포인트 움직임 벡터 mv0, mv1, mv2를 이용하는 6-파라미터 모델일 수 있다. 6-파라미터 모델에서, 현재 블록 내의 화소의 움직임 벡터는 아래의 수학식에 따라 유도될 수 있다. And, the parameter model illustrated in Fig. 9(b) may be a 6-parameter model using three control point motion vectors mv 0 , mv 1 , and mv 2 . In the 6-parameter model, the motion vector of a pixel within the current block can be derived according to the mathematical formula below.

여기서, mv0 = {mv0x, mv0y}는 현재 블록의 좌측 상단에 인접한 위치의 컨트롤 포인트 움직임 벡터이고, mv1 = {mv1x, mv1y}는 현재 블록의 우측 상단 위치의 컨트롤 포인트 움직임 벡터이며, mv2 = {mv2x, mv2y}는 현재 블록의 좌하단 위치의 컨트롤 포인트 움직임 벡터일 수 있다. 그리고, W 및 H는 각각 현재 블록의 너비 및 높이를 지시하고, mv = {mvx, mvy}는 화소 위치 {x, y}의 움직임 벡터를 의미할 수 있다.Here, mv0 = {mv 0x , mv 0y } is a control point motion vector at a position adjacent to the upper left corner of the current block, mv1 = {mv 1x , mv 1y } is a control point motion vector at a position at the upper right corner of the current block, and mv2 = {mv 2x , mv 2y } may be a control point motion vector at a position at the lower left corner of the current block. In addition, W and H may indicate the width and height of the current block, respectively, and mv = {mv x , mv y } may mean a motion vector at pixel position {x, y}.

그리고, 현재 블록의 인터 예측 과정에서, AMVR(Adaptive Motion Vector Resolution) 기법이 적용될 수 있다. AMVR은 현재 블록의 움직임 벡터 차분의 해상도를 다양하게 복호화하는 기법일 수 있다. 즉, AMVR이 적용되는 경우, 현재 블록의 움직임 벡터 차분의 해상도는 현재 블록의 코딩 파라미터에 따라 다르게 결정될 수 있다. Additionally, during the inter-prediction process of the current block, the Adaptive Motion Vector Resolution (AMVR) technique can be applied. AMVR can be a technique for decoding the motion vector difference of the current block at various resolutions. In other words, when AMVR is applied, the resolution of the motion vector difference of the current block can be determined differently depending on the coding parameters of the current block.

먼저, 아핀 지시자의 값을 기초로, 현재 블록이 아핀 모델 기반 인터 예측되는지 여부를 판단할 수 있다. 그리고, 움직임 벡터 차분의 해상도는 아핀 지시자, 현재 블록의 예측 모드, 움직임 벡터 차분의 해상도에 관한 정보 중 적어도 하나를 기초로 결정될 수 있다. 움직임 벡터 차분의 해상도에 관한 정보는 AMVR의 적용 여부 플래그 및 AMVR의 정밀도 인덱스 정보를 포함할 수 있다. 예를 들어, 현재 블록의 움직임 벡터 차분의 해상도는 아래의 표 8에 의해 결정될 수 있다. First, based on the value of the affine indicator, it can be determined whether the current block is inter-predicted based on the affine model. Then, the resolution of the motion vector difference can be determined based on at least one of the affine indicator, the prediction mode of the current block, and information regarding the resolution of the motion vector difference. Information regarding the resolution of the motion vector difference can include a flag indicating whether AMVR is applied and information regarding the precision index of the AMVR. For example, the resolution of the motion vector difference of the current block can be determined according to Table 8 below.

표 8에 따르면, 아핀 모델 기반 움직임 보상이 적용되는 경우(즉, inter_affine_flag 값이 1인 경우), 현재 블록의 움직임 벡터 차분의 해상도는 amvr_flag 및 amvr_precision_idx 값에 기초하여, 1/4 샘플, 1/16 샘플 및 1 샘플 단위 중 하나로 결정될 수 있다. 또는 현재 블록의 예측 모드가 IBC 모드인 경우(즉, CuPredMode[chType][x0][y0] == MODE_IBC), 현재 블록의 움직임 벡터 차분의 해상도는 amvr_flag 및 amvr_precision_idx 값에 기초하여, 1 샘플 단위 및 4 샘플 단위 중 하나로 결정될 수 있다. 또는, 아핀 모델 기반 움직임 보상이 적용되지 않고(즉, inter_affine_flag 값이 0인 경우), 현재 블록의 예측 모드가 IBC 모드 이외의 모드인 경우(즉, CuPredMode[chType][x0][y0] != MODE_IBC), 현재 블록의 움직임 벡터 차분의 해상도는 amvr_flag 및 amvr_precision_idx 값에 기초하여, 1/4 샘플 단위, 1/2 샘플 단위, 1 샘플 단위 및 4 샘플 단위 중 하나로 결정될 수 있다. 그리고, 해상도의 값에 대응되는 쉬프트 값이 결정될 수 있다. According to Table 8, when affine model-based motion compensation is applied (i.e., when the inter_affine_flag value is 1), the resolution of the motion vector difference of the current block can be determined as one of 1/4 sample, 1/16 sample, and 1 sample unit based on the amvr_flag and amvr_precision_idx values. Or, when the prediction mode of the current block is the IBC mode (i.e., CuPredMode[chType][x0][y0] == MODE_IBC), the resolution of the motion vector difference of the current block can be determined as one of 1 sample unit and 4 sample units based on the amvr_flag and amvr_precision_idx values. Alternatively, if the affine model-based motion compensation is not applied (i.e., the inter_affine_flag value is 0) and the prediction mode of the current block is other than the IBC mode (i.e., CuPredMode[chType][x0][y0] != MODE_IBC), the resolution of the motion vector difference of the current block can be determined as one of 1/4 sample unit, 1/2 sample unit, 1 sample unit, and 4 sample unit based on the amvr_flag and amvr_precision_idx values. Then, a shift value corresponding to the value of the resolution can be determined.

그리고, 아핀 지시자 및 결정된 쉬프트 값을 기초로, 현재 블록의 움직임 벡터 차분은 아래의 표 9와 같이 변경될 수 있다. And, based on the affine indicator and the determined shift value, the motion vector difference of the current block can be changed as shown in Table 9 below.

현재 블록에 아핀 모델에 기반한 인터 예측이 적용되지 않는 경우, 제1 예측 방향의 움직임 벡터 차분 및 제2 예측 방향의 움직임 벡터 차분의 해상도가 변경될 수 있다. If inter prediction based on an affine model is not applied to the current block, the resolution of the motion vector difference in the first prediction direction and the motion vector difference in the second prediction direction may be changed.

표 9의 수학식 (161) 내지 수학식 (164)에 따르면, MvdL0[x0][y0][compIdx] 및 MvdL1[x0][y0][compIdx]에 AMVRShift 값만큼 쉬프트 연산이 적용될 수 있다. 여기서, compIdx는 0 내지 1의 값을 가지는 벡터 성분 인덱스일 수 있다. According to mathematical expressions (161) to (164) in Table 9, a shift operation can be applied to MvdL0[x0][y0][compIdx] and MvdL1[x0][y0][compIdx] by the AMVRShift value. Here, compIdx can be a vector component index having a value of 0 to 1.

반면, 현재 블록에 아핀 모델에 기반한 인터 예측이 적용되는 경우, 제1 예측 방향의 아핀 움직임 벡터 차분 및 제2 예측 방향의 아핀 움직임 벡터 차분의 해상도가 변경될 수 있다. 여기서, 아핀 움직임 벡터 차분은 컨트롤 포인트의 움직임 벡터 차분(control point motion vector difference, MvdCp)일 수 있다. On the other hand, when inter prediction based on an affine model is applied to the current block, the resolution of the affine motion vector difference in the first prediction direction and the affine motion vector difference in the second prediction direction may be changed. Here, the affine motion vector difference may be a control point motion vector difference (MvdCp).

표 9의 수학식 (165) 내지 (170)에 따르면, MvdCpL0[x0][y0][0][0], MvdCpL1[x0][y0][0][1], MvdCpL0[x0][y0][1][0], MvdCpL1[x0][y0][1][1], MvdCpL0[x0][y0][2][0], 및 MvdCpL1[x0][y0][2][1]에 AMVRShift 값만큼 쉬프트 연산이 적용될 수 있다. 여기서, cpIdx는 0 내지 2의 값을 가지는 컨트롤 포인트의 인덱스일 수 있다. 그리고, compIdx는 0 내지 1의 값을 가지는 벡터 성분 인덱스일 수 있다. According to mathematical expressions (165) to (170) in Table 9, a shift operation can be applied to MvdCpL0[x0][y0][0][0], MvdCpL1[x0][y0][0][1], MvdCpL0[x0][y0][1][0], MvdCpL1[x0][y0][1][1], MvdCpL0[x0][y0][2][0], and MvdCpL1[x0][y0][2][1] by the AMVRShift value. Here, cpIdx can be an index of a control point having a value of 0 to 2. And, compIdx can be a vector component index having a value of 0 to 1.

다만, 표 9에 정의된 바에 따르면, 현재 블록에 아핀 모델에 기반한 인터 예측이 적용되는 경우, 아핀 움직임 벡터 차분의 일부 성분의 해상도가 변경되지 않을 수 있다. 즉, 아핀 움직임 벡터 차분 중 일부 벡터 성분에 대해서만 쉬프트 연산이 적용될 수 있다. However, as defined in Table 9, when inter prediction based on an affine model is applied to the current block, the resolution of some components of the affine motion vector difference may not be changed. That is, the shift operation may be applied only to some vector components of the affine motion vector difference.

표 9에 정의된 바에 따르면, 제1 방향의 아핀 움직임 벡터 차분의 x 성분에 대해서만 쉬프트 연산이 적용되고, 제2 방향의 아핀 움직임 벡터 차분의 y 성분에 대해서만 쉬프트 연산이 적용될 수 있다. 그 결과, 아핀 움직임 벡터 차분 벡터 성분 별로 다른 해상도가 설정될 수 있다. As defined in Table 9, a shift operation can be applied only to the x-component of the affine motion vector difference in the first direction, and a shift operation can be applied only to the y-component of the affine motion vector difference in the second direction. As a result, different resolutions can be set for each affine motion vector difference vector component.

아핀 움직임 벡터 차분 벡터 성분의 해상도를 동일하게 변경하기 위해, 모든 예측 방향의 아핀 움직임 벡터 차분 및 모든 아핀 움직임 벡터 차분의 성분에 쉬프트 연산을 적용할 수 있다. 즉, 현재 블록의 인터 예측이 아핀 모델에 기반한 인터 예측인 경우, 현재 블록의 움직임 벡터 차분의 해상도는 아래의 표 10과 같이 변경될 수 있다. To uniformly change the resolution of the affine motion vector difference vector components, a shift operation can be applied to the affine motion vector differences in all prediction directions and to all components of the affine motion vector differences. That is, if the inter prediction of the current block is an inter prediction based on an affine model, the resolution of the motion vector difference of the current block can be changed as shown in Table 10 below.

표 10에 정의된 바에 따르면, 제1 방향 및 제2 방향의 아핀 움직임 벡터 차분의 모든 벡터 성분에 쉬프트 연산을 적용할 수 있다. 따라서, 아핀 움직임 벡터 차분의 해상도는 모든 벡터 성분에 대해 동일하게 변경될 수 있다. 아핀 움직임 벡터 차분들의 해상도 차이로 인해 발생하는 오차를 최소화할 수 있다. 따라서, 복호화 효율이 향상될 수 있다. As defined in Table 10, shift operations can be applied to all vector components of the affine motion vector differences in the first and second directions. Therefore, the resolution of the affine motion vector differences can be uniformly changed for all vector components. This minimizes errors resulting from differences in the resolution of the affine motion vector differences. Consequently, decoding efficiency can be improved.

현재 블록의 아핀 움직임 벡터 차분의 해상도를 변경하는 방법에 대한 영상 복호화 방법은 아래에 설명하는 바와 같을 수 있다. An image decoding method for changing the resolution of the affine motion vector difference of the current block may be as described below.

도 10은 본 개시의 일 실시 예에 따른 현재 블록의 아핀 움직임 벡터 차분의 해상도를 변경하는 방법에 대한 영상 복호화 방법을 나타내는 흐름도이다. 도 10의 영상 복호화 방법은 영상 복호화 장치에 의해 수행될 수 있다.FIG. 10 is a flowchart illustrating an image decoding method for changing the resolution of an affine motion vector difference of a current block according to an embodiment of the present disclosure. The image decoding method of FIG. 10 can be performed by an image decoding device.

도 10을 참조하면, 영상 복호화 장치는 현재 블록의 아핀 움직임 벡터 차분을 유도할 수 있다(S1010). 여기서, 아핀 움직임 벡터 차분은 제1 예측 방향 아핀 움직임 벡터 차분 및 제2 예측 방향 아핀 움직임 벡터 차분을 포함할 수 있다. 제1 예측 방향 아핀 움직임 벡터 차분 및 제2 예측 방향 아핀 움직임 벡터 차분은 컨트롤 포인트 지시자 및 움직임 벡터 성분 지시자에 의해 정의될 수 있다. 여기서, 컨트롤 포인트 지시자는 0, 1, 2의 값을 지시할 수 있다. 그리고, 움직임 벡터 성분 지시자는 x 성분을 나타내는 0 및 y 성분을 나타내는 1을 지시할 수 있다. Referring to FIG. 10, the image decoding device can derive an affine motion vector difference of a current block (S1010). Here, the affine motion vector difference can include a first prediction direction affine motion vector difference and a second prediction direction affine motion vector difference. The first prediction direction affine motion vector difference and the second prediction direction affine motion vector difference can be defined by a control point indicator and a motion vector component indicator. Here, the control point indicator can indicate a value of 0, 1, or 2. In addition, the motion vector component indicator can indicate 0 indicating an x component and 1 indicating a y component.

영상 복호화 장치는 쉬프트 정보를 유도할 수 있다(S1020). 여기서, 쉬프트 정보는 움직임 벡터의 해상도에 기초하여 유도될 수 있다. 움직임 벡터의 해상도는 현재 블록의 아핀 지시자 및 적응적 움직임 벡터 해상도(adaptive motion vector resolution, AMVR)에 관한 정보를 기초로 유도될 수 있다. 그리고, 적응적 움직임 벡터 해상도에 관한 정보는, AMVR의 적용 여부 플래그 및 AMVR의 정밀도(precision) 인덱스를 포함할 수 있다. The video decoding device can derive shift information (S1020). Here, the shift information can be derived based on the resolution of the motion vector. The resolution of the motion vector can be derived based on the affine indicator of the current block and information about the adaptive motion vector resolution (AMVR). In addition, the information about the adaptive motion vector resolution can include a flag indicating whether AMVR is applied and a precision index of the AMVR.

영상 복호화 장치는 쉬프트 정보에 기초하여 아핀 움직임 벡터 차분의 해상도를 변경할 수 있다(S1030). The image decoding device can change the resolution of the affine motion vector difference based on shift information (S1030).

한편, 도 10에서 설명한 단계들은 영상 부호화 방법에서도 동일하게 수행될 수 있다. 또한, 도 10에서 설명한 단계를 포함하는 영상 부호화 방법에 의해 비트스트림이 생성될 수 있다. 상기 비트스트림은 비 일시적 컴퓨터 판독가능한 기록매체에 저장될 수 있으며, 또한, 전송(또는 스트리밍)될 수 있다.Meanwhile, the steps described in FIG. 10 can be performed in the same manner in an image encoding method. Furthermore, a bitstream can be generated by an image encoding method including the steps described in FIG. 10. The bitstream can be stored on a non-transitory computer-readable recording medium and can also be transmitted (or streamed).

비디오 복호화 과정에서, 현재 블록의 예측 모드는 인터 예측의 하위 모드인 기하학적 분할 모드(geometric partitioning mode, GPM)으로 결정될 수 있다. 기하학적 분할 모드의 현재 블록은 하나의 직선에 의해 두 개의 블록들로 분할될 수 있다. 현재 블록을 분할하는 직선은 분할 방향 및 분할 오프셋으로부터 도출될 수 있다. 현재 블록으로부터 분할된 각각의 블록들은 서로 다르게 유도되는 움직임 정보를 이용하여 인터 예측될 수 있다. During video decoding, the prediction mode of the current block can be determined by geometric partitioning mode (GPM), a submode of inter prediction. In geometric partitioning mode, the current block can be divided into two blocks by a single straight line. The straight line dividing the current block can be derived from the partitioning direction and the partitioning offset. Each block divided from the current block can be inter-predicted using differently derived motion information.

기하학적 분할 모드가 사용되는 경우, 기하학적 분할 모드를 지시하는 인덱스 및 머지 인덱스들이 시그널링될 수 있다. 여기서, 기하학적 분할 모드를 지시하는 인덱스는 현재 블록을 분할하는 직선의 방향 및 오프셋의 조합을 지시할 수 있다. 기하학적 분할 모드를 지시하는 인덱스는 아래 표 11과 같이 현재 블록을 분할하는 직선의 방향 및 오프셋의 조합을 지시할 수 있다.When the geometric partitioning mode is used, indices indicating the geometric partitioning mode and merge indices may be signaled. Here, the indices indicating the geometric partitioning mode may indicate a combination of the direction and offset of a straight line that divides the current block. The indices indicating the geometric partitioning mode may indicate a combination of the direction and offset of a straight line that divides the current block, as shown in Table 11 below.

현재 블록은 아래에 설명하는 바와 같이, 기하학적 분할 모드를 지시하는 인덱스에 따라 분할될 수 있다. The current block can be split according to an index that indicates the geometric splitting mode, as described below.

도 11은 본 개시의 일 실시예에 따른 기하학적 분할 모드를 지시하는 인덱스에 기초한 현재 블록의 분할 구조를 도시한 도면이다.FIG. 11 is a diagram illustrating a segmentation structure of a current block based on an index indicating a geometric segmentation mode according to one embodiment of the present disclosure.

도 11을 참조하면, 사각형 내의 실선은 현재 블록을 분할하는 직선일 수 있다. 사각형의 블록은 실선에 따라 기하학적으로 분할될 수 있다.Referring to Figure 11, the solid line within the square may be a straight line that divides the current block. The blocks of the square may be geometrically divided according to the solid line.

도 11을 참조하면, 20개의 사각형 각각을 분할하는 직선들은 서로 다른 각도(angleIdx)를 가질 수 있다. 여기서, 직선들은 서로 다른 오프셋(distanceIdx)을 가질 수 있다. 그리고, 실선으로 표시된 직선은 기하학적 분할 모드를 지시하는 인덱스에 의해 정의되고, 현재 블록을 분할할 수 있다. 반면, 점선으로 표시된 직선은 기하학적 분할 모드를 지시하는 인덱스에 의해 정의되지 않는 선일 수 있다. Referring to Figure 11, the straight lines dividing each of the 20 squares may have different angles (angleIdx). Here, the straight lines may have different offsets (distanceIdx). Furthermore, the straight lines indicated by solid lines are defined by indices indicating geometric segmentation modes and can segment the current block. Conversely, the straight lines indicated by dotted lines may not be defined by indices indicating geometric segmentation modes.

그리고, 머지 인덱스들은 현재 블록으로부터 분할된 각각의 블록들의 움직임 정보를 유도하기 위한 머지 후보를 지시할 수 있다. 따라서, 현재 블록으로부터 분할된 각각의 블록들의 움직임 정보는 서로 다른 머지 인덱스에 의해 지시되는 머지 후보의 움직임 정보를 기초로 유도될 수 있다. 그리고, 유도된 움직임 정보를 기초로 현재 블록으로부터 분할된 각각의 블록들의 예측 값이 생성될 수 있다. Furthermore, merge indices can indicate merge candidates for deriving motion information for each block split from the current block. Accordingly, motion information for each block split from the current block can be derived based on the motion information of merge candidates indicated by different merge indices. Furthermore, based on the derived motion information, prediction values for each block split from the current block can be generated.

그리고, 현재 블록을 분할하는 직선을 기초로, 각각의 블록들에 대한 예측 값들을 가중합하여 현재 블록에 대한 예측 블록이 생성될 수 있다. 그리고, 기하학적 분할 모드를 이용하여 예측된 현재 블록의 움직임 정보가 저장될 수 있다. Then, based on the straight line dividing the current block, the predicted values for each block can be weighted and combined to generate a predicted block for the current block. Furthermore, motion information for the predicted current block can be stored using a geometric segmentation mode.

도 12는 본 개시의 일 실시예에 따른 기하학적 분할 모드에 의해 예측되는 현재 블록을 도시한 도면이다. FIG. 12 is a diagram illustrating a current block predicted by a geometric segmentation mode according to one embodiment of the present disclosure.

도 12를 참조하면, 제1 분할 블록(1210)에 대한 예측 값인 제1 예측 값 및 제2 분할 블록(1220)에 대한 예측 값인 제2 예측 값이 생성되고, 제1 예측 값 및 제2 예측 값은 가중합될 수 있다. Referring to FIG. 12, a first prediction value, which is a prediction value for a first split block (1210), and a second prediction value, which is a prediction value for a second split block (1220), are generated, and the first prediction value and the second prediction value can be weighted.

그리고, 현재 블록을 분할하는 직선의 분할 방향(φ) 및 오프셋(ρ)을 기초로, 현재 블록 내의 샘플과 현재 블록을 분할하는 직선 간의 거리(d)가 도출될 수 있다. 그리고, 도출된 거리 값을 기초로, 현재 블록 내의 샘플에 적용되는 가중치 값인 ω0가 유도될 수 있다. 현재 블록 내의 샘플의 예측 값은 제1 예측 값에 ω0를 적용하고, 제2 예측 값에 1- ω0를 적용하여 유도될 수 있다. Then, based on the division direction (φ) and offset (ρ) of the straight line that divides the current block, the distance (d) between the sample in the current block and the straight line that divides the current block can be derived. Then, based on the derived distance value, the weight value ω 0 applied to the sample in the current block can be derived. The predicted value of the sample in the current block can be derived by applying ω 0 to the first predicted value and applying 1- ω 0 to the second predicted value.

즉, 기하학적 분할 모드를 적용하여 현재 블록에 대한 인터 예측을 적용한 경우, 제1 분할 블록 및 제2 분할 블록의 움직임 정보를 기초로 현재 블록의 움직임 정보가 저장될 수 있다. 그리고, 현재 블록의 움직임 정보는 이후 블록의 복호화 과정에 이용될 수 있다. 여기서, 현재 블록의 움직임 정보는 4x4 크기의 블록 단위로 저장될 수 있다. 여기서, 현재 블록의 움직임 정보는 아래 표 12와 같이 저장될 수 있다. That is, when inter prediction is applied to the current block by applying the geometric partitioning mode, the motion information of the current block can be stored based on the motion information of the first partition block and the second partition block. In addition, the motion information of the current block can be used in the decoding process of the subsequent block. Here, the motion information of the current block can be stored in units of 4x4 blocks. Here, the motion information of the current block can be stored as shown in Table 12 below.

표 12를 참조하면, 기하학적 분할 모드인 현재 블록의 움직임 정보가 저장될 수 있다. 여기서, 현재 블록의 움직임 정보는 움직임 벡터 정보, 참조 픽처 정보, 예측 방향 이용 정보 및 양방향 예측 인덱스를 포함할 수 있다. Referring to Table 12, motion information of the current block in geometric segmentation mode can be stored. Here, the motion information of the current block can include motion vector information, reference picture information, prediction direction utilization information, and bidirectional prediction index.

다만, 표 12에 정의된 바에 따르면, 일반적인 인터 모드로 예측된 현재 블록의 움직임 정보와 달리, 기하학적 분할 모드인 현재 블록의 움직임 정보는 인터폴레이션 필터 정보를 포함하지 않는다. 여기서, 인터폴레이션 필터는 인터 예측된 루마 샘플에 대한 인터폴레이션 필터일 수 있다. 예를 들어, 인터폴레이션 필터는 하프 샘플 인터폴레이션 필터(half sample interpolation filter)일 수 있다. 그리고, 인터폴레이션 필터 정보는 분수 단위의 샘플 위치에 대한 보간 필터인 인터폴레이션 필터의 유형을 지시하는 인덱스(예를 들어, hpelIfIdx)일 수 있다. However, as defined in Table 12, unlike the motion information of the current block predicted in the general inter mode, the motion information of the current block in the geometric partition mode does not include interpolation filter information. Here, the interpolation filter may be an interpolation filter for inter-predicted luma samples. For example, the interpolation filter may be a half-sample interpolation filter. And, the interpolation filter information may be an index (e.g., hpelIfIdx) indicating the type of the interpolation filter, which is an interpolation filter for fractional sample positions.

기하학적 분할 모드인 현재 블록의 움직임 정보는 인터폴레이션 필터 정보를 포함하지 않는다. 따라서, 이후에 예측되는 블록의 인터 예측 과정에서 현재 블록의 움직임 정보를 이용하는 경우, 인터폴레이션 필터 정보를 획득하지 못할 수 있다. The motion information of the current block in geometric segmentation mode does not include interpolation filter information. Therefore, when using the motion information of the current block during the inter-prediction process of a subsequently predicted block, interpolation filter information may not be obtained.

기하학적 분할 모드인 현재 블록의 인터폴레이션 필터 정보를 활용하기 위해, 기하학적 분할 모드로 예측된 현재 블록의 움직임 정보는 아래 표 13과 같이 저장될 수 있다. In order to utilize the interpolation filter information of the current block in geometric segmentation mode, the motion information of the current block predicted in geometric segmentation mode can be stored as shown in Table 13 below.

표 13을 참조하면, 기하학적 분할 모드인 현재 블록의 움직임 정보가 저장될 수 있다. 여기서, 현재 블록의 움직임 정보는 움직임 벡터 정보, 참조 픽처 정보, 예측 방향 이용 정보, 양방향 예측 인덱스 및 인터폴레이션 필터 정보를 더 포함할 수 있다. 따라서, 이후에 예측되는 블록의 인터 예측 과정에서 현재 블록의 움직임 정보를 이용하는 경우, 현재 블록의 인터폴레이션 필터 정보를 포함하는 움직임 정보를 획득할 수 있다.Referring to Table 13, motion information of the current block in geometric segmentation mode can be stored. Here, the motion information of the current block may further include motion vector information, reference picture information, prediction direction utilization information, bidirectional prediction index, and interpolation filter information. Therefore, when the motion information of the current block is used in the inter prediction process of a block to be predicted later, motion information including the interpolation filter information of the current block can be obtained.

구체적으로, 현재 블록을 참조하는 블록의 인터 예측 과정에서, 현재 블록의 샘플에 분수 샘플 인터폴레이션(fractional sample interpolation)이 적용될 수 있다. 분수 샘플 인터폴레이션은 현재 블록의 샘플에 인터폴레이션 필터 계수(interpolation filter coefficient)를 수직 방향 및 수평 방향으로 적용하여 수행될 수 있다. 여기서, 인터폴레이션 필터 계수는 아래의 표 14와 같이 정의될 수 있다. Specifically, during the inter prediction process of a block referencing the current block, fractional sample interpolation may be applied to the samples of the current block. Fractional sample interpolation may be performed by applying interpolation filter coefficients to the samples of the current block in the vertical and horizontal directions. Here, the interpolation filter coefficients may be defined as shown in Table 14 below.

표 14에 정의된 바에 따르면, 인터폴레이션 계수는 현재 블록의 인터폴레이션 필터 정보(예를 들어, hpelIfIdx)를 기초로 결정될 수 있다. As defined in Table 14, the interpolation coefficient can be determined based on the interpolation filter information (e.g., hpelIfIdx) of the current block.

즉, 현재 블록의 인터폴레이션 필터 정보를 기초로 인터폴레이션 필터 계수를 결정하고, 현재 블록의 예측 샘플에 인터폴레이션 필터 계수를 적용하여, 현재 블록을 참조하는 블록의 예측 블록이 생성될 수 있다. That is, an interpolation filter coefficient is determined based on the interpolation filter information of the current block, and the interpolation filter coefficient is applied to the prediction sample of the current block, so that a prediction block of a block referencing the current block can be generated.

기하학적 분할 모드인 현재 블록의 움직임 정보를 저장하는 방법에 대한 영상 복호화 방법은 아래에 설명하는 바와 같을 수 있다. An image decoding method for storing motion information of the current block in geometric segmentation mode may be as described below.

도 13은 본 개시의 일 실시 예에 따른 기하학적 분할 모드인 현재 블록의 움직임 정보를 저장하는 방법에 대한 영상 복호화 방법을 나타내는 흐름도이다. 도 13의 영상 복호화 방법은 영상 복호화 장치에 의해 수행될 수 있다.FIG. 13 is a flowchart illustrating an image decoding method for storing motion information of a current block in a geometric segmentation mode according to an embodiment of the present disclosure. The image decoding method of FIG. 13 may be performed by an image decoding device.

도 13을 참조하면, 영상 복호화 장치는 현재 블록의 기하학적 분할 인덱스를 유도할 수 있다(S1310). 여기서, 기하학적 분할 인덱스는 분할선의 각도 및 블록 중심과 분할선의 거리를 유도하는데 이용될 수 있다. 여기서, 분할선은 현재 블록을 비대칭적으로 분할할 수 있다. Referring to FIG. 13, the image decoding device can derive a geometric segmentation index of the current block (S1310). Here, the geometric segmentation index can be used to derive the angle of the segmentation line and the distance between the block center and the segmentation line. Here, the segmentation line can asymmetrically segment the current block.

영상 복호화 장치는 기하학적 분할 인덱스를 기초로 현재 블록의 제1 예측 블록 및 제2 예측 블록을 가중합하여 최종 예측 블록을 생성할 수 있다(S1320). 여기서, 제1 예측 블록은 제1 움직임 정보에 의해 생성되고, 제2 예측 블록은 제2 움직임 정보에 의해 생성될 수 있다. 그리고, 제1 움직임 정보는 제2 움직임 정보와 상이할 수 있다. The video decoding device can generate a final prediction block by weighting the first prediction block and the second prediction block of the current block based on the geometric segmentation index (S1320). Here, the first prediction block may be generated based on the first motion information, and the second prediction block may be generated based on the second motion information. In addition, the first motion information may be different from the second motion information.

그리고, 제1 예측 블록의 샘플에 적용되는 가중치는 분할선과 상기 샘플 간의 거리를 기초로 유도될 수 있다. And, the weight applied to the sample of the first prediction block can be derived based on the distance between the dividing line and the sample.

영상 복호화 장치는 제1 예측 블록 및 제2 예측 블록의 움직임 정보에 기초하여 현재 블록의 움직임 정보를 저장할 수 있다(S1330). 여기서, 현재 블록의 움직임 정보는 4x4 크기의 블록 단위로 저장될 수 있다. The video decoding device can store motion information of the current block based on motion information of the first prediction block and the second prediction block (S1330). Here, the motion information of the current block can be stored in units of 4x4 blocks.

현재 블록의 움직임 정보를 저장하는 단계에서, 저장되는 현재 블록의 움직임 정보는 움직임 벡터, 참조 픽처 정보, 예측 방향 정보, 양방향 예측 인덱스 정보 및 인터폴레이션 필터 정보를 포함할 수 있다. 여기서, 양방향 예측 인덱스 정보의 값은 0으로 고정될 수 있다. In the step of storing motion information of the current block, the motion information of the current block to be stored may include a motion vector, reference picture information, prediction direction information, bidirectional prediction index information, and interpolation filter information. Here, the value of the bidirectional prediction index information may be fixed to 0.

한편, 도 13에서 설명한 단계들은 영상 부호화 방법에서도 동일하게 수행될 수 있다. 또한, 도 13에서 설명한 단계를 포함하는 영상 부호화 방법에 의해 비트스트림이 생성될 수 있다. 상기 비트스트림은 비 일시적 컴퓨터 판독가능한 기록매체에 저장될 수 있으며, 또한, 전송(또는 스트리밍)될 수 있다.Meanwhile, the steps described in FIG. 13 can be performed in the same manner in an image encoding method. Furthermore, a bitstream can be generated by an image encoding method including the steps described in FIG. 13. The bitstream can be stored on a non-transitory computer-readable recording medium and can also be transmitted (or streamed).

본 개시의 예시적인 방법들은 설명의 명확성을 위해서 동작의 시리즈로 표현되어 있지만, 이는 단계가 수행되는 순서를 제한하기 위한 것은 아니며, 필요한 경우에는 각각의 단계가 동시에 또는 상이한 순서로 수행될 수도 있다. 본 개시에 따른 방법을 구현하기 위해서, 예시하는 단계에 추가적으로 다른 단계를 포함하거나, 일부의 단계를 제외하고 나머지 단계를 포함하거나, 또는 일부의 단계를 제외하고 추가적인 다른 단계를 포함할 수도 있다.While the exemplary methods of this disclosure are presented as a series of operations for clarity of description, this is not intended to limit the order in which the steps are performed, and individual steps may be performed simultaneously or in different orders, if desired. To implement a method according to this disclosure, additional steps may be included in addition to the steps illustrated, some steps may be excluded and the remaining steps included, or some steps may be excluded and additional steps included.

본 개시의 다양한 실시 예는 모든 가능한 조합을 나열한 것이 아니고 본 개시의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시 예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다.The various embodiments of the present disclosure are not intended to list all possible combinations but rather to illustrate representative aspects of the present disclosure, and the matters described in the various embodiments may be applied independently or in combinations of two or more.

본 개시의 다양한 실시 예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다. Various embodiments of the present disclosure may be implemented by hardware, firmware, software, or a combination thereof. In the case of hardware implementation, the embodiments may be implemented by one or more Application Specific Integrated Circuits (ASICs), Digital Signal Processors (DSPs), Digital Signal Processing Devices (DSPDs), Programmable Logic Devices (PLDs), Field Programmable Gate Arrays (FPGAs), general processors, controllers, microcontrollers, microprocessors, etc.

또는, 본 개시의 다양한 실시 예들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 그리고, 상기 실시예에 따른 부호화 방법에 의해 생성된 비트스트림은 비 일시적인 컴퓨터 판독 가능한 기록 매체에 저장될 수 있다. Alternatively, various embodiments of the present disclosure may be implemented in the form of program commands that can be executed by various computer components and recorded on a computer-readable recording medium. Furthermore, a bitstream generated by the encoding method according to the above embodiment may be stored on a non-transitory computer-readable recording medium.

상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 개시를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다. The computer-readable recording medium may include program commands, data files, data structures, etc., either singly or in combination. The program commands recorded on the computer-readable recording medium may be those specifically designed and configured for the present disclosure or may be known and available to those skilled in the art of computer software.

이상에서, 본 개시는 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면을 기초로 설명하고 있다. 다만, 본 개시의 실시예들은 본 개시의 전반적인 이해를 돕기 위해서 제공된 것일 뿐이며, 본 개시를 상기 실시예들에 한정하는 것은 아니다. 따라서, 본 개시의 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.As described above, the present disclosure has been described based on specific details, such as specific components, and limited embodiments and drawings. However, the embodiments of the present disclosure are provided merely to facilitate a general understanding of the present disclosure and are not intended to limit the present disclosure to these embodiments. Accordingly, those skilled in the art will appreciate that various modifications and variations can be made based on the description.

따라서, 본 개시의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 개시의 사상의 범주에 속한다고 할 것이다. Therefore, the spirit of the present disclosure should not be limited to the embodiments described above, and all modifications that are equivalent or equivalent to the following claims as well as the claims are considered to fall within the scope of the spirit of the present disclosure.

본 발명은 영상을 부호화하는 장치, 영상을 복호화하는 장치 및 비트스트림을 저장하는 기록 매체에 이용될 수 있다. The present invention can be used in a device for encoding an image, a device for decoding an image, and a recording medium for storing a bitstream.

Claims (10)

영상 복호화 방법에 있어서, In the video decryption method, 현재 블록에 대한 블록 분할 허용 정보를 유도하는 단계; A step of deriving block splitting permission information for the current block; 상기 블록 분할 허용 정보를 기초로 멀티 타입 트리 분할 플래그의 컨텍스트 정보를 유도하는 단계; A step of deriving context information of a multi-type tree split flag based on the above block splitting permission information; 유도된 컨텍스트 정보를 기초로 상기 현재 블록의 멀티 타입 트리 분할 플래그의 값을 유도하는 단계; 및 A step of deriving a value of a multi-type tree split flag of the current block based on the derived context information; and 상기 멀티 타입 트리 분할 플래그를 기초로 현재 블록을 분할하는 단계를 포함하고, A step of splitting the current block based on the multi-type tree split flag, 상기 현재 블록의 트리 타입이 듀얼 트리인 경우, 상기 블록 분할 허용 정보는 상기 현재 블록의 색 성분에 따라 유도되고, If the tree type of the current block is a dual tree, the block splitting permission information is derived according to the color component of the current block, 상기 멀티 타입 트리 분할 플래그의 컨텍스트 정보는 색 성분에 따라 유도된 블록 분할 허용 정보를 기초로 유도되는 것을 특징으로 하는, 영상 복호화 방법. An image decoding method, characterized in that the context information of the above multi-type tree split flag is derived based on block splitting permission information derived according to a color component. 제1항에 있어서, In the first paragraph, 상기 멀티 타입 트리 분할 플래그는 멀티 타입 트리 분할의 방향을 지시하는 플래그인 것을 특징으로 하는, 영상 복호화 방법. An image decoding method, characterized in that the above multi-type tree splitting flag is a flag indicating the direction of multi-type tree splitting. 제1항에 있어서, In the first paragraph, 상기 블록 분할 허용 정보는 수직 방향 분할 허용 정보 및 수평 방향 분할 허용 정보를 포함하는 것을 특징으로 하는, 영상 복호화 방법. An image decoding method, characterized in that the block division permission information includes vertical division permission information and horizontal division permission information. 제3항에 있어서, In the third paragraph, 수직 방향 분할 허용 정보는 수직 방향 이분할 허용 여부 정보 및 수직 방향 삼분할 허용 여부 정보를 포함하는 것을 특징으로 하는, 영상 복호화 방법. An image decoding method, characterized in that the vertical direction division allowance information includes information on whether vertical direction bisection is allowed and information on whether vertical direction trisection is allowed. 제3항에 있어서, In the third paragraph, 수평 방향 분할 허용 정보는 수평 방향 이분할 허용 여부 정보 및 수평 방향 삼분할 허용 여부 정보를 포함하는 것을 특징으로 하는, 영상 복호화 방법. An image decoding method, characterized in that the horizontal direction division allowance information includes information on whether horizontal direction bisection is allowed and information on whether horizontal direction trisection is allowed. 제3항에 있어서, In the third paragraph, 멀티 타입 트리 분할 플래그의 컨텍스트 정보는 수직 방향 분할 허용 정보의 값과 수평 방향 분할 허용 정보의 값의 비교 결과를 기초로 유도되는 것을 특징으로 하는, 영상 복호화 방법. A method for decoding an image, characterized in that context information of a multi-type tree split flag is derived based on a comparison result between a value of vertical split permission information and a value of horizontal split permission information. 제3항에 있어서, In the third paragraph, 상기 멀티 타입 트리 분할 플래그는 멀티 타입 트리 분할의 타입을 지시하는 플래그인 것을 특징으로 하는, 영상 복호화 방법. An image decoding method, characterized in that the above multi-type tree split flag is a flag indicating the type of multi-type tree split. 영상 부호화 방법에 있어서,In the image encoding method, 현재 블록에 대한 블록 분할 허용 정보를 결정하는 단계; A step for determining block splitting permission information for the current block; 상기 현재 블록의 멀티 타입 트리 분할 플래그를 결정하는 단계; A step of determining a multi-type tree split flag of the current block; 상기 블록 분할 허용 정보를 기초로 상기 멀티 타입 트리 분할 플래그의 컨텍스트 정보를 결정하는 단계; 및 A step of determining context information of the multi-type tree split flag based on the block splitting permission information; and 상기 컨텍스트 정보를 기초로 상기 멀티 타입 트리 분할 플래그를 부호화하는 단계를 포함하고, A step of encoding the multi-type tree split flag based on the context information, 상기 현재 블록의 트리 타입이 듀얼 트리인 경우, 상기 블록 분할 허용 정보는 상기 현재 블록의 색 성분에 따라 유도되고, If the tree type of the current block is a dual tree, the block splitting permission information is derived according to the color component of the current block, 상기 멀티 타입 트리 분할 플래그의 컨텍스트 정보는 색 성분에 따라 유도된 블록 분할 허용 정보를 기초로 유도되는 것을 특징으로 하는, 영상 부호화 방법. A video encoding method, characterized in that the context information of the multi-type tree split flag is derived based on block splitting permission information derived according to a color component. 영상 부호화 방법에 의해 생성된 비트스트림을 저장하는 비 일시적 컴퓨터 판독가능한 기록 매체에 있어서,In a non-transitory computer-readable recording medium storing a bitstream generated by a video encoding method, 상기 영상 부호화 방법은, The above image encoding method is, 현재 블록에 대한 블록 분할 허용 정보를 결정하는 단계; A step for determining block splitting permission information for the current block; 상기 현재 블록의 멀티 타입 트리 분할 플래그를 결정하는 단계; A step of determining a multi-type tree split flag of the current block; 상기 블록 분할 허용 정보를 기초로 상기 멀티 타입 트리 분할 플래그의 컨텍스트 정보를 결정하는 단계; 및 A step of determining context information of the multi-type tree split flag based on the block splitting permission information; and 상기 컨텍스트 정보를 기초로 상기 멀티 타입 트리 분할 플래그를 부호화하는 단계를 포함하고, A step of encoding the multi-type tree split flag based on the context information, 상기 현재 블록의 트리 타입이 듀얼 트리인 경우, 상기 블록 분할 허용 정보는 상기 현재 블록의 색 성분에 따라 유도되고, If the tree type of the current block is a dual tree, the block splitting permission information is derived according to the color component of the current block, 상기 멀티 타입 트리 분할 플래그의 컨텍스트 정보는 색 성분에 따라 유도된 블록 분할 허용 정보를 기초로 유도되는 것을 특징으로 하는, 비 일시적 컴퓨터 판독가능한 기록 매체.A non-transitory computer-readable recording medium, characterized in that the context information of the multi-type tree split flag is derived based on block split permission information derived according to a color component. 영상 부호화 방법에 의해 생성된 비트스트림의 전송 방법에 있어서, In a method for transmitting a bitstream generated by a video encoding method, 상기 전송 방법은 상기 비트스트림을 전송하는 단계를 포함하고, The above transmission method includes a step of transmitting the bitstream, 상기 영상 부호화 방법은, The above image encoding method is, 현재 블록에 대한 블록 분할 허용 정보를 결정하는 단계; A step for determining block splitting permission information for the current block; 상기 현재 블록의 멀티 타입 트리 분할 플래그를 결정하는 단계; A step of determining a multi-type tree split flag of the current block; 상기 블록 분할 허용 정보를 기초로 상기 멀티 타입 트리 분할 플래그의 컨텍스트 정보를 결정하는 단계; 및 A step of determining context information of the multi-type tree split flag based on the block splitting permission information; and 상기 컨텍스트 정보를 기초로 상기 멀티 타입 트리 분할 플래그를 부호화하는 단계를 포함하고, A step of encoding the multi-type tree split flag based on the context information, 상기 현재 블록의 트리 타입이 듀얼 트리인 경우, 상기 블록 분할 허용 정보는 상기 현재 블록의 색 성분에 따라 유도되고, If the tree type of the current block is a dual tree, the block splitting permission information is derived according to the color component of the current block, 상기 멀티 타입 트리 분할 플래그의 컨텍스트 정보는 색 성분에 따라 유도된 블록 분할 허용 정보를 기초로 유도되는 것을 특징으로 하는, 전송 방법. A transmission method, characterized in that the context information of the above multi-type tree split flag is derived based on block splitting permission information derived according to a color component.
PCT/KR2025/001496 2024-01-26 2025-01-24 Image encoding/decoding method and device Pending WO2025159579A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20240012281 2024-01-26
KR10-2024-0012281 2024-01-26
KR10-2025-0011567 2025-01-24
KR1020250011567A KR20250117306A (en) 2024-01-26 2025-01-24 Image encoding/decoding method and apparatus

Publications (1)

Publication Number Publication Date
WO2025159579A1 true WO2025159579A1 (en) 2025-07-31

Family

ID=96545299

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2025/001496 Pending WO2025159579A1 (en) 2024-01-26 2025-01-24 Image encoding/decoding method and device

Country Status (1)

Country Link
WO (1) WO2025159579A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190020856A (en) * 2011-03-06 2019-03-04 엘지전자 주식회사 Intra prediction method of chrominance block using luminance sample, and apparatus using same
KR20210068007A (en) * 2018-12-21 2021-06-08 삼성전자주식회사 Video encoding method and apparatus, video decoding method and apparatus
KR20220072700A (en) * 2020-11-25 2022-06-02 경북대학교 산학협력단 Video Encoding Using Neural Network
KR102520192B1 (en) * 2010-04-13 2023-04-11 지이 비디오 컴프레션, 엘엘씨 Video coding using multi-tree sub - divisions of images
KR20230144479A (en) * 2022-04-07 2023-10-16 현대자동차주식회사 Method and apparatus for encoding/decoding image and recording medium for storing bitstream

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102520192B1 (en) * 2010-04-13 2023-04-11 지이 비디오 컴프레션, 엘엘씨 Video coding using multi-tree sub - divisions of images
KR20190020856A (en) * 2011-03-06 2019-03-04 엘지전자 주식회사 Intra prediction method of chrominance block using luminance sample, and apparatus using same
KR20210068007A (en) * 2018-12-21 2021-06-08 삼성전자주식회사 Video encoding method and apparatus, video decoding method and apparatus
KR20220072700A (en) * 2020-11-25 2022-06-02 경북대학교 산학협력단 Video Encoding Using Neural Network
KR20230144479A (en) * 2022-04-07 2023-10-16 현대자동차주식회사 Method and apparatus for encoding/decoding image and recording medium for storing bitstream

Similar Documents

Publication Publication Date Title
WO2020251330A1 (en) Image encoding/decoding method and device for utilizing simplified mpm list generation method, and method for transmitting bitstream
WO2020036390A1 (en) Method and apparatus for processing image signal
WO2020013569A1 (en) Image decoding method and apparatus based on affine motion prediction in image coding system
WO2020185045A1 (en) Video encoding/decoding method and device using segmentation limitation for chroma block, and method for transmitting bitstream
WO2021060847A1 (en) Image encoding/decoding method and device for determining division mode on basis of color format, and method for transmitting bitstream
WO2019194463A1 (en) Method for processing image and apparatus therefor
WO2020251329A1 (en) Image encoding/decoding method and device having simplified mip mode mapping, and method for transmitting bitstream
WO2021040410A1 (en) Method for decoding video for residual coding and device therefor
WO2020256485A1 (en) Image encoding/decoding method and device using adaptive size limiting of chroma block and bitstream transmission method
WO2020262963A1 (en) Image encoding/decoding method and apparatus using maximum transform size setting for chroma block, and method for transmitting bitstream
WO2020262962A1 (en) Method and apparatus for encoding/decoding video using maximum size limitation of chroma transform block, and method for transmitting bitstream
WO2020262960A1 (en) Image encoding/decoding method and device using maximum transform size restriction of chroma component encoding block, and method for transmitting bitstream
WO2020231144A1 (en) Image encoding/decoding method and device using affine tmvp, and method for transmitting bit stream
WO2023048500A1 (en) Image encoding/decoding method, method for transmitting bitstream, and recording medium in which bitstream is stored
WO2023022530A1 (en) Image encoding/decoding method and apparatus for performing reference sample filtering on basis of intra prediction mode, and method for transmitting bitstream
WO2021137577A1 (en) Image encoding/decoding method and apparatus for performing prediction on basis of reconfigured prediction mode type of leaf node, and bitstream transmission method
WO2020256488A1 (en) Image encoding/decoding method and apparatus for limiting size of chroma block, and method for transmitting bitstream
WO2024147660A2 (en) Intra prediction-based image encoding/decoding method, device, and recording medium for storing bitstream
WO2024080771A1 (en) Image encoding/decoding method based on intra prediction, method for transmitting bitstream, and recording medium storing bitstream
WO2023200217A1 (en) Image encoding/decoding method using template matching, method for transmitting bitstream, and recording medium having bitstream stored therein
WO2023055191A1 (en) Method and apparatus for encoding/decoding image, and recording medium having bitstream stored therein
WO2023132590A1 (en) Image encoding/decoding method, method of transmitting bitstream, and recording medium in which bitstream is stored
WO2025159579A1 (en) Image encoding/decoding method and device
WO2020256486A1 (en) Image encoding and decoding method and device for limiting partition condition of chroma block, and method for transmitting bitstream
WO2020256525A1 (en) Image encoding and decoding method and device on basis of matrix-based intra prediction mode, and method for transmitting bitstream

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 25745247

Country of ref document: EP

Kind code of ref document: A1