[go: up one dir, main page]

KR102345458B1 - A method of setting advanced motion vector predictor list and an apparatus having the same - Google Patents

A method of setting advanced motion vector predictor list and an apparatus having the same Download PDF

Info

Publication number
KR102345458B1
KR102345458B1 KR1020170048441A KR20170048441A KR102345458B1 KR 102345458 B1 KR102345458 B1 KR 102345458B1 KR 1020170048441 A KR1020170048441 A KR 1020170048441A KR 20170048441 A KR20170048441 A KR 20170048441A KR 102345458 B1 KR102345458 B1 KR 102345458B1
Authority
KR
South Korea
Prior art keywords
motion vector
prediction
unit
picture
list
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020170048441A
Other languages
Korean (ko)
Other versions
KR20170134196A (en
Inventor
한종기
이재영
Original Assignee
세종대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 세종대학교산학협력단 filed Critical 세종대학교산학협력단
Priority to CN201780033620.7A priority Critical patent/CN109417638B/en
Priority to CN202210048882.3A priority patent/CN114222137B/en
Priority to CN202210049201.5A priority patent/CN114222139B/en
Priority to CN202210049050.3A priority patent/CN114222138B/en
Priority to CN202210049739.6A priority patent/CN114222141B/en
Priority to CN202210049407.8A priority patent/CN114222140B/en
Priority to PCT/KR2017/005497 priority patent/WO2017209455A2/en
Priority to US16/305,214 priority patent/US11736712B2/en
Publication of KR20170134196A publication Critical patent/KR20170134196A/en
Application granted granted Critical
Publication of KR102345458B1 publication Critical patent/KR102345458B1/en
Priority to US18/341,460 priority patent/US12143624B2/en
Priority to US18/922,566 priority patent/US20250047895A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명은 예측 모션 벡터 리스트를 구성하는 방법 및 이의 장치에 관한 것이다. 본 발명의 일 실시예에 따른 예측 모션 벡터 리스트 구성 방법은, 현재 블록의 제 1 방향에 대한 모션 벡터를 획득하는 단계; 및 상기 제 1 방향에 대한 모션 벡터를 이용하여 상기 2 방향의 예측 모션 벡터 리스트를 구성하는 적어도 하나 이상의 제 2 방향의 예측 모션 벡터 후보자를 설정하는 단계를 포함한다.The present invention relates to a method and apparatus for constructing a predictive motion vector list. A method for constructing a predictive motion vector list according to an embodiment of the present invention includes: obtaining a motion vector for a first direction of a current block; and setting at least one prediction motion vector candidate in the second direction constituting the prediction motion vector list in the two directions by using the motion vector in the first direction.

Description

예측 모션 벡터 리스트를 구성하는 방법 및 이의 장치{A METHOD OF SETTING ADVANCED MOTION VECTOR PREDICTOR LIST AND AN APPARATUS HAVING THE SAME}A method for constructing a predictive motion vector list and an apparatus thereof

본 발명은 예측 모션 벡터 리스트를 구성하는 방법 및 이의 장치에 관한 것으로서, 더욱 상세하게는, 모션 벡터를 이용하는 예측 모션 벡터 리스트를 구성하는 방법 및 이의 장치에 관한 것이다.The present invention relates to a method and an apparatus for constructing a predictive motion vector list, and more particularly, to a method and an apparatus for constructing a predictive motion vector list using motion vectors.

최근 HD(High Definition) 영상 및 UHD(Ultra High Definition) 영상과 같은 고해상도, 고품질의 영상에 대한 수요가 다양한 응용 분야에서 증가하고 있다. 영상 데이터가 고해상도, 고품질이 될수록 기존의 영상 데이터에 비하여 상대적으로 데이터량이 증가하기 때문에, 기존의 유무선 광대역 회선과 같은 매체를 이용하여 영상 데이터를 전송하거나 기존의 저장 매체를 이용하여 저장하는 경우, 전송 비용과 저장 비용이 증가하게 된다. 영상 데이터가 고해상도, 고품질화 됨에 따라 발생하는 이러한 문제들을 해결하기 위하여 고효율의 영상 압축 기술들이 활용될 수 있다.Recently, the demand for high-resolution and high-quality images such as HD (High Definition) images and UHD (Ultra High Definition) images is increasing in various application fields. Since the amount of data increases relative to the existing image data as the image data becomes high-resolution and high-quality, when transmitting image data using a medium such as an existing wired/wireless broadband line or storing it using an existing storage medium, the transmission Costs and storage costs will increase. High-efficiency image compression techniques can be used to solve these problems that occur as image data becomes high-resolution and high-quality.

비디오 압축 기술들에서는, 연속되는 픽쳐들 간의 시간적 중복성을 제거하기 위하여 모션 예측이 이용된다. 시간적 중복성을 검출하기 위하여, 복수 개의 참조 픽쳐들을 사용하여 현재 블록의 움직임을 예측하고, 모션보상을 수행하여 예측 블록을 생성한다. 모션정보는 적어도 하나의 참조 픽쳐 인덱스와 적어도 하나의 모션 벡터를 포함한다.In video compression techniques, motion prediction is used to remove temporal redundancy between successive pictures. In order to detect temporal redundancy, a motion of a current block is predicted using a plurality of reference pictures, and a prediction block is generated by performing motion compensation. The motion information includes at least one reference picture index and at least one motion vector.

또한, 모션정보를 획득하기 위하여 현재 블록은 양 방향 예측을 수행하여 현재 블록의 예측 모션 벡터 리스트를 구성하고, 이를 이용하여 현재 블록의 모션 벡터와의 차분값인 차분 모션 벡터를 디코더로 전송할 수 있다. 이 경우, 각 방향에 대한 예측 모션 벡터들을 포함하는 예측 모션 벡터 리스트는 서로 독립적이다. 그러나, 다양한 사이즈들이 화면간 예측에 사용되면서 현재 블록의 모션정보와 하나 이상의 인접 블록들의 모션정보들 사이의 연관성이 증가하게 된다. 따라서, 상술된 종래의 압축 방법에 따르면, 픽쳐의 사이즈가 고화질 픽쳐보다 커지고 모션 예측 및 모션보상을 위하여 다양한 사이즈가 이용되는 경우, 모션정보의 압축 효율이 떨어지게 된다.In addition, in order to obtain motion information, the current block constructs a predicted motion vector list of the current block by performing bi-directional prediction, and using this, a differential motion vector that is a difference value from the motion vector of the current block may be transmitted to the decoder. . In this case, the predictive motion vector list including the predictive motion vectors for each direction is independent of each other. However, as various sizes are used for inter prediction, the correlation between motion information of the current block and motion information of one or more adjacent blocks increases. Accordingly, according to the above-described conventional compression method, when the size of a picture becomes larger than that of a high-quality picture and various sizes are used for motion prediction and motion compensation, the compression efficiency of motion information decreases.

본 발명이 해결하고자 하는 과제는 현재 블록의 양방향 예측시 상관도가 높은 정보를 이용함으로써 화면간 예측의 코딩 효율을 향상시키는 예측 모션 벡터 리스트의 구성 방법 및 구성 장치를 제공하는 것이다.SUMMARY OF THE INVENTION An object of the present invention is to provide a method and apparatus for constructing a predictive motion vector list for improving coding efficiency of inter prediction by using highly correlated information in bidirectional prediction of a current block.

또한, 본 발명이 해결하고자 하는 다른 과제는 현재 블록의 양방향 예측을 위한 참조 픽쳐들의 동일여부에 따라 코딩 효율을 높일 수 있는 예측 모션 벡터 리스트를 구성하는 방법 및 이의 장치를 제공하는 것이다.Another object of the present invention is to provide a method and an apparatus for constructing a predictive motion vector list capable of increasing coding efficiency according to whether reference pictures for bidirectional prediction of a current block are identical.

상기 과제를 해결하기 위한 본 발명의 일 실시예에 따른 예측 모션 벡터 리스트의 구성 방법은, 현재 블록의 제 1 방향에 대한 모션 벡터를 획득하는 단계; 및 상기 제 1 방향에 대한 모션 벡터를 이용하여 상기 제 2 방향의 예측 모션 벡터 리스트를 구성하는 적어도 하나 이상의 제 2 방향의 예측 모션 벡터 후보자를 설정하는 단계를 포함한다.A method of constructing a predictive motion vector list according to an embodiment of the present invention for solving the above problems includes: obtaining a motion vector for a first direction of a current block; and setting at least one prediction motion vector candidate in the second direction constituting the prediction motion vector list in the second direction by using the motion vector for the first direction.

상기 적어도 하나 이상의 제 2 방향의 예측 모션 벡터 후보자는 상기 제 1 방향에 대한 모션 벡터를 복사하여 설정될 수 있고, 상기 제 1 방향에 대한 참조 픽쳐와 상기 제 2 방향에 대한 참조 픽쳐가 동일한 픽쳐 정보를 가질 수 있다. 또한, 상기 제 2 방향의 예측 모션 벡터 후보자는 가장 작은 코드워드를 갖는 순서로 인덱스에 할당될 수 있다.The at least one prediction motion vector candidate in the second direction may be set by copying the motion vector in the first direction, and the reference picture for the first direction and the reference picture for the second direction are the same picture information can have In addition, the prediction motion vector candidates of the second direction may be assigned to the index in the order of having the smallest codeword.

일 실시예에서, 상기 제 2 방향의 예측 모션 벡터 후보자는 상기 제 1 방향에 대한 모션 벡터를 픽쳐 정보에 기초하여 스케일링하여 설정될 수 있고, 상기 제 1 방향에 대한 참조 픽쳐와 상기 제 2 방향에 대한 참조 픽쳐의 픽쳐 정보가 상이할 수 있다. 또한, 상기 제 2 방향의 예측 모션 벡터 후보자는 가장 작은 코드워드를 갖는 순서로 인덱스에 할당될 수 있다.In an embodiment, the prediction motion vector candidate of the second direction may be set by scaling the motion vector for the first direction based on picture information, and the reference picture for the first direction and the second direction The picture information of the reference picture for the reference picture may be different. In addition, the prediction motion vector candidates of the second direction may be assigned to the index in the order of having the smallest codeword.

상기 적어도 하나 이상의 제 2 방향의 예측 모션 벡터 후보자를 설정하는 단계 이전에, 상기 제 1 방향에 대한 참조 픽쳐 및 상기 제 2 방향에 대한 참조 픽쳐의 픽쳐 정보가 동일한지 여부를 판단하는 단계를 더 포함한다. Prior to the step of setting the predictive motion vector candidates in the at least one or more second directions, determining whether picture information of the reference picture for the first direction and the reference picture for the second direction is the same do.

상기 과제를 해결하기 위한 본 발명의 다른 실시예에 따른 예측 모션 벡터 리스트의 구성 장치는 현재 블록의 제 1 방향에 대한 모션 벡터를 획득하는 모션 벡터 획득부; 및 상기 제 1 방향에 대한 모션 벡터를 이용하여 상기 2 방향의 예측 모션 벡터 리스트를 구성하는 적어도 하나 이상의 제 2 방향의 예측 모션 벡터 후보자를 설정하는 제 2 방향 예측 모션 벡터 리스트 설정부를 포함한다.According to another embodiment of the present invention, there is provided an apparatus for constructing a predictive motion vector list, comprising: a motion vector obtaining unit for obtaining a motion vector for a first direction of a current block; and a second direction prediction motion vector list setting unit configured to set at least one prediction motion vector candidate in the second direction constituting the prediction motion vector list in the two directions by using the motion vector for the first direction.

상기 제 2 방향 예측 모션 벡터 리스트 설정부는, 상기 제 1 방향에 대한 모션 벡터를 이용하여 적어도 하나 이상의 상기 제 2 방향의 예측 모션 벡터 후보자를 설정하는 제 1 예측 모션 벡터 후보자 설정부; 및 상기 현재 블록의 공간적 및 시간적 이웃 블록들을 이용하여 적어도 하나 이상의 상기 제 2 방향의 예측 모션 벡터 후보자를 설정하는 제 2 예측 모션 벡터 후보자 설정부를 포함한다.The second direction prediction motion vector list setting unit may include: a first prediction motion vector candidate setting unit configured to set at least one predictive motion vector candidate in the second direction by using the motion vector for the first direction; and a second prediction motion vector candidate setting unit configured to set at least one prediction motion vector candidate in the second direction using spatial and temporal neighboring blocks of the current block.

상기 제 1 예측 모션 벡터 후보자 설정부에서 획득되는 상기 제 2 방향의 예측 모션 벡터 후보자는 상기 제 1 방향에 대한 모션 벡터를 복사하여 설정될 수 있고, 상기 제 1 방향에 대한 참조 픽쳐와 상기 제 2 방향에 대한 참조 픽쳐의 픽쳐 정보가 동일할 수 있다. The prediction motion vector candidate in the second direction obtained by the first prediction motion vector candidate setting unit may be set by copying the motion vector in the first direction, and the reference picture for the first direction and the second direction The picture information of the reference picture with respect to the direction may be the same.

상기 제 1 예측 모션 벡터 후보자 설정부에서 획득되는 상기 제 2 방향의 예측 모션 벡터 후보자는 상기 제 1 방향에 대한 모션 벡터를 픽쳐 정보에 기초하여 스케일링하여 설정될 수 있고, 상기 제 1 방향에 대한 참조 픽쳐와 상기 제 2 방향에 대한 참조 픽쳐의 픽쳐 정보가 상이할 수 있다. 또한, 상기 제 1 예측 모션 벡터 후보자 설정부에서 획득되는 상기 제 2 방향의 예측 모션 벡터 후보자는 가장 작은 코드워드를 갖는 순서로 인덱스에 할당될 수 있다.The prediction motion vector candidate of the second direction obtained by the first prediction motion vector candidate setting unit may be set by scaling the motion vector for the first direction based on picture information, and a reference to the first direction Picture information of a picture and a reference picture with respect to the second direction may be different. In addition, the prediction motion vector candidates in the second direction obtained by the first prediction motion vector candidate setting unit may be allocated to the index in the order of having the smallest codeword.

본 발명의 실시예에 따르면, 양방향 예측을 수행하는 현재 블록의 제 1 방향의 모션 벡터를 제 2 방향에 대한 예측 모션 벡터 리스트 구성시 적어도 하나 이상의 예측 모션 벡터 후보자의 설정시 이용함으로써, 화면간 예측시 상관도가 높은 정보를 이용하게 되어 화면간 예측의 코딩 효율을 향상시키는 예측 모션 벡터 리스트의 구성 방법 및 구성 장치를 제공하는 것이다.According to an embodiment of the present invention, inter prediction by using a motion vector in a first direction of a current block for which bidirectional prediction is performed is used to set at least one predictive motion vector candidate when constructing a predictive motion vector list for a second direction. An object of the present invention is to provide a method and apparatus for constructing a prediction motion vector list that uses information with high temporal correlation to improve coding efficiency of inter prediction.

또한, 본 발명의 다른 실시예에 따르면, 현재 블록의 양방향 예측을 위한 참조 픽쳐들의 동일 여부를 판단하고, 동일 여부에 따라 제 1 방향에 대한 모션 벡터를 다양한 방법으로 제 2 방향의 예측 모션 벡터 리스트 구성시 적어도 하나 이상의 예측 모션 벡터 후보자로 사용함으로써, 코딩 효율을 높일 수 있는 예측 모션 벡터 리스트를 구성하는 방법 및 이의 장치를 제공하는 것이다.In addition, according to another embodiment of the present invention, it is determined whether reference pictures for bidirectional prediction of the current block are identical, and a motion vector for the first direction is calculated in various ways according to whether the reference pictures are identical in the second direction. To provide a method and an apparatus for constructing a predictive motion vector list capable of increasing coding efficiency by using at least one predictive motion vector candidate during construction.

도 1은 본 발명의 일 실시예에 따른 비디오 부호화 장치를 개략적으로 나타낸 블록도이다.
도 2는 본 발명의 일 실시예에 따른 비디오 복호화 장치를 개략적으로 나타낸 블록도이다.
도 3은 일반적인 방법에 따른 현재 블록의 예측 모션 벡터 후보자(MVP candidate)를 획득하는 위치를 설명하기 위한 것이다.
도 4 내지 도 5b는 일반적인 방법에 따른 현재 블록의 예측 모션 벡터 리스트를 구성하는 방법을 설명하기 위한 것이다.
도 6은 본 발명의 일 실시예에 따른 예측 모션 벡터 리스트를 구성하는 방법을 설명하기 위한 순서도이다.
도 7은 본 발명의 일 실시예에 따른 예측 모션 벡터 리스트를 구성하는 장치를 설명하기 위한 순서도이다.
도 8 및 도 9는 본 발명의 다른 실시예에 따른 예측 모션 벡터 리스트를 구성하는 방법에 대한 순서도 및 구성 장치를 나타내는 것이다.
도 10a 및 도 10b는 본 발명의 일 실시예에 따른 예측 모션 벡터 리스트를 구성하는 방법을 설명하기 위한 것이다.
도 11은 본 발명의 또 다른 실시예에 따른 예측 모션 벡터 리스트를 구성하는 방법을 나타내는 순서도이다.
1 is a schematic block diagram of a video encoding apparatus according to an embodiment of the present invention.
2 is a block diagram schematically illustrating a video decoding apparatus according to an embodiment of the present invention.
FIG. 3 is for explaining a position at which a prediction motion vector candidate (MVP candidate) of a current block is obtained according to a general method.
4 to 5B are for explaining a method of constructing a prediction motion vector list of a current block according to a general method.
6 is a flowchart illustrating a method of constructing a predictive motion vector list according to an embodiment of the present invention.
7 is a flowchart illustrating an apparatus for constructing a predictive motion vector list according to an embodiment of the present invention.
8 and 9 are flowcharts showing a method for constructing a predictive motion vector list and an apparatus for constructing a predictive motion vector list according to another embodiment of the present invention.
10A and 10B are for explaining a method of constructing a predictive motion vector list according to an embodiment of the present invention.
11 is a flowchart illustrating a method of constructing a predictive motion vector list according to another embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 발명의 실시예들은 당해 기술 분야에서 통상의 지식을 가진 자에게 본 발명을 더욱 완전하게 설명하기 위하여 제공되는 것이며, 하기 실시예는 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 하기 실시예에 한정되는 것은 아니다. 오히려, 이들 실시예는 본 개시를 더욱 충실하고 완전하게 하고, 당업자에게 본 발명의 사상을 완전하게 전달하기 위하여 제공되는 것이다.Examples of the present invention are provided to more completely explain the present invention to those of ordinary skill in the art, and the following examples may be modified in various other forms, and the scope of the present invention is as follows It is not limited to an Example. Rather, these examples are provided so that this disclosure will be more thorough and complete, and will fully convey the spirit of the invention to those skilled in the art.

또한, 도면에서 각 유닛의 두께나 크기는 설명의 편의 및 명확성을 위하여 과장된 것이며, 도면상에서 동일 부호는 동일한 요소를 지칭한다. 본 명세서에서 사용된 바와 같이, 용어 "및/또는"은 해당 열거된 항목 중 어느 하나 및 하나 이상의 모든 조합을 포함한다.In addition, in the drawings, the thickness or size of each unit is exaggerated for convenience and clarity of description, and the same reference numerals in the drawings refer to the same elements. As used herein, the term “and/or” includes any one and all combinations of one or more of those listed items.

본 명세서에서 사용된 용어는 특정 실시예를 설명하기 위하여 사용되며, 본 발명을 제한하기 위한 것이 아니다. 본 명세서에서 사용된 바와 같이, 단수 형태는 문맥상 다른 경우를 분명히 지적하는 것이 아니라면, 복수의 형태를 포함할 수 있다. 또한, 본 명세서에서 사용되는 경우 "포함한다 (comprise)" 및/또는 "포함하는 (comprising)"은 언급한 형상들, 숫자, 단계, 동작, 부재, 요소 및/또는 이들 그룹의 존재를 특정하는 것이며, 하나 이상의 다른 형상, 숫자, 동작, 부재, 요소 및/또는 그룹들의 존재 또는 부가를 배제하는 것이 아니다.The terminology used herein is used to describe specific embodiments, not to limit the present invention. As used herein, the singular form may include the plural form unless the context clearly dictates otherwise. Also, as used herein, “comprise” and/or “comprising” refers to the specified presence of the recited shapes, numbers, steps, actions, members, elements, and/or groups thereof. and does not exclude the presence or addition of one or more other shapes, numbers, movements, members, elements and/or groups.

본 명세서에서 제 1, 제 2 등의 용어가 다양한 구성요소, 부재, 부품, 영역, 및/또는 부분들을 설명하기 위하여 사용되지만, 이들 구성요소, 부재, 부품, 영역, 및/또는 부분들은 이들 용어에 의해 한정되어서는 안됨은 자명하다. 이들 용어는 하나의 구성요소, 부재, 부품, 영역 또는 부분을 다른 영역 또는 부분과 구별하기 위하여만 사용되며, 순서를 제한하지 아니한다. 따라서, 이하 상술할 제 1 구성요소, 부재, 부품, 영역 또는 부분은 본 발명의 가르침으로부터 벗어나지 않고서도 제 2 구성요소, 부재, 부품, 영역 또는 부분을 지칭할 수 있다. 또한, 및/또는 용어는 복수의 관련되어 기재되는 항목들의 조합 또는 복수의 관련되어 기재되는 항목들 중의 어느 항목을 포함한다.Although the terms first, second, etc. are used herein to describe various components, members, parts, regions, and/or parts, these components, members, parts, regions, and/or parts are used herein to refer to these terms. It is obvious that it should not be limited by These terms are used only to distinguish one component, member, part, region or part from another region or part, and do not limit the order. Accordingly, a first component, member, component, region or portion discussed below may refer to a second component, member, component, region or portion without departing from the teachings of the present invention. Also, and/or terms include combinations of a plurality of related recited items or any of a plurality of related recited items.

어느 구성요소가 다른 구성요소에 "연결되어" 있거나 "접속되어" 있다고 언급되는 경우에는, 상기 다른 구성요소에 직접적으로 연결되어 있거나 접속되어 있는 경우 뿐만 아니라, 상기 어느 구성요소와 상기 다른 구성요소 사이에 다른 구성요소가 존재하는 경우를 포함하여 이해되어야 한다. 그러나, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있거나 "직접 접속되어" 있다고 지칭되는 경우에는, 중간에 다른 구성요소가 존재하지 아니하고 상기 어느 구성요소와 상기 다른 구성요소가 직접 연결 또는 접속된 것으로 이해되어야 할 것이다.When a component is referred to as being “connected” or “connected” to another component, it is not only directly connected or connected to the other component, but also between the component and the other component. It should be understood including the case where other components exist in However, when a component is referred to as being “directly connected” or “directly connected” to another component, there is no other component in the middle and the component and the other component are directly connected or connected to each other. should be understood as being

이하, 본 발명의 실시예들은 본 발명의 이상적인 실시예들을 개략적으로 도시하는 도면들을 참조하여 설명한다. 도면들에 있어서, 예를 들면, 부재들의 크기와 형상은 설명의 편의와 명확성을 위하여 과장될 수 있으며, 실제 구현시, 도시된 형상의 변형들이 예상될 수 있다. 따라서, 본 발명의 실시예는 본 명세서에 도시된 영역의 특정 형상에 제한된 것으로 해석되어서는 아니된다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described with reference to the drawings schematically illustrating ideal embodiments of the present invention. In the drawings, for example, the size and shape of the members may be exaggerated for convenience and clarity of description, and in actual implementation, variations of the illustrated shape may be expected. Accordingly, embodiments of the present invention should not be construed as limited to the specific shapes of the regions shown herein.

도 1은 본 발명의 일 실시예에 따른 영상 부호화 장치를 개략적으로 나타낸 블록도이다.1 is a block diagram schematically illustrating an image encoding apparatus according to an embodiment of the present invention.

도 1을 참조하면, 영상 부호화 장치(100)는 픽쳐 분할부(105), 화면간 예측부(110), 화면내 예측부(115), 변환부(120), 양자화부(125), 재정렬부(130), 엔트로피 부호화부(135), 역양자화부(140), 역변환부(145), 필터부(150) 및 메모리(155)를 포함한다. Referring to FIG. 1 , the image encoding apparatus 100 includes a picture divider 105 , an inter prediction unit 110 , an intra prediction unit 115 , a transform unit 120 , a quantization unit 125 , and a rearrangement unit. 130 , an entropy encoding unit 135 , an inverse quantization unit 140 , an inverse transform unit 145 , a filter unit 150 , and a memory 155 .

도 1에 나타난 각 구성요소들은 영상 부호화 장치에서 서로 다른 특징적인 기능들을 나타내기 위하여 독립적으로 도시한 것이며, 각 구성요소들이 분리된 하드웨어나 각각 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성요소는 설명의 편의상 각각의 구성요소로 나열하여 포함한 것으로 각 구성요소 중 적어도 두 개의 구성요소가 합쳐져 하나의 구성요소로 이루어지거나, 하나의 구성요소가 복수개의 구성요소로 나뉘어져 기능을 수행할 수 있다. 이러한 각 구성요소가 통합된 실시예 또는 분리된 실시예도 본 발명의 본질적인 측면에서 벗어나지 않는 한 본 발명의 권리범위에 포함될 수 있다.Each component shown in FIG. 1 is independently illustrated to represent different characteristic functions in the image encoding apparatus, and does not mean that each component is composed of separate hardware or one software component. That is, each component is listed as each component for convenience of description, and at least two components of each component are combined to form one component, or one component is divided into a plurality of components to provide a function. can be done An embodiment in which each of these components is integrated or a separate embodiment may be included in the scope of the present invention without departing from the essential aspect of the present invention.

픽쳐 분할부(105)는 입력된 픽쳐를 적어도 하나의 처리 단위로 분할할 수 있다. 상기 처리 단위는 예측 블록(Prediction Unit, 이하 'PU'라 함)일 수 있고, 변환 블록(Transform Unit, 이하 'TU'라 함)일 수도 있으며, 코딩 블록(Coding Unit, 이하 'CU'라 함)일 수도 있다. 다만, 본 명세서에서는 설명의 편의를 위해, 예측 블록을 예측 단위, 변환 블록을 변환 단위, 부호화 또는 복호화 블록을 부호화 단위 또는 복호화 단위로 표현할 수도 있다. 일 실시예에서, 픽쳐 분할부(105)는 하나의 픽쳐에 대하여 복수의 부호화 블록, 예측 블록, 및 변환 블록의 조합으로 분할하고, 소정의 기준(예를 들어, 비용 함수)에 기초하여 하나의 부호화 블록, 예측 블록, 및 변환 블록의 조합을 선택하여 픽쳐를 부호화할 수 있다.The picture divider 105 may divide the input picture into at least one processing unit. The processing unit may be a prediction block (hereinafter referred to as 'PU'), a transform block (hereinafter referred to as 'TU'), or a coding block (Coding Unit, hereinafter referred to as 'CU') ) may be However, in the present specification, for convenience of explanation, a prediction block may be expressed as a prediction unit, a transform block may be expressed as a transformation unit, and a coding or decoding block may be expressed as a coding unit or a decoding unit. In an embodiment, the picture dividing unit 105 divides one picture into a combination of a plurality of coding blocks, prediction blocks, and transform blocks, and divides one picture into one picture based on a predetermined criterion (eg, a cost function). A picture may be encoded by selecting a combination of a coding block, a prediction block, and a transform block.

예를 들어, 하나의 픽쳐는 복수 개의 코딩 블록으로 분할될 수 있다. 일 실시예에서, 하나의 픽쳐는 쿼드 트리 구조(Quad Tree Structure) 또는 바이너리 트리 구조와 같은 재귀적인 트리 구조를 사용하여 상기 코딩 블록을 분할할 수 있다. 또한, 하나의 영상 또는 최대 크기 코딩 블록(largest coding unit)를 루트로 하여 다른 코딩 블록으로 분할되는 코딩 블록은 분할된 코딩 블록의 개수만큼의 자식 노드를 가지고 분할될 수 있다. For example, one picture may be divided into a plurality of coding blocks. In an embodiment, one picture may divide the coding block using a recursive tree structure such as a quad tree structure or a binary tree structure. In addition, a coding block divided into other coding blocks with one image or a largest coding unit as a root may be divided having as many child nodes as the number of divided coding blocks.

이러한 과정을 통하여 더 이상 분할되지 아니하는 코딩 블록은 리프 노드가 될 수 있다. 예를 들어, 하나의 코딩 블록에 대하여 정방형 분할만이 가능하다고 가정한 경우에는 하나의 코딩 블록은 예를 들어, 4 개의 코딩 블록으로 분할될 수 있다. 그러나, 본 발명에서는 상기 코딩 블록, 예측 블록 및/또는 변환 블록은 분할 시 대칭 분할에 한정하지 아니하고, 비대칭 분할(Asymmetric Partition)도 가능하며 4 개의 분할 뿐만 아니라 2 개의 분할도 가능하다. 그러나, 이러한 분할 개수는 예시적일 뿐 본 발명이 이에 한정되는 것은 아니다. A coding block that is no longer divided through this process may become a leaf node. For example, if it is assumed that only square division is possible with respect to one coding block, one coding block may be divided into, for example, four coding blocks. However, in the present invention, the coding block, the prediction block, and/or the transform block are not limited to symmetric partitioning when partitioning, and an asymmetric partition is also possible, and not only four partitions but also two partitions are possible. However, the number of divisions is merely exemplary and the present invention is not limited thereto.

예측 블록도 하나의 코딩 블록 내에서 동일한 크기의 적어도 하나의 정방형(square) 또는 비정방형(non-square) 등의 형태를 가지고 분할된 것일 수 있고, 하나의 코딩 블록 내에서 분할된 예측 블록 중 어느 하나의 예측 블록이 다른 하나의 예측 블록과 상이한 형태와 크기를 가지도록 분할될 수도 있다. 일 실시예에서는, 코딩 블록과 예측 블록이 동일할 수 있다. 즉, 코딩 블록과 예측 블록을 구분하지 아니하고, 분할된 코딩 블록을 기준으로 예측이 수행될 수도 있다. The prediction block may also be partitioned in the form of at least one square or non-square having the same size within one coding block, and any of the prediction blocks divided within one coding block. One prediction block may be divided to have a shape and size different from that of the other prediction block. In one embodiment, the coding block and the prediction block may be the same. That is, the prediction may be performed based on the divided coding block without distinguishing the coding block and the prediction block.

예측부는 화면간 예측(inter prediction)을 수행하는 화면간 예측부(110) 및 화면내 예측(intra prediction)을 수행하는 화면내 예측부(115)를 포함할 수 있다. 코딩 효율을 높이기 위하여, 영상 신호를 그대로 부호화하는 것이 아니라, 이미 부호화 및 복호화가 완료된 픽쳐 내부의 특정 영역을 이용하여 영상을 예측하고, 원래의 영상과 예측 영상 사이의 레지듀얼 값을 부호화한다. 또한, 예측을 위하여 사용된 예측 모드 정보, 모션 벡터 정보 등은 레지듀얼 값과 함께 엔트로피 부호화부(135)에서 부호화되어 복호화부에 전달될 수 있다. 특정한 부호화 모드를 이용하는 경우에는 예측부(110, 115)를 통하여 예측 블록을 생성하지 아니하고, 원본 블록을 그대로 부호화하여 복호화부에 전송하는 것도 가능하다.The prediction unit may include an inter prediction unit 110 performing inter prediction and an intra prediction unit 115 performing intra prediction. In order to increase coding efficiency, an image is predicted using a specific region inside a picture that has already been encoded and decoded, instead of encoding the image signal as it is, and a residual value between the original image and the predicted image is encoded. Also, prediction mode information, motion vector information, etc. used for prediction may be encoded in the entropy encoder 135 together with a residual value and transmitted to the decoder. In the case of using a specific encoding mode, it is also possible to encode the original block as it is without generating a prediction block through the prediction units 110 and 115 and transmit it to the decoder.

일 실시예에서, 예측부(110, 115)는 예측 블록에 대하여 화면간 예측을 수행할 것인지 화면내 예측을 수행할 것인지를 결정하고, 화면간 예측 모드, 모션 벡터, 및 참조 픽쳐와 같은 상기 예측 방법 각각에 따른 구체적인 정보들을 결정할 수 있다. 이 경우, 예측이 수행되는 처리 단위와 예측 방법, 그리고 세부 처리 단위는 각각 다를 수 있다. 예를 들어, 예측 모드와 예측 방법은 예측 블록에 따라 결정되더라도, 예측의 수행은 변환 블록에 따라 수행될 수 있다.In an embodiment, the prediction units 110 and 115 determine whether inter prediction or intra prediction is to be performed on the prediction block, and the prediction such as an inter prediction mode, a motion vector, and a reference picture. Specific information according to each method may be determined. In this case, a processing unit in which prediction is performed, a prediction method, and a detailed processing unit may be different. For example, although a prediction mode and a prediction method are determined according to a prediction block, prediction may be performed according to a transform block.

예측부(110, 115)는, 픽쳐 분할부(105)에서 분할된 픽쳐의 처리 단위에 대하여 예측을 수행하여 예측된 샘플로 구성되는 예측 블록을 생성할 수 있다. 예측부(110, 115)에서의 픽쳐 처리 단위는 코딩 블록 단위일 수 있고, 변환 블록 단위일 수도 있으며, 예측 블록 단위일 수도 있다.The prediction units 110 and 115 may generate a prediction block including samples predicted by performing prediction on a processing unit of the picture divided by the picture division unit 105 . A picture processing unit in the prediction units 110 and 115 may be a coding block unit, a transform block unit, or a prediction block unit.

화면간 예측부(110)는 현재 픽쳐의 이전 픽쳐 또는 이후 픽쳐 중 적어도 하나 이상의 픽쳐의 정보를 기초로 예측 블록을 예측할 수 있고, 경우에 따라 현재 픽쳐 내의 코딩이 완료된 일부 영역의 정보를 기초로 예측 블록을 예측할 수 있다. 화면간 예측부(110)는 참조 픽쳐 보간부, 모션 예측부, 및 모션 보상부를 포함할 수 있다.The inter prediction unit 110 may predict a prediction block based on information on at least one of a picture before or after a picture of the current picture, and in some cases, prediction based on information of a partial region where coding has been completed in the current picture Blocks can be predicted. The inter prediction unit 110 may include a reference picture interpolator, a motion prediction unit, and a motion compensator.

일 실시예에서, 화면간 예측부(110)에서 예측을 위하여 이용되는 상기 하나 이상의 픽쳐의 정보는 이미 부호화 및 복호화가 진행된 픽쳐들의 정보일 수 있고, 임의의 방법으로 변형되어 저장된 픽쳐들의 정보일 수 있다. 예를 들어, 상기 임의의 방법으로 변형되어 저장된 픽쳐는 부호화 및 복호화가 진행된 픽쳐를 확대 또는 축소한 픽쳐일 수 있고, 또는 픽쳐 내의 모든 픽셀 값의 밝기를 변형시키거나, 칼라 포맷을 변형시킨 픽쳐일 수도 있다. In an embodiment, the information on the one or more pictures used for prediction by the inter prediction unit 110 may be information on pictures that have already been encoded and decoded, or information about pictures that have been transformed and stored in an arbitrary way. have. For example, the picture transformed and stored by the arbitrary method may be a picture obtained by enlarging or reducing a picture that has been encoded and decoded, or a picture in which the brightness of all pixel values in the picture is changed or the color format is changed. may be

참조 픽쳐 보간부는 메모리(155)로부터 참조 픽쳐 정보를 제공받아 참조 픽쳐에서 정수 픽셀 이하의 픽셀 정보를 생성할 수 있다. 휘도 픽셀의 경우, 필터의 계수를 달리하는 DCT 기반의 8-탭 보간 필터(DCT-based Interpolation Filter)를 이용하여 1/4 픽셀 단위로 정수 이하의 픽셀 정보를 생성할 수 있다. 색차 신호의 경우에는 필터의 계수를 달리하는 DCT 기반의 4-탭 보간 필터(DCT-based Interpolation Filter)를 이용하여 1/8 픽셀 단위로 정수 이하의 픽셀 정보를 생성할 수 있다. 그러나, 필터의 종류 및 정수 이하의 픽셀 정보를 생성하는 단위는 이에 한정되지는 아니하고, 다양한 보간 필터를 이용하여 정수 이하의 픽셀 정보를 생성하는 단위가 결정될 수 있을 것이다.The reference picture interpolator may receive reference picture information from the memory 155 and generate pixel information of integer pixels or less in the reference picture. In the case of a luminance pixel, pixel information of less than an integer may be generated in units of 1/4 pixels using a DCT-based 8-tap interpolation filter with different filter coefficients. In the case of a color difference signal, pixel information of less than an integer may be generated in units of 1/8 pixel by using a DCT-based interpolation filter that has different filter coefficients. However, the type of filter and the unit for generating pixel information less than or equal to an integer are not limited thereto, and a unit for generating pixel information less than or equal to an integer may be determined by using various interpolation filters.

모션 예측부는 상기 참조 픽쳐 보간부에 의하여 보간된 참조 픽쳐를 기초로 하여 모션 예측을 수행할 수 있다. 모션 벡터를 산출하기 위하여 다양한 방법이 사용될 수 있다. 모션 벡터는 보간된 픽셀을 기초로 하여 정수 픽셀 단위 또는 1/2 또는 1/4 픽셀 단위의 모션 벡터값을 가질 수 있다. 일 실시예에서는, 모션 예측부에서 모션 예측 방법을 다르게 하여 현재 블록의 예측 단위를 예측할 수 있다. 상기 모션 예측 방법은 머지(Merge) 방법, AMVP(Advanced Motion Vector Prediction) 방법, 및 스킵(Skip) 방법을 포함하여 다양한 방법이 사용될 수 있다. 이와 같이, 화면간 예측부(110)에서 선택된 참조 픽쳐의 인덱스, 예측 모션 벡터(MVP), 레지듀얼 신호를 포함하는 정보들은 엔트로피 코딩되어 복호화기로 전송될 수 있다.The motion prediction unit may perform motion prediction based on the reference picture interpolated by the reference picture interpolator. Various methods may be used to calculate the motion vector. The motion vector may have a motion vector value in integer pixel units or in 1/2 or 1/4 pixel units based on interpolated pixels. In an embodiment, the motion prediction unit may predict the prediction unit of the current block by using a different motion prediction method. Various methods may be used as the motion prediction method, including a merge method, an advanced motion vector prediction (AMVP) method, and a skip method. As described above, information including the index of the reference picture selected by the inter prediction unit 110, the prediction motion vector (MVP), and the residual signal may be entropy-coded and transmitted to the decoder.

상기 예측 모션 벡터(MVP)는 예측 모션 벡터 후보자(MVP candidate)들을 다양한 방법으로 선택하고, 상기 예측 모션 벡터 후보자들로부터 선정될 수 있다. 또한, 적어도 하나 이상의 상기 예측 모션 벡터 후보자들은 예측 모션 벡터 리스트를 구성하고, 복호화 장치에서도 상기 예측 모션 벡터 리스트로부터 현재 블록의 화면간 예측을 위한 예측 모션 벡터 정보를 획득할 수 있다. The predicted motion vector (MVP) may be selected from predicted motion vector candidates by selecting MVP candidates in various ways. Also, at least one or more prediction motion vector candidates may constitute a prediction motion vector list, and the decoding apparatus may also obtain prediction motion vector information for inter prediction of a current block from the prediction motion vector list.

만일 현재 블록이 양방향 예측을 수행하는 경우에는, 상기 예측 모션 벡터 리스트는 각 방향에 대한 예측 모션 벡터 후보자들을 포함할 수 있다. 이와 같이 다양한 방향이 화면간 예측에 사용되면서 각 방향의 참조 픽쳐들 및 예측 블록의 모션 정보들 사이의 연관성이 증가할 수 있다. 이러한 경우, 코딩 효율을 높이기 위한 본 발명의 일 실시예에 따른 상기 예측 모션 벡터 리스트를 구성하는 방법 및 이의 장치에 대하여 추후 도 3 내지 도 11을 참조하여 설명하기로 한다.If the current block performs bidirectional prediction, the prediction motion vector list may include prediction motion vector candidates for each direction. As described above, as various directions are used for inter prediction, correlation between reference pictures in each direction and motion information of a prediction block may increase. In this case, a method for constructing the predictive motion vector list according to an embodiment of the present invention and an apparatus thereof for increasing coding efficiency will be described later with reference to FIGS. 3 to 11 .

화면내 예측부(115)는 화면간 예측과 달리 현재 픽쳐 내의 픽셀 정보인 현재 블록 주변의 참조 픽셀 정보들을 기초로 하여 예측 블록을 생성할 수 있다. 상기 예측 블록의 주변 블록들은 화면간 예측을 수행한 블록인 경우, 즉, 참조 픽셀이 화면간 예측을 수행한 픽셀인 경우에는 화면간 예측을 수행한 블록에 포함되는 참조 픽셀을 주변의 화면내 예측을 수행한 블록의 참조 픽셀 정보로 대체하여 사용할 수도 있다. Unlike inter prediction, the intra prediction unit 115 may generate a prediction block based on reference pixel information around the current block, which is pixel information in the current picture. When the neighboring blocks of the prediction block are blocks on which inter prediction is performed, that is, when the reference pixel is a pixel on which inter prediction is performed, the reference pixel included in the block on which inter prediction is performed is predicted as the neighboring blocks. It can also be used by replacing it with reference pixel information of a block that has performed .

또한, 화면내 예측부(115)는 화면내 예측 모드를 부호화하기 위하여 이웃 블록들로부터 획득한 가장 가능성 있는 화면내 예측 모드(MPM : Most Probable mode)를 이용할 수 있다. 본 발명의 다양한 실시예에 따르면, 상기 가장 가능성 있는 화면내 예측 모드들로 구성되는 가장 가능성 있는 화면내 예측 모드 리스트(MPM List)는 다양한 방법으로 구성될 수 있다. Also, the intra prediction unit 115 may use the most probable intra prediction mode (MPM) obtained from neighboring blocks to encode the intra prediction mode. According to various embodiments of the present invention, the most probable intra prediction mode list (MPM List) composed of the most probable intra prediction modes may be configured in various ways.

화면내 예측부(115)가 화면내 예측을 수행하는 경우에도 예측이 수행되는 처리 단위와 예측 방법 및 구체적인 내용이 정해지는 처리 단위는 서로 다를 수 있다. 예를 들어, 예측 모드가 예측 단위(PU)로 정해져서 상기 예측 단위로 예측이 수행될 수도 있고, 예측 모드는 예측 단위로 정해지되 예측의 수행은 변환 단위(TU)로 수행될 수도 있다. 일 실시예에서, 예측 모드가 코딩 블록(CU) 단위로 결정되고, 상기 코딩 블록 단위와 예측 단위가 동일하여 상기 코딩 블록 단위로 예측이 수행될 수도 있다.Even when the intra prediction unit 115 performs intra prediction, a processing unit in which prediction is performed and a processing unit in which a prediction method and specific content are determined may be different from each other. For example, a prediction mode may be determined as a prediction unit (PU) and prediction may be performed in the prediction unit, or the prediction mode may be determined as a prediction unit, but prediction may be performed in a transform unit (TU). In an embodiment, a prediction mode may be determined in units of coding blocks (CUs), and prediction may be performed in units of coding blocks because the units of coding blocks and prediction units are the same.

화면내 예측의 예측 모드는 65개의 방향성 예측 모드 및 적어도 2 개 이상의 비방향성 모드를 포함할 수 있다. 상기 비방향성 모드는 DC 예측 모드 및 플래너 모드(Planar Mode)를 포함할 수 있다. 상기 67개의 화면간 예측 모드의 개수는 예시적일 뿐, 본 발명이 이에 한정되는 것은 아니며, 다양한 방법으로 예측하기 위하여 더 많은 방향성 또는 비방향성 모드로 화면내 예측을 수행할 수 있다.The prediction mode of intra prediction may include 65 directional prediction modes and at least two non-directional modes. The non-directional mode may include a DC prediction mode and a planar mode. The number of the 67 inter prediction modes is only an example, and the present invention is not limited thereto. In order to make predictions in various ways, intra prediction may be performed in more directional or non-directional modes.

일 실시예에서, 화면내 예측은 참조 픽셀에 필터를 적용한 후 예측 블록을 생성할 수 있다. 이 경우, 상기 참조 픽셀에 필터를 적용할지 여부는 현재 블록의 화면내 예측 모드 및/또는 크기에 따라 결정될 수 있다.In an embodiment, intra prediction may generate a prediction block after applying a filter to a reference pixel. In this case, whether to apply the filter to the reference pixel may be determined according to the intra prediction mode and/or size of the current block.

예측 단위(PU)는 더 이상 분할되지 않는 코딩 유닛(CU)으로부터 다양한 사이즈 및 형태로 결정될 수 있다. 예를 들어, 화면간 예측의 경우 예측 단위는 2N x 2N, 2N x N, N x 2N 또는 N x N와 같은 크기를 가질 수 있다. 화면내 예측의 경우 예측 단위는 2N x 2N 또는 N x N (N은 정수)와 같은 크기를 가질 수 있으나, 이와 같은 정방향 크기 뿐만 아니라 비정방향 크기 모양으로도 화면내 예측을 수행할 수 있다. 이 경우, N x N 크기의 예측 단위는 특정한 경우에만 적용하도록 설정할 수도 있다. 또한, 상술한 크기의 예측 단위 이외에도, N x mN, mN x N, 2N x mN 또는 mN x 2N (m은 분수 또는 정수임) 와 같은 크기를 갖는 화면내 예측 단위를 더 정의하여 사용할 수도 있다.A prediction unit (PU) may be determined in various sizes and shapes from a coding unit (CU) that is no longer split. For example, in the case of inter prediction, the prediction unit may have a size such as 2N x 2N, 2N x N, N x 2N, or N x N. In the case of intra prediction, the prediction unit may have a size such as 2N x 2N or N x N (where N is an integer), but intra prediction can be performed not only with such a forward size but also with a non-forward size shape. In this case, the N x N prediction unit may be set to be applied only in a specific case. In addition to the above-mentioned size of the prediction unit, an intra prediction unit having a size such as N x mN, mN x N, 2N x mN, or mN x 2N (m is a fraction or an integer) may be further defined and used.

화면내 예측부(115)에서 생성된 예측 블록과 원본 블록 사이의 레지듀얼 값(레지듀얼 블록 또는 레지듀얼 신호)은 변환부(120)에 입력될 수 있다. 또한, 예측을 위하여 사용되는 예측 모드 정보, 보간 필터 정보 등은 레지듀얼 값과 함께 엔트로피 부호화부(135)에서 부호화되어 복호화기로 전달될 수 있다.A residual value (a residual block or a residual signal) between the prediction block generated by the intra prediction unit 115 and the original block may be input to the transform unit 120 . Also, prediction mode information, interpolation filter information, etc. used for prediction may be encoded by the entropy encoder 135 together with a residual value and transmitted to a decoder.

변환부(120)는 변환 단위로 원본 블록과 예측부(110, 115)를 통하여 생성된 예측 단위의 레지듀얼 값 정보를 포함하는 레지듀얼 블록을 DCT(Discrete Cosine Transform), DST(Discrete Sine Transform), KLT(Karhunen Loeve Transform)과 같은 변환 방법을 이용하여 변환시킬 수 있다. 레지듀얼 블록을 변환하기 위하여 DCT, DST 또는 KLT 를 적용할지는 레지듀얼 블록을 생성하기 위하여 사용된 예측 단위의 화면내 예측 모드 정보를 기초로 결정할 수 있다.The transform unit 120 converts an original block as a transform unit and a residual block including residual value information of a prediction unit generated through the prediction units 110 and 115 to DCT (Discrete Cosine Transform), DST (Discrete Sine Transform) , can be transformed using a transformation method such as Karhunen Loeve Transform (KLT). Whether to apply DCT, DST, or KLT to transform the residual block may be determined based on intra prediction mode information of a prediction unit used to generate the residual block.

변환부(120)에서의 변환 블록은 TU일 수 있고, 정방형(square) 구조, 비정방형(non-square) 구조, 정방형 쿼드 트리(square quad tree) 구조, 비정방형 쿼드 트리(non-square quad tree) 구조 또는 바이너리 트리(binary tree) 구조를 가질 수 있다. 일 실시예에서, 변환 단위의 크기는 소정의 최대 및 최소 크기의 범위 내에서 정해질 수 있다. 또한, 하나의 변환 블록은 서브 변환 블록으로 더 분할될 수 있으며, 상기 서브 변환 블록들은 정방형(square) 구조, 비정방형(non-square) 구조, 정방형 쿼드 트리(square quad tree) 구조, 비정방형 쿼드 트리(non-square quad tree) 구조 또는 바이너리 트리(binary tree) 구조를 가질 수 있다.The transform block in the transform unit 120 may be a TU, and may include a square structure, a non-square structure, a square quad tree structure, and a non-square quad tree. ) structure or a binary tree structure. In an embodiment, the size of the transformation unit may be determined within a range of a predetermined maximum and minimum size. In addition, one transform block may be further divided into sub-transform blocks, and the sub-transform blocks have a square structure, a non-square structure, a square quad tree structure, and a non-square quad. It may have a tree (non-square quad tree) structure or a binary tree (binary tree) structure.

양자화부(125)는 변환부(120)에서 변환된 레지듀얼 값들을 양자화하여 양자화 계수를 생성할 수 있다. 일 실시예에서, 상기 변환된 레지듀얼 값들은 주파수 영역으로 변환된 값일 수 있다. 상기 양자화 계수는 변환 단위에 따라 또는 영상의 중요도에 따라 변경될 수 있으며, 양자화부(125)에서 산출된 값은 역양자화부(140) 및 재정렬부(130)에 제공될 수 있다.The quantization unit 125 may quantize the residual values transformed by the transform unit 120 to generate a quantization coefficient. In an embodiment, the transformed residual values may be values transformed in the frequency domain. The quantization coefficient may be changed according to the transform unit or the importance of the image, and the value calculated by the quantization unit 125 may be provided to the inverse quantization unit 140 and the rearrangement unit 130 .

재정렬부(130)는 양자화부(125)로부터 제공된 양자화 계수를 재정렬할 수 있다. 재정렬부(130)는 상기 양자화 계수를 재정렬함으로써 엔트로피 부호화부(135)에서의 부호화 효율을 향상시킬 수 있다. 재정렬부(130)는 계수 스캐닝(Coefficient Scanning) 방법을 통하여 2차원 블록 형태의 양자화 계수들을 1차원의 벡터 형태로 재정렬할 수 있다. 상기 계수 스캐닝 방법은 변환 단위의 크기 및 화면내 예측 모드에 따라 어떠한 스캔 방법이 사용될지 여부가 결정될 수 있다. 상기 계수 스캐닝 방법은 지그-재그 스캔, 2차원의 블록 형태의 계수를 열 방향으로 스캔하는 수직 스캔, 및 2차원의 블록 형태 계수를 행 방향으로 스캔하는 수평 스캔을 포함할 수 있다. 일 실시예에서, 재정렬부(130)는 양자화부에서 전송되는 계수들의 확률적인 통계를 기반으로 계수 스캐닝의 순서를 변경함으로써 엔트로피 부호화부(135)에서의 엔트로피 부호화 효율을 높일 수도 있다.The reordering unit 130 may rearrange the quantization coefficients provided from the quantization unit 125 . The reordering unit 130 may improve encoding efficiency in the entropy encoding unit 135 by rearranging the quantization coefficients. The reordering unit 130 may rearrange the quantized coefficients in the form of a two-dimensional block into a form of a one-dimensional vector through a coefficient scanning method. As for the coefficient scanning method, it may be determined which scanning method is used according to the size of the transform unit and the intra prediction mode. The coefficient scanning method may include a zig-zag scan, a vertical scan for scanning two-dimensional block-shaped coefficients in a column direction, and a horizontal scan for scanning two-dimensional block-shaped coefficients in a row direction. In an embodiment, the reordering unit 130 may increase the entropy encoding efficiency of the entropy encoding unit 135 by changing the order of coefficient scanning based on probabilistic statistics of coefficients transmitted from the quantization unit.

엔트로피 부호화부(135)는 재정렬부(130)에 의하여 재정렬된 양자화 계수들에 대한 엔트로피 부호화를 수행할 수 있다. 엔트로피 부호화는 예를 들어, 지수 골롬(Exponential Golomb), CAVLC(Context-Adaptive Variable Length Coding), CABAC(Content-Adaptive Binary Arithmetic Coding)과 같은 다양한 부호화 방법을 이용할 수 있다. The entropy encoding unit 135 may perform entropy encoding on the quantization coefficients rearranged by the reordering unit 130 . For entropy encoding, various encoding methods such as Exponential Golomb, Context-Adaptive Variable Length Coding (CAVLC), and Content-Adaptive Binary Arithmetic Coding (CABAC) may be used.

엔트로피 부호화부(135)는 재정렬부(130) 및 예측부(110, 115)로부터 전달받은 코딩 유닛의 양자화 계수 정보 및 블록 타입 정보, 예측 모드 정보, 분할 단위 정보, 예측 유닛 정보 및 전송 단위 정보, 모션 벡터 정보, 참조 픽쳐 정보, 블록의 보간 정보, 필터링 정보와 같은 다양한 정보를 부호화할 수 있다. 또한, 일 실시예에서 엔트로피 부호화부(135)는 필요한 경우에, 전송하는 파라미터 셋 또는 신택스에 일정한 변경을 가할 수도 있다. The entropy encoding unit 135 includes quantization coefficient information and block type information, prediction mode information, division unit information, prediction unit information and transmission unit information of the coding unit received from the reordering unit 130 and the prediction units 110 and 115, Various information such as motion vector information, reference picture information, interpolation information of a block, and filtering information may be encoded. Also, according to an embodiment, the entropy encoder 135 may apply a certain change to a transmitted parameter set or syntax, if necessary.

역양자화부(140)는 양자화부(125)에서 양자화된 값들을 역양자화하고, 역변환부(145)는 역양자화부(140)에서 역양자화된 값들을 역변화한다. 역양자화부(140) 및 역변환부(145)에서 생성된 레지듀얼 값은 예측부(110,115)에서 예측된 예측 블록과 합쳐져 복원 블록(Reconstructed Block)이 생성될 수 있다. 상기 생성된 복원 블록들로 구성된 영상은 모션보상 영상 또는 MC 영상(Motion Compensated Picture)일 수 있다.The inverse quantization unit 140 inverse quantizes the values quantized by the quantization unit 125 , and the inverse transform unit 145 inversely transforms the values inverse quantized in the inverse quantization unit 140 . The residual values generated by the inverse quantizer 140 and the inverse transform unit 145 may be combined with the prediction blocks predicted by the predictors 110 and 115 to generate a reconstructed block. The image composed of the generated reconstructed blocks may be a motion compensated image or an MC image (Motion Compensated Picture).

상기 모션보상 영상은 필터부(150)에 입력될 수 있다. 필터부(150)는 디블록킹 필터부, 오프셋 보정부(Sample Adaptive Offset, SAO), 및 적응적 루프 필터부(Adaptive Loop Filter, ALF)를 포함할 수 있으며, 요약하자면, 상기 모션보상 영상는 디블록킹 필터부에서 디블록킹 필터가 적용되어 블록킹 잡음(blocking artifact)를 감소 또는 제거 시킨 후, 오프셋 보정부에 입력되어 오프셋을 보정시킬 수 있다. 상기 오프셋 보정부에서 출력된 픽쳐는 상기 적응적 루프 필터부에 입력되어 ALF(Adaptive Loop Filter) 필터를 통과하며, 상기 필터를 통과한 픽쳐는 메모리(155)로 전송될 수 있다.The motion compensation image may be input to the filter unit 150 . The filter unit 150 may include a deblocking filter unit, an offset correction unit (Sample Adaptive Offset, SAO), and an adaptive loop filter unit (ALF). In summary, the motion compensation image is deblocking After the deblocking filter is applied in the filter unit to reduce or remove blocking artifacts, it may be input to the offset correcting unit to correct the offset. The picture output from the offset correction unit may be input to the adaptive loop filter unit and pass through an adaptive loop filter (ALF) filter, and the picture passing through the filter may be transmitted to the memory 155 .

필터부(150)에 대하여 구체적으로 설명하면, 상기 디블록킹 필터부는 복원된 픽쳐에서 블록 간의 경계에 생성된 블록 내의 왜곡을 제거할 수 있다. 디블록킹을 수행할지 여부를 판단하기 위해서는 블록에 포함된 몇 개의 열 또는 행에 포함된 픽셀을 기초로 현재 블록에 디블록킹 필터를 적용할지 여부를 판단할 수 있다. 블록에 디블록킹 필터를 적용하는 경우, 필요한 디블록킹 필터링 강도에 따라 강한 필터(Strong Filter) 또는 약한 필터(Weak Filter)를 적용할 수 있다. 또한, 디블록킹 필터를 적용함에 있어 수직 필터링 및 수평 필터링 수행시 수평 방향 필터링 및 수직 방향 필터링이 병행 처리되도록 할 수 있다.In detail with respect to the filter unit 150 , the deblocking filter unit may remove distortion within a block generated at a boundary between blocks in a reconstructed picture. In order to determine whether to perform deblocking, it may be determined whether to apply the deblocking filter to the current block based on pixels included in several columns or rows included in the block. When a deblocking filter is applied to a block, a strong filter or a weak filter may be applied according to the required deblocking filtering strength. In addition, in applying the deblocking filter, horizontal filtering and vertical filtering may be concurrently processed when vertical filtering and horizontal filtering are performed.

오프셋 보정부는 디블록킹 필터가 적용된 레지듀얼 블록에 대하여, 픽셀 단위로 원본 영상과의 오프셋을 보정할 수 있다. 특정 픽쳐에 대한 오프셋을 보정하기 위하여 영상에 포함된 픽셀을 일정한 수의 영역으로 구분한 후, 오프셋을 수행할 영역을 결정하고, 해당 영역에 오프셋을 적용하는 방법(Band Offset) 또는 각 픽셀의 에지 정보를 고려하여 오프셋을 적용하는 방법(Edge Offset)의 형태로 적용될 수 있다. 그러나, 일 실시예에서 화면간 예측에 사용되는 복원 블록에 대하여는 필터부(150)에서 필터링을 적용하지 아니할 수 있다.The offset correcting unit may correct an offset with respect to the residual block to which the deblocking filter is applied in units of pixels from the original image. In order to correct the offset for a specific picture, a method of dividing pixels included in an image into a certain number of regions, determining an region to be offset, and applying the offset to the region (Band Offset) or the edge of each pixel It may be applied in the form of a method of applying an offset in consideration of information (Edge Offset). However, in an embodiment, the filter unit 150 may not apply filtering to the reconstructed block used for inter prediction.

적응적 루프 필터부(Adaptive Loop Filter, ALF)는 필터링한 복원 영상과 원래의 영상을 비교한 값을 기초로, 고효율을 적용하는 경우에만 수행될 수 있다. 영상에 포함된 픽셀을 소정의 그룹으로 나눈 후, 해당 그룹에 적용될 하나의 필터를 결정하여 그룹마다 차별적으로 필터링을 수행할 수 있다. 상기 ALF를 적용할지 여부에 관련된 정보는 휘도 신호는 부호화 단위(Coding Unit, CU) 별로 전송될 수 있고, 각각의 블록에 따라 적용될 ALF 필터의 모양 및 필터 계수는 달라질 수 있다. 또한, 적용 대상 블록의 특성에 관계없이 동일한 형태(고정된 형태)의 ALF 필터가 적용될 수도 있다.The adaptive loop filter (ALF) may be performed only when high efficiency is applied based on a value obtained by comparing the filtered reconstructed image and the original image. After dividing the pixels included in the image into a predetermined group, one filter to be applied to the corresponding group may be determined and filtering may be performed differentially for each group. As for information related to whether to apply the ALF, the luminance signal may be transmitted for each coding unit (CU), and the shape and filter coefficients of the ALF filter to be applied may vary according to each block. Also, the ALF filter of the same type (fixed type) may be applied regardless of the characteristics of the application block.

메모리(155)는 필터부(150)을 통하여 산출된 복원 블록 또는 픽쳐를 저장할 수 있다. 메모리(155)에 저장된 복원 블록 또는 픽쳐는 화면간 예측을 수행하는 화면간 예측부(110) 또는 화면내 예측부(115)에 제공될 수 있다. 화면내 예측부(115)에서 사용되는 복원 블록들의 화소값은 디블록킹 필터부, 오프셋 보정부, 및 적응적 루프 필터부가 적용되지 아니한 데이터들 일 수 있다.The memory 155 may store the reconstructed block or picture calculated through the filter unit 150 . The reconstructed block or picture stored in the memory 155 may be provided to the inter prediction unit 110 or the intra prediction unit 115 that performs inter prediction. The pixel values of the reconstructed blocks used in the intra prediction unit 115 may be data to which the deblocking filter unit, the offset corrector, and the adaptive loop filter unit are not applied.

도 2는 본 발명의 일 실시예에 따른 영상 복호화 장치를 개략적으로 나타낸 블록도이다. 도 2 를 참조하면, 영상 복호화 장치(200)는 엔트로피 복호화부(210), 재정렬부(215), 역양자화부(220), 역변환부(225), 화면간 예측부(230), 화면내 예측부(235), 필터부(240), 메모리(245)를 포함한다.2 is a block diagram schematically illustrating an image decoding apparatus according to an embodiment of the present invention. Referring to FIG. 2 , the image decoding apparatus 200 includes an entropy decoding unit 210 , a reordering unit 215 , an inverse quantization unit 220 , an inverse transform unit 225 , an inter prediction unit 230 , and an intra prediction unit. It includes a unit 235 , a filter unit 240 , and a memory 245 .

영상 부호화 장치로부터 영상 비트스트림이 입력되는 경우, 입력된 비트스트림은 부호화 장치에서 영상 정보가 처리된 절차의 역과정으로 복호화될 수 있다. 예를 들어, 영상 부호화 장치에서 엔트로피 부호화를 수행하기 위하여 CAVLC와 같은 가변 길이 부호화(Variable Length Coding: VLC, 이하 'VLC'라 함)가 사용된 경우에는, 엔트로피 복호화부(210)도 부호화 장치에서 사용한 VLC 테이블과 동일한 VLC 테이블로 구현하여 엔트로피 복호화를 수행할 수 있다. 또한, 부호화 장치에서 엔트로피 부호화를 수행하기 위하여 CABAC을 이용한 경우에는 엔트로피 복호화부(210)에서 이에 대응하여 CABAC을 이용한 엔트로피 복호화를 수행할 수 있다.When an image bitstream is input from the image encoding apparatus, the input bitstream may be decoded by a reverse process of a procedure of processing image information in the encoding apparatus. For example, when variable length coding (VLC, hereinafter referred to as 'VLC') such as CAVLC is used to perform entropy encoding in the image encoding apparatus, the entropy decoding unit 210 also performs the entropy encoding in the encoding apparatus. Entropy decoding can be performed by implementing the same VLC table as the used VLC table. In addition, when CABAC is used to perform entropy encoding in the encoding apparatus, the entropy decoding unit 210 may perform entropy decoding using CABAC in response thereto.

엔트로피 복호화부(210)에서는 복호화된 정보 중 예측 블록을 생성하기 위한 정보를 화면간 예측부(230) 및 화면내 예측부(235)로 제공하고, 엔트로피 복호화부에서 엔트로피 복호화가 수행된 레지듀얼 값은 재정렬부(215)로 입력될 수 있다.The entropy decoding unit 210 provides information for generating a prediction block among the decoded information to the inter prediction unit 230 and the intra prediction unit 235, and the entropy decoding unit performs entropy decoding on the residual value. may be input to the rearrangement unit 215 .

재정렬부(215)는 엔트로피 복호화부(210)에서 엔트로피 복호화된 비트스트림을 영상 부호화기에서 재정렬한 방법을 기초로 재정렬할 수 있다. 재정렬부(215)는 부호화 장치에서 수행된 계수 스캐닝에 관련된 정보를 제공받고 부호화 장치에서 수행된 스캐닝 순서에 기초하여 역으로 스캐닝하는 방법을 통하여 재정렬을 수행할 수 있다.The reordering unit 215 may rearrange the entropy-decoded bitstream by the entropy decoding unit 210 based on a method in which the image encoder rearranges the bitstream. The reordering unit 215 may receive information related to coefficient scanning performed by the encoding apparatus, and may perform rearrangement through a method of scanning inversely based on the scanning order performed by the encoding apparatus.

역양자화부(220)는 부호화 장치에서 제공된 양자화 파라미터와 재정렬된 블록의 계수값을 기초로 역양자화를 수행할 수 있다. 역변환부(225)는 영상 부호화 장치에서 수행된 양자화 결과에 대하여, 부호화 장치의 변환부가 수행한 DCT, DST, 또는 KLT 에 대해 역DCT, 역DST, 또는 역KLT를 수행할 수 있다. 역변환은 부호화 장치에서 결정된 전송 단위 또는 영상의 분할 단위를 기초로 수행될 수 있다. 인코딩 장치의 변환부에서는 예측 방법, 현재 블록의 크기 및 예측 방향과 같은 정보에 따라 DCT, DST, 또는 KLT를 선택적으로 수행할 수 있고, 복호화 장치의 역변환부(225)는 부호화 장치의 변환부에서 수행된 변환 정보를 기초로 역변환 방법이 결정되어 역변환을 수행할 수 있다.The inverse quantizer 220 may perform inverse quantization based on the quantization parameter provided by the encoding apparatus and the reordered coefficient values of the blocks. The inverse transform unit 225 may perform inverse DCT, inverse DST, or inverse KLT on DCT, DST, or KLT performed by the transform unit of the encoding apparatus on the quantization result performed by the image encoding apparatus. Inverse transform may be performed based on a transmission unit or an image division unit determined by the encoding apparatus. The transform unit of the encoding apparatus may selectively perform DCT, DST, or KLT according to information such as a prediction method, a size of a current block, and a prediction direction, and the inverse transform unit 225 of the decoding apparatus performs the inverse transformation in the transform unit of the encoding apparatus. An inverse transformation method may be determined based on the performed transformation information to perform the inverse transformation.

예측부(230, 235)는 엔트로피 복호화부(210)에서 제공된 예측 블록 생성과 관련된 정보와 메모리(245)에서 제공된 이전에 복호화된 블록 및/또는 픽쳐 정보를 기초로 예측 블록을 생성할 수 있다. 복원 블록은 예측부(230, 235)에서 생성된 예측 블록과 역변환부(225)에서 제공된 레지듀얼 블록을 이용하여 생성될 수 있다. 예측부(230, 235)에서 수행하는 구체적인 예측의 방법은 부호화 장치의 예측부(110, 115)에서 수행되는 예측의 방법과 동일할 수 있다.The prediction units 230 and 235 may generate a prediction block based on information related to generation of a prediction block provided from the entropy decoding unit 210 and previously decoded block and/or picture information provided from the memory 245 . The reconstructed block may be generated using the prediction block generated by the prediction units 230 and 235 and the residual block provided by the inverse transform unit 225 . The specific prediction method performed by the prediction units 230 and 235 may be the same as the prediction method performed by the prediction units 110 and 115 of the encoding apparatus.

예측부(230, 235)는 예측 단위 판별부(미도시), 화면간 예측부(230), 및 화면내 예측부(235)를 포함할 수 있다. 예측 단위 판별부는 엔트로피 복호화부(210)에서 입력되는 예측 단위 정보, 화면내 예측 방법의 예측 모드 정보, 화면간 예측 방법의 모션 예측 관련 정보와 같은 다양한 정보를 입력 받아, 현재 코딩 블록에서의 예측 블록을 구분하고, 예측 블록이 화면간 예측을 수행하는지 아니면 화면내 예측을 수행하는지 여부를 판별할 수 있다.The prediction units 230 and 235 may include a prediction unit determiner (not shown), an inter prediction unit 230 , and an intra prediction unit 235 . The prediction unit determining unit receives various information such as prediction unit information input from the entropy decoder 210, prediction mode information of the intra prediction method, and motion prediction related information of the inter prediction method, and receives a prediction block in the current coding block. , and it can be determined whether the prediction block performs inter prediction or intra prediction.

화면간 예측부(230)는 영상 부호화기에서 제공된 현재 예측 블록의 화면간 예측에 필요한 정보를 이용하여 현재 예측 블록이 포함된 현재 픽쳐의 이전 픽쳐 또는 이후 픽쳐 중 적어도 하나의 픽쳐에 포함된 정보를 기초로 현재 예측 블록에 대한 화면간 예측을 수행할 수 있다. The inter prediction unit 230 uses information necessary for inter prediction of the current prediction block provided from the video encoder, and based on the information included in at least one of the pictures before and after the current picture including the current prediction block. can perform inter prediction for the current prediction block.

구체적으로 화면간 예측에서는 현재 블록에 대하여, 참조 픽쳐를 선택하고 현재 블록에 대한 참조 블록을 선택하여 현재 블록에 대한 예측 블록을 생성할 수 있다. 이 때, 참조 픽쳐의 정보를 이용하기 위하여, 현재 픽쳐의 주변 블록들의 정보를 이용할 수 있다. 예를 들어, 스킵(skip) 모드, 머지(merge) 모드, 및 AMVP(Advanced Motion Vector Prediction)와 같은 방법을 이용하여 주변 블록의 정보에 기반하여 현재 블록에 대한 예측 블록을 생성할 수 있다.Specifically, in inter prediction, a prediction block for the current block may be generated by selecting a reference picture for the current block and selecting a reference block for the current block. In this case, in order to use the information of the reference picture, information on neighboring blocks of the current picture may be used. For example, a prediction block for the current block may be generated based on information on the neighboring block by using a skip mode, a merge mode, and a method such as AMVP (Advanced Motion Vector Prediction).

현재 블록은 현재 블록의 시간상 및 공간상 주변 블록을 이용하여 예측 모션 벡터 후보자를 선택하여 예측 모션 벡터 리스트를 구성할 수 있다. 또한, 부호화 장치로부터 수신한 현재 블록의 예측 모션 벡터로 선택된 예측 모션 벡터 후보자에 대한 인덱스 정보 및 차분 모션 벡터(MVD)를 이용하여 현재 블록의 모션 벡터를 복호할 수 있다. The current block may construct a predictive motion vector list by selecting a predictive motion vector candidate using temporal and spatial neighboring blocks of the current block. In addition, the motion vector of the current block may be decoded by using the differential motion vector (MVD) and index information on the prediction motion vector candidate selected as the prediction motion vector of the current block received from the encoding apparatus.

만일 현재 블록이 양방향 예측을 수행하는 경우에는, 상기 예측 모션 벡터 리스트는 각 방향에 대한 예측 모션 벡터 후보자들을 포함할 수 있다. 이와 같이 다양한 방향이 화면간 예측에 사용되면서 각 방향의 참조 픽쳐들 및 예측 블록의 모션 정보들 사이의 연관성이 증가할 수 있으므로, 연관성을 반영하여 예측 모션 벡터 후보자들을 선택할 수 있다. 이와 같이 코딩 효율을 높이기 위한 본 발명의 일 실시예에 따른 상기 예측 모션 벡터 리스트를 구성하는 방법 및 이의 장치에 대하여 추후 도 3 내지 도 11을 참조하여 설명하기로 한다.If the current block performs bidirectional prediction, the prediction motion vector list may include prediction motion vector candidates for each direction. As described above, as various directions are used for inter prediction, correlation between reference pictures and motion information of a prediction block in each direction may increase, so that prediction motion vector candidates may be selected by reflecting the correlation. As described above, a method for constructing the predictive motion vector list according to an embodiment of the present invention for increasing coding efficiency and an apparatus thereof will be described later with reference to FIGS. 3 to 11 .

예측 블록은 1/2 픽셀 샘플 단위와 1/4 픽셀 샘플 단위와 같이 정수 이하의 샘플 단위로 생성될 수 있다. 이 경우, 모션 벡터 역시 정수 픽셀 이하의 단위로 표현될 수 있다. 예를 들어, 휘도 픽셀에 대해서는 1/4 픽셀 단위로, 색차 픽셀에 대하여는 1/8 픽셀 단위로 표현될 수 있다.The prediction block may be generated in units of samples equal to or less than an integer, such as 1/2 pixel sample unit and 1/4 pixel sample unit. In this case, the motion vector may also be expressed in units of integer pixels or less. For example, the luminance pixel may be expressed in units of 1/4 pixels and the chrominance pixels may be expressed in units of 1/8 pixels.

현재 블록의 화면간 예측에 필요한 모션 벡터 및 참조 픽쳐 인덱스를 포함하는 모션정보는 부호화 장치로부터 수신한 스킵 플래그, 머지 플래그 등을 확인하고 이에 대응하여 유도될 수 있다.Motion information including a motion vector and a reference picture index necessary for inter prediction of the current block may be derived by checking a skip flag, a merge flag, etc. received from the encoding apparatus, and corresponding thereto.

화면내 예측부(235)는 현재 픽쳐 내의 픽셀 정보를 기초로 예측 블록을 생성할 수 있다. 예측 단위가 화면내 예측을 수행한 예측 단위인 경우에는 영상 부호화기에서 제공된 예측 단위의 화면내 예측 모드 정보를 기초로 화면내 예측을 수행할 수 있다. 상기 예측 단위의 주변 블록들은 화면간 예측을 수행한 블록인 경우, 즉, 참조 픽셀이 화면간 예측을 수행한 픽셀인 경우에는 화면간 예측을 수행한 블록에 포함되는 참조 픽셀을 주변의 화면내 예측을 수행한 블록의 참조 픽셀 정보로 대체하여 사용할 수도 있다. The intra prediction unit 235 may generate a prediction block based on pixel information in the current picture. When the prediction unit is a prediction unit on which intra prediction is performed, intra prediction may be performed based on intra prediction mode information of the prediction unit provided by the image encoder. When the neighboring blocks of the prediction unit are blocks on which inter prediction is performed, that is, when the reference pixel is a pixel on which inter prediction is performed, a reference pixel included in the block on which inter prediction is performed is predicted as the neighboring blocks. It can also be used by replacing it with reference pixel information of a block that has performed .

또한, 화면내 예측부(235)는 화면내 예측 모드를 부호화하기 위하여 이웃 블록들로부터 획득한 가장 가능성 있는 화면내 예측 모드(MPM: Most Probable Mode)을 이용할 수 있다. 일 실시예에서, 상기 가장 가능성 있는 화면내 예측 모드는 현재 블록의 공간적 이웃 블록의 화면내 예측 모드를 이용할 수 있다. Also, the intra prediction unit 235 may use the most probable intra prediction mode (MPM) obtained from neighboring blocks to encode the intra prediction mode. In an embodiment, the most probable intra prediction mode may use an intra prediction mode of a spatial neighboring block of the current block.

일 실시예에서, 화면내 예측부(235)에서 예측이 수행되는 처리 단위와 예측 방법 및 구체적인 내용이 정해지는 처리 단위는 서로 다를 수 있다. 예를 들어, 예측 단위로 예측 모드가 정해져 예측 단위로 예측이 수행될 수 있고, 예측 단위로 예측 모드가 정해지고 변환 단위로 화면내 예측이 수행될 수도 있다.In an embodiment, a processing unit in which prediction is performed by the intra prediction unit 235 and a processing unit in which a prediction method and specific content are determined may be different from each other. For example, a prediction mode may be determined in a prediction unit and prediction may be performed in a prediction unit, or a prediction mode may be determined in a prediction unit and intra prediction may be performed in a transformation unit.

이 경우, 예측 블록(PU)은 더 이상 분할되지 않는 코딩 블록(CU)으로부터 다양한 사이즈 및 형태로 결정될 수 있다. 예를 들어, 화면내 예측의 경우 예측 블록은 2N x 2N 또는 N x N (N은 정수)와 같은 크기를 가질 수 있으나, 이와 같은 정방향 크기 뿐만 아니라 비정방향 크기 모양인 N x mN, mN x N, 2N x mN 또는 mN x 2N (m은 분수 또는 정수임)으로도 화면내 예측을 수행할 수 있다. 이 경우, N x N 크기의 예측 단위는 특정한 경우에만 적용하도록 설정할 수도 있다. In this case, the prediction block PU may be determined in various sizes and shapes from the coding block CU that is no longer split. For example, in the case of intra prediction, the prediction block may have a size such as 2N x 2N or N x N (N is an integer). , 2N x mN or mN x 2N (m is a fraction or an integer) can also perform intra prediction. In this case, the N x N prediction unit may be set to be applied only in a specific case.

또한, 변환 블록(TU)도 다양한 사이즈 및 형태로 결정될 수 있다. 예를 들어, 변환 블록은 2N x 2N 또는 N x N (N은 정수)와 같은 크기를 가질 수 있으나, 이와 같은 정방향 크기 뿐만 아니라 비정방향 크기 모양인 N x mN, mN x N, 2N x mN 또는 mN x 2N (m은 분수 또는 정수임)으로도 화면내 예측을 수행할 수 있다. 이 경우, N x N 크기의 예측 단위는 특정한 경우에만 적용하도록 설정할 수도 있다. 일 실시예에서, 변환 블록은 정방형(square) 구조, 비정방형(non-square) 구조, 정방형 쿼드 트리(square quad tree) 구조, 비정방형 쿼드 트리(non-square quad tree) 구조, 또는 바이너리 트리(binary tree) 구조로 갖는 블록들 중 하나일 수 있다. 일 실시예에서, 변환 블록의 크기는 소정의 최대 및 최소 크기의 범위 내에서 정해질 수 있다. 또한, 하나의 변환 블록은 서브 변환 블록으로 분할될 수 있으며, 이 경우 상기 서브 변환 블록들도 정방형(square) 구조, 비정방형(non-square) 구조, 정방형 쿼드 트리(square quad tree) 구조, 비정방형 쿼드 트리(non-square quad tree) 구조, 또는 바이너리 트리(binary tree) 구조로 분할될 수 있다. In addition, the transform block (TU) may also be determined in various sizes and shapes. For example, the transform block may have a size such as 2N x 2N or N x N (N is an integer), but not only such a forward size but also a non-forward size shape of N x mN, mN x N, 2N x mN, or In-picture prediction can also be performed with mN x 2N (m is a fraction or an integer). In this case, the N x N prediction unit may be set to be applied only in a specific case. In one embodiment, the transform block is a square structure, a non-square structure, a square quad tree structure, a non-square quad tree structure, or a binary tree ( It may be one of blocks having a binary tree) structure. In an embodiment, the size of the transform block may be determined within a range of a predetermined maximum and minimum size. In addition, one transform block may be divided into sub-transform blocks. In this case, the sub-transform blocks also have a square structure, a non-square structure, a square quad tree structure, and a non-transform block. It may be divided into a non-square quad tree structure or a binary tree structure.

화면내 예측부(235)에는 AIS(Adaptive Intra Smoothing) 필터부, 참조 픽셀 보간부, DC 필터부를 포함할 수 있다. 상기 AIS 필터부는 현재 블록의 참조 픽셀에 필터링을 수행하는 부분으로써 현재 예측 단위의 예측 모드에 따라 필터의 적용 여부를 결정하여 적용할 수 있다. 영상 부호화기에서 제공된 예측 단위의 예측 모드 및 AIS 필터 정보를 이용하여 현재 블록의 참조 픽셀에 AIS 필터링을 수행할 수 있다. 현재 블록의 예측 모드가 AIS 필터링을 수행하지 아니하는 모드인 경우에는, 상기 AIS 필터부는 현재 블록에 적용되지 아니할 수 있다.The intra prediction unit 235 may include an Adaptive Intra Smoothing (AIS) filter unit, a reference pixel interpolator unit, and a DC filter unit. The AIS filter unit is a part that performs filtering on the reference pixel of the current block, and may determine whether to apply the filter according to the prediction mode of the current prediction unit and apply the filter. AIS filtering may be performed on the reference pixel of the current block by using the prediction mode and AIS filter information of the prediction unit provided by the image encoder. When the prediction mode of the current block is a mode in which AIS filtering is not performed, the AIS filter unit may not be applied to the current block.

참조 픽셀 보간부는 예측 단위의 예측 모드가 참조 픽셀을 보간한 샘플값을 기초로 화면내 예측을 수행하는 예측 단위인 경우에, 참조 픽셀을 보간하여 정수값 이하의 픽셀 단위의 참조 픽셀을 생성할 수 있다. 현재 예측 단위의 예측 모드가 참조 픽셀을 보간하지 아니하고 예측 블록을 생성하는 예측 모드인 경우, 참조 픽셀은 보간되지 아니할 수 있다. DC 필터부는 현재 블록의 예측 모드가 DC 모드인 경우에 필터링을 통하여 예측 블록을 생성할 수 있다.When the prediction mode of the prediction unit is a prediction unit that performs intra prediction based on a sample value obtained by interpolating the reference pixel, the reference pixel interpolator interpolates the reference pixel to generate a reference pixel of a pixel unit having an integer value or less. have. When the prediction mode of the current prediction unit is a prediction mode that generates a prediction block without interpolating the reference pixel, the reference pixel may not be interpolated. When the prediction mode of the current block is the DC mode, the DC filter unit may generate the prediction block through filtering.

복원된 블록 및/또는 픽쳐는 필터부(240)로 제공될 수 있다. 필터부(240)는 복원된 블록 및/또는 픽쳐에 디블록킹 필터부, 오프셋 보정부(Sample Adaptive Offset) 및/또는 적응적 루프 필터부를 포함할 수 있다. 상기 디블록킹 필터부는 영상 부호화기로부터 해당 블록 또는 픽쳐에 디블록킹 필터가 적용되었는지 여부를 나타내는 정보 및 디블록킹 필터가 적용된 경우 강한 필터 또는 약한 필터를 적용하였는지를 나타내는 정보를 제공받을 수 있다. 상기 디블록킹 필터부는 영상 부호화기에서 제공된 디블록킹 필터 관련 정보를 제공받고, 영상 복호화기에서 해당 블록에 대한 디블록킹 필터링을 수행할 수 있다.The reconstructed block and/or picture may be provided to the filter unit 240 . The filter unit 240 may include a deblocking filter unit, an offset correction unit (Sample Adaptive Offset) and/or an adaptive loop filter unit in the reconstructed block and/or picture. The deblocking filter unit may receive information indicating whether a deblocking filter is applied to a corresponding block or picture from an image encoder and information indicating whether a strong filter or a weak filter is applied when the deblocking filter is applied. The deblocking filter unit may receive the deblocking filter related information provided from the image encoder, and the image decoder may perform deblocking filtering on the corresponding block.

상기 오프셋 보정부는 부호화시 영상에 적용된 오프셋 보정의 종류 및 오프셋 값 정보 등을 기초로 복원된 영상에 오프셋 보정을 수행할 수 있다. 상기 적응적 루프 필터부는 부호화기로부터 제공된 적응적 루프 필터의 적용 여부에 관한 정보, 적응적 루프 필터의 계수 정보와 같은 정보들을 기초로 부호화 단위로 적용될 수 있다. 상기 적응적 루프 필터와 관련된 정보들은 특정 파라미터 셋(parameter set)에 포함되어 제공될 수 있다.The offset correction unit may perform offset correction on the reconstructed image based on the type of offset correction applied to the image during encoding and information on the offset value. The adaptive loop filter unit may be applied as a coding unit based on information such as information on whether or not the adaptive loop filter is applied and information on coefficients of the adaptive loop filter provided from the encoder. The information related to the adaptive loop filter may be provided in a specific parameter set.

메모리(245)는 복원된 픽쳐 또는 블록을 저장하여 이후에 참조 픽쳐 또는 참조 블록으로 사용할 수 있고, 또한 복원된 픽쳐를 출력부로 제공할 수 있다.The memory 245 may store the reconstructed picture or block to be later used as a reference picture or reference block, and may also provide the reconstructed picture to an output unit.

본 명세서에서는 설명의 편의를 위하여 생략하였지만, 복호화 장치에 입력되는 비트스트림은 파싱(parsing) 단계를 거쳐 엔트로피 복호화부로 입력될 수 있다. 또한, 엔트로피 복호화부에서 파싱 과정을 수행하도록 할 수 있다.Although omitted herein for convenience of description, the bitstream input to the decoding apparatus may be input to the entropy decoding unit through a parsing step. Also, the entropy decoding unit may perform a parsing process.

본 명세서에서 코딩은 경우에 따라 부호화 또는 복호화로 해석될 수 있고, 정보(information)는 값(values), 파라미터(parameter), 계수(coefficients), 성분(elements), 플래그(flag) 등을 모두 포함하는 것으로 이해될 수 있다. '화면' 또는 '픽쳐(picture)'는 일반적으로 특정 시간대의 하나의 영상을 나타내는 단위를 의미하며, '슬라이스(slice)', '프레임(frame)' 등은 실제 비디오 신호의 코딩에 있어서 픽쳐의 일부를 구성하는 단위이며, 필요에 따라서는 픽쳐와 서로 혼용되어 사용될 수 있다.In the present specification, coding may be interpreted as encoding or decoding in some cases, and information includes all values, parameters, coefficients, elements, flags, and the like. can be understood as 'Screen' or 'picture' generally refers to a unit representing one image in a specific time period, and 'slice' and 'frame' are It is a unit constituting a part, and may be used interchangeably with a picture if necessary.

'픽셀(pixel)', '픽셀' 또는 'pel'은 하나의 영상을 구성하는 최소의 단위를 나타낸다. 또한, 특정한 픽셀의 값을 나타내는 용어로서, '샘플(sample)'을 사용할 수 있다. 샘플은 휘도(Luma) 및 색차(Chroma) 성분으로 나누어질 수 있으나, 일반적으로는 이를 모두 포함하는 용어로 사용될 수 있다. 상기에서 색차 성분은 정해진 색상들 간의 차이를 나타내는 것으로 일반적으로 Cb 및 Cr로 구성된다.A 'pixel', 'pixel' or 'pel' represents the smallest unit constituting one image. Also, as a term indicating a value of a specific pixel, a 'sample' may be used. A sample may be divided into a luminance (Luma) and a chroma (Chroma) component, but in general, a term including both of them may be used. In the above, the color difference component represents a difference between predetermined colors and is generally composed of Cb and Cr.

'유닛(unit)'은 상술한 부호화 유닛, 예측 유닛, 변환 유닛과 같이 영상 처리의 기본 단위 또는 영상의 특정 위치를 지칭하며, 경우에 따라서는 '블록' 또는 '영역(area)'등의 용어와 서로 혼용하여 사용될 수 있다. 또한, 블록은 M개의 열과 N개의 행으로 구성된 샘플들 또는 변환 계수(transform coefficient)들의 집합을 나타내는 용어로 사용될 수도 있다.A 'unit' refers to a basic unit of image processing or a specific position of an image, such as the above-described coding unit, prediction unit, and transformation unit, and in some cases, terms such as 'block' or 'area' and may be used interchangeably. Also, a block may be used as a term indicating a set of samples or transform coefficients composed of M columns and N rows.

도 3은 일반적인 방법에 따른 현재 블록의 예측 모션 벡터 후보자(MVP candidate)를 획득하는 위치를 설명하기 위한 것이다.FIG. 3 is for explaining a position at which a prediction motion vector candidate (MVP candidate) of a current block is obtained according to a general method.

도 3을 참조하면, 예측 모션 벡터 리스트(MVP list)를 구성하기 위하여 현재 블록은 공간적 이웃 블록(A0, A1, B0, B1)의 모션 정보와 시간적 이웃 블록(T0, T1)의 모션 정보를 이용할 수 있다. 공간적 이웃 블록의 모션 정보는 현재 블록의 좌측에 위치하는 주변 블록들 중 1 개의 모션 정보 및 현재 블록의 상측에 위치하는 주변 블록들 중 1 개의 모션 정보를 이용하여 결정될 수 있다. 또한, 시간적 이웃 블록의 모션 정보는 현재 블록의 우측 하단에 위치하는 주변 블록의 모션 정보 또는 현재 블록이 참조하려는 참조 영상의 내부에 현재 블록과 동일한 위치에 있는 블록의 모션 정보를 이용하여 결정될 수 있다.Referring to FIG. 3 , in order to construct a prediction motion vector list (MVP list), the current block uses motion information of spatial neighboring blocks (A0, A1, B0, B1) and motion information of temporal neighboring blocks (T0, T1). can The motion information of the spatial neighboring block may be determined using motion information of one of the neighboring blocks located on the left side of the current block and motion information of one of the neighboring blocks located above the current block. In addition, the motion information of the temporal neighboring block may be determined using motion information of a neighboring block located at the lower right of the current block or motion information of a block located at the same position as the current block inside a reference image to be referenced by the current block. .

공간적 이웃 블록의 모션 정보는 현재 블록의 좌측에 위치하는 주변 블록들에 대하여 A0-> A1-> 스케일링된 A0-> 스케일링된 A1 의 순서로 스캔하면서 모션 정보를 탐색할 수 있다. 이후, 현재 블록의 상측에 위치하는 주변 블록들에 대하여 B0-> B1-> B2 순서로 스캔하면서 모션 정보를 탐색한다. 일 실시예에서, 현재 블록이 A0 및 A1 블록을 스캔하였으나 상기 현재 블록이 참조하려는 참조 영상과 AO 및 A1 블록의 모션 정보가 참조하는 참조 영상이 다른 경우, 현재 블록이 참조하려는 참조 영상에 맞도록 스케일링된 AO 및 A1 블록의 모션 정보를 이용할 수 있다. Motion information of a spatial neighboring block may be searched for motion information while scanning in the order of A0->A1->scaled A0->scaled A1 with respect to neighboring blocks located on the left side of the current block. Thereafter, motion information is searched for while scanning the neighboring blocks located above the current block in the order B0->B1->B2. In an embodiment, if the current block scans the blocks A0 and A1 but the reference image to be referenced by the current block is different from the reference image referenced by the motion information of the AO and A1 blocks, the current block may fit the reference image to be referenced Motion information of the scaled AO and A1 blocks may be used.

시간적 이웃 블록의 모션 정보는 T0 및 T1의 순서로 스캔하며, 이 경우에도 시간적 이웃 블록의 모션 벡터는 현재 블록이 참조하는 영상으로 스케일링하여 이용될 수 있다.The motion information of the temporal neighboring block is scanned in the order of T0 and T1, and even in this case, the motion vector of the temporal neighboring block may be used by scaling the image referenced by the current block.

일 실시예에서, AMVP(Advanced Motion Vector Prediction)는 2 개의 예측 모션 벡터를 사용할 수 있다. 먼저 공간적 이웃 블록의 모션 정보를 스캔하여 예측 모션 벡터 리스트(AMVP list)에 입력하고 이 과정에서 리스트가 다 채워지지 않는 경우에는 시간적 이웃 블록의 모션 정보를 스캔하여 리스트를 채울 수 있다. 만일 이웃 블록의 모션 정보 스캔시 동일한 모션 정보가 예측 모션 벡터 리스트에 입력되는 경우에는, 중복되는 모션 정보는 삭제된다. 이러한 과정을 통하여 시간적 및 공간적 이웃 블록의 모션 정보 스캔이 끝났음에도 불구하고 예측 모션 벡터 리스트를 다 채우지 못하는 경우에는 채워지지 아니한 리스트에 (0,0)을 채워서 예측 모션 벡터 리스트를 완성할 수 있다.In one embodiment, Advanced Motion Vector Prediction (AMVP) may use two predictive motion vectors. First, the motion information of the spatial neighboring block is scanned and input to the predictive motion vector list (AMVP list). In this process, if the list is not filled, the list can be filled by scanning the motion information of the temporal neighboring block. If the same motion information is input to the prediction motion vector list when the motion information of the neighboring block is scanned, the overlapping motion information is deleted. Through this process, when the predicted motion vector list is not fully filled even after the motion information scan of the temporal and spatial neighboring blocks is finished, the unfilled list is filled with (0,0) to complete the predicted motion vector list.

도 4 내지 도 5b는 일반적인 방법에 따른 현재 블록의 예측 모션 벡터 리스트를 구성하는 방법을 설명하기 위한 것이다.4 to 5B are for explaining a method of constructing a prediction motion vector list of a current block according to a general method.

도 4를 참조하면, 현재 블록(CB)이 양방향 예측을 수행하는 경우 제 1 방향에 대한 참조 픽쳐(1)로부터 모션 벡터를 획득할 수 있고, 제 2 방향에 대한 참조 픽쳐(2)로부터 모션 벡터를 획득할 수 있다. 도 4의 하단에 나타난 바와 같이, 현재 블록의 화면간 예측을 위한 예측 모션 벡터 리스트(AMVP list)는 각 방향마다 적어도 하나 이상의 예측 모션 벡터 후보자(MVP candidate)를 포함하여 구성될 수 있다. 이후, 상기 예측 모션 벡터 리스트에 있는 예측 모션 벡터 후보자 중 선택된 하나의 예측 모션 벡터와 현재 블록의 모션 벡터 사이의 차분값을 계산하여 차분 모션 벡터를 획득하여 이를 부호화할 수 있다. Referring to FIG. 4 , when the current block CB performs bidirectional prediction, a motion vector may be obtained from a reference picture 1 for a first direction, and a motion vector may be obtained from a reference picture 2 for a second direction. can be obtained. As shown at the bottom of FIG. 4 , an AMVP list for inter prediction of the current block may be configured to include at least one predictive motion vector candidate (MVP candidate) for each direction. Thereafter, a differential motion vector may be obtained and encoded by calculating a difference value between a motion vector of a current block and one predicted motion vector selected from among the prediction motion vector candidates in the prediction motion vector list.

일 실시예에서, 상기 선택된 하나의 예측 모션 벡터는 상기 예측 모션 벡터 리스트에 포함된 예측 모션 벡터 후보자들 가운데 가장 부호화 효율이 높은 것이 선택될 수 있다. 상기 선택된 예측 모션 벡터는 이를 나타내는 인덱스 정보의 형태로 부호화되어 상기 차분 모션 벡터와 함께 전송될 수 있다.In an embodiment, the selected one prediction motion vector may be selected from among prediction motion vector candidates included in the prediction motion vector list, the one having the highest encoding efficiency. The selected predicted motion vector may be encoded in the form of index information indicating it and transmitted together with the differential motion vector.

도 5a 는 현재 블록(10)이 참조하는 양 방향의 참조 영상(20a, 30a)이 동일한 경우의 일반적인 방법에 따른 현재 블록의 예측 모션 벡터 리스트를 구성하는 방법을 설명하는 것이고, 도 5b는 현재 블록(10)이 참조하는 양 방향의 참조 영상(20b, 30b)이 상이한 경우 일반적인 방법에 따른 현재 블록의 예측 모션 벡터 리스트를 구성하는 방법을 설명하는 것이다.5A is a diagram illustrating a method of constructing a prediction motion vector list of a current block according to a general method when reference images 20a and 30a in both directions referenced by the current block 10 are the same, and FIG. 5B is a diagram illustrating the current block A method of constructing a prediction motion vector list of a current block according to a general method when reference images 20b and 30b in both directions referenced by (10) are different will be described.

도 5a를 참조하면, 현재 블록(10)이 화면간 예측을 위하여 제 1 방향으로 참조하는 참조 영상(20a)과 제 2 방향으로 참조하는 참조 영상(30a)은 POC 8로 동일할 수 있다. 이와 같이, 현재 블록(10)이 참조하는 양 방향의 참조 영상(20a, 30a)이 동일한 경우, 현재 블록(10)의 제 1 방향(L0)에 대한 모션 벡터인 MVL0와 제 2 방향(L1)에 대한 모션 벡터인 MVL1은 매우 유사할 수 있다. 그러나, 일반적인 방법에 따른 현재 블록의 예측 모션 벡터 리스트는 이를 반영하지 아니하고, 각 방향에 대하여 독립적으로 현재 블록의 이웃 블록으로부터 모션 정보를 획득하여 하기 표 1 과 같이 예측 모션 벡터 리스트를 구성한다.Referring to FIG. 5A , the reference image 20a referenced by the current block 10 in the first direction and the reference image 30a referenced in the second direction for inter prediction by the current block 10 may have the same POC 8 . As such, when the reference images 20a and 30a in both directions referenced by the current block 10 are the same, MV L0 which is a motion vector for the first direction L0 of the current block 10 and the second direction L1 ), the motion vector for MV L1 , can be very similar. However, the prediction motion vector list of the current block according to the general method does not reflect this, and motion information is independently obtained from neighboring blocks of the current block in each direction to construct the prediction motion vector list as shown in Table 1 below.

인덱스index 제 1 방향의 예측 모션 벡터 리스트(AMVP_L0)Prediction motion vector list in the first direction (AMVP_L0) 제 2 방향의 예측 모션 벡터 리스트(AMVP_L1)Second direction prediction motion vector list (AMVP_L1) 00 MV_A0L0=(4,1)MV_A0 L0 =(4,1) MV_A0L1=(1,1)MV_A0 L1 =(1,1) 1One MV_ColL0=(0,1)MV_Col L0 =(0,1) MV_ColL1=(0,1)MV_Col L1 =(0,1)

현재 블록(10)에 대한 제 1 방향의 참조 픽쳐(20a)와 제 2 방향의 참조 픽쳐(30a)가 동일한 경우는 각 방향에 대한 모션 벡터가 유사할 가능성이 높다. 도 4a를 다시 참조하면, 현재 블록(10)의 제 1 방향에 대한 모션 벡터(MVL0) 및 제 2 방향에 대한 모션 벡터(MVL1)가 각각 (2,1) 및 (2,2) 로 유사함을 확인할 수 있다. 그러나, 앞서 언급한 바와 같이 일반적인 예측 모션 벡터 리스트 구성 방법에 의하면 각 방향에 대한 예측 모션 벡터 리스트는 독립적으로 구성된다. When the reference picture 20a in the first direction and the reference picture 30a in the second direction with respect to the current block 10 are the same, there is a high possibility that motion vectors for each direction are similar. Referring back to FIG. 4A , the motion vector MV L0 for the first direction and the motion vector MV L1 for the second direction of the current block 10 are (2,1) and (2,2) respectively. similarity can be seen. However, as mentioned above, according to a general method of constructing a predictive motion vector list, a predictive motion vector list for each direction is independently constructed.

그러므로, 제 2 방향의 예측 모션 벡터 리스트를 구성하기 위하여 상대적으로 제 2 방향에 대한 모션 벡터(MVL1)와 상관도가 낮은 현재 블록(10)의 이웃 블록들의 모션 벡터를 이용하게 되어 제 2 방향에 대한 모션 벡터(MVL1)의 부호화 효율이 낮아질 수 있다. 그러나, 일반적인 방법에 따른 예측 모션 벡터 리스트는 각 방향에 대하여 독립적으로 리스트를 구성하고, 상기 리스트 중 선택된 예측 모션 벡터와 각 방향의 모션 벡터와의 차분값을 나타내는 차분 모션 벡터인 MVDL0=(2,0) 및 MVDL1=(2,1)을 획득하여 복호화 장치로 전송할 수 있다.Therefore, in order to construct the prediction motion vector list in the second direction, motion vectors of neighboring blocks of the current block 10 having relatively low correlation with the motion vector MV L1 in the second direction are used to construct the prediction motion vector list in the second direction. The encoding efficiency of the motion vector MV L1 for ? may be lowered. However, the predictive motion vector list according to the general method constructs a list independently for each direction, and MVD L0 = (2 , 0) and MVD L1 = (2, 1) may be obtained and transmitted to the decoding device.

도 5b를 참조하면, 현재 블록(10)은 현재 블록(10)이 참조하는 제 1 방향의 참조 픽쳐(20b)와 제 2 방향의 참조 픽쳐(30b)가 상이한 경우에도 일반적인 방법에 따라 예측 모션 벡터 리스트를 구성함에 있어서 각 방향에 대한 예측 모션 벡터 리스트는 독립적으로 구성될 수 있다. 구성된 예측 모션 벡터 리스트는 하기 표 2와 같다.Referring to FIG. 5B , the current block 10 is a prediction motion vector according to a general method even when the reference picture 20b in the first direction referenced by the current block 10 and the reference picture 30b in the second direction are different from each other. In constructing the list, the predicted motion vector list for each direction may be independently constructed. The constructed prediction motion vector list is shown in Table 2 below.

인덱스index 제 1 방향의 예측 모션 벡터 리스트(AMVP_L0)Prediction motion vector list in the first direction (AMVP_L0) 제 2 방향의 예측 모션 벡터 리스트(AMVP_L1)Second direction prediction motion vector list (AMVP_L1) 00 MV_A1L0=(-2,-3)MV_A1 L0 =(-2,-3) MV_A1L1=(0,6)MV_A1 L1 =(0,6) 1One MV_B0L0=(-1,-11)MV_B0 L0 =(-1,-11) MV_B0L1=(-2,11)MV_B0 L1 =(-2,11)

현재 블록(10)에 대한 제 1 방향의 참조 픽쳐(20b)와 제 2 방향의 참조 픽쳐(30b)가 동일하지 않더라도, 현재 블록(10)이 참조하는 픽쳐들이므로 참조 픽쳐들의 거리 및 연관도에 따라 각 방향에 대한 모션 벡터가 유사할 가능성을 배제할 수 없다. 그러나, 앞서 언급한 바와 같이 일반적인 예측 모션 벡터 리스트 구성 방법에 의하면 각 방향에 대한 예측 모션 벡터 리스트는 독립적으로 구성된다.Even if the reference picture 20b in the first direction and the reference picture 30b in the second direction with respect to the current block 10 are not the same, since they are the pictures referred to by the current block 10, the distance and relevance of the reference pictures Accordingly, it cannot be excluded that the motion vectors for each direction are similar. However, as mentioned above, according to a general method of constructing a predictive motion vector list, a predictive motion vector list for each direction is independently constructed.

도 5b에 나타난 바와 같이, 제 1 방향에 대한 모션 벡터(MVL0) 및 제 2 방향에 대한 모션 벡터(MVL1)가 각각 (-5,-8) 및 (4,10)이고, 표 2 에 기재된 바와 같이 예측 모션 벡터 리스트가 구성될 수 있다. 이 경우, 예측 모션 벡터로 각각 AMVP_L0_0 및 AMVP_L1_1이 선택되면, 복호화 장치로 전송되는 차분 모션 벡터(MVDL0, MVDL1)는 각각 (-3,-5) 및 (6,-1)일 수 있다. As shown in FIG. 5B , the motion vector (MV L0 ) for the first direction and the motion vector (MV L1 ) for the second direction are (-5,-8) and (4,10), respectively, as shown in Table 2 A predictive motion vector list may be constructed as described. In this case, when AMVP_L0_0 and AMVP_L1_1 are selected as prediction motion vectors, respectively, the differential motion vectors MVD L0 and MVD L1 transmitted to the decoding apparatus may be (-3,-5) and (6,-1), respectively.

이와 같이, 일반적인 방법으로 예측 모션 벡터 리스트를 구성하는 경우, 제 2 방향에 대한 예측 모션 벡터 리스트를 구성할 때 현재 블록의 이웃 블록들의 모션 정보를 이용함으로써, 제 2 방향의 참조 픽쳐가 현재 픽쳐보다 제 1 방향의 참조 픽쳐와 상대적으로 상관도가 높은 경우, 오히려 모션 벡터의 부호화 효율이 낮아질 수 있다.In this way, when constructing the predictive motion vector list in a general method, by using motion information of neighboring blocks of the current block when constructing the predictive motion vector list for the second direction, the reference picture in the second direction is larger than the current picture. When the correlation with the reference picture in the first direction is relatively high, the encoding efficiency of the motion vector may be lowered.

그러므로, 본 발명의 일실시예에 따른 예측 모션 벡터 리스트(AMVP List)를 구성하는 방법 및 장치는, 현재 블록이 양방향 예측을 수행하는 경우, 제 1 방향에 대한 모션 벡터를 이용하여 제 2 방향의 예측 모션 벡터 리스트를 구성하는 것을 제안한다.Therefore, in the method and apparatus for constructing a predictive motion vector list (AMVP List) according to an embodiment of the present invention, when the current block performs bidirectional prediction, the second direction using the motion vector for the first direction We propose to construct a predictive motion vector list.

도 6 및 도 7은 본 발명의 일 실시예에 따른 예측 모션 벡터 리스트를 구성하는 방법을 설명하기 위한 순서도 및 장치를 나타내는 것이다.6 and 7 are flowcharts and apparatus for explaining a method of constructing a predictive motion vector list according to an embodiment of the present invention.

도 6 및 도 7을 참조하면, 예측 모션 벡터 리스트(AMVP 리스트) 구성부(700)는 제 1 방향 예측 모션 벡터 리스트 설정부(710), 모션 벡터 획득부(720), 및 제 2 방향 예측 모션 벡터 리스트 설정부(730)를 포함할 수 있다. 제 1 방향 예측 모션 벡터 리스트 설정부(710)는 제 1 방향의 예측 모션 벡터 리스트(AMVP_L0)를 설정할 수 있다. 상기 제 1 방향의 예측 모션 벡터 리스트는 현재 블록의 시간적 및 공간적 이웃 블록들의 모션 정보들로부터 획득된 제 1 방향의 예측 모션 벡터 후보자(MVP Candidate)로 구성될 수 있다. 상기 제 1 방향의 예측 모션 벡터 리스트는 2 개 이상의 예측 모션 벡터 후보자들을 포함할 수 있으며, 각 예측 모션 벡터 후보자를 나타내는 인덱스가 부여될 수 있다. 상기 제 1 방향의 예측 모션 벡터 리스트는 도 3을 참조하여 설명한 방법에 따라 구성될 수 있으나, 본 발명은 이에 한정되지는 아니한다. 또한, 모션 정보 획득부(720)는 제 1 방향에 대한 모션 벡터(MVL0)를 획득할 수 있다(S10). 상기 모션 벡터는 종래의 비디오 코덱의 화면간 예측시, 현재 블록이 모션 벡터를 획득하는 방법을 따를 수 있으나, 본 발명은 이에 한정되지 아니한다. 6 and 7 , the prediction motion vector list (AMVP list) construction unit 700 includes a first direction prediction motion vector list setting unit 710 , a motion vector obtainer 720 , and a second direction prediction motion A vector list setting unit 730 may be included. The first direction prediction motion vector list setting unit 710 may set the prediction motion vector list AMVP_L0 in the first direction. The prediction motion vector list in the first direction may include a prediction motion vector candidate (MVP Candidate) in the first direction obtained from motion information of temporal and spatial neighboring blocks of the current block. The predictive motion vector list in the first direction may include two or more predictive motion vector candidates, and an index indicating each predictive motion vector candidate may be assigned. The prediction motion vector list in the first direction may be configured according to the method described with reference to FIG. 3 , but the present invention is not limited thereto. Also, the motion information obtaining unit 720 may obtain a motion vector MV L0 for the first direction (S10). The motion vector may follow a method of obtaining a motion vector for a current block during inter prediction of a conventional video codec, but the present invention is not limited thereto.

이후, 제 2 방향 예측 모션 벡터 리스트 설정부(730)는 제 2 방향의 예측 모션 벡터 리스트(AMVP_L1)를 설정할 수 있다(S20). 상기 제 2 방향의 예측 모션 벡터 리스트를 구성하는 제 2 방향의 예측 모션 벡터 후보자 중 적어도 하나 이상은 상기 제 1 방향에 대한 모션 벡터(MVL0)를 이용하여 설정될 수 있다. 일 실시예에서, 상기 제 1 방향에 대한 모션 벡터를 이용하여 설정되는 상기 제 2 방향의 예측 모션 벡터 후보자는 상기 제 1 방향에 대한 모션 벡터를 그대로 카피하여 설정될 수도 있고, 상기 제 1 방향에 대한 모션 벡터를 스케일링과 같은 다양한 방법으로 수정하여 설정될 수도 있다. 또한, 상기 제 2 방향의 예측 모션 벡터 후보자는 상기 제 2 방향의 예측 모션 벡터 리스트(AMVP_L1)에 포함될 수 있다. Thereafter, the second direction prediction motion vector list setting unit 730 may set the prediction motion vector list AMVP_L1 in the second direction ( S20 ). At least one of the prediction motion vector candidates in the second direction constituting the prediction motion vector list in the second direction may be set using the motion vector MV L0 for the first direction. In an embodiment, the predicted motion vector candidate in the second direction set using the motion vector for the first direction may be set by copying the motion vector for the first direction as it is, or in the first direction. It may also be set by modifying the motion vector for . Also, the prediction motion vector candidate in the second direction may be included in the prediction motion vector list AMVP_L1 in the second direction.

현재 블록의 양방향 예측에 이용되는 참조 픽쳐는 서로 상관도가 높을 가능성이 높으므로, 양방향에서 획득되는 제 1 방향에 대한 모션 벡터 및 제 2 방향에 대한 모션 벡터(MVL0, MVL1)들도 유사할 가능성이 높다. 따라서, 상기 제 1 방향에 대한 모션 벡터(MVL0)를 이용하여 적어도 하나 이상의 제 2 방향의 예측 모션 벡터 후보자를 획득하는 경우, 종래의 방법에 비하여 작은 값의 제 2 방향에 대한 차분 모션 벡터(MVDL1)를 부호화하여 전송하는 것이 가능하게 된다.Since the reference pictures used for bidirectional prediction of the current block are highly likely to have high correlation with each other, the motion vectors for the first direction and the motion vectors MV L0 and MV L1 for the second direction obtained in both directions are similar. highly likely to do Accordingly, when obtaining at least one predicted motion vector candidate in the second direction by using the motion vector MV L0 for the first direction, the differential motion vector ( MVD L1 ) can be encoded and transmitted.

또한, 제 2 방향 예측 모션 벡터 리스트 설정부(730)는 동시에 상기 현재 블록의 시간적 이웃 블록 및 공간적 이웃 블록의 모션 벡터를 이용하여 적어도 하나 이상의 제 2 방향의 예측 모션 벡터 후보자를 획득함으로써 상기 제 1 방향에 대한 모션 벡터를 이용하여 획득되는 제 2 방향의 예측 모션 벡터 후보자들과 함께 제 2 방향의 예측 모션 벡터 리스트(AMVP_L1)를 구성할 수 있다. 본 발명에서 상기 제 1 방향에 대한 모션 벡터를 이용하여 설정되는 제 2 방향의 예측 모션 벡터 후보자와 일반적인 방법으로 설정되는 제 2 방향의 예측 모션 벡터 후보자들의 개수, 획득 순서, 및 상기 예측 모션 벡터 후보자들에 대한 인덱스 할당 방법은 제한되지 아니한다. In addition, the second direction prediction motion vector list setting unit 730 obtains at least one prediction motion vector candidate in the second direction using motion vectors of the temporal neighboring block and the spatial neighboring block of the current block at the same time to obtain the first The prediction motion vector list AMVP_L1 in the second direction may be configured together with the prediction motion vector candidates of the second direction obtained by using the motion vector for the direction. In the present invention, the predicted motion vector candidates in the second direction set using the motion vector for the first direction and the number of predicted motion vector candidates in the second direction set in a general method, the acquisition order, and the predicted motion vector candidates The method of allocating indexes to the fields is not limited.

도 8 및 도 9는 본 발명의 다른 실시예에 따른 예측 모션 벡터 리스트를 구성하는 방법에 대한 순서도 및 구성 장치를 나타내는 것이다.8 and 9 are flowcharts showing a method for constructing a predictive motion vector list and an apparatus for constructing a predictive motion vector list according to another embodiment of the present invention.

도 8를 참조하면, 먼저 도 6 및 도 7을 참조하여 설명한 바와 같이, 먼저 현재 블록의 제 1 방향에 대한 모션 벡터를 획득할 수 있다(S10). 상기 제 1 방향에 대한 모션 벡터의 획득은 제 1 방향의 예측 모션 벡터 리스트를 구성하는 순서와 관계없이 이루어질 수 있다. 상기 제 1 방향의 예측 모션 벡터 리스트 구성을 통하여 상기 제 1 방향에 대한 모션 벡터를 획득한 이후에 수행될 수도 있고, 상기 제 1 방향의 예측 모션 벡터 리스트 구성과 독립적으로 수신되는 정보를 통하여 획득할 수도 있으며, 본 발명은 이에 한정되지 아니한다.Referring to FIG. 8 , as described with reference to FIGS. 6 and 7 , first, a motion vector for the first direction of the current block may be obtained ( S10 ). Acquisition of the motion vector for the first direction may be performed irrespective of the order in which the prediction motion vector list of the first direction is constructed. It may be performed after obtaining the motion vector for the first direction through the construction of the prediction motion vector list in the first direction, and may be obtained through information received independently of the construction of the prediction motion vector list in the first direction Also, the present invention is not limited thereto.

도 8와 함께 도 9를 참조하면, 제 2 방향 예측 모션 벡터 리스트 설정부(730)는 제 1 예측 모션 벡터 후보자 설정부(731) 및 제 2 예측 모션 벡터 후보자 설정부(732)를 포함한다. 제 1 예측 모션 벡터 후보자 설정부(731)는 제 1 예측 모션 벡터 후보자들을 설정하며, 상기 제 1 예측 모션 벡터 후보자들은 제 1 방향에 대한 모션 벡터(MVL0)를 이용하여 제 2 방향의 예측 모션 벡터 리스트를 구성하는 예측 모션 벡터 후보자로서 설정된 예측 모션 벡터 후보자들일 수 있다(S21). 상기 제 1 예측 모션 벡터 후보자는 적어도 하나 이상의 예측 모션 벡터 후보자일 수 있다. Referring to FIG. 9 together with FIG. 8 , the second prediction motion vector list setting unit 730 includes a first prediction motion vector candidate setting unit 731 and a second prediction motion vector candidate setting unit 732 . The first prediction motion vector candidate setting unit 731 sets first prediction motion vector candidates, and the first prediction motion vector candidates use a motion vector MV L0 for the first direction to predict motion in the second direction. The predicted motion vector candidates may be set as predicted motion vector candidates constituting the vector list (S21). The first predictive motion vector candidate may be at least one predictive motion vector candidate.

상기 제 1 예측 모션 벡터 후보자는 예측 모션 벡터 후보자 중 현재 블록의 모션 벡터와 가장 상관도가 클 수 있다. 따라서, 상기 제 1 예측 모션 벡터 리스트를 구성시 가장 작은 코드워드를 갖는 인덱스에 상기 제 1 예측 모션 벡터 후보자를 할당함으로써 코딩 효율을 높일 수 있다. 일 실시예에서, 상기 제 1 예측 모션 벡터 후보자가 적어도 두 개 이상이면 상기 제 1 예측 모션 벡터 후보자는 작은 코드워드를 갖는 순으로 인덱스를 할당하여 코딩 효율을 높일 수 있다.The first prediction motion vector candidate may have the highest correlation with the motion vector of the current block among the prediction motion vector candidates. Accordingly, when constructing the first prediction motion vector list, it is possible to increase coding efficiency by allocating the first prediction motion vector candidate to an index having the smallest codeword. In an embodiment, if there are at least two candidates for the first prediction motion vector, coding efficiency may be increased by allocating indexes to the first prediction motion vector candidates in the order of having the smallest codeword.

제 2 예측 모션 벡터 후보자 설정부(732)도 제 1 예측 모션 벡터 후보자 설정부(731)와 독립적으로 순서와 관계없이, 상기 현재 블록의 공간적 및 시간적 이웃 블록들을 이용하여 제 2 방향의 예측 모션 벡터 리스트를 구성하는 적어도 하나 이상의 예측 모션 벡터 후보자들을 설정할 수 있다(S22). 상기 적어도 하나 이상의 예측 모션 벡터 후보자들은 제 2 예측 모션 벡터 후보자라고 지칭할 수 있다. 상기 제 2 예측 모션 벡터 후보자는 도 3을 참조하여 설명한 일반적인 예측 모션 벡터를 획득하는 방법으로 획득되어, 상기 제 1 예측 모션 벡터 후보자와 함께 제 2 방향의 예측 모션 벡터 리스트(AMVP_L1)를 구성할 수 있다. 이 경우, 상기 제 2 방향에 대한 예측 모션 벡터 리스트의 구성시 상기 제 1 예측 모션 벡터 후보자 및 상기 제 2 예측 모션 벡터 후보자의 개수, 획득 순서, 및 인덱스 할당 방법은 제한되지 아니하며, 당업자가 실시할 수 있는 방법이면 무방하다.The second prediction motion vector candidate setting unit 732 also uses spatial and temporal neighboring blocks of the current block independently of the first prediction motion vector candidate setting unit 731 to obtain a prediction motion vector in the second direction, regardless of order. At least one or more predictive motion vector candidates constituting the list may be set ( S22 ). The one or more prediction motion vector candidates may be referred to as a second prediction motion vector candidate. The second predictive motion vector candidate is obtained by the method of obtaining a general predictive motion vector described with reference to FIG. 3, and together with the first predictive motion vector candidate, a predictive motion vector list (AMVP_L1) in the second direction can be formed. have. In this case, when constructing the prediction motion vector list for the second direction, the number, acquisition order, and index allocation method of the first prediction motion vector candidate and the second prediction motion vector candidate are not limited, and those skilled in the art can implement It's free in any way possible.

이와 같이, 본 발명의 일 실시예에 따른 예측 모션 벡터 리스트의 구성 방법 및 장치는, 현재 블록이 양방향 화면간 예측을 수행하는 경우, 제 2 방향의 예측 모션 벡터 후보자 중 적어도 하나 이상을 제 1 방향에 대한 모션 벡터를 이용하여 획득함으로써 코딩 효율을 향상시킬 수 있다.As described above, in the method and apparatus for constructing a predictive motion vector list according to an embodiment of the present invention, when the current block performs bidirectional inter prediction, at least one of the predictive motion vector candidates in the second direction is selected in the first direction. Coding efficiency can be improved by acquiring using a motion vector for .

도 10a 및 도 10b는 본 발명의 일 실시예에 따른 예측 모션 벡터 리스트를 구성하는 방법을 설명하기 위한 것이다.10A and 10B are for explaining a method of constructing a predictive motion vector list according to an embodiment of the present invention.

도 10a를 참조하면, 현재 블록(10)이 양방향 예측을 수행하고, 제 1 방향 및 제 2 방향에 대하여 참조하는 픽쳐(40a,50a)가 POC=8로 동일한 경우, 제 1 방향에 대한 모션 벡터(MVL0)를 제 2 방향의 예측 모션 벡터 리스트의 구성에 이용할 수 있다. 예를 들면, 현재 블록의 제 1 방향에 대한 모션 벡터(MVL0)이 (2,1)인 경우, 제 2 방향의 제 1 예측 모션 벡터 후보자로서 MVL0=(2,1)을 설정할 수 있다. 일 실시예에서, 상기 제 1 예측 모션 벡터 후보자는 제 2 방향의 예측 모션 벡터 리스트를 구성하는 인덱스 중 가장 짧은 코드워드를 가질 수 있으나, 본 발명은 이에 한정되지 아니하고, 제 2 방향의 예측 모션 벡터 리스트 중 어느 인덱스에 대하여 할당해도 무방하다.Referring to FIG. 10A , when the current block 10 performs bidirectional prediction and the pictures 40a and 50a referenced in the first direction and the second direction are the same as POC=8, the motion vector for the first direction (MV L0 ) may be used to construct a prediction motion vector list in the second direction. For example, when the motion vector (MV L0 ) for the first direction of the current block is (2,1), MV L0 =(2,1) may be set as the first prediction motion vector candidate in the second direction. . In an embodiment, the first prediction motion vector candidate may have the shortest codeword among indices constituting the prediction motion vector list in the second direction, but the present invention is not limited thereto. It is okay to allocate to any index in the list.

도 10a와 함께 도 5a를 참조하면, 현재 블록(10)이 양방향 예측시 각 방향에 대하여 참조하는 영상이 동일한 조건하에서, 제 2 방향의 예측 모션 벡터 리스트를 구성하기 위하여 제 1 방향에 대한 모션 정보와 독립적으로 현재 블록의 이웃 블록들로부터 모션 정보를 획득하여 구성하는 경우에는 전송하여야 하는 제 2 방향의 차분 모션 벡터는 (2,1) 일 수 있다. 그러나, 제 2 방향의 제 1 예측 모션 벡터 후보자로서 제 1 방향에 대한 모션 벡터를 이용하는 경우에는 제 2 방향의 차분 모션 벡터는 (0,1) 일 수 있다. 본 발명의 일 실시예에 따른 AMVP 리스트의 구성은 하기 표 3와 같다.Referring to FIG. 5A together with FIG. 10A , under the same condition that images referenced in each direction during bidirectional prediction of the current block 10 are the same, motion information for the first direction in order to construct a prediction motion vector list in the second direction In the case of obtaining and configuring motion information from neighboring blocks of the current block independently of , the differential motion vector in the second direction to be transmitted may be (2,1). However, when the motion vector for the first direction is used as the first prediction motion vector candidate in the second direction, the differential motion vector in the second direction may be (0,1). The configuration of the AMVP list according to an embodiment of the present invention is shown in Table 3 below.

인덱스index 제 1 방향의 예측 모션 벡터 리스트(AMVP_L0)Prediction motion vector list in the first direction (AMVP_L0) 제 2 방향의 예측 모션 벡터 리스트(AMVP_L1)Second direction prediction motion vector list (AMVP_L1) 00 MV_A1L0=(-2,-3)MV_A1 L0 =(-2,-3) MVL0=(2,1)MV L0 =(2,1) 1One MV_B0L0=(-1,-11)MV_B0 L0 =(-1,-11) MV_B0L1=(-2,11)MV_B0 L1 =(-2,11)

이와 같이, 제 1 방향에 대한 모션 벡터와 제 2 방향에 대한 모션 벡터는 상관도가 높기 때문에, 제 1 방향에 대한 모션 벡터를 이용하여 제 2 방향의 제 1 예측 모션 벡터를 설정하는 본 발명의 예측 모션 벡터 리스트를 구성하는 방법은 기존의 방법보다 작은 차분 모션 벡터(MVD)를 부호화하여 전송할 수 있다. As described above, since the motion vector for the first direction and the motion vector for the second direction have a high correlation, the method of the present invention for setting the first predicted motion vector in the second direction by using the motion vector for the first direction In the method of constructing the predictive motion vector list, a differential motion vector (MVD) smaller than the existing method may be encoded and transmitted.

도 10b는 현재 블록(10)이 양방향 예측을 수행하고, 제 1 방향에 대하여 참조하는 픽쳐(40b)가 제 2 방향에 대하여 참조하는 픽쳐(50b)와 상이한 경우, 제 1 방향에 대한 모션 벡터(MVL0)를 이용하여 제 2 방향의 예측 모션 벡터 리스트를 구성하는 제 1 예측 모션 벡터 후보자로 설정하는 방법을 나타내는 것이다. 상기 제 1 예측 모션 벡터 후보자는 상기 제 1 방향에 대한 모션 벡터를 상기 제 1 방향에 대한 참조 픽쳐 및 상기 제 2 방향에 대한 참조 픽쳐의 POC와 같은 참조 픽쳐 정보를 더 이용하여 획득될 수 있다. 예를 들면, 현재 블록(10)의 제 1 방향에 대한 참조 픽쳐(40b)가 POC=8이고, 제 2 방향에 대한 참조 픽쳐(50b)가 POC=12이며, 현재 블록(10)의 제 1 방향에 대한 모션 벡터(MVL0)이 (5,8)인 경우, 하기 표 4와 같이 제 2 방향의 제 1 예측 모션 벡터는 POC를 기반으로 스케일링된 (-5,8)일 수 있다.10B shows a motion vector ( A method of setting a first prediction motion vector candidate constituting a prediction motion vector list in the second direction using MV L0 ) is shown. The first prediction motion vector candidate may be obtained by further using reference picture information such as the POC of the reference picture for the first direction and the reference picture for the second direction for the motion vector for the first direction. For example, the reference picture 40b for the first direction of the current block 10 has POC=8, the reference picture 50b for the second direction has POC=12, and the first of the current block 10 When the motion vector MVL0 for the direction is (5,8), as shown in Table 4 below, the first predicted motion vector in the second direction may be (-5,8) scaled based on the POC.

인덱스index 제 1 방향의 예측 모션 벡터 리스트(AMVP_L0)Prediction motion vector list in the first direction (AMVP_L0) 제 2 방향의 예측 모션 벡터 리스트(AMVP_L1)Second direction prediction motion vector list (AMVP_L1) 00 MV_A1L0=(-2,-3)MV_A1 L0 =(-2,-3) Scaled_MVL0=(5,8)Scaled_MV L0 =(5,8) 1One MV_B0L0=(-1,-11)MV_B0 L0 =(-1,-11) MV_B0L1=(-2,11)MV_B0 L1 =(-2,11)

도 10b와 함께 도 5b를 참조하면, 현재 블록(10)이 양방향 예측시 각 방향에 대하여 참조하는 영상이 상이한 조건하에서, 제 2 방향의 예측 모션 벡터 리스트(AMVP_L1)를 구성하기 위하여 제 1 방향에 대한 모션 정보와 독립적으로 현재 블록의 이웃 블록들로부터 모션 정보를 획득하여 구성하여야 하는 경우에는 전송하여야 하는 제 2 방향의 차분 모션 정보(MVDL1)는 (6,-1) 일 수 있다. 그러나, 제 1 예측 모션 벡터 후보자로서 스케일링된 제 1 방향에 대한 모션 벡터(Scaled_MVL0)를 이용하는 경우에는 제 2 방향의 차분 모션 벡터(MVDL1)는 (-1,2) 일 수 있다. Referring to FIG. 5B together with FIG. 10B, in the first direction to construct a prediction motion vector list (AMVP_L1) in the second direction under the condition that images referenced in each direction are different when the current block 10 is bidirectionally predicted. In the case where motion information must be obtained and configured from neighboring blocks of the current block independently of the motion information of the current block, differential motion information MVD L1 in the second direction to be transmitted may be (6,-1). However, when using the scaled motion vector Scaled_MV L0 in the first direction as the first prediction motion vector candidate, the differential motion vector MVD L1 in the second direction may be (−1,2).

이와 같이, 제 1 방향에 대한 모션 벡터(MVL0)와 제 2 방향에 대한 모션 벡터(MVL1)는 상관도가 높다. 그러므로, POC를 기반으로 제 1 방향에 대한 모션 벡터를 스케일링하여(Scaled_MVL0) 제 2 방향의 제 1 예측 모션 벡터(MVL1)를 설정하는 본 발명의 예측 모션 벡터 리스트를 구성하는 방법은 기존의 방법보다 상대적으로 작은 차분 모션 벡터(MVDL1)를 부호화하여 전송할 수 있으므로, 코딩 효율을 향상시킬 수 있다. 일 실시예에서, 코딩 효율을 향상시키기 위하여 상기 제 1 예측 모션 벡터 후보자는 제 2 방향의 예측 모션 벡터 리스트를 구성하는 인덱스 중 가장 짧은 코드워드를 가질 수 있으나, 본 발명은 이에 한정되지 아니한다. 본 발명에서는 제 2 방향의 제 1 예측 모션 벡터 후보자로서 POC 기반으로 제 1 방향에 대한 모션 벡터를 스케일링하는 방법에 대하여 개시하고 있으나, 스케일링하는 방법은 이에 한정되지 아니한다.As such, the motion vector MV L0 for the first direction and the motion vector MV L1 for the second direction have a high correlation. Therefore, the method of constructing the predicted motion vector list of the present invention that sets the first predicted motion vector (MV L1 ) in the second direction by scaling the motion vector for the first direction based on the POC (Scaled_MV L0 ) is a conventional method. Since the differential motion vector (MVD L1 ), which is relatively smaller than the method, can be encoded and transmitted, coding efficiency can be improved. In an embodiment, in order to improve coding efficiency, the first prediction motion vector candidate may have the shortest codeword among indices constituting the prediction motion vector list in the second direction, but the present invention is not limited thereto. Although the present invention discloses a method of scaling a motion vector in the first direction based on POC as a first prediction motion vector candidate in the second direction, the method of scaling is not limited thereto.

도 11은 본 발명의 또 다른 실시예에 따른 예측 모션 벡터 리스트를 구성하는 방법을 나타내는 순서도이다. 도 11을 참조하면, 현재 블록의 AMVP 리스트를 구성하기 위하여, 먼저 제 1 방향에 대한 모션 벡터(MVL0)를 획득한다(S10). 상기 제 1 방향에 대한 모션 벡터는 복호화기에서 부호화기로부터 수신된 제 1 방향의 예측 모션 벡터 리스트의 예측 모션 벡터 후보자 및 차분 모션 벡터를 이용하여 획득되거나, 인코더로부터 수신될 수도 있으며, 본 발명은 상기 제 1 방향에 대한 모션 벡터를 획득하는 방법을 제한하지 아니한다. 11 is a flowchart illustrating a method of constructing a predictive motion vector list according to another embodiment of the present invention. Referring to FIG. 11 , in order to construct the AMVP list of the current block, a motion vector MV L0 for the first direction is obtained ( S10 ). The motion vector for the first direction may be obtained from a decoder using a predicted motion vector candidate and a differential motion vector of a predicted motion vector list in the first direction received from the encoder, or may be received from an encoder. The method of obtaining the motion vector for the first direction is not limited.

이후, 현재 블록의 양방향 예측에 이용되는 제 1 방향에 대한 참조 픽쳐의 픽쳐 정보(POCref _L0)와 제 2 방향에 대한 참조 픽쳐의 픽쳐 정보(POCref _L1)가 동일한지 여부를 판단한다(S30). 예를 들면, 상기 제 1 및 제 2 참조 픽쳐들의 동일 여부는 POC와 같은 픽쳐 정보를 기반으로 판단될 수 있다. Thereafter, it is determined whether picture information (POC ref _L0 ) of the reference picture for the first direction used for bidirectional prediction of the current block and picture information (POC ref _L1 ) of the reference picture for the second direction are the same (S30) ). For example, whether the first and second reference pictures are the same may be determined based on picture information such as POC.

만일 상기 제 1 방향에 대한 참조 픽쳐 및 상기 제 2 방향에 대한 참조 픽쳐의 픽쳐 정보가 동일한 경우(S30의 Yes), 제 2 방향의 예측 모션 벡터 리스트(AMVP_L1)를 구성하는 제 1 예측 모션 벡터 후보자(MVP_L1_0)로서 상기 제 1 방향에 대한 모션 벡터(MVL0)가 설정될 수 있다(S40). 상기 제 1 예측 모션 벡터 후보자는 적어도 하나 이상의 예측 모션 벡터 후보자일 수 있다. 또한, 상기 제 2 방향의 예측 모션 벡터 리스트를 구성하는 적어도 하나 이상의 제 2 예측 모션 벡터 후보자(MVP_L1_N)는 일반적인 방법에 따라 설정될 수 있다(S50). 상기 제 1 방향에 대한 모션 벡터를 카피하여 설정된 상기 제 2 방향의 제 1 예측 모션 벡터 후보자와 일반적인 방법으로 획득되는 상기 제 2 방향의 제 2 예측 모션 벡터 후보자의 획득 순서 및 제 2 방향의 예측 모션 벡터 리스트 구성시 인덱스 할당 방법은 제한되지 아니한다.If the picture information of the reference picture for the first direction and the reference picture for the second direction is the same (Yes in S30), the first prediction motion vector candidate constituting the prediction motion vector list AMVP_L1 in the second direction A motion vector MV L0 for the first direction may be set as (MVP_L1_0) (S40). The first predictive motion vector candidate may be at least one predictive motion vector candidate. In addition, at least one second prediction motion vector candidate (MVP_L1_N) constituting the prediction motion vector list in the second direction may be set according to a general method ( S50 ). The first predicted motion vector candidate in the second direction set by copying the motion vector for the first direction, and the acquisition order of the second predicted motion vector candidate in the second direction obtained by a general method and the predicted motion in the second direction When constructing a vector list, an index allocation method is not limited.

만일 상기 제 1 방향에 대한 참조 픽쳐 및 상기 제 2 방향에 대한 참조 픽쳐의 픽쳐 정보가 상이한 경우(S30의 No), 제 2 방향의 예측 모션 벡터 리스트를 구성하는 제 1 예측 모션 벡터 후보자(MVP_L1_0)로서 상기 제 1 방향에 대한 모션 벡터가 스케일링된 값(Scaled_MVL0)이 설정될 수 있다(S60). 상기 제 1 예측 모션 벡터 후보자는 적어도 하나 이상의 예측 모션 벡터 후보자일 수 있다. 또한, 상기 제 2 방향의 예측 모션 벡터 리스트를 구성하는 적어도 하나 이상의 제 2 예측 모션 벡터 후보자(MVP_L1_N)는 일반적인 방법에 따라 설정될 수 있다(S70). 상기 제 1 방향에 대한 모션 벡터를 스케일링한 값으로 설정된 상기 제 2 방향의 제 1 예측 모션 벡터 후보자와 일반적인 방법으로 획득되는 상기 제 2 방향의 제 2 예측 모션 벡터 후보자의 획득 순서 및 제 2 방향의 예측 모션 벡터 리스트 구성시 인덱스 할당 방법은 제한되지 아니한다.If the picture information of the reference picture for the first direction and the reference picture for the second direction are different (No in S30), a first prediction motion vector candidate (MVP_L1_0) constituting the prediction motion vector list in the second direction As , a scaled value (Scaled_MV L0 ) of the motion vector for the first direction may be set (S60). The first predictive motion vector candidate may be at least one predictive motion vector candidate. In addition, at least one second prediction motion vector candidate (MVP_L1_N) constituting the prediction motion vector list in the second direction may be set according to a general method ( S70 ). The first predicted motion vector candidate in the second direction set to a scaled value of the motion vector for the first direction, and the second direction prediction motion vector candidate obtained by a general method, and the second direction When constructing a predictive motion vector list, an index allocation method is not limited.

상기 방법에 따라 구성되는 AMVP 리스트는 화면간 예측시 상관도가 높은 제 1 방향에 대한 모션 벡터를 제 2 방향의 예측 모션 벡터 리스트 구성시 이용하게 되므로, 화면간 예측의 코딩 효율을 향상시킨 예측 모션 벡터 리스트의 구성 방법을 제공할 수 있다. 또한, 양방향 예측시 제 1 방향에 대한 참조 픽쳐 및 제 2 방향에 대한 참조 픽쳐의 픽쳐 정보가 동일한지 여부 및 상기 참조 픽쳐들과 현재 픽쳐 사이의 거리 중 어느 하나 이상을 고려하여 제 2 방향의 예측 모션 벡터 리스트를 구성하는 적어도 하나 이상의 예측 모션 벡터 후보자를 설정함으로써 코딩 효율을 높일 수 있다.In the AMVP list constructed according to the above method, the motion vector for the first direction with high correlation in inter prediction is used when constructing the predictive motion vector list in the second direction. A method of constructing a vector list may be provided. In addition, in bidirectional prediction, whether picture information of the reference picture for the first direction and the reference picture for the second direction is the same, and any one or more of the distance between the reference pictures and the current picture is taken into consideration in the second direction prediction Coding efficiency may be increased by setting at least one predictive motion vector candidate constituting the motion vector list.

이상에서 설명한 본 발명이 전술한 실시예 및 첨부된 도면에 한정되지 않으며, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러가지 치환, 변형 및 변경이 가능하다는 것은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 명백할 것이다.It is common in the art to which the present invention pertains that the present invention described above is not limited to the above-described embodiments and the accompanying drawings, and that various substitutions, modifications, and changes are possible without departing from the technical spirit of the present invention. It will be clear to those who have knowledge.

Claims (15)

현재 블록의 제 1 참조 픽쳐를 참조하는 제 1 방향에 대한 모션 벡터를 획득하는 단계; 및
상기 제 1 방향에 대한 모션 벡터를 이용하여 상기 제 1 방향과 다른 현재 블록의 제 2 참조 픽쳐를 참조하는 제 2 방향의 예측 모션 벡터 리스트를 구성하는 적어도 하나 이상의 제 2 방향의 예측 모션 벡터 후보자를 설정하는 단계를 포함하는 양방향 화면간 예측 모션 벡터 리스트를 구성하는 방법.
obtaining a motion vector for a first direction referring to a first reference picture of a current block; and
At least one prediction motion vector candidate in the second direction constituting a prediction motion vector list in the second direction that refers to a second reference picture of a current block different from the first direction by using the motion vector for the first direction A method of constructing a bidirectional inter-screen prediction motion vector list, comprising the step of setting.
제 1 항에 있어서,
상기 적어도 하나 이상의 제 2 방향의 예측 모션 벡터 후보자는 상기 제 1 방향에 대한 모션 벡터를 복사하여 설정되는 양방향 화면간 예측 모션 벡터 리스트를 구성하는 방법.
The method of claim 1,
The at least one prediction motion vector candidate in the second direction is a method of constructing a bidirectional inter-picture prediction motion vector list in which the motion vectors for the first direction are copied and set.
제 2 항에 있어서,
상기 제 1 방향에 대한 상기 제 1 참조 픽쳐와 상기 제 2 방향에 대한 상기 제 2 참조 픽쳐가 동일한 픽쳐 정보를 갖는 양방향 화면간 예측 모션 벡터 리스트를 구성하는 방법.
3. The method of claim 2,
A method of constructing a bidirectional inter prediction motion vector list in which the first reference picture for the first direction and the second reference picture for the second direction have the same picture information.
제 2 항에 있어서,
상기 제 2 방향의 예측 모션 벡터 후보자는 가장 작은 코드워드를 갖는 순서로 인덱스에 할당되는 양방향 화면간 예측 모션 벡터 리스트를 구성하는 방법.
3. The method of claim 2,
The method of constructing a bidirectional inter prediction motion vector list in which the prediction motion vector candidates of the second direction are allocated to the index in the order of having the smallest codeword.
제 1 항에 있어서,
상기 제 2 방향의 예측 모션 벡터 후보자는 상기 제 1 방향에 대한 모션 벡터를 픽쳐 정보에 기초하여 스케일링하여 설정되는 양방향 화면간 예측 모션 벡터 리스트를 구성하는 방법.
The method of claim 1,
The method of constructing a bidirectional inter-picture predicted motion vector list in which the prediction motion vector candidate in the second direction is set by scaling the motion vector in the first direction based on picture information.
제 5 항에 있어서,
상기 제 1 방향에 대한 상기 제 1 참조 픽쳐와 상기 제 2 방향에 대한 상기 제 2 참조 픽쳐의 픽쳐 정보가 상이한 양방향 화면간 예측 모션 벡터 리스트를 구성하는 방법.
6. The method of claim 5,
A method of constructing a bidirectional inter-picture prediction motion vector list in which picture information of the first reference picture for the first direction and the picture information of the second reference picture for the second direction are different.
제 5 항에 있어서,
상기 제 2 방향의 예측 모션 벡터 후보자는 가장 작은 코드워드를 갖는 순서로 인덱스에 할당되는 양방향 화면간 예측 모션 벡터 리스트를 구성하는 방법.
6. The method of claim 5,
The method of constructing a bidirectional inter prediction motion vector list in which the prediction motion vector candidates of the second direction are allocated to the index in the order of having the smallest codeword.
제 1 항에 있어서,
상기 적어도 하나 이상의 제 2 방향의 예측 모션 벡터 후보자를 설정하는 단계 이전에,
상기 제 1 방향에 대한 상기 제 1 참조 픽쳐 및 상기 제 2 방향에 대한 상기 제 2 참조 픽쳐의 픽쳐 정보가 동일한지 여부를 판단하는 단계를 더 포함하는 양방향 화면간 예측 모션 벡터 리스트를 구성하는 방법.
The method of claim 1,
Before the step of setting the prediction motion vector candidates of the at least one or more second directions,
and determining whether picture information of the first reference picture for the first direction and the picture information for the second reference picture for the second direction is the same.
현재 블록의 제 1 참조 픽쳐를 참조하는 제 1 방향에 대한 모션 벡터를 획득하는 모션 벡터 획득부; 및
상기 제 1 방향에 대한 모션 벡터를 이용하여 상기 제 1 방향과 다른 현재 블록의 제 2 참조 픽쳐를 참조하는 제 2 방향의 예측 모션 벡터 리스트를 구성하는 적어도 하나 이상의 제 2 방향의 예측 모션 벡터 후보자를 설정하는 제 2 방향 예측 모션 벡터 리스트 설정부를 포함하는 양방향 화면간 예측 모션 벡터 리스트의 구성 장치.
a motion vector obtaining unit which obtains a motion vector for a first direction referring to a first reference picture of a current block; and
At least one prediction motion vector candidate in the second direction constituting a prediction motion vector list in the second direction that refers to a second reference picture of a current block different from the first direction by using the motion vector for the first direction An apparatus for constructing a bidirectional inter-screen prediction motion vector list including a second direction prediction motion vector list setting unit to set.
제 9 항에 있어서,
상기 제 2 방향 예측 모션 벡터 리스트 설정부는,
상기 제 1 방향에 대한 모션 벡터를 이용하여 적어도 하나 이상의 상기 제 2 방향의 예측 모션 벡터 후보자를 설정하는 제 1 예측 모션 벡터 후보자 설정부; 및
상기 현재 블록의 공간적 및 시간적 이웃 블록들을 이용하여 적어도 하나 이상의 상기 제 2 방향의 예측 모션 벡터 후보자를 설정하는 제 2 예측 모션 벡터 후보자 설정부를 포함하는 양방향 화면간 예측 모션 벡터 리스트의 구성 장치.
10. The method of claim 9,
The second direction prediction motion vector list setting unit,
a first predicted motion vector candidate setting unit configured to set at least one predicted motion vector candidate in the second direction by using the motion vector for the first direction; and
and a second prediction motion vector candidate setting unit configured to set at least one prediction motion vector candidate in the second direction using spatial and temporal neighboring blocks of the current block.
제 10 항에 있어서,
상기 제 1 예측 모션 벡터 후보자 설정부에서 획득되는 상기 제 2 방향의 예측 모션 벡터 후보자는 상기 제 1 방향에 대한 모션 벡터를 복사하여 설정되는 양방향 화면간 예측 모션 벡터 리스트의 구성 장치.
11. The method of claim 10,
The apparatus for configuring a bidirectional inter-picture predicted motion vector list in which the predicted motion vector candidate in the second direction obtained by the first predicted motion vector candidate setting unit is set by copying the motion vector in the first direction.
제 11 항에 있어서,
상기 제 1 방향에 대한 상기 제 1 참조 픽쳐와 상기 제 2 방향에 대한 상기 제 2 참조 픽쳐의 픽쳐 정보가 동일한 양방향 화면간 예측 모션 벡터 리스트의 구성 장치.
12. The method of claim 11,
An apparatus for constructing a bidirectional inter prediction motion vector list in which picture information of the first reference picture for the first direction and the picture information of the second reference picture for the second direction are the same.
제 10 항에 있어서,
상기 제 1 예측 모션 벡터 후보자 설정부에서 획득되는 상기 제 2 방향의 예측 모션 벡터 후보자는 상기 제 1 방향에 대한 모션 벡터를 픽쳐 정보에 기초하여 스케일링하여 설정되는 양방향 화면간 예측 모션 벡터 리스트의 구성 장치.
11. The method of claim 10,
The predictive motion vector candidate in the second direction obtained by the first predictive motion vector candidate setting unit is configured by scaling the motion vector in the first direction based on picture information to configure the bidirectional inter-picture predictive motion vector list .
제 13 항에 있어서,
상기 제 1 방향에 대한 상기 제 1 참조 픽쳐와 상기 제 2 방향에 대한 상기 제 2 참조 픽쳐의 픽쳐 정보가 상이한 양방향 화면간 예측 모션 벡터 리스트의 구성 장치.
14. The method of claim 13,
An apparatus for constructing a bidirectional inter-picture predicted motion vector list in which picture information of the first reference picture for the first direction and the second reference picture for the second direction are different.
제 10 항에 있어서,
상기 제 1 예측 모션 벡터 후보자 설정부에서 획득되는 상기 제 2 방향의 예측 모션 벡터 후보자는 가장 작은 코드워드를 갖는 순서로 인덱스에 할당되는 양방향 화면간 예측 모션 벡터 리스트의 구성 장치.
11. The method of claim 10,
The apparatus for constructing a bidirectional inter prediction motion vector list in which the prediction motion vector candidates in the second direction obtained by the first prediction motion vector candidate setting unit are allocated to indices in the order of having the smallest codeword.
KR1020170048441A 2016-05-28 2017-04-14 A method of setting advanced motion vector predictor list and an apparatus having the same Active KR102345458B1 (en)

Priority Applications (10)

Application Number Priority Date Filing Date Title
PCT/KR2017/005497 WO2017209455A2 (en) 2016-05-28 2017-05-26 Method and apparatus for encoding or decoding video signal
CN202210049201.5A CN114222139B (en) 2016-05-28 2017-05-26 Video signal decoding method
CN202210049050.3A CN114222138B (en) 2016-05-28 2017-05-26 Video signal decoding device
CN202210049739.6A CN114222141B (en) 2016-05-28 2017-05-26 Video signal decoding method and video signal decoding device
CN202210049407.8A CN114222140B (en) 2016-05-28 2017-05-26 Video signal decoding method
US16/305,214 US11736712B2 (en) 2016-05-28 2017-05-26 Method and apparatus for encoding or decoding video signal
CN201780033620.7A CN109417638B (en) 2016-05-28 2017-05-26 Video signal encoding or decoding method and device
CN202210048882.3A CN114222137B (en) 2016-05-28 2017-05-26 Method for constructing a predicted motion vector list
US18/341,460 US12143624B2 (en) 2016-05-28 2023-06-26 Method and apparatus for encoding or decoding video signal
US18/922,566 US20250047895A1 (en) 2016-05-28 2024-10-22 Encoding and decoding hdr videos

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020160066015 2016-05-28
KR20160066015 2016-05-28

Publications (2)

Publication Number Publication Date
KR20170134196A KR20170134196A (en) 2017-12-06
KR102345458B1 true KR102345458B1 (en) 2021-12-31

Family

ID=60922210

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170048441A Active KR102345458B1 (en) 2016-05-28 2017-04-14 A method of setting advanced motion vector predictor list and an apparatus having the same

Country Status (1)

Country Link
KR (1) KR102345458B1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102030384B1 (en) 2018-06-19 2019-11-08 광운대학교 산학협력단 A method and an apparatus for encoding/decoding residual coefficient
CN119946262A (en) * 2018-06-11 2025-05-06 韩华视觉株式会社 Method for decoding and encoding video and non-transitory computer readable medium
WO2020017841A1 (en) * 2018-07-15 2020-01-23 엘지전자 주식회사 Method and apparatus for performing inter-prediction on basis of merge mode
CN113454993B (en) * 2019-02-21 2025-03-14 韩国电子通信研究院 Method and apparatus for encoding/decoding video and recording medium storing bit stream
CN113950831B (en) 2019-06-17 2025-03-18 韩国电子通信研究院 Coding/decoding method, device and bit stream storage medium based on intra-frame block replication

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9357229B2 (en) * 2010-07-28 2016-05-31 Qualcomm Incorporated Coding motion vectors in video coding
KR101238012B1 (en) * 2010-11-30 2013-02-27 광주과학기술원 Method and device for encoding prediction motion vector
EP2741499A4 (en) * 2011-08-03 2014-12-10 Panasonic Ip Corp America VIDEO ENCODING METHOD, VIDEO ENCODING APPARATUS, VIDEO DECODING METHOD, VIDEO DECODING APPARATUS, AND VIDEO ENCODING / DECODING APPARATUS
KR102070431B1 (en) * 2012-01-19 2020-01-28 삼성전자주식회사 Method and apparatus for encoding video with restricting bi-directional prediction and block merging, method and apparatus for decoding video
KR20140105039A (en) * 2012-01-20 2014-09-01 주식회사 아이벡스피티홀딩스 Method for generating prediction block in amvp mode

Also Published As

Publication number Publication date
KR20170134196A (en) 2017-12-06

Similar Documents

Publication Publication Date Title
US12212748B2 (en) Method for constructing tile structure and apparatus therefor
KR102617439B1 (en) Method for encoding/decoidng video signal and apparatus therefor
US11107253B2 (en) Image processing method, and image decoding and encoding method using same
US12143624B2 (en) Method and apparatus for encoding or decoding video signal
KR102435500B1 (en) A method of decoding a video signal and an apparatus having the same
KR102691340B1 (en) Method and apparatus for processing a video signal
US11736712B2 (en) Method and apparatus for encoding or decoding video signal
KR102726470B1 (en) A method of decoding a video signal and an apparatus having the same
KR102345458B1 (en) A method of setting advanced motion vector predictor list and an apparatus having the same
KR20180086094A (en) Method and apparatus for encoding or decoding video signal
KR102426131B1 (en) Method and apparatus for encoding or decoding video signal
KR102435502B1 (en) Method and apparatus for encoding or decoding video signal
KR102447951B1 (en) Video signal decoding method and apparatus therefor
KR102746463B1 (en) Method and apparatus for encoding or decoding video signal
KR102523384B1 (en) A method of decoding a video signal and an apparatus having the same
KR20210103731A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR102835516B1 (en) Method and apparatus for encoding or decoding video signal
KR20220108018A (en) Method and apparatus for encoding or decoding video signal
KR20210082877A (en) Method for encoding/decoding video signal and apparatus therefor
KR20210082876A (en) Method for encoding/decoding video signal and apparatus therefor
KR20210101829A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20210108836A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20210111602A (en) Video signal encoding method and apparatus and video decoding method and apparatus
KR20210085404A (en) Method for encoding/decoding video signal and apparatus therefor
KR20210103763A (en) Video signal encoding method and apparatus and video decoding method and apparatus

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20170414

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20200224

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20170414

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20210723

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20211220

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20211227

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20211227

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20241217

Start annual number: 4

End annual number: 4