[go: up one dir, main page]

KR102770381B1 - 비디오 처리 방법 및 장치 - Google Patents

비디오 처리 방법 및 장치 Download PDF

Info

Publication number
KR102770381B1
KR102770381B1 KR1020217021168A KR20217021168A KR102770381B1 KR 102770381 B1 KR102770381 B1 KR 102770381B1 KR 1020217021168 A KR1020217021168 A KR 1020217021168A KR 20217021168 A KR20217021168 A KR 20217021168A KR 102770381 B1 KR102770381 B1 KR 102770381B1
Authority
KR
South Korea
Prior art keywords
block
current block
motion vector
frame
list
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020217021168A
Other languages
English (en)
Other versions
KR20210094089A (ko
Inventor
샤오전 정
쑤훙 왕
쓰웨이 마
산서 왕
Original Assignee
에스지 디제이아이 테크놀러지 코., 엘티디
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스지 디제이아이 테크놀러지 코., 엘티디 filed Critical 에스지 디제이아이 테크놀러지 코., 엘티디
Priority to KR1020257004942A priority Critical patent/KR20250026402A/ko
Publication of KR20210094089A publication Critical patent/KR20210094089A/ko
Application granted granted Critical
Publication of KR102770381B1 publication Critical patent/KR102770381B1/ko
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/54Motion estimation other than block-based using feature points or meshes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

비디오 처리 방법과 장치를 제공한다. 상기 방법은, 제1 참조 프레임 목록 및 제2 참조 프레임 목록을 포함하는 현재 블록의 참조 프레임 목록을 획득하는 단계; 현재 블록의 참조 프레임 목록에 따라, 제1 참조 프레임 목록 및 제2 참조 프레임 목록 중 하나인 목표 참조 프레임 목록을 결정하는 단계; 현재 블록의 목표 참조 프레임 목록에 따라 현재 블록의 시간 도메인 움직임 벡터를 결정하는 단계; 시간 도메인 움직임 벡터에 따라 현재 블록의 서브 블록의 움직임 정보를 결정하는 단계; 현재 블록의 서브 블록의 움직임 정보에 따라 현재 블록에 대해 프레임간 예측을 수행하는 단계를 포함한다. 양방향 예측 프로세스에서 스캔해야 할 참조 프레임 목록의 수를 제한함으로써, 코덱 동작을 단순화할 수 있다.

Description

비디오 처리 방법 및 장치
본 출원은 비디오 코덱 분야에 관한 것으로, 구체적으로 비디오 처리 방법 및 장치에 관한 것이다.
본 특허 문서에 개시된 내용은 저작권으로 보호되는 재료가 포함된다. 저작권은 저작권 소유자에게 있다. 저작권 소유자는 전리국 및 상표국의 공식 기록 및 문서에 존재하는 해당 특허 문서 또는 특허 공개 내용을 복사하는 것을 반대하지 않는다.
비디오 코덱 프로세스는 프레임간 예측 프로세스를 포함한다. 프레임간 예측 모드는 merge모드와 비-merge모드를 포함한다. merge모드에서, 일반적으로 merge모드의 움직임 벡터 후보 목록을 먼저 구축하고, merge모드의 움직임 벡터 후보 목록으로부터 현재 블록의 움직임 벡터를 선택해야 한다. 현재 블록은 또한 현재 코딩 유닛(coding unit,CU)이라고도 할 수 있다.
코딩 기술의 발전에 따라, 프레임간 예측 방식은 선택 가능한/고급 시간 도메인 움직임 벡터 예측(alternative/ advanced temporal motion vector prediction,ATMVP) 기술을 도입하였다. ATMVP기술에서, 현재 블록을 복수의 서브 블록으로 분할하고, 서브 블록의 움직임 정보를 계산한다. ATMVP기술은 비디오의 전체 코딩 성능을 향상시키기 위해 서브 블록 수준의 움직임 벡터 예측을 도입하는 것을 목표로 한다.
ATMVP기술을 사용하여 현재 블록의 서브 블록의 움직임 정보를 찾는 프로세스는 비교적 복잡하고, 일부 리던던시 동작이 존재하며, 상기 프로세스에는 여전히 개선 여지가 존재한다.
본 출원은 코덱 동작을 간소화할 수 있는 비디오 처리 방법 및 장치를 제공한다.
제1 측면은 비디오 처리 방법을 제공한다. 상기 방법은, 제1 참조 프레임 목록 및 제2 참조 프레임 목록을 포함하는 현재 블록의 참조 프레임 목록을 획득하는 단계; 상기 현재 블록의 참조 프레임 목록에 따라, 상기 제1 참조 프레임 목록 및 상기 제2 참조 프레임 목록 중 하나인 목표 참조 프레임 목록을 결정하는 단계; 상기 현재 블록의 목표 참조 프레임 목록에 따라 상기 현재 블록의 시간 도메인 움직임 벡터를 결정하는 단계; 상기 시간 도메인 움직임 벡터에 따라 상기 현재 블록의 서브 블록의 움직임 정보를 결정하는 단계; 상기 현재 블록의 서브 블록의 움직임 정보에 따라 상기 현재 블록에 대해 프레임간 예측을 수행하는 단계를 포함한다.
제2 측면은 비디오 처리 장치를 제공한다. 상기 비디오 처리 장치는 코드를 저장하기 위한 메모리; 프로세서를 포함하며, 상기 프로세서는, 제1 참조 프레임 목록 및 제2 참조 프레임 목록을 포함하는 현재 블록의 참조 프레임 목록을 획득하는 동작; 상기 현재 블록의 참조 프레임 목록에 따라, 상기 제1 참조 프레임 목록 및 상기 제2 참조 프레임 목록 중 하나인 목표 참조 프레임 목록을 결정하는 동작; 상기 현재 블록의 목표 참조 프레임 목록에 따라 상기 현재 블록의 시간 도메인 움직임 벡터를 결정하는 동작; 상기 시간 도메인 움직임 벡터에 따라 상기 현재 블록의 서브 블록의 움직임 정보를 결정하는 동작; 상기 현재 블록의 서브 블록의 움직임 정보에 따라 상기 현재 블록에 대해 프레임간 예측을 수행하는 동작;을 실행하도록, 상기 메모리에 저장된 코드를 실행하기 위한 것이다.
제3 측면은 컴퓨터 판독 가능 저장 매체를 제공하고, 상기 컴퓨터 판독 가능 저장 매체에는 제1 측면에 따른 방법을 실행하기 위한 명령이 저장되어 있다.
제4 측면은 제1측면에 따른 방법을 실행하기 위한 명령을 포함하는 컴퓨터 프로그램 제품을 제공한다.
양방향 예측 프로세스에서 스캔해야 할 참조 프레임 목록의 수를 제한함으로써, 코덱 동작을 단순화할 수 있다.
도 1은 affine merge candidate list를 구성하는 흐름도이다.
도 2는 현재 블록의 주변 블록의 개략도이다.
도 3은 ATMVP의 구현 프로세스의 흐름도이다.
도 4는 현재 블록의 서브 블록의 움직임 정보의 획득 방식의 예시도이다.
도 5는 본 출원의 실시예에 의해 제공되는 비디오 처리 방법의 흐름 개략도이다.
도 6은 본 출원의 실시예에 의해 제공되는 비디오 처리 장치의 구조 개략도이다.
본 출원은 H.264, 고효율 비디오 코딩(HEVC, high efficiency video coding), 다용도 비디오 코딩(VVC, versatile video coding), 오디오 비디오 코딩 표준(AVS, audio video coding standard), AVS+,AVS2 및 AVS3등과 같은 다양한 비디오 코딩 표준에 적용될 수 있다.
비디오 코딩 프로세스는 주로 예측, 변환, 양자화, 엔트로피 코딩, 루프 필터링 등을 포함한다. 예측은 주류 비디오 코딩 기술의 중요 구성 부분이다. 예측은 프레임내 예측과 프레임간 예측으로 나눌 수 있다. 프레임간 예측은 움직임 보상의 방식을 통해 구현될 수 있다. 이하에서는 움직임 보상 프로세스에 대해 예를 들어 설명한다.
예를 들면, 한 프레임의 이미지에 대해, 먼저 하나의 프레임의 이미지를 하나 또는 복수의 코딩 영역으로 나눈다. 상기 코딩 영역은 코딩 트리 유닛(coding tree unit,CTU)라고도 한다. CTU의 크기는 예를 들면 64×64일 수 있고, 128×128일 수도 있다(단위는 화소이며, 이하의 유사한 설명은 모두 단위를 생략한다). 각 CTU는 정사각형 또는 직사각형의 이미지 블록으로 분할될 수 있다. 상기 이미지 블록은 코딩 유닛(coding unit,CU)이라고도 하며, 이하 문장에서는 코딩할 현재 CU를 현재 블록이라고 한다.
현재 블록에 대해 프레임간 예측을 수행할 경우, 참조 프레임(시간 도메인 근처에서 재구성된 프레임)에서 현재 블록의 유사 블록을 찾아, 현재 블록의 예측 블록으로 할 수 있다. 현재 블록과 예측 블록 간의 상대 변위는 움직임 벡터(motion vector,MV)이다. 참조 프레임에서 유사 블록을 찾아 현재 블록의 예측 블록으로 하는 프로세스가 바로 움직임 보상이다.
프레임간 예측 모드는 merge모드와 비-merge모드를 포함한다. merge모드에서, 이미지 블록의 움직임 벡터(motion vector,MV)는 이미지 블록의 움직임 벡터 예측(motion vector prediction, MVP)이므로, merge모드에 대해, 코드 스트림에서 MVP의 인덱스와 참조 프레임의 인덱스를 전달하면 된다. 반면, 비-merge모드는 코드 스트림에서 MVP와 참조 프레임의 인덱스를 전달해야 할 뿐만 아니라, 코드 스트림에서 움직임 벡터 차분(motion vector difference,MVD)도 전달해야 한다.
종래의 움직임 벡터는 단순한 평행 이동 모델을 사용하였고, 즉 현재 블록의 움직임 벡터는 현재 블록과 참조 블록 사이의 상대 변위를 의미한다. 이러한 유형의 움직임 벡터는 비디오에서 더 복잡한 움직임 상황(예를 들면 확대/축소, 회전, 원근등)을 정확하게 설명하기 어렵다. 더 복잡한 움직임 상황을 설명하기 위하여, 관련 코덱 표준에 아핀 모델(affine 모델)을 도입했다. 아핀 모델은 현재 블록의 2개 또는 3개의 제어점(control point, CP)의 움직임 벡터를 이용하여 현재 블록의 아핀 움직임 필드를 설명한다. 상기 2개의 제어점은 예를 들면 현재 블록의 왼쪽 위 모서리와 오른쪽 위 모서리일 수 있으며, 상기 3개의 제어점은 예를 들면 현재 블록의 왼쪽 위 모서리, 오른쪽 위 모서리와 왼쪽 아래 모서리일 수 있다.
아핀 모델과 앞에서 언급한 merge모드를 함께 결합하여, affine merge모드를 형성한다. 일반적인 merge모드의 움직임 벡터 후보 목록(merge candidate list)에 기록된 것은 이미지 블록의 MVP이며, affine merge모드의 움직임 벡터 후보 목록(affine merge candidate list)에 기록된 것은 제어점 움직임 벡터 예측(control point motion vector prediction,CPMVP)이다. 일반적인 merge모드와 유사하게, affine merge모드는 코드 스트림에 MVD를 추가할 필요가 없이, CPMVP를 현재 블록의 CPMV로 직접 사용한다.
현재 블록의 affine merge candidate list를 구성하는 것은 affine merge모드의 중요 프로세스 중 하나이다. 도 1은 affine merge candidate list(아핀 융합 후보 목록)의 가능한 구성 방식중 하나를 나타낸다.
단계 S110,현재 블록의 affine merge candidate list에 ATMVP를 삽입한다.
ATMVP에 포함된 것은 현재 블록의 서브 블록의 움직임 정보이다. 즉, ATMVP기술을 이용할 경우, affine merge candidate list는 현재 블록의 서브 블록의 움직임 정보를 삽입하여, affine merge 모드가 서브 블록과 같은 수준에서 움직임 보상을 진행할 수 있도록 하여, 비디오의 전체 코딩 성능을 향상시킬 수 있다. 이하에서, 도 3과 결합하여, 단계 S110의 구현 방식에 대해 자세히 설명할 것이므로, 여기서 자세히 설명하지 않는다.
상기 움직임 정보는 움직임 벡터; 움직임 벡터 차분; 참조 프레임 인덱스 값; 프레임간 예측의 참조 방향; 이미지 블록의 프레임내 코딩 또는 프레임간 코딩에 따른 정보; 이미지 블록의 분할 모드 중 하나 또는 복수의 정보의 조합을 포함한다.
단계 S120,affine merge candidate list에 상속된 affine candidates를 삽입한다.
예를 들면, 도 2에 도시한 바와 같이, A1->B1->B0->A0->B2의 순서에 따라 현재 블록의 주변 블록을 스캔하고, affine merge모드를 사용하는 주변 블록의 CPMV를 현재 블록의 affine candidates로 하고, 현재 블록의 affine merge candidate list를 삽입할 수 있다.
단계 S130,affine merge candidate list 중의 affine candidates의 수가 설정값보다 작은지 여부를 판단한다.
만약 affine merge candidate list 중의 affine candidates의 수가 설정값에 도달하면, 도 1의 흐름을 종료하고, 만약 affine merge candidate list 중의 affine candidates의 수가 설정값보다 적으면, 계속하여 단계 S140을 실행한다.
단계 S140,affine merge candidate list에 구성된 affine candidates를 삽입한다.
예를 들면,현재 블록의 주변 블록의 움직임 정보를 조합하여 새로운 affine candidates를 구성하고, 구성하여 생성된 affine candidates를 affine merge candidate list에 삽입할 수 있다.
단계 S150,affine merge candidate list 중의 affine candidates의 수가 설정값보다 작은지 여부를 판단한다.
만약 affine merge candidate list 중의 affine candidates의 수가 설정값에 도달하면, 도 1의 흐름을 종료하고, 만약 affine merge candidate list 중의 affine candidates의 수가 설정값보다 적으면, 계속하여 단계 S160을 실행한다.
단계 S160,affine merge candidate list에 0 벡터를 삽입한다.
즉, 0 벡터를 사용하여 affine merge candidate list를 채워(padding) 설정값에 도달하게 한다.
이하 도 3과 결합하여, 도 1의 단계 S110의 구현 방식에 대해 예를 들어 상세히 설명한다. 일부 예시에서, 이하 소개되는 현재 블록의 affine merge candidate list에 ATMVP를 삽입하는 방법은 상기 도 1에 도시된 구현예에 한정되지 않을 수도 있다.
도 3에 도시한 바와 같이, ATMVP기술의 구현 방식, 즉 현재 블록의 서브 블록의 움직임 정보의 획득 방식은 크게 두 단계(단계 S310과 S320)로 나눌 수 있다.
단계 S310에서, 현재 블록의 참조 프레임 중의 대응 블록(corresponding block)을 결정한다.
종래의 ATMVP기술에서, 현재 프레임(현재 블록이 위치하는 프레임)의 움직임 정보를 획득하기 위한 프레임은 동일 위치 프레임(co-located picture)이라고 한다. 현재 프레임의 동일 위치 프레임은 슬라이스(slice) 초기화 시에 설정된다. 순방향 예측을 예로 들면, 제1 참조 프레임 목록은 순방향 참조 프레임 목록일 수 있으며, 제1 조(group) 참조 프레임을 포함하는 참조 프레임 목록일 수도 있다. 상기 제1 조 참조 프레임에는 시간 순서로 현재 프레임 이전 및 이후의 참조 프레임을 포함한다. Slice가 초기화되면, 일반적으로 현재 블록의 제1 참조 프레임 목록 중의 제1 프레임을 현재 프레임의 동일 위치 프레임으로 설정한다.
현재 블록의 참조 프레임 중의 대응 블록은 하나의 시간 도메인 움직임 벡터(temp MV)에 의해 결정된다. 따라서, 현재 블록의 참조 프레임 중의 대응 블록을 얻기 위하여, 먼저 상기 시간 도메인 움직임 벡터를 도출해야 한다. 이하 순방향 예측과 양방향 예측을 각각 예로 들어, 시간 도메인 움직임 벡터의 도출 프로세스에 대해 설명한다.
순방향 예측의 경우, 현재 블록의 참조 프레임 목록(참조 목록 또는 참조 이미지 목록이라고도 할 수 있음)의 수는 1이다. 현재 블록의 참조 프레임 목록은 제1 참조 프레임 목록(reference list 0)이라고 할 수 있다. 하나의 시나리오에서, 상기 제1 참조 프레임 목록은 순방향 참조 프레임 목록일 수 있다. 현재 프레임의 동일 위치 프레임은 일반적으로 제1 참조 프레임 목록 중의 제1 프레임으로 설정된다.
시간 도메인 움직임 벡터를 도출하는 프로세스의 하나의 구현 방식은 아래와 같다. 즉 현재 블록의 움직임 벡터 후보 목록(상기 움직임 벡터 후보 목록은 공간 도메인의 4개의 인접 위치의 이미지 블록의 움직임 벡터에 기초하여 구축될 수 있음)을 먼저 스캔하고, 상기 움직임 벡터 후보 목록 중의 첫 번째 후보 움직임 벡터를 초기의 시간 도메인 움직임 벡터로 한다. 그후, 현재 블록의 제1 참조 프레임 목록을 스캔하고, 만약 상기 첫 번째 후보 움직임 벡터의 참조 프레임과 현재 프레임의 동일 위치 프레임이 동일하면, 상기 첫 번째 후보 움직임 벡터를 시간 도메인 움직임 벡터로 하고, 상기 첫 번째 후보 움직임 벡터의 참조 프레임과 현재 프레임의 동일 위치 프레임이 서로 다르면, 시간 도메인 움직임 벡터를 0 벡터로 설정하고, 스캔을 중지할 수 있다.
상기 구현 방식에서, 목록 중의 첫 번째 후보 움직임 벡터를 획득하도록, 움직임 벡터 후보 목록을 구축해야 한다. 다른 구현 방식으로는, 현재 블록의 어느 하나의 공간 도메인 인접 블록의 움직임 벡터를 초기의 시간 도메인 움직임 벡터로 직접 획득할 수 있다. 상기 공간 도메인 인접 블록의 움직임 벡터의 참조 프레임과 현재 프레임의 동일 위치 프레임이 동일하면, 상기 공간 도메인 인접 블록의 움직임 벡터를 시간 도메인 움직임 벡터로 사용할 수 있다. 그렇지 않으면, 시간 도메인 움직임 벡터를 0 벡터로 설정하여, 스캔을 중지할 수 있다. 여기서, 공간 도메인 인접 블록은 현재 블록 주변의 코딩된 블록 중의 임의의 하나일 수 있으며, 예를 들면 현재 블록의 좌측 블록으로 고정되거나, 또는 현재 블록의 상측 블록으로 고정되거나, 또는 현재 블록의 좌상(左上) 블록 등으로 고정될 수 있다.
양방향 예측의 경우, 현재 블록의 참조 프레임 목록의 수는 2개이며, 다시 말해 제1 참조 프레임 목록(reference list 0)과 제2 참조 프레임 목록(reference list 1)을 포함한다. 하나의 시나리오에서, 제1 참조 프레임 목록은 순방향 참조 프레임 목록일 수 있고, 제2 참조 프레임 목록은 역방향 참조 프레임 목록일 수 있다.
시간 도메인 움직임 벡터를 도출하는 프로세스의 하나의 구현 방식은 아래와 같다. 즉, 현재의 움직임 벡터 후보 목록을 먼저 스캔하고, 상기 움직임 벡터 후보 목록 중의 첫 번째 후보 움직임 벡터를 초기의 시간 도메인 움직임 벡터로 한다. 그후, 현재 블록의 현재 참조 방향 상의 하나의 참조 프레임 목록(제1 참조 프레임 목록일 수도 있고, 제2 참조 프레임 목록일 수도 있다)을 먼저 스캔하고, 만약 상기 첫 번째 후보 움직임 벡터의 참조 프레임과 현재 프레임의 동일 위치 프레임이 동일하면, 상기 첫 번째 후보 움직임 벡터를 시간 도메인 움직임 벡터로 하고, 상기 첫 번째 후보 움직임 벡터의 참조 프레임과 현재 프레임의 동일 위치 프레임이 서로 다르면, 현재 블록의 다른 참조 방향 상의 참조 프레임 목록을 계속 스캔한다. 마찬가지로, 첫 번째 후보 움직임 벡터의 상기 다른 참조 프레임 목록 중의 참조 프레임과 현재 프레임의 동일 위치 프레임이 동일하면, 상기 첫 번째 후보 움직임 벡터를 시간 도메인 움직임 벡터로 할 수 있고, 상기 첫 번째 후보 움직임 벡터의 참조 프레임과 현재 프레임의 동일 위치 프레임이 서로 다르면, 시간 도메인 움직임 벡터를 0 벡터로 설정하고, 스캔을 중지할 수 있다. 주의해야 할 점은, 다른 일부 시나리오에서, 제1 참조 프레임 목록과 제2 참조 프레임 목록은 모두 시간 순서로 현재 프레임 이전 및 이후의 참조 프레임을 포함할 수 있고, 상기 양방향 예측은 제1 참조 프레임 목록과 제2 참조 프레임 목록 중에서 참조 방향이 다른 참조 프레임을 선택하는 것을 의미한다.
상기 구현 방식에서, 양방향 예측시 ATMVP의 temp MV를 도출하는 것은 여전히 움직임 벡터 후보 목록을 구축해야 한다. 다른 구현 방식에서는, 현재 블록의 어느 하나의 공간 도메인 인접 블록의 움직임 벡터를 초기의 시간 도메인 움직임 벡터로 직접 획득할 수 있다. 양방향 예측의 경우, 현재 블록의 현재 참조 방향 상의 하나의 참조 프레임 목록(제1 참조 프레임 목록일 수도 있고, 제2 참조 프레임 목록일 수도 있다)을 먼저 스캔하고, 상기 공간 도메인 인접 블록의 움직임 벡터의 상기 참조 방향 상의 참조 프레임과 현재 프레임의 동일 위치 프레임이 동일하면, 상기 공간 도메인 인접 블록의 움직임 벡터를 시간 도메인 움직임 벡터로 할 수 있다. 선택적으로, 상기 공간 도메인 인접 블록의 움직임 벡터의 상기 참조 방향 상의 참조 프레임과 현재 프레임의 동일 위치 프레임이 서로 다르면, 현재 블록의 다른 참조 방향 상의 참조 프레임 목록을 계속 스캔한다. 마찬가지로, 상기 공간 도메인 인접 블록의 움직임 벡터의 상기 다른 참조 프레임 목록 중의 참조 프레임과 현재 프레임의 동일 위치 프레임이 동일하면, 상기 공간 도메인 인접 블록의 움직임 벡터를 시간 도메인 움직임 벡터로 할 수 있다. 상기 공간 도메인 인접 블록의 움직임 벡터의 참조 프레임과 현재 프레임의 동일 위치 프레임이 서로 다르면, 시간 도메인 움직임 벡터를 0 벡터로 설정하고, 스캔을 중지할 수 있다. 여기서, 공간 도메인 인접 블록은 현재 블록 주변의 코딩된 블록 중의 임의의 하나일 수 있으며, 예를 들면 현재 블록의 좌측 블록으로 고정되거나, 또는 현재 블록의 상측 블록으로 고정되거나, 또는 현재 블록의 좌상 블록 등으로 고정될 수 있다.
양방향 예측의 경우, 제1 참조 프레임 목록과 제2 참조 프레임 목록의 스캔 순서는 아래 규칙에 따라 결정될 수 있다.
현재 프레임이 저-딜레이(low delay) 코딩 모드를 사용하고, 현재 프레임의 동일 위치 프레임이 제2 참조 프레임 목록 중의 제1 프레임으로 설정되면, 제2 참조 프레임 목록을 먼저 스캔하고, 그렇지 않으면 제1 참조 프레임 목록을 먼저 스캔한다.
여기서, 현재 프레임이 저-딜레이(low delay) 코딩 모드를 사용하는 것은 현재 프레임의 참조 프레임의 비디오 시퀀스 중의 재생 순서가 모두 현재 프레임 이전임을 의미하고, 현재 프레임의 동일 위치 프레임이 제2 참조 프레임 목록 중의 제1 참조 프레임으로 설정되는 것은 현재 프레임의 제1 참조 프레임 목록의 첫 번째 slice의 양자화 스텝 길이가 제2 참조 프레임 목록의 첫 번째 slice의 양자화 스텝 길이보다 작음을 의미한다.
시간 도메인 움직임 벡터를 도출하면, 상기 시간 도메인 움직임 벡터를 이용하여 참조 프레임에서 현재 블록의 대응 블록을 찾을 수 있다.
단계 S320에서, 현재 블록의 대응 블록에 따라, 현재 블록의 서브 블록의 움직임 정보를 획득한다.
도 4에 도시한 바와 같이, 현재 블록을 복수의 서브 블록으로 분할한 후, 대응 블록에서의 서브 블록의 움직임 정보를 결정할 수 있다. 주의해야 할 점은, 각 서브 블록에 대하여, 대응 블록의 움직임 정보는 대응 블록이 위치하는 최소 움직임 정보 저장 단위에 의해 결정될 수 있다.
상기 움직임 정보는 움직임 벡터; 움직임 벡터 차분; 참조 프레임 인덱스 값; 프레임간 예측의 참조 방향; 이미지 블록의 프레임내 코딩 또는 프레임간 코딩에 따른 정보; 이미지 블록의 분할 모드 중 하나 또는 복수의 정보의 조합을 포함한다.
도 3에서 설명된 ATMVP의 구현 프로세스로부터 알 수 있듯이, 양방향 예측의 경우, 최악의 상황은, 시간 도메인 움직임 벡터를 도출하는 프로세스에서, 2개의 참조 프레임 목록을 모두 스캔해도, 여전히 조건에 부합하는 시간 도메인 움직임 벡터가 도출되지 않은 경우이며, 이러한 경우, 2개의 참조 프레임 목록의 스캔은 리던던시된다.
또한, 양방향 예측에서, 현재 프레임의 코딩 모드가 저-딜레이 모드(low delay B) 또는 랜덤 액세스 모드(random access)이면, 제1 참조 프레임 목록과 제2 참조 프레임 목록 중의 참조 프레임은 어느 정도 중첩되므로, 시간 도메인 움직임 벡터를 획득하는 프로세스에서, 2개의 참조 프레임 목록에 대한 스캔 프로세스는 리던던시 동작이 존재하게 된다.
따라서, 관련 기술에서 양방향 예측에 대해 제공하는 시간 도메인 움직임 벡터 도출 방안은 비교적 복잡하고, 개선 여지가 존재한다.
이하, 도 5를 결합하여, 본 출원 실시예에 대해 상세히 설명한다.
도 5는 본 출원의 실시예에 의해 제공되는 비디오 처리 방법의 개략적인 흐름도이다. 도 5의 방법은 방법은 코딩단에 응용될 수 있으며, 디코딩단에 응용될 수도 있다.
단계 S510에서, 현재 블록의 참조 프레임 목록을 획득하되, 현재 블록의 참조 프레임 목록은 제1 참조 프레임 목록과 제2 참조 프레임 목록을 포함한다.
현재 블록은 현재 CU라고도 한다. 현재 블록의 참조 프레임 목록은 제1 참조 프레임 목록과 제2 참조 프레임 목록을 포함하고, 현재 블록이 프레임간 양방향 예측을 실행함을 나타낸다.
선택적으로, 상기 제1 참조 프레임 목록은 순방향 참조 프레임 목록일 수 있으며, 제1 조 참조 프레임을 포함하는 참조 프레임 목록일 수도 있다. 상기 제1 조 참조 프레임은 시간 순서로 현재 프레임 이전 및 이후의 참조 프레임을 포함한다.
선택적으로, 상기 제2 참조 프레임 목록은 역방향 참조 프레임 목록일 수 있으며, 제2 조 참조 프레임을 포함하는 참조 프레임 목록일 수도 있다. 상기 제2 조 참조 프레임은 시간 순서로 현재 프레임 이전 및 이후의 참조 프레임을 포함한다.
주의해야 할 점은, 일부 시나리오에서, 제1 참조 프레임 목록과 제2 참조 프레임 목록은 모두 시간 순서로 현재 프레임 이전 및 이후의 참조 프레임을 포함할 수 있고, 상기 양방향 예측은 제1 참조 프레임 목록과 제2 참조 프레임 목록에서 참조 방향이 서로 다른 참조 프레임을 선택하는 것을 의미할 수 있다.
단계 S520에서, 현재 블록의 참조 프레임 목록에 따라, 목표 참조 프레임 목록을 결정한다.
목표 참조 프레임 목록은 제1 참조 프레임 목록과 제2 참조 프레임 목록 중 하나이다. 상기 목표 참조 프레임 목록은 랜덤으로 선택할 수 있으며, 일정한 규칙에 따라 선택할 수도 있다. 예를 들면, 아래 규칙에 따라 선택할 수 있다. 즉, 현재 블록이 위치하는 현재 프레임이 저-딜레이(low delay) 코딩 모드를 사용하고, 현재 프레임의 동일 위치 프레임이 제2 참조 프레임 목록 중의 제1 프레임이면, 제2 참조 프레임 목록을 목표 참조 프레임 목록으로 결정하고; 또한/또는 현재 블록이 위치하는 현재 프레임이 저-딜레이 코딩 모드를 사용하지 않거나 또는 현재 프레임의 동일 위치 프레임이 제2 참조 프레임 목록 중의 제1 프레임이 아니면, 제1 참조 프레임 목록을 목표 참조 프레임 목록으로 결정한다.
단계 S530에서,현재 블록의 목표 참조 프레임 목록에 따라 현재 블록의 시간 도메인 움직임 벡터를 결정한다.
양방향 예측 프로세스에서, 본 출원 실시예는 제1 참조 프레임 목록과 제2 참조 프레임 목록 중의 하나의 참조 프레임 목록에 따라 현재 블록의 시간 도메인 움직임 벡터를 결정한다. 즉, 목표 참조 프레임에서 시간 도메인 움직임 벡터를 도출할 수 있는지와 상관없이, 목표 참조 프레임 목록을 스캔한 후, 스캔을 중지한다. 즉, 목표 참조 프레임 목록에 따라서만 현재 블록의 시간 도메인 움직임 벡터를 결정할 수 있다.
예를 들어 설명하면, 먼저 현재 블록의 움직임 벡터 후보 목록(상기 움직임 벡터 후보 목록은 공간 도메인의 4개의 인접 위치의 이미지 블록의 움직임 벡터에 기초하여 구축될 수 있음)에서 첫 번째 후보 움직임 벡터를 선택하고, 목표 참조 프레임 목록에서 첫 번째 후보 움직임 벡터의 참조 프레임을 찾는다. 첫 번째 후보 움직임 벡터의 참조 프레임과 현재 블록의 동일 위치 프레임이 동일한 경우, 첫 번째 후보 움직임 벡터를 시간 도메인 움직임 벡터로 결정할 수 있다. 첫 번째 후보 움직임 벡터의 참조 프레임과 현재 블록의 동일 위치 프레임이 다른 경우에도 스캔을 중지하며, 도 3의 실시예에서 설명한 바와 같이 현재 블록의 다른 참조 프레임 목록을 계속 스캔하지 않는다. 이 경우, 0 벡터를 현재 블록의 시간 도메인 움직임 벡터로 할 수 있다.
단계 S540에서, 시간 도메인 움직임 벡터에 따라 현재 블록의 서브 블록의 움직임 정보를 결정한다.
예를 들면, 시간 도메인 움직임 벡터에 따라 참조 프레임에서의 현재 블록의 대응 블록을 결정할 수 있다. 그후, 참조 프레임에서의 현재 블록의 대응 블록에 따라 현재 블록의 서브 블록의 움직임 정보를 결정할 수 있다. 상기 움직임 정보는 움직임 벡터; 움직임 벡터 차분; 참조 프레임 인덱스 값; 프레임간 예측의 참조 방향; 이미지 블록의 프레임내 코딩 또는 프레임간 코딩에 따른 정보; 이미지 블록의 분할 모드 중 하나 또는 복수의 정보의 조합을 포함한다. 단계 540은 상술한 단계 S320을 참조하여 구현될 수 있으므로, 여기서 더 이상 설명하지 않는다.
단계 S550에서,현재 블록의 서브 블록의 움직임 정보에 따라 현재 블록에 대해 프레임간 예측을 수행한다.
일 예시로서, 단계 S550은 현재 블록의 서브 블록 단위로 현재 블록의 서브 블록의 움직임 정보에 따라 프레임간 예측을 수행하는 단계를 포함할 수 있다.
예를 들면, 도 1에 도시된 바와 같이, 현재 블록의 서브 블록의 움직임 정보를 ATMVP로 하여 현재 블록의 affine merge candidates list에 삽입하고, 그후 도 1의 단계 S120 내지 S160에 따라, 완전한 affine merge candidates list를 구성할 수 있다. 이어서, 상기 affine merge candidates list 중의 후보 움직임 벡터를 이용하여 현재 블록에 대해 프레임간 예측을 수행하여, 최적의 후보 움직임 벡터를 결정할 수 있다. 단계 S550의 상세한 구현 방식은 관련 기술을 참조하여 실행할 수 있고, 본 출원의 실시예는 이에 대해 한정하지 않는다.
본 출원의 실시예는 양방향 예측 프로세스에서 스캔해야 할 참조 프레임 목록의 수를 제한함으로써, 코덱 동작을 단순화할 수 있다.
이해할 수 있듯이, 도 5의 방법을 코딩단과 디코딩단에 각각 응용할 경우, 단계 S550에서 설명된 현재 블록에 대한 프레임간 예측 프로세스는 어느 정도 다를 수 있다. 예를 들면, 도 5의 방법이 코딩단에 응용될 경우, 현재 블록에 대해 프레임간 예측을 수행하는 단계는, 현재 블록의 예측 블록을 결정하는 단계; 현재 블록의 최초 블록과 예측 블록에 따라, 현재 블록의 잔여 블록을 계산하는 단계를 포함할 수 있다. 또 예를 들면, 도 5의 방법이 디코딩단에 응용될 경우, 현재 블록에 대해 프레임간 예측을 수행하는 단계는, 현재 블록의 예측 블록과 잔여 블록을 결정하는 단계; 현재 블록의 예측 블록과 잔여 블록에 따라, 현재 블록의 재구성 블록을 계산하는 단계를 포함할 수 있다.
이상, 도 1 내지 도 5를 결합하여 본 출원의 방법 실시예를 상세히 설명했다. 이하 도 6을 결합하여, 본 출원의 장치 실시예를 상세히 설명한다. 이해해야 할 것은, 방법 실시예의 설명은 장치 실시예의 설명과 서로 대응되므로, 상세히 설명되지 않은 부분은 전술한 방법 실시예를 참고할 수 있다.
도 6은 본 출원의 실시예에 의해 제공되는 비디오 처리 장치의 개략적 구조도이다. 도 6의 장치(60)는 메모리(62)와 프로세서(64)를 포함한다.
메모리(62)는 코드를 저장할 수 있다.
프로세서(64)는 제1 참조 프레임 목록 및 제2 참조 프레임 목록을 포함하는 현재 블록의 참조 프레임 목록을 획득하는 동작; 상기 현재 블록의 참조 프레임 목록에 따라, 상기 제1 참조 프레임 목록 및 상기 제2 참조 프레임 목록 중 하나인 목표 참조 프레임 목록을 결정하는 동작; 상기 현재 블록의 목표 참조 프레임 목록에 따라 상기 현재 블록의 시간 도메인 움직임 벡터를 결정하는 동작; 상기 시간 도메인 움직임 벡터에 따라 상기 현재 블록의 서브 블록의 움직임 정보를 결정하는 동작; 상기 현재 블록의 서브 블록의 움직임 정보에 따라 상기 현재 블록에 대해 프레임간 예측을 수행하는 동작;을 실행하도록, 상기 메모리에 저장된 코드를 실행할 수 있다.
선택적으로,상술한 상기 시간 도메인 움직임 벡터에 따라 상기 현재 블록의 서브 블록의 움직임 정보를 결정하는 단계는, 상기 시간 도메인 움직임 벡터에 따라 참조 프레임에서의 상기 현재 블록의 대응 블록을 결정하는 단계; 상기 참조 프레임에서의 상기 현재 블록의 대응 블록에 따라 상기 현재 블록의 서브 블록의 움직임 정보를 결정하는 단계를 포함한다.
선택적으로, 상술한 상기 현재 블록의 참조 프레임 목록에 따라, 목표 참조 프레임 목록을 결정하는 단계는, 상기 현재 블록이 위치하는 현재 프레임이 저-딜레이(low-latency) 코딩 모드를 사용하고, 상기 현재 프레임의 동일 위치 프레임이 상기 제2 참조 프레임 목록 중의 제1 프레임이면, 상기 제2 참조 프레임 목록을 상기 목표 참조 프레임 목록으로 결정하는 단계; 및/또는 상기 현재 블록이 위치하는 현재 프레임이 저-딜레이 코딩 모드를 사용하지 않거나 또는 상기 현재 프레임의 동일 위치 프레임이 상기 제2 참조 프레임 목록 중의 제1 프레임이 아니면, 상기 제1 참조 프레임 목록을 상기 목표 참조 프레임 목록으로 결정하는 단계를 포함한다.
선택적으로, 상기 제1 참조 프레임 목록은 순방향 참조 프레임 목록일 수 있으며, 제1 조 참조 프레임을 포함하는 참조 프레임 목록일 수도 있다. 상기 제1 조 참조 프레임은 시간 순서로 현재 프레임 이전 및 이후의 참조 프레임을 포함한다.
선택적으로, 상기 제2 참조 프레임 목록은 역방향 참조 프레임 목록일 수 있으며, 제2 조 참조 프레임을 포함하는 참조 프레임 목록일 수도 있다. 상기 제2 조 참조 프레임은 시간 순서로 현재 프레임 이전 및 이후의 참조 프레임을 포함한다.
주의해야 할 점은, 일부 시나리오에서, 제1 참조 프레임 목록과 제2 참조 프레임 목록은 모두 시간 순서로 현재 프레임 이전 및 이후의 참조 프레임을 포함할 수 있고, 상기 양방향 예측은 제1 참조 프레임 목록과 제2 참조 프레임 목록에서 참조 방향이 서로 다른 참조 프레임을 선택하는 것을 의미할 수 있다.
선택적으로, 상기 현재 블록의 목표 참조 프레임 목록에 따라 상기 현재 블록의 시간 도메인 움직임 벡터를 결정하는 단계는,
상기 현재의 움직임 벡터 후보 목록에서 첫 번째 후보 움직임 벡터를 선택하는 단계; 상기 목표 참조 프레임 목록에서 상기 첫 번째 후보 움직임 벡터의 참조 프레임을 찾는 단계; 상기 첫 번째 후보 움직임 벡터의 참조 프레임과 상기 현재 블록의 동일 위치 프레임이 동일한 경우, 상기 첫 번째 후보 움직임 벡터를 상기 시간 도메인 움직임 벡터로 결정하는 단계를 포함한다.
선택적으로, 상기 현재 블록의 목표 참조 프레임 목록에 따라 상기 현재 블록의 시간 도메인 움직임 벡터를 결정하는 단계는, 상기 첫 번째 후보 움직임 벡터의 참조 프레임과 상기 현재 블록의 동일 위치 프레임이 다른 경우, 상기 시간 도메인 움직임 벡터를 0 벡터로 결정하는 단계를 더 포함한다.
선택적으로, 상술한 상기 현재 블록에 대해 프레임간 예측을 수행하는 단계는, 상기 현재 블록의 예측 블록을 결정하는 단계; 상기 현재 블록의 최초 블록과 예측 블록에 따라, 상기 현재 블록의 잔여 블록을 계산하는 단계를 포함한다.
선택적으로, 상술한 상기 현재 블록에 대해 프레임간 예측을 수행하는 단계는, 상기 현재 블록의 예측 블록과 잔여 블록을 결정하는 단계; 상기 현재 블록의 예측 블록과 잔여 블록에 따라, 상기 현재 블록의 재구성 블록을 계산하는 단계를 포함한다.
선택적으로, 상술한 상기 현재 블록의 서브 블록의 움직임 정보에 따라 상기 현재 블록에 대해 프레임간 예측을 수행하는 단계는, 상기 현재 블록의 서브 블록 단위로 상기 현재 블록의 서브 블록의 움직임 정보에 따라 프레임간 예측을 수행하는 단계를 포함한다.
상기 실시예에서, 전체적 또는 부분적으로 하드웨어, 소프트웨어, 펌웨어 또는 이들의 임의의 조합을 통하여 구현될 수 있다. 소프트웨어를 사용하여 구현할 경우, 전체적 또는 부분적으로 컴퓨터 프로그램 제품의 형태로 구현될 수 있다. 컴퓨터 프로그램 제품은 하나 이상의 컴퓨터 명령을 포함한다. 컴퓨터에 컴퓨터 명령이 로딩되어 실행되면, 전체적 또는 부분적으로 본 출원의 실시예에 따른 프로세서 또는 기능이 생성된다. 상기 컴퓨터는 범용 컴퓨터 또는 특수 컴퓨터, 컴퓨터 네트워크 또는 기타 프로그램 가능한 장치일 수 있다. 상기 컴퓨터 명령은 컴퓨터 판독 가능 저장매체에 저장되거나 또는 컴퓨터 판독 가능 저장매체에서 다른 컴퓨터 판독 가능 저장매체로 전송될 수 있다. 예를 들면, 상기 컴퓨터 명령은 웹사이트, 컴퓨터, 서버 또는 데이터 센터로부터 유선(예를 들면 동축 케이블, 광케이블, DSL(Digital Subscriber Line) 또는 무선(적외선, 무선, 마이크로파 등) 방식으로 다른 웹사이트, 컴퓨터, 서버 또는 데이터 센터로 전송될 수 있다. 상기 컴퓨터 판독 가능 저장매체는 컴퓨터가 액세스할 수 있는 임의의 사용 가능 매체이거나 또는 하나 이상의 사용 가능 매체가 통합된 서버, 데이터 센터 등 데이터 저장장치를 포함할 수 있다. 상기 사용 가능한 매체는 자기매체(예를 들면, 플로피 디스크, 하드 디스크, 자기 테이프), 광학 매체(예를 들면, DVD), 또는 반도체 매체(예를 들면, SSD)등 일 수 있다.
본 분야에서 통상의 지식을 가진 자라면 본문에 공개된 실시예에서 설명한 각 예시를 결합한 유닛 및 계산법 단계는, 전자식 하드웨어 또는 컴퓨터 소프트웨어와 전자식 하드웨어의 결합으로 구현할 수 있음을 이해할 수 있다. 이러한 기능을 하드웨어 방식으로 실행할 것인지 아니면 소프트웨어 방식으로 실행할 것인지는 기술방안의 특정 응용 및 설계 규제 조건에 의해 결정된다. 전문기술자는 각각의 특정 응용에 따라 다양한 방법으로 상술한 기능을 실현할 수 있으나, 이러한 실현은 본 출원의 범위를 초과한 것으로 보아서는 안 된다.
본 출원에서 제공한 여러 실시예에서 개시된 시스템, 장치 및 방법은 다른 방식으로 실행될 수 있음을 이해할 수 있다. 예컨대 상술한 장치 실시예는 개략적인 것에 불과하며, 예컨대 상기 유닛의 구분은 논리적 기능을 구분한 것에 불과하고, 실제 구현 시에는 별도의 구분 방식일 수 있으며, 예컨대, 복수의 유닛 또는 부재는 다른 시스템에 결합 또는 통합시킬 수 있거나, 또는 일부 특징을 생략하거나 실행하지 않을 수도 있다. 또한, 도시되었거나 또는 논의된 상호 간의 결합 또는 직접 결합 또는 통신 접속은 일부 인터페이스, 장치 또는 유닛을 통한 간접 결합 또는 통신 접속일 수 있으며, 전기적, 기계적 또는 다른 형태의 접속일 수도 있다.
상기 분리 부재로서 설명된 유닛은, 물리적으로 분리되는 것일 수도 있고 아닐 수도 있으며, 유닛으로 도시된 부재들은 물리적인 유닛일 수도 있고 아닐 수도 있으며, 한 곳에 위치하거나 또는 복수의 네트워크 유닛 상에 분포될 수도 있다. 실제의 필요에 따라 이러한 유닛 중 일부 또는 전체를 선택하여 본 실시예 방안의 목적을 실현할 수 있다.
또한, 본 출원의 각각의 실시예의 각각의 기능 유닛은 하나의 처리 유닛에 통합되거나, 각각의 유닛이 단독으로 물리적으로 존재할 수도 있고, 2개 이상의 유닛을 하나의 유닛에 통합시킬 수도 있다.
상술한 내용은 본 출원의 구체적 실시 방식에 불과하며, 본 출원의 보호범위는 이에 한정되지 않고, 본 분야에서 통상의 지식을 가진 자라면 본 출원에 의해 공개된 기술 범위 내에서 다양한 등가 변경 또는 대체를 쉽게 생각해 낼 수 있고, 이러한 변경 또는 대체는 모두 본 출원의 보호범위에 포함되어야 한다. 따라서, 본 출원의 보호범위는 청구범위를 기준으로 해야 한다.

Claims (22)

  1. 현재 블록의 하나의 특정 위치의 공간 도메인 인접 블록의 움직임 벡터를 결정하는 단계;
    양방향 예측에 관하여, 상기 현재 블록의 현재 참조 방향 상의 하나의 참조 프레임 목록을 먼저 스캔하고;
    상기 특정 위치의 공간 도메인 인접 블록의 움직임 벡터의 상기 참조 방향 상의 참조 프레임과 상기 현재 블록의 동일 위치 프레임이 동일한 경우, 상기 특정 위치의 공간 도메인 인접 블록의 움직임 벡터를 시간 도메인 움직임 벡터로 결정하고;
    상기 특정 위치의 공간 도메인 인접 블록의 움직임 벡터의 상기 참조 방향 상의 참조 프레임과 상기 현재 블록의 동일 위치 프레임이 다른 경우, 상기 현재 블록의 다른 참조 방향 상의 참조 프레임 목록을 계속 스캔하고;
    상기 특정 위치의 공간 도메인 인접 블록의 움직임 벡터의 다른 참조 방향 상의 참조 프레임 목록 중의 참조 프레임과 현재 프레임의 동일 위치 프레임이 동일하면, 상기 특정 위치의 공간 도메인 인접 블록의 움직임 벡터를 상기 시간 도메인 움직임 벡터로 하고;
    상기 특정 위치의 공간 도메인 인접 블록의 움직임 벡터의 다른 참조 방향 상의 참조 프레임 목록 중의 참조 프레임과 현재 프레임의 동일 위치 프레임이 다른 경우, 상기 시간 도메인 움직임 벡터를 0 벡터로 결정하는 단계;를 포함하는 것을 특징으로 하는, 비디오 처리 방법.
  2. 제1항에 있어서,
    상기 시간 도메인 움직임 벡터에 따라 참조 프레임에서의 상기 현재 블록의 대응 블록을 결정하는 단계;
    상기 참조 프레임에서의 상기 현재 블록의 대응 블록에 따라 상기 현재 블록의 서브 블록의 움직임 정보를 결정하는 단계;를 더 포함하는 것을 특징으로 하는, 비디오 처리 방법.
  3. 제1항에 있어서,
    상기 현재 블록의 하나의 특정 위치의 공간 도메인 인접 블록은 상기 현재 블록의 좌측 블록이거나, 또는 상기 현재 블록의 상측 블록이거나, 또는 상기 현재 블록의 좌상 블록인 것을 특징으로 하는, 비디오 처리 방법.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 현재 블록의 예측 블록을 결정하는 단계;
    상기 현재 블록의 최초 블록과 예측 블록에 따라, 상기 현재 블록의 잔여 블록을 계산하는 단계;를 더 포함하는 것을 특징으로 하는, 비디오 처리 방법.
  5. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 현재 블록의 예측 블록과 잔여 블록을 결정하는 단계;
    상기 현재 블록의 예측 블록과 잔여 블록에 따라, 상기 현재 블록의 재구성 블록을 계산하는 단계를 더 포함하는 것을 특징으로 하는, 비디오 처리 방법.
  6. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 현재 블록의 서브 블록 단위로 상기 현재 블록의 서브 블록의 움직임 정보에 따라 프레임간 예측을 수행하는 단계를 더 포함하는 것을 특징으로 하는, 비디오 처리 방법.
  7. 제1항에 있어서, 상기 현재 블록의 후보 목록에 후보를 삽입하고, 상기 후보는 시간 도메인 움직임 벡터를 사용하여 상기 현재 블록의 서브 블록의 움직임 정보를 결정하는 것을 의미하는 단계;
    상기 현재 블록의 후보 목록에 상속된 아핀(affine) 후보를 삽입하는 단계;
    상기 후보 목록 중의 후보의 수가 설정값보다 적은 것에 응답하여, 상기 후보 목록에 구성된 아핀 후보를 삽입하고, 상기 구성된 아핀 후보는 상기 현재 블록의 주변 블록의 움직임 정보를 조합하여 획득되는 단계; 및
    상기 구성된 아핀 후보를 삽입한 후, 상기 후보 목록 중의 후보의 수가 설정값보다 적은 것에 응답하여, 상기 후보 목록에 0 벡터를 삽입하는 단계를 더 포함하는, 비디오 처리 방법.
  8. 제7항에 있어서,
    상기 현재 블록의 후보 목록에 상속된 아핀 후보를 삽입하는 단계는,
    상기 현재 블록의 주변 블록의 제어점 움직임 벡터를 상기 현재 블록의 아핀 후보로서 상기 현재 블록의 후보 목록에 삽입하는 단계를 포함하는, 비디오 처리 방법.
  9. 비디오 처리 장치에 있어서,
    코드를 저장하기 위한 메모리;
    프로세서를 포함하고,
    상기 프로세서는,
    현재 블록의 하나의 특정 위치의 공간 도메인 인접 블록의 움직임 벡터를 결정하는 동작;
    양방향 예측에 관하여, 상기 현재 블록의 현재 참조 방향 상의 하나의 참조 프레임 목록을 먼저 스캔하고;
    상기 특정 위치의 공간 도메인 인접 블록의 움직임 벡터의 상기 참조 방향 상의 참조 프레임과 상기 현재 블록의 동일 위치 프레임이 동일한 경우, 상기 특정 위치의 공간 도메인 인접 블록의 움직임 벡터를 시간 도메인 움직임 벡터로 결정하고;
    상기 특정 위치의 공간 도메인 인접 블록의 움직임 벡터의 상기 참조 방향 상의 참조 프레임과 상기 현재 블록의 동일 위치 프레임이 다른 경우, 상기 현재 블록의 다른 참조 방향 상의 참조 프레임 목록을 계속 스캔하고;
    상기 특정 위치의 공간 도메인 인접 블록의 움직임 벡터의 다른 참조 방향 상의 참조 프레임 목록 중의 참조 프레임과 현재 프레임의 동일 위치 프레임이 동일하면, 상기 특정 위치의 공간 도메인 인접 블록의 움직임 벡터를 상기 시간 도메인 움직임 벡터로 하고;
    상기 특정 위치의 공간 도메인 인접 블록의 움직임 벡터의 다른 참조 방향 상의 참조 프레임 목록 중의 참조 프레임과 현재 프레임의 동일 위치 프레임이 다른 경우, 상기 시간 도메인 움직임 벡터를 0 벡터로 결정하는 동작을 실행하도록, 상기 메모리에 저장된 코드를 실행하기 위한 것임을 특징으로 하는, 비디오 처리 장치.
  10. 제9항에 있어서,
    상술한 상기 시간 도메인 움직임 벡터에 따라 상기 현재 블록의 서브 블록의 움직임 정보를 결정하는 동작은,
    상기 시간 도메인 움직임 벡터에 따라 참조 프레임에서의 상기 현재 블록의 대응 블록을 결정하는 동작;
    상기 참조 프레임에서의 상기 현재 블록의 대응 블록에 따라 상기 현재 블록의 서브 블록의 움직임 정보를 결정하는 동작;을 포함하는 것을 특징으로 하는, 비디오 처리 장치.
  11. 제9항에 있어서,
    상기 현재 블록의 하나의 특정 위치의 공간 도메인 인접 블록은 상기 현재 블록의 좌측 블록이거나, 또는 상기 현재 블록의 상측 블록이거나, 또는 상기 현재 블록의 좌상 블록인 것을 특징으로 하는, 비디오 처리 장치.
  12. 제9항에 있어서,
    상기 프로세서는,
    상기 현재 블록의 후보 목록에 후보를 삽입하고, 상기 후보는 시간 도메인 움직임 벡터를 사용하여 상기 현재 블록의 서브 블록의 움직임 정보를 결정하는 것을 의미하는 동작;
    상기 현재 블록의 후보 목록에 상속된 아핀(affine) 후보를 삽입하는 동작;
    상기 후보 목록 중의 후보의 수가 설정값보다 적은 것에 응답하여, 상기 후보 목록에 구성된 아핀 후보를 삽입하고, 상기 구성된 아핀 후보는 상기 현재 블록의 주변 블록의 움직임 정보를 조합하여 획득되는 동작; 및
    상기 구성된 아핀 후보를 삽입한 후, 상기 후보 목록 중의 후보의 수가 설정값보다 적은 것에 응답하여, 상기 후보 목록에 0 벡터를 삽입하는 동작을 더 실행하는, 비디오 처리 장치.
  13. 제12항에 있어서,
    상기 현재 블록의 후보 목록에 상속된 아핀 후보를 삽입하는 동작은,
    상기 현재 블록의 주변 블록의 제어점 움직임 벡터를 상기 현재 블록의 아핀 후보로서 상기 현재 블록의 후보 목록에 삽입하는 동작을 포함하는, 비디오 처리 장치.
  14. 코드 스트림 생성 방법으로서,
    현재 블록의 하나의 특정 위치의 공간 도메인 인접 블록의 움직임 벡터를 결정하는 단계;
    양방향 예측에 관하여, 상기 현재 블록의 현재 참조 방향 상의 하나의 참조 프레임 목록을 먼저 스캔하고;
    상기 특정 위치의 공간 도메인 인접 블록의 움직임 벡터의 상기 참조 방향 상의 참조 프레임과 상기 현재 블록의 동일 위치 프레임이 동일한 경우, 상기 특정 위치의 공간 도메인 인접 블록의 움직임 벡터를 시간 도메인 움직임 벡터로 결정하고;
    상기 특정 위치의 공간 도메인 인접 블록의 움직임 벡터의 상기 참조 방향 상의 참조 프레임과 상기 현재 블록의 동일 위치 프레임이 다른 경우, 상기 현재 블록의 다른 참조 방향 상의 참조 프레임 목록을 계속 스캔하고;
    상기 특정 위치의 공간 도메인 인접 블록의 움직임 벡터의 다른 참조 방향 상의 참조 프레임 목록 중의 참조 프레임과 현재 프레임의 동일 위치 프레임이 동일하면, 상기 특정 위치의 공간 도메인 인접 블록의 움직임 벡터를 상기 시간 도메인 움직임 벡터로 하고;
    상기 특정 위치의 공간 도메인 인접 블록의 움직임 벡터의 다른 참조 방향 상의 참조 프레임 목록 중의 참조 프레임과 현재 프레임의 동일 위치 프레임이 다른 경우, 상기 시간 도메인 움직임 벡터를 0 벡터로 결정하는 단계; 및
    현재 블록에 대해 코딩을 진행하여 코드 스트림을 생성하는 단계;를 포함하는 것을 특징으로 하는, 코드 스트림 생성 방법.
  15. 삭제
  16. 삭제
  17. 삭제
  18. 삭제
  19. 삭제
  20. 삭제
  21. 삭제
  22. 삭제
KR1020217021168A 2019-01-03 2019-12-31 비디오 처리 방법 및 장치 Active KR102770381B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020257004942A KR20250026402A (ko) 2019-01-03 2019-12-31 비디오 처리 방법 및 장치

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
PCT/CN2019/070306 WO2020140242A1 (zh) 2019-01-03 2019-01-03 视频处理方法和装置
CNPCT/CN2019/070306 2019-01-03
PCT/CN2019/130881 WO2020140916A1 (zh) 2019-01-03 2019-12-31 视频处理方法和装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020257004942A Division KR20250026402A (ko) 2019-01-03 2019-12-31 비디오 처리 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20210094089A KR20210094089A (ko) 2021-07-28
KR102770381B1 true KR102770381B1 (ko) 2025-02-18

Family

ID=70562433

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020257004942A Pending KR20250026402A (ko) 2019-01-03 2019-12-31 비디오 처리 방법 및 장치
KR1020217021168A Active KR102770381B1 (ko) 2019-01-03 2019-12-31 비디오 처리 방법 및 장치

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020257004942A Pending KR20250026402A (ko) 2019-01-03 2019-12-31 비디오 처리 방법 및 장치

Country Status (6)

Country Link
US (1) US20210337232A1 (ko)
EP (1) EP3908002A4 (ko)
JP (2) JP7328337B2 (ko)
KR (2) KR20250026402A (ko)
CN (7) CN111164976A (ko)
WO (3) WO2020140242A1 (ko)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101894397B1 (ko) * 2011-06-14 2018-09-03 삼성전자주식회사 움직임 정보의 부호화 방법 및 장치, 그 복호화 방법 및 장치
CN111869214B (zh) 2018-03-19 2024-11-29 高通股份有限公司 对高级时间运动矢量预测的改进
CN111164976A (zh) 2019-01-03 2020-05-15 北京大学 视频处理方法和装置
CN111953997B (zh) * 2019-05-15 2024-08-09 华为技术有限公司 候选运动矢量列表获取方法、装置及编解码器
JP7446339B2 (ja) 2019-06-04 2024-03-08 北京字節跳動網絡技術有限公司 幾何学的分割モードコーディングを用いた動き候補リスト
WO2020244571A1 (en) 2019-06-04 2020-12-10 Beijing Bytedance Network Technology Co., Ltd. Motion candidate list construction using neighboring block information
CN113994699B (zh) 2019-06-06 2024-01-12 北京字节跳动网络技术有限公司 视频编解码的运动候选列表构建
KR102736117B1 (ko) 2019-07-14 2024-12-02 두인 비전 컴퍼니 리미티드 비디오 코딩에서 변환 블록 크기 제한
WO2021057996A1 (en) 2019-09-28 2021-04-01 Beijing Bytedance Network Technology Co., Ltd. Geometric partitioning mode in video coding
CN114007078B (zh) * 2020-07-03 2022-12-23 杭州海康威视数字技术股份有限公司 一种运动信息候选列表的构建方法、装置及其设备
CN114222134B (zh) * 2021-12-24 2024-10-22 杭州未名信科科技有限公司 视频数据的帧间预测方法、装置及电子设备
CN115379240A (zh) * 2022-07-07 2022-11-22 康达洲际医疗器械有限公司 一种基于方向扩展的视频编码mmvd预测方法与系统
US20250008153A1 (en) * 2023-07-02 2025-01-02 Alibaba (China) Co., Ltd. Overlapped block motion compensation (obmc) for intra mode

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11298902A (ja) * 1998-04-08 1999-10-29 Sony Corp 画像符号化装置および方法
KR100506864B1 (ko) * 2002-10-04 2005-08-05 엘지전자 주식회사 모션벡터 결정방법
CN1870748A (zh) * 2005-04-27 2006-11-29 王云川 因特网协议电视
WO2007029914A1 (en) * 2005-07-19 2007-03-15 Samsung Eletronics Co., Ltd. Video encoding/decoding method and apparatus in temporal direct mode in hierarchica structure
JP2011077722A (ja) * 2009-09-29 2011-04-14 Victor Co Of Japan Ltd 画像復号装置、画像復号方法およびそのプログラム
US9137544B2 (en) * 2010-11-29 2015-09-15 Mediatek Inc. Method and apparatus for derivation of mv/mvp candidate for inter/skip/merge modes
CN102685477B (zh) * 2011-03-10 2014-12-10 华为技术有限公司 获取用于合并模式的图像块的方法和设备
MX2014000159A (es) * 2011-07-02 2014-02-19 Samsung Electronics Co Ltd Metodo y aparato para la codificacion de video, y metodo y aparato para la decodificacion de video acompañada por inter prediccion utilizando imagen co-localizada.
US9083983B2 (en) * 2011-10-04 2015-07-14 Qualcomm Incorporated Motion vector predictor candidate clipping removal for video coding
SG11201406617YA (en) * 2012-04-15 2014-12-30 Samsung Electronics Co Ltd Method and apparatus for determining reference images for inter-prediction
CN103533376B (zh) * 2012-07-02 2017-04-12 华为技术有限公司 帧间预测编码运动信息的处理方法、装置和编解码系统
CN102946536B (zh) * 2012-10-09 2015-09-30 华为技术有限公司 候选矢量列表构建的方法及装置
US10785501B2 (en) * 2012-11-27 2020-09-22 Squid Design Systems Pvt Ltd System and method of performing motion estimation in multiple reference frame
CN103338372A (zh) * 2013-06-15 2013-10-02 浙江大学 一种视频处理方法及装置
CN104427345B (zh) * 2013-09-11 2019-01-08 华为技术有限公司 运动矢量的获取方法、获取装置、视频编解码器及其方法
CN106416243B (zh) * 2014-02-21 2019-05-03 联发科技(新加坡)私人有限公司 利用基于帧内图像区块复制预测的视频编码方法
WO2015143603A1 (en) * 2014-03-24 2015-10-01 Mediatek Singapore Pte. Ltd. An improved method for temporal motion vector prediction in video coding
US9854237B2 (en) * 2014-10-14 2017-12-26 Qualcomm Incorporated AMVP and merge candidate list derivation for intra BC and inter prediction unification
US11477477B2 (en) * 2015-01-26 2022-10-18 Qualcomm Incorporated Sub-prediction unit based advanced temporal motion vector prediction
CN104717513B (zh) * 2015-03-31 2018-02-09 北京奇艺世纪科技有限公司 一种双向帧间预测方法及装置
CN104811729B (zh) * 2015-04-23 2017-11-10 湖南大目信息科技有限公司 一种视频多参考帧编码方法
US10271064B2 (en) * 2015-06-11 2019-04-23 Qualcomm Incorporated Sub-prediction unit motion vector prediction using spatial and/or temporal motion information
GB2561507B (en) * 2016-01-07 2021-12-22 Mediatek Inc Method and apparatus for affine merge mode prediction for video coding system
WO2017131908A1 (en) * 2016-01-29 2017-08-03 Google Inc. Dynamic reference motion vector coding mode
US9866862B2 (en) * 2016-03-18 2018-01-09 Google Llc Motion vector reference selection through reference frame buffer tracking
WO2017176030A1 (ko) * 2016-04-06 2017-10-12 주식회사 케이티 비디오 신호 처리 방법 및 장치
WO2017176092A1 (ko) * 2016-04-08 2017-10-12 한국전자통신연구원 움직임 예측 정보를 유도하는 방법 및 장치
CN116582679A (zh) * 2016-05-24 2023-08-11 韩国电子通信研究院 图像编码/解码方法和用于所述方法的记录介质
WO2018066874A1 (ko) * 2016-10-06 2018-04-12 세종대학교 산학협력단 비디오 신호의 복호화 방법 및 이의 장치
US10602180B2 (en) * 2017-06-13 2020-03-24 Qualcomm Incorporated Motion vector prediction
CN109089119B (zh) * 2017-06-13 2021-08-13 浙江大学 一种运动矢量预测的方法及设备
CN116708814A (zh) * 2018-05-25 2023-09-05 寰发股份有限公司 由视频编码器以及解码器执行的视频编解码方法及装置
CN111903123B (zh) * 2018-07-02 2024-03-08 Lg电子株式会社 基于帧间预测模式的图像处理方法和用于该方法的装置
US10944984B2 (en) * 2018-08-28 2021-03-09 Qualcomm Incorporated Affine motion prediction
WO2020060316A1 (ko) * 2018-09-20 2020-03-26 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
EP4307681A3 (en) * 2018-11-29 2024-04-03 Beijing Bytedance Network Technology Co., Ltd. Interaction between intra block copy mode and inter prediction tools
KR102585131B1 (ko) 2018-12-13 2023-10-06 텐센트 아메리카 엘엘씨 비디오 디코딩을 위한 방법 및 비디오 디코더
CN111164976A (zh) 2019-01-03 2020-05-15 北京大学 视频处理方法和装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Xiaoyu Xiu, et. al., "Description of SDR, HDR, and 360° video coding technology proposal by InterDigital Communications and Dolby Laboratories", Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11 10th Meeting: San Diego, US, 10-20 Apr. 2018, JVET-J0015-v1.*

Also Published As

Publication number Publication date
CN111630861A (zh) 2020-09-04
CN113194314B (zh) 2022-10-25
CN113507612A (zh) 2021-10-15
EP3908002A4 (en) 2022-04-20
CN113507612B (zh) 2023-05-12
JP7328337B2 (ja) 2023-08-16
WO2020140915A1 (zh) 2020-07-09
CN113453015A (zh) 2021-09-28
US20210337232A1 (en) 2021-10-28
CN116866605A (zh) 2023-10-10
JP2023139221A (ja) 2023-10-03
WO2020140916A1 (zh) 2020-07-09
EP3908002A1 (en) 2021-11-10
CN111164976A (zh) 2020-05-15
CN111630860A (zh) 2020-09-04
CN111630861B (zh) 2021-08-24
JP2022515807A (ja) 2022-02-22
KR20210094089A (ko) 2021-07-28
WO2020140242A1 (zh) 2020-07-09
CN113453015B (zh) 2022-10-25
CN113194314A (zh) 2021-07-30
JP7617193B2 (ja) 2025-01-17
KR20250026402A (ko) 2025-02-25

Similar Documents

Publication Publication Date Title
KR102770381B1 (ko) 비디오 처리 방법 및 장치
CN112567752B (zh) 视频数据编解码的方法、装置与计算机可读取储存媒介
JP7544443B2 (ja) 映像処理方法及び符号化器
CN109905702B (zh) 一种视频编码中参考信息确定的方法、装置及存储介质
US12126792B2 (en) Displacement vector prediction method and apparatus in video encoding and decoding and device
BR112021002335A2 (pt) método de decodificação de imagem com base na predição de movimento afim e dispositivo usando lista de candidatos à fusão afins no sistema de codificação de imagem
JP2025041966A (ja) ビデオ符号化方法、ビデオ復号方法およびビットストリーム生成方法
CN113824960A (zh) 视频编码方法、装置、计算机可读介质及电子设备
CN111357288A (zh) 视频图像处理方法与装置

Legal Events

Date Code Title Description
PA0105 International application

Patent event date: 20210706

Patent event code: PA01051R01D

Comment text: International Patent Application

PA0201 Request for examination
PG1501 Laying open of application
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20240405

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20241220

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20250214

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20250214

End annual number: 3

Start annual number: 1

PG1601 Publication of registration