[go: up one dir, main page]

KR19990008977A - 윤곽선 부호화 방법 - Google Patents

윤곽선 부호화 방법 Download PDF

Info

Publication number
KR19990008977A
KR19990008977A KR1019970031211A KR19970031211A KR19990008977A KR 19990008977 A KR19990008977 A KR 19990008977A KR 1019970031211 A KR1019970031211 A KR 1019970031211A KR 19970031211 A KR19970031211 A KR 19970031211A KR 19990008977 A KR19990008977 A KR 19990008977A
Authority
KR
South Korea
Prior art keywords
contour
current
global
previous
contours
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
KR1019970031211A
Other languages
English (en)
Inventor
한석원
Original Assignee
배순훈
대우전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 배순훈, 대우전자 주식회사 filed Critical 배순훈
Priority to KR1019970031211A priority Critical patent/KR19990008977A/ko
Priority to US08/922,634 priority patent/US6023300A/en
Priority to JP23802097A priority patent/JP3977494B2/ja
Priority to EP19970306899 priority patent/EP0889652B1/en
Priority to DE1997628757 priority patent/DE69728757T2/de
Priority to CN97116297A priority patent/CN1133329C/zh
Publication of KR19990008977A publication Critical patent/KR19990008977A/ko
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/20Contour coding, e.g. using detection of edges
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/54Motion estimation other than block-based using feature points or meshes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/543Motion estimation other than block-based using regions

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 현재 프레임 내의 윤곽선과 이전 프레임 내의 윤곽선 간의 상관관계를 고려하여 현재 윤곽선을 간(inter) 부호화하는 과정에서 현재 윤곽선과 이전 윤곽선 간의 정합상태를 복호화기에 효과적으로 전달하기 위하여, 이전 프레임 내의 윤곽선의 전송순서에 기초하여 현재 윤곽선과 이전 윤곽선의 대응관계 및 정합여부를 통합적으로 나타내는 프래그(flag) 신호를 생성하여 전송하므로써 전송될 데이터량을 감소시키고 전송될 정보를 체계화한 윤곽선 부호화 방법에 관한 기술이다.

Description

윤곽선 부호화 방법
본 발명은 다수개의 윤곽선을 포함하는 현재 프레임과 이전 프레임 내의 각 윤곽선간의 정합관계를 통합적으로 나타내는 프래그(flag) 신호를 생성하여 출력하는 윤곽선 부호화 방법에 관한 것이다.
일반적으로 영상전화, 원격회의(teleconference) 및 고선명 텔레비전 시스템과 같은 디지탈 텔레비전 시스템에 있어서, 영상 프레임 신호의 영상 라인 신호는 화소값이라 불리는 디지탈 데이터의 시퀀스(sequence)를 포함하므로써, 각 영상 프레임 신호를 규정하기 위해 상당한 양의 디지탈 데이터가 필요하다.
그러나, 통상의 전송 채널에서 이용 가능한 주파수 대역폭은 제한되어 있으므로, 특히 영상전화와 원격회의 시스템과 같은 저전송 영상신호 부호화기(low bit-rate video signal encoder)에서는 다양한 데이터 압축기법을 통해 전송되는 데이터의 양을 줄여야 한다.
이미 널리 알려진 바와 같이, 저전송 부호화 시스템의 영상신호를 부호화하기 위한 기법 중에는 소위 객체지향 해석 및 합성 부호화 기법(object-oriented analysis-synthesis coding technique)이 있으며, 상기 기법에서 입력 영상신호는 다수의 객체로 분할되고, 각 객체의 움직임, 윤곽선 및 화소 데이터를 정의하기 위한 변수들은 각기 다른 부호화 채널을 통해 처리된다.
객체의 윤곽선을 부호화하기 위하여 객체의 형상을 합성 및 분석하는 데에는 윤곽선 정보가 중요하게 이용되며, 윤곽선 정보를 표현하기 위해서는 통상, 체인 부호화(chain coding), 다각형 근사화(polygonal approximation) 및 B-스플라인(B-spline) 근사방법과 같은 다양한 방법을 통해 객체의 윤곽선 정보를 부호화하였다.
그러나, 상기한 윤곽선 부호화 방법들은 통해 객체의 윤곽선 정보를 부호화하더라도 전송될 데이터량을 줄일 필요성은 여전히 존재하였다. 이에 따라, 다수개의 윤곽선을 포함하는 영상 프레임신호에 있어서, 이전의 프레임과 현재 프레임에 있어서 각 프레임 내의 윤곽선의 움직임을 추정하여 영상 프레임 내의 각 윤곽선을 간 윤곽선 부호화(inter contour coding)함으로써, 각각의 윤곽선을 효과적으로 부호화하고 전송될 데이터량을 감소시킬 수 있게 되었다. 상기 윤곽선의 움직임을 추정하는 방법에 있어서 현재까지는 이전 프레임과 현재 프레임 내에 존재하는 윤곽선에 대해 현재 프레임 내의 윤곽선이 이전 프레임의 어떤 윤곽선과 정합되었는 지와 그 정합된 정도를 나타내는 정보를 보내야 하는데, 이를 위해서는 현재 프레임 내의 각 윤곽선에 대해 정합된 이전 프레임의 윤곽선의 인덱스 데이터와 이전 프레임 내의 대응하는 윤곽선과의 정합정도를 나타내는 정보를 산발적으로 보내고 있어서 그 정보량이 많을 뿐만 아니라 그 양도 예측하기 힘든 어려움이 있었다.
따라서, 본 발명에서는 간 윤곽선 부호화에서 사용되는 제어정보인 여러개의 윤곽선에 대한 정합/부정합 정보, 이전 프레임 내의 윤곽선 중에서 현재 프레임 내의 윤곽선과 정합되는 윤곽선이 어떤 것인지를 나타내는 정보 및 대응하는 윤곽선의 움직임 벡터 등을 전송하는 것을 통합적으로 나타낼 수 있는 프래그 신호를 출력하는 윤곽선 부호화 방법을 제공하는데에 그 목적이 있다.
상기 목적을 달성하기 위해, 본 발명에서는 다수개의 윤곽선을 포함하는 현재 및 이전 프레임으로 이루어진 영상 신호를 간 윤곽선 부호화(inter contour coding)함으로써, 현재 프레임과 이전 프레임 간의 전역 움직임 벡터, 현재 윤곽선과 이에 대응하는 이전 윤곽선 간의 국부 움직임 벡터 및 이전 윤곽선의 전송순서를 나타내는 인덱스 데이터와, 현재 윤곽선과 이전 윤곽선 간의 차분을 부호화한 윤곽선 부호화 정보를 출력하는 윤곽선 부호화 방법에 있어서, 상기 출력을 이용하여, 이전 프레임 내의 일정 개수 이상의 윤곽선이 현재 프레임 내의 윤곽선과 전역 움직임 보상에 의해서 완전정합되었는 지의 여부를 나타내는 Gfs_flag 신호를 생성하는 과정; 상기 Gfs_flag 신호에 반응하여 생성되며, 전역 움직임 보상에 의해 이전 프레임 내의 특정 윤곽선이 현재 프레임 내의 임의의 윤곽선과 완전정합되었는 지의 여부를 나타내는 프래그의 집합인 Global_flag 신호를 생성하는 과정; 전역 움직임 보상 및 국부 움직임 보상을 통해 이전 프레임 내의 특정 윤곽선이 현재 프레임 내의 임의의 윤곽선과 부분정합 또는 완전정합되는 지의 여부를 나타내는 프래그의 집합인 Contour_flag 신호를 생성하는 과정; 및 전역 움직임 보상 및 국부 움직임 보상에 의해 이전 프레임 내의 각 윤곽선이 현재 프레임 내의 임의의 윤곽선과 완전정합되었는 지를 나타내는 프래그의 집합인 Contour_flag_status 신호를 생성하는 과정을 포함하는 윤곽선 부호화 방법을 제공한다.
도 1은 본 발명에 의한 윤곽선 부호화 장치를 도시한 블록도,
도 2는 도 1에 도시된 움직임 예측부의 상세도,
도 3은 도 2에 도시된 최적 윤곽선 검출블록의 상세도,
도 4는 윤곽선 정합과정을 설명한 도면,
도 5a 및 5b은 이전 프레임과 현재 프레임을 예시적으로 도시한 도면.
<도면의 주요 부분에 대한 부호의 설명>
5 : 윤곽선 부호화 장치 100 : 윤곽선 검출부
200 : 윤곽선 부호화부 300 : 움직임 예측부
310 : 전역 움직임 벡터 결정블록 320 : 예측 윤곽선 이미지 생성블록
330 : 최적 윤곽선 검출블록 331 : 후보 윤곽선 결정섹터
333 : 정합섹터 335 : 최적 윤곽선 결정섹터
400 : 움직임 보상부 500 : 윤곽선 복호화부
600 : 윤곽선 재생부 700 : 프레임 메모리
800 : 데이터 스트림 형성부 10 : 현재 윤곽선
20 : 후보 윤곽선
도 1에는 프레임 신호의 윤곽선을 부호화하기 위한 장치(5)가 도시되어 있다. 하나 이상의 객체를 포함하는 현재 프레임의 윤곽선 이미지 신호는 분할 마스크(segmentation mask) 형식으로 윤곽선 검출부(100)와 라인 L50을 통해 움직임 예측부(300)로 입력되는데, 여기서 분할 마스크에 포함된 각 화소들은 그 화소가 속한 영역을 확인할 수 있도록 라벨값을 가지고 있다. 예를 들어 배경 화면에 속하는 화소는 0 의 값을, 객체를 표시하는 각 화소는 0 이 아닌 값 중의 하나를 가진다.
윤곽선 검출부(100)는 입력된 현재 프레임의 윤곽선 이미지 신호로부터 그 속에 포함된 윤곽선을 검출하여, 그 처리순서에 따라 윤곽선 이미지 신호에 포함된 각 윤곽선에 인덱스 데이터를 부여하고, 현재 프레임내의 각 윤곽선에 대한 윤곽선 정보를 순차적으로 출력한다. 상기 윤곽선 정보는 윤곽선 상의 윤곽선 화소의 위치를 나타내는 윤곽선 데이터와 인덱스 데이터를 포함한다. 윤곽선 검출부(100)에서 출력되는 현재 윤곽선 정보는 라인 L10를 통해 윤곽선 부호화부(200)와 움직임 예측부(300)로 제공된다.
움직임 예측부(300)는 라인 L50상의 현재 윤곽선 이미지 신호, 라인 L10상의 현재 윤곽선 정보 및 프레임 메모리(700)로부터 라인 L30을 통해 인가된 재생된 이전 프레임의 윤곽선 이미지 신호를 이용하여 라인 L10상의 현재 윤곽선과 가장 잘 정합되는 이전 프레임 내의 윤곽선을 검출한다. 이전의 윤곽선 이미지 신호 또한 분할 마스크의 형태이며, 포함된 각 화소는 화소가 속해 있는 영역을 확인할 수 있는 라벨값을 가진다. 움직임 예측부(30)에서는 현재 윤곽선과 가장 잘 정합되는 이전 윤곽선의 인덱스 데이터와 현재 윤곽선과 대응하는 이전 윤곽선 간의 공간적 변위를 나타내는 움직임 정보가 라인 L20과 L40을 통해 출력된다. 움직임 예측부(300)는 이하에서 도 2와 도 3을 참조하여 상세히 설명하기로 한다.
도 2에는 전역 움직임 벡터 검출블록(310), 예측 윤곽선 이미지 생성블록(320), 그리고 최적 윤곽선 검출블록(330)을 포함하는 움직임 예측부(300)가 도시되어 있다.
전역 움직임 벡터 검출블록(310)은, 라인 L30 상의 이전 윤곽선 이미지 신호와 라인 L50상의 현재 윤곽선 이미지 신호를 이용하여 현재 및 이전 프레임 내의 오버랩되는 객체 화소들의 수가 가장 많은 위치에서의 두 프레임의 공간적 변위를 나타내는 전역 움직임 벡터(Global Motion Vector : GMV)를 검출한다. GMV의 검출은 지정된 탐색 영역, 예를 들어 +/-16 화소영역 안에서 이루어진다. 전역 움직임 벡터 검출 블록(310)에서 검출된 GMV는 예측 윤곽선 이미지 생성블록(320)으로 입력되는 동시에 라인 L22를 통해 움직임 보상부(400)로, 라인 L42를 통해 데이터 스트림 형성부(800)로 공급된다.
예측 윤곽선 이미지 생성블록(320)에서는 라인 L30을 통해 인가된 이전 윤곽선 이미지를 GMV 만큼 이동시켜 예측 윤곽선 이미지를 생성한다. 또한, 도 1의 윤곽선 검출부(100)에서처럼, 예측 윤곽선 이미지 생성블록(320)은 예측 윤곽선 이미지 내의 윤곽선을 검출한다. 예측 윤곽선 이미지 생성블록(320)에서 검출된 각 예측 윤곽선에 대한 윤곽선 정보는 라인 L60으로 출력된다.
예측 윤곽선 정보와 라인 L10상의 현재 윤곽선 정보를 입력으로 하는 최적 윤곽선 검출블록(330)은 현재 윤곽선과 가장 잘 정합되는 최적 윤곽선을 예측 윤곽선 이미지 생성블록(320)으로부터 순차적으로 공급되는 예측 윤곽선 정보로부터 검출하고, 현재 윤곽선과 최적 윤곽선 사이의 변위를 나타내는 국부 움직임 벡터(Local Motion Vector; LMV)와 최적 윤곽선의 인덱스 데이터를 함께 라인 L20과 라인 L40으로 출력한다. 본 발명의 바람직한 실시예에서, 예측 윤곽선의 인덱스 데이터는 부호화되어 전송되는 순서 및 프레임 메모리(700)에 저장된 순서를 나타내는 것으로 해당 윤곽선에 대응하는 객체화소들의 라벨값과 같고, 복호화기에서 처리되는 순서도 이와 동일하다.
도 3에는 최적 윤곽선 결정블록(330)이 도시되어 있으며, 후보 윤곽선 결정섹터(331), 정합섹터(333), 최적 윤곽선 결정섹터(335)를 포함한다.
후보 윤곽선 결정섹터(331)는 현재 윤곽선으로부터 지정된 탐색 영역내에 위치한 예측 윤곽선을 검출하고, 라인 L10 상의 현재 윤곽선 정보와 라인 L60 상의 예측 윤곽선 정보를 이용하여 현재 윤곽선과 검출된 예측 윤곽선의 길이를 계산한 다음, 현재 윤곽선과 지정된 탐색 영역내의 각 예측 윤곽선의 길이를 비교한다. 비교결과, 현재 윤곽선과 예측 윤곽선의 길이차가 두 윤곽선중의 작은 길이의 M배 보다 작으면, 그 예측 윤곽선은 후보 윤곽선으로 결정된다.(여기서 M은 지정된 숫자) 현재 윤곽선에 대해 하나 또는 그 이상의 후보 윤곽선이 결정되면, 그 후보 윤곽선들을 확인할 수 있는 인식 신호들-예를 들어 후보 윤곽선의 인덱스 데이터-은 정합섹터(333)로 입력된다. 상기에서 윤곽선의 길이는, 예를들면, 윤곽선을 구성하는 윤곽선 화소들의 수로 정의될 수 있다.
발명의 또다른 실시 예에서는, 후보 윤곽선은 윤곽선의 길이 대신에 각 윤곽선의 내부에 위치한 객체 화소의 수를 이용하여 결정될 수 있다.
정합섹터(333)는 후보 윤곽선 결정섹터(331)로부터 인가된 인식 신호에 대응하는 후보 윤곽선에 대한 윤곽선 정보를 라인 L60을 통해 예측 윤곽선 이미지 블록(320)으로부터 제공받는다. 이어서, 현재 윤곽선과 각 후보 윤곽선은 라인 L10 상의 현재 윤곽선 정보와 라인 L60상의 후보 윤곽선 정보에 기초하여 정합된다. 현재 윤곽선과 후보 윤곽선에 대한 정합과정의 실행 후, 정합섹터(333)는 각 후보 윤곽선에 대한 정합정보를 최적 윤곽선 결정섹터(335)에 제공한다. 정합정보는 후보 윤곽선에 대한 인덱스 데이터와 움직임 변위 그리고 정합길이 등을 포함한다.
후보 윤곽선에 대한 정합과정 동안, 후보 윤곽선은 예를 들면, 지정된 탐색영역 안에서 한 화소 단위로 위치 이동한다. 각 이동 변위에서의 후보 윤곽선과 현재 윤곽선 간의 정합 세그먼트가 결정되며, 각 이동 변위에 대한 정합 세그먼트의 총 길이가 계산된다. 계산된 길이는 서로 비교되며, 가장 긴 길이가 후보 윤곽선의 정합 길이로 결정되고 최대 길이에 대응하는 이동 변위는 후보 윤곽선의 움직임 변위가 된다. 상기 정합 세그먼트를 결정하는 방법은 도 4에 설명되어 있다. 도 4에는 서로 오버랩된 현재 윤곽선(10)과 후보 윤곽선(20)이 도시되어 있다. 현재 윤곽선(10)과 후보 윤곽선(20)이 오버랩되면, PV1 내지 PV6, P1 및 P2와 같은 두 윤곽선 간의 교차점이 검출되고, PV6-PV1, PV2-PV3, P1-P2, PV4-PV5 와 같은 오버랩된 세그먼트의 길이가 계산된다. 오버랩된 세그먼트의 길이가 문턱값 TH1 보다 큰 경우, 오버랩된 세그먼트는 정합 세그먼트로 결정된다. 도 4에서, P1과 P2 사이의 오버랩된 세그먼트는 TH1보다 크지않고, 나머지 오버랩된 세그먼트만 TH1보다 크다고 가정한다. 그러므로 나머지 오버랩된 세그먼트, 예를 들어, PV2-PV3, PV4-PV5, PV6-PV1은 정합 세그먼트로 결정된다.
본 발명의 또다른 실시예에서는 정합 세그먼트의 길이 대신에 오버랩된 세그먼트 상에 위치한 윤곽선 화소들의 숫자에 의해 정합 세그먼트가 결정될 수 있다.
각 후보 윤곽선의 정합정보를 인가받은 최적 윤곽선 결정섹터(335)에서는, 각 후보 윤곽선에 대한 정합 길이가 서로 비교되며, 최장의 정합 길이를 갖는 후보 윤곽선이 현재 윤곽선의 최적 윤곽선으로 결정된다. 여기서 최적 윤곽선으로 선택된 후보 윤곽선의 움직임 변위는 최적 윤곽선의 LMV로 정해진다. 최적 윤곽선 결정섹터(335)의 출력인 최적 윤곽선의 LMV와 인덱스 데이터는 라인 L20과 L40을 통해 움직임 보상부(400)와 데이터 스트림 형성부(800)로 전달된다. 한편, 최적 윤곽선에 대응하는 인덱스 데이터는 라인 L25를 통해 후보 윤곽선 결정블록(331)로 공급되어, 최적 윤곽선으로 이미 결정된 윤곽선이 새로운 현재 윤곽선에 대한 후보 윤곽선 결정시에 또다시 후보 윤곽선으로 선택되지 못하도록 후보 윤곽선 결정블록(331)을 제어한다. 따라서, 이전 프레임 내의 각 윤곽선은 최적 윤곽선으로 선택되어질 기회를 한번밖에 갖지 못하게 된다.
도 1을 재차 참조하면, 움직임 보상부(400)는 라인 L22을 통해 전달된 GMV, 라인 L20을 통해 공급된 최적 윤곽선의 LMV 및 인덱스 데이터를 이용하여 프레임 메모리(700)로부터 라인 L30을 통해 최적 윤곽선 정보를 입력 받음으로써 예측된 현재 윤곽선을 생성한다. 여기서 예측된 현재 윤곽선은 GMV 와 LMV의 합에 의해 옮겨진 최적 윤곽선을 나타내며, 예측된 현재 윤곽선에 속하는 윤곽선 화소의 위치 데이터를 나타내는 예측된 현재 윤곽선 정보는 라인 L55를 통해 윤곽선 부호화부(200)와 윤곽선 재생부(600)로 공급된다.
윤곽선 부호화부(200)는 라인 L55상의 예측된 현재 윤곽선 정보와 라인 L10상의 현재 윤곽선 정보를 이용하여 현재 윤곽선을 부호화한다.
즉, 움직임 보상부(400)로부터 예측된 현재 윤곽선 정보가 인가되면 잘 알려진 간 윤곽선 부호화기법을 이용하여 예측된 현재 윤곽선과 현재 윤곽선 간의 차분을 부호화하고, 현재 윤곽선에 대응하는 적절한 윤곽선이 이전 프레임내에 존재하지 않아서 예측된 현재 윤곽선 정보가 움직임 보상부(400)로부터 전달되지 않으면 종래의 내 윤곽선 부호화(intra contour coding) 기법을 이용하여 현재 윤곽선만을 부호화하여 윤곽선 부호화 정보를 데이터 스트림 형성부(800)와 윤곽선 복호화부(500)로 공급하게 된다. 이때, 예측된 현재 윤곽선과 현재 윤곽선이 완전정합되어 차분이 발생하지 않을 경우에는 윤곽선 부호화부(200)로부터 윤곽선 부호화 정보가 발생하지 않는다.
윤곽선 복호화부(500)에서는 윤곽선 부호화 정보를 복호화하여 윤곽선 재생부(600)로 제공하고, 윤곽선 재생부(600)는 상기 복호화된 윤곽선 부호화 정보와 라인 L55를 통해 인가된 예측된 현재 윤곽선 정보를 이용하여 현재 이미지 신호를 재생한다. 재생된 현재 이미지 신호는 프레임 메모리(700)에 저장되며, 다음 윤곽선 이미지 신호에 대한 이전 윤곽선 이미지 신호로 사용된다.
한편, 데이터 스트림 형성부(800)는 현재 프레임 내의 각 윤곽선에 대한 윤곽선 부호화부(200)로부터의 윤곽선 부호화 정보와 움직임 예측부(300)로부터 전달된 LMV, 최적 윤곽선의 인덱스 데이터 및 GMV를 이용하여 전송된 정보의 재배열 및 현재 프레임 내의 각 윤곽선에 대한 부호화 정보를 효율적으로 관리하는 제어정보 즉, 프래그(flag) 신호를 생성한다.
우선, 전송된 인덱스 데이터에 기초하여 프레임 메모리(700)와 영상 복호화기에서 기억하고 있는 이전 프레임 내의 윤곽선의 순서에 맞게 각각의 현재 윤곽선에 대응하는 윤곽선 부호화 정보 및 LMV를 재배열하고, 다음과 같은 제어정보를 생성한다.
Gfs_flag : 이전 프레임 내의 일정 개수 이상의 윤곽선이 현재 프레임 내의 윤곽선과 전역 움직임 보상에 의해서 완전정합이 되었는 지의 여부를 나타낼 뿐만 아니라, Global_flag 신호의 생성여부를 결정하는 신호로서, L〈 4*GPM 인 경우에는 1의 값을 가지며, 이때에는 Global_flag 신호가 생성되고, L≥4*GPM 인 경우에는 0의 값을 가지고 Global_flag 신호가 생성되지 않는다. 여기서, L은 이전 프레임에 포함된 윤곽선의 개수를 나타내고 GPM은 전역 움직임 보상만으로 현재 프레임 내의 임의의 윤곽선과 완전정합되는 이전 프레임 내의 윤곽선의 개수를 나타낸다. 현재 프레임 내의 윤곽선이 이전 프레임 내의 어느 한 윤곽선과 전역 움직임 보상에 의해서만 완전정합이 이루어진 것은 현재 윤곽선에 대응하는 윤곽선 부호화 정보 및 LMV가 발생하지 않은 것으로 알 수 있다.
Global_flag : 전역 움직임 보상에 의해 이전 프레임 내의 각 윤곽선이 현재 프레임 내의 임의의 윤곽선과 완전히 정합되었는 지의 여부를 나타내는 신호로서 이전 프레임 내의 윤곽선의 개수 L만큼의 비트로 부호화된다. 각각의 비트로 대표되는 프래그는 이전 프레임 내의 윤곽선을 부호화하여 전송했던 순서대로 각 윤곽선의 정합정보를 나타내는 것으로, 1의 값을 가지면 이전 프레임 내의 해당 윤곽선이 전역 움직임 보상에 의해서만 현재 프레임 내의 임의의 윤곽선과 완전정합되었다는 것을 의미하고, 0의 값을 가지면 완전정합되지 않았다는 것을 의미한다. 즉, Global_flag 신호 내의 i번째 프래그가 1의 값을 가지면 이전 프레임의 부호화 순서에서 i번째 윤곽선이 현재 프레임 내의 임의의 윤곽선과 전역 움직임 보상에 의해 완전정합이 이루어졌다는 것을 나타낸다.
Contour_flag : 전역 움직임 보상 후의 국부 움직임 보상에 의해 이전 프레임 내의 각 윤곽선이 현재 프레임 내의 임의의 윤곽선과 부분정합 또는 완전정합되었는 지의 여부를 나타내는 프래그의 집합으로서 M 비트로 표현된다. Contour_flag신호가 1의 값을 가지면 이전 프레임 내의 해당 윤곽선이 현재 프레임 내의 임의의 윤곽선과 국부 움직임 보상에 의해 부분 또는 완전정합되었다는 것을 나타내고 0이면 정합이 이루어지지 않았다는 것을 의미한다. 여기서 M은 L-GPM의 값을 가지며, 만약 Gfs_flag 신호가 0의 값을 갖는 경우에는 Global_flag 신호가 발생하지 않고 M은 L이 되어 Contour_flag 신호는 L개의 프래그를 포함한다. 상기 이전 프레임 내의 특정 윤곽선이 현재 프레임 내의 임의의 윤곽선과 부분정합되는 경우에는 현재 윤곽선에 대응하는 윤곽선 부호화 정보와 LMV가 발생하게 되고, 완전정합이 이루어진 경우에는 LMV만 발생하게 된다.
Contour_flag_status : 전역 움직임 보상 후에 국부 움직임 보상에 의해 이전 프레임 내의 각 윤곽선이 현재 프레임 내의 임의의 윤곽선과 완전정합되었는 지를 나타내는 프래그의 집합으로서, 프래그가 1의 값을 가지면 이전 프레임 내의 해당 윤곽선이 현재 프레임 내의 임의의 윤곽선과 완전정합이 이루어졌다는 것을 의미하고 그렇지 않으면 완전정합되지 않았다는 것을 의미한다. 이 신호는 Gfs_flag 신호가 1일 경우에는 CPM 비트로 부호화되고, Gfs_flag 신호가 0일 경우에는 CPM+GPM 비트로 부호화된다. 여기서 CPM은 국부 움직임 보상에 의해 부분정합 또는 완전정합된 이전 프레임 내의 윤곽선의 개수를 나타낸다.
이전 프레임과 현재 프레임의 정합과정에서 현재 프레임 내의 어떠한 윤곽선과도 정합되지 않은 윤곽선이 이전 프레임 내에 존재하는 것은 움직임 예측부(300)로부터 이전 프레임 내의 해당 윤곽선의 인덱스 데이터가 전송되지 않는 것으로 알 수 있고, 이전 프레임 내의 어떠한 윤곽선과도 정합되지 않는 윤곽선이 현재 프레임 내에 존재하는 것은 상당량의 윤곽선 부호화 정보는 발생하지만 움직임 예측부(300)로부터는 어떠한 정보도 전달되지 않는 것으로 확인가능하다. 현재 프레임 내의 윤곽선 중에서 이전 프레임 내의 어떠한 윤곽선과도 정합하지 않는 윤곽선에 대해서는 상기 프래그 신호가 발생하지 않으므로 정합이 이루어진 윤곽선에 대한 윤곽선 부호화 정보가 전송된 후에 그 윤곽선 부호화 정보를 전송하도록 전송순서를 조절한다.
상기한 제어정보와 함께 재배열된 윤곽선 부호화 정보, 전역 움직임 벡터및 재배열된 국부 움직임 벡터들이 전송된다. 또한, 이전 프레임과 현재 프레임 내에 존재하는 윤곽선 개수들의 차이는 가변길이 부호화(varialbe length coding)되어 전송된다. 상기한 윤곽선의 간 부호화 정보는 복호화기로 전송되어 현재 프레임의 형상을 재생하는데 효과적으로 이용된다.
도 5a 및 5b은 이전 프레임과 현재 프레임 내에 포함된 다수개의 윤곽선을 예시적으로 도시한 것으로, 도면을 참조하여 제어정보의 발생예를 설명하기로 한다.
도 5a에 나타내어진 이전 프레임은 인덱스 p1 내지 p7을 갖는 7개의 윤곽선을 포함하고 있으며, 도 5b의 현재 프레임은 인덱스 c1 내지 c9을 갖는 9개의 윤곽선을 포함하고 있다. 도면에 도시된 바에 비추어, 도 5a 및 5b에서 현재 프레임 내의 윤곽선 c1, c3는 이전 프레임 내의 윤곽선 p1, p3는 각각 전역 움직임 보상에 의해 완전정합이 이루어지고, 현재 프레임의 윤곽선 c2는 이전 프레임의 윤곽선 p2와 전역 움직임 보상 및 국부 움직임 보상에 의해 완전정합되고, 현재 프레임의 윤곽선 c4, c5, c6는 이전 프레임의 윤곽선 p4, p5, p6와 전역 움직임 보상 및 국부 움직임 보상에 의해 부분정합되고, 현재 프레임의 윤곽선 c7, c8, c9은 이전 프레임 내의 어떠한 윤곽선과도 정합되지 않으며, 이전 프레임의 윤곽선 p7은 현재 프레임 내의 어떠한 윤곽선과도 정합되지 않는다고 가정한다. 또한, 이때에 이전 프레임 내의 윤곽선의 전송순서는 윤곽선의 인덱스의 순서에 맞추어 p1-p2-p3-p4-p5-p6-p7 순인 것으로 한다.
상기의 가정하에서, L은 7, GPM는 2 이므로, L〈 4*GPM가 성립되고 제어정보는 다음과 같이 생성된다.
Gfs_flag 1
윤곽선의 처리순서 p1 p2 p3 p4 p5 p6 p7
Global_flag 1 0 1 0 0 0 0
Contour_flag 1 1 1 1 0
Contour_flag_status 1 0 0 0
상기에서 Contour_flag와 Contour_flag_status 신호의 각 프래그들은 이해를 돕기위해 이전 프레임 내의 각 윤곽선의 처리순서에 정합되도록 도시하였으나, 실제적으로는 연결된 비트로 표시된다.
상기한 각 제어정보에 따르면 이전 프레임 내의 각 윤곽선이 현재 프레임 내의 특정 윤곽선 들과 어떻게 정합되는 지를 알 수 있으며, 국부 움직임 벡터의 전송순서가 정해진다. 즉, 전역 움직임 보상에 의해서만 완전정합이 이루어지는 경우에는 국부 움직임 벡터가 발생하지 않으므로 상기 윤곽선 p1과 p3에 대응하는 국부 움직임 벡터는 없고, 국부 움직임 보상에 의해서 부분 또는 완전정합되는 윤곽선 p2, p4내지 p6에 대해서만 국부 움직임 벡터가 발생하고 그 순서는 윤곽선의 전송순서에 따라 p2-p4-p5-p6로 결정된다. 또한, 윤곽선 부호화 정보는 국부 움직임 보상에 의해 부분정합되는 경우와 정합이 이루어지지 않는 현재 윤곽선에 대해서만 발생하므로 그 순서는 현재 윤곽선의 인덱스 데이터에 비추어 c4-c5-c6-c7-c8-c9이 된다. 상술한 바와 같이 현재 윤곽선 c7, c8, c9의 윤곽선 부호화 정보는 자체 윤곽선 전체를 내 부호화한 정보이다.
상기의 가정에서 현재 윤곽선 c3가 이전 윤곽선 p3와 전역 움직임 보상에 의해 완전정합되지 않고 국부 움직임 보상에 의해 부분정합되는 것으로 재가정하는 경우에 대해서 이하에서는 예시적으로 설명하고자 한다.
가정에 의해, L은 7, GPM는 1 이 되므로, L ≥ 4*GPM가 되고 제어정보는 다음과 같이 생성된다.
Gfs_flag 0
윤곽선의 처리순서 p1 p2 p3 p4 p5 p6 p7
Contour_flag 1 1 1 1 1 1 0
Contour_flag_status 1 1 0 0 0 0
상기에서는 Gfs_flag신호가 0이 되어 Global_flag 신호가 발생하지 않으므로 전역 움직임 보상과 국부 움직임 보상을 동시에 고려하여 Contour_flag 신호를 생성하게 되는데, 이때 윤곽선 p1은 전역 움직임 보상에 의해 완전정합되므로 국부 움직임 보상에 의해서도 완전정합되는 것으로 볼 수 있어서, Contour_flag_status 신호는 윤곽선 p1에 대해서 1을 갖는 프래그를 포함하게 된다.
상기한 각 제어정보에 따르면 첫번째 예에서와 마찬가지로 이전 프레임 내의 각 윤곽선이 현재 프레임 내의 특정 윤곽선 들과 어떻게 정합되는 지를 알 수 있고, 국부 움직임 벡터의 전송순서를 결정할 수 있게 된다. 즉, 전역 움직임 보상 후, 국부 움직임 보상을 하게 되면 국부 움직임 벡터가 발생하게 되는데, 상기 가정에서 윤곽선 p1 내지 p6가 움직임 보상과정을 통해 부분 또는 완전정합되되므로 국부 움직임 벡터의 순서는 윤곽선의 전송순서에 따라 p1-p2-p3-p4-p5-p6로 결정된다. 그러나 상기에서 윤곽선 p1은 전역 움직임 보상만으로도 완전정합이 이루어지므로 국부 움직임 벡터는 제로값을 갖게 된다. 또한, 윤곽선 부호화 정보의 전송순서는 제어정보에 비추어 현재 윤곽선 c3-c4-c5-c6-c7-c8-c9로 정해진다. 현재 윤곽선 c1 및 c2 에 대해서는 이전 윤곽선 p1 및 p2와 완전정합이 이루어지므로 차분에 의해 부호화 정보는 생성되지 않고, 현재 윤곽선 c7, c8, c9의 윤곽선 부호화 정보는 전술한 바대로 자체 윤곽선 전체를 내 부호화한 정보가 된다.
이상에서 설명한 본 발명에 의해 제어정보를 이용하여 현재 프레임 내의 각 윤곽선과 이전 프레임 내의 각 윤곽선에 대한 정합정도를 통합정리하여 전송하게 되면 현재 윤곽선에 정합되는 이전 윤곽선에 대한 인덱스 데이터를 굳이 전송하지 않아도 영상 복호화기에서는 제어정보만을 이용하여 정합상태를 효율적으로 검출할 수 있게 된다. 또한 인덱스 데이터가 전송되지 않으므로 전송될 데이터의 양이 감소할 뿐만 아니라, 전송된 데이터를 쉽게 복호화할 수 있는 이점도 있다.

Claims (6)

  1. 다수개의 윤곽선을 포함하는 현재 및 이전 프레임으로 이루어진 영상 신호를 간 윤곽선 부호화(inter contour coding)함으로써, 현재 프레임과 이전 프레임 간의 전역 움직임 벡터, 현재 윤곽선과 이에 대응하는 이전 윤곽선 간의 국부 움직임 벡터 및 이전 윤곽선의 전송순서를 나타내는 인덱스 데이터와, 현재 윤곽선과 이전 윤곽선 간의 차분을 부호화한 윤곽선 부호화 정보를 출력하는 윤곽선 부호화 방법에 있어서, 상기 출력을 이용하여,
    (a) 이전 프레임 내의 일정 개수 이상의 윤곽선이 현재 프레임 내의 윤곽선과 전역 움직임 보상에 의해서 완전정합되었는 지의 여부를 나타내는 Gfs_flag 신호를 생성하는 과정;
    (b) 상기 Gfs_flag 신호에 반응하여 생성되며, 전역 움직임 보상에 의해 이전 프레임 내의 특정 윤곽선이 현재 프레임 내의 임의의 윤곽선과 완전정합되었는 지의 여부를 나타내는 프래그의 집합인 Global_flag 신호를 생성하는 과정;
    (c) 전역 움직임 보상 및 국부 움직임 보상을 통해 이전 프레임 내의 특정 윤곽선이 현재 프레임 내의 임의의 윤곽선과 부분정합 또는 완전정합되는 지의 여부를 나타내는 프래그의 집합인 Contour_flag 신호를 생성하는 과정; 및
    (d) 전역 움직임 보상 및 국부 움직임 보상에 의해 이전 프레임 내의 각 윤곽선이 현재 프레임 내의 임의의 윤곽선과 완전정합되었는 지를 나타내는 프래그의 집합인 Contour_flag_status 신호를 생성하는 과정을 포함하는 것을 특징으로 하는 윤곽선 부호화 방법.
  2. 제 1 항에 있어서, 상기 (b) 과정은, L〈 4*GPM 인 경우에는 이를 검출한 Gfs_flag 신호에 반응하여 Global_flag 신호를 생성하고, L≥4*GPM 인 경우에는 이를 검출한 Gfs_flag 신호에 반응하여 Global_flag 신호를 생성하지 않으며, 여기서, L은 이전 프레임에 포함된 윤곽선의 개수를 나타내고, GPM은 전역 움직임 보상만으로 현재 프레임 내의 임의의 윤곽선과 완전정합되는 이전 프레임 내의 윤곽선의 개수를 나타내는 것을 특징으로 하는 윤곽선 부호화 방법.
  3. 제 2 항에 있어서, 상기 Global_flag 신호는, 이전 프레임 내의 각각의 윤곽선에 대응하는 L개의 비트에 의해 부호화되며, 각 비트는 이전 프레임 내의 각각의 윤곽선의 정합상태를 나타내고 그 배열순서는 이전 프레임 내의 각 윤곽선의 전송순서에 의해 결정되는 것을 특징으로 하는 윤곽선 부호화 방법.
  4. 제 3 항에 있어서, 상기 (c) 과정은, Global_flag 신호가 발생하는 경우에는 L-GPM비트로 표현된 Contour_flag 신호를 생성하여 전역 움직임 보상에 의해 완전정합이 이루어진 이전 윤곽선을 제외한 나머지 이전 윤곽선에 대해서만 정합상태를 나타내고, 상기 Global_flag 신호가 발생하지 않는 경우에는 L비트로 표현된 Contour_flag 신호를 생성하여, 이전 프레임 내의 모든 윤곽선에 대해서 그 정합여부를 나타낼 수 있도록 한 것을 특징으로 하는 윤곽선 부호화 방법.
  5. 제 4 항에 있어서, 상기 (d) 과정은, Global_flag 신호가 발생하는 경우에는 국부 움직임 보상만에 의해 부분정합 또는 완전정합된 이전 프레임 내의 윤곽선의 개수를 나타내는 CPM 비트로 부호화된 Contour_flag_status 신호를 생성하여 이전 윤곽선에 대한 정합상태를 나타내고, 상기 Global_flag 신호가 발생하지 않는 경우에는 CPM+GPM 비트로 표현된 Contour_flag_status 신호를 생성하여, 전역 또는 국부 움직임 보상에 의해 부분정합 또는 완전정합된 이전 프레임 내의 윤곽선에 대한 정합상태를 나타낼 수 있도록 한 것을 특징으로 하는 기재의 윤곽선 부호화 방법.
  6. 제 5 항에 있어서, 상기 Contour_flag_status 신호에 대응하는 이전 윤곽선과 현재 윤곽선 간의 공간적 변위를 나타내는 국부 움직임 벡터는 Contour_flag_status 신호를 구성하는 비트에 대응하는 이전 윤곽선의 전송순서에 따라 재배열되어 전송되는 것을 특징으로 하는 윤곽선 부호화 방법.
KR1019970031211A 1997-07-05 1997-07-05 윤곽선 부호화 방법 Ceased KR19990008977A (ko)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1019970031211A KR19990008977A (ko) 1997-07-05 1997-07-05 윤곽선 부호화 방법
US08/922,634 US6023300A (en) 1997-07-05 1997-09-03 Method and apparatus for encoding a contour of an object based on a contour motion estimation technique
JP23802097A JP3977494B2 (ja) 1997-07-05 1997-09-03 輪郭線符号化装置
EP19970306899 EP0889652B1 (en) 1997-07-05 1997-09-05 Method and apparatus for encoding a contour of an object based on a contour motion estimation technique
DE1997628757 DE69728757T2 (de) 1997-07-05 1997-09-05 Verfahren und Vorrichtung zum Kodieren eines Objektes unter Verwendung einer Konturbewegungsschätztechnik
CN97116297A CN1133329C (zh) 1997-07-05 1997-09-10 根据轮廓运动估算技术对目标轮廓进行编码的方法和设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019970031211A KR19990008977A (ko) 1997-07-05 1997-07-05 윤곽선 부호화 방법

Publications (1)

Publication Number Publication Date
KR19990008977A true KR19990008977A (ko) 1999-02-05

Family

ID=19513508

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019970031211A Ceased KR19990008977A (ko) 1997-07-05 1997-07-05 윤곽선 부호화 방법

Country Status (6)

Country Link
US (1) US6023300A (ko)
EP (1) EP0889652B1 (ko)
JP (1) JP3977494B2 (ko)
KR (1) KR19990008977A (ko)
CN (1) CN1133329C (ko)
DE (1) DE69728757T2 (ko)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10341367A (ja) * 1997-06-06 1998-12-22 Toshiba Corp 静止画像生成方法及び静止画像取り込みシステム
JP3753578B2 (ja) * 1999-12-07 2006-03-08 Necエレクトロニクス株式会社 動きベクトル探索装置および方法
AUPQ535200A0 (en) 2000-01-31 2000-02-17 Canon Kabushiki Kaisha Extracting key frames from a video sequence
AU762791B2 (en) * 2000-01-31 2003-07-03 Canon Kabushiki Kaisha Extracting key frames from a video sequence
US7787696B2 (en) * 2000-08-28 2010-08-31 University Of North Carolina At Charlotte Systems and methods for adaptive sampling and estimating a systematic relationship between a plurality of points
AU2002227948A1 (en) * 2000-11-24 2002-06-03 Voxar Ag Telecommunications devices and methods
US7469010B2 (en) 2001-01-08 2008-12-23 Canon Kabushiki Kaisha Extracting key frames from a video sequence
DE10123365A1 (de) * 2001-05-14 2002-11-28 Infineon Technologies Ag Verfahren und Vorrichtung zum Ermitteln von Bewegung in mindestens zwei zeitlich aufeinander folgenden digitalen Bildern, Computerlesbares Speichermedium und Computerprogramm-Element
US7050500B2 (en) * 2001-08-23 2006-05-23 Sharp Laboratories Of America, Inc. Method and apparatus for motion vector coding with global motion parameters
RU2219680C2 (ru) * 2001-11-15 2003-12-20 Новосибирский государственный технический университет Устройство для определения подвижных и неподвижных блоков изображения и их кодирования (декодирования) при записи-передаче (воспроизведении) изображения
RU2217881C2 (ru) * 2001-11-15 2003-11-27 Новосибирский государственный технический университет Способ определения подвижных и неподвижных блоков изображения и их кодирования (декодирования) при записи-передаче (воспроизведении) изображения
US20030123738A1 (en) * 2001-11-30 2003-07-03 Per Frojdh Global motion compensation for video pictures
EP1459554A1 (en) * 2001-12-20 2004-09-22 Koninklijke Philips Electronics N.V. Video coding and decoding method
US7248741B2 (en) * 2002-01-09 2007-07-24 Hiroshi Akimoto Video sequences correlation and static analysis and scene changing forecasting in motion estimation
US8194751B2 (en) * 2003-02-19 2012-06-05 Panasonic Corporation Moving picture coding method and moving picture decoding method
JP4534723B2 (ja) * 2004-11-05 2010-09-01 株式会社日立製作所 画像表示装置、画像処理装置および画像処理方法
EP2127392B1 (en) * 2007-01-26 2013-08-07 Telefonaktiebolaget LM Ericsson (publ) Image block classification
US8817878B2 (en) * 2007-11-07 2014-08-26 Broadcom Corporation Method and system for motion estimation around a fixed reference vector using a pivot-pixel approach
JP4506875B2 (ja) * 2008-05-19 2010-07-21 ソニー株式会社 画像処理装置および画像処理方法
JP5147566B2 (ja) * 2008-06-26 2013-02-20 キヤノン株式会社 動きベクトル検出装置及びその方法
JP5691374B2 (ja) * 2010-10-14 2015-04-01 富士通株式会社 データ圧縮装置
CN102868879B (zh) * 2011-07-05 2015-04-29 北京大学 一种视频帧速率上转换方法及系统
TWI733188B (zh) * 2019-09-11 2021-07-11 瑞昱半導體股份有限公司 用於獨立物件之運動估計的裝置以及方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5592228A (en) * 1993-03-04 1997-01-07 Kabushiki Kaisha Toshiba Video encoder using global motion estimation and polygonal patch motion estimation
JP3038143B2 (ja) * 1994-12-29 2000-05-08 現代電子産業株式会社 映像機器の物体別形状情報の減縮装置及びその減縮方法並びに多角近似化方法
US5691769A (en) * 1995-09-07 1997-11-25 Daewoo Electronics Co, Ltd. Apparatus for encoding a contour of an object
KR100203656B1 (ko) * 1996-04-09 1999-06-15 전주범 윤곽 영상신호 부호화 장치
KR0181075B1 (ko) * 1996-05-08 1999-04-01 배순훈 적응 윤곽선 부호화 방법
KR100249029B1 (ko) * 1996-06-12 2000-03-15 전주범 영상신호의 윤곽선 부호화 방법 및 그 장치
KR100239307B1 (ko) * 1997-01-10 2000-01-15 전주범 윤곽선 영상 부호화기
US5912991A (en) * 1997-02-07 1999-06-15 Samsung Electronics Co., Ltd. Contour encoding method using error bands
KR100229544B1 (ko) * 1997-04-11 1999-11-15 전주범 움직임 추정기법을 이용한 윤곽선 부호화 장치
KR19980084420A (ko) * 1997-05-23 1998-12-05 배순훈 윤곽정보 검출장치 및 방법
KR100244769B1 (ko) * 1997-06-26 2000-02-15 전주범 스케일러빌리티를 갖는 간 윤곽선 부호화 방법 및 장치

Also Published As

Publication number Publication date
EP0889652B1 (en) 2004-04-21
JPH1141612A (ja) 1999-02-12
EP0889652A3 (en) 2003-02-26
EP0889652A2 (en) 1999-01-07
US6023300A (en) 2000-02-08
JP3977494B2 (ja) 2007-09-19
DE69728757T2 (de) 2005-04-28
CN1133329C (zh) 2003-12-31
DE69728757D1 (de) 2004-05-27
CN1204925A (zh) 1999-01-13

Similar Documents

Publication Publication Date Title
KR19990008977A (ko) 윤곽선 부호화 방법
US5635986A (en) Method for encoding a contour of an object in a video signal by using a contour motion estimation technique
Salembier et al. Region-based video coding using mathematical morphology
US5978512A (en) Polygonal approximation method and apparatus for use in a contour encoding system
US6567561B2 (en) Video coding and video decoding apparatus
US6330364B1 (en) Video coding and video decoding apparatus
US5691769A (en) Apparatus for encoding a contour of an object
US5933105A (en) Context-based arithmetic encoding/decoding method and apparatus
JPH1155664A (ja) 二値形状信号符号化装置
KR100229544B1 (ko) 움직임 추정기법을 이용한 윤곽선 부호화 장치
JP3056120B2 (ja) 映像信号の形状情報予測符号化方法
US6058213A (en) Method and apparatus for encoding a binary shape signal
US5774596A (en) Adaptive contour coding method for encoding a contour image in a video signal
KR100229546B1 (ko) 윤곽선 비디오 신호 부호화 방법 및 그 장치
US6263115B1 (en) Method and apparatus for encoding a binary shape signal
JPH10336673A (ja) 映像信号符号化システムにおける縁部検出方法及びその装置
US6020933A (en) Method and apparatus for encoding a motion vector
KR100229545B1 (ko) 윤곽선 영상 부호화에서의 윤곽선 복호화 장치
KR100281328B1 (ko) 콘텍스트 기반 산술 부호화/복호화 방법 및 장치
US6240214B1 (en) Method and apparatus for encoding a binary shape signal
KR100207389B1 (ko) 물체의 윤곽부호화 장치
Katsaggelos et al. Exploitation of Spatio-Temporal Inter-Correlation Among Motion, Segmentation and Intensity Fields for Very Low Bit Rate Coding of Video

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 19970705

A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 19970812

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 19970705

Comment text: Patent Application

AMND Amendment
PG1501 Laying open of application
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20000322

Patent event code: PE09021S01D

AMND Amendment
E601 Decision to refuse application
PE0601 Decision on rejection of patent

Patent event date: 20001019

Comment text: Decision to Refuse Application

Patent event code: PE06012S01D

Patent event date: 20000322

Comment text: Notification of reason for refusal

Patent event code: PE06011S01I

J201 Request for trial against refusal decision
PJ0201 Trial against decision of rejection

Patent event date: 20001120

Comment text: Request for Trial against Decision on Refusal

Patent event code: PJ02012R01D

Patent event date: 20001019

Comment text: Decision to Refuse Application

Patent event code: PJ02011S01I

Appeal kind category: Appeal against decision to decline refusal

Decision date: 20011130

Appeal identifier: 2000101002722

Request date: 20001120

AMND Amendment
PB0901 Examination by re-examination before a trial

Comment text: Amendment to Specification, etc.

Patent event date: 20001219

Patent event code: PB09011R02I

Comment text: Request for Trial against Decision on Refusal

Patent event date: 20001120

Patent event code: PB09011R01I

Comment text: Amendment to Specification, etc.

Patent event date: 20000622

Patent event code: PB09011R02I

Comment text: Amendment to Specification, etc.

Patent event date: 19970821

Patent event code: PB09011R02I

B601 Maintenance of original decision after re-examination before a trial
PB0601 Maintenance of original decision after re-examination before a trial
J301 Trial decision

Free format text: TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20001120

Effective date: 20011130

PJ1301 Trial decision

Patent event code: PJ13011S01D

Patent event date: 20011203

Comment text: Trial Decision on Objection to Decision on Refusal

Appeal kind category: Appeal against decision to decline refusal

Request date: 20001120

Decision date: 20011130

Appeal identifier: 2000101002722