[go: up one dir, main page]

KR0180132B1 - Shape information reducing method using motion estimating - Google Patents

Shape information reducing method using motion estimating Download PDF

Info

Publication number
KR0180132B1
KR0180132B1 KR1019940038901A KR19940038901A KR0180132B1 KR 0180132 B1 KR0180132 B1 KR 0180132B1 KR 1019940038901 A KR1019940038901 A KR 1019940038901A KR 19940038901 A KR19940038901 A KR 19940038901A KR 0180132 B1 KR0180132 B1 KR 0180132B1
Authority
KR
South Korea
Prior art keywords
shape information
contour
prediction
transmission
motion
Prior art date
Application number
KR1019940038901A
Other languages
Korean (ko)
Other versions
KR960028487A (en
Inventor
정재원
이진학
문주희
김재균
Original Assignee
김주용
현대전자산업주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김주용, 현대전자산업주식회사 filed Critical 김주용
Priority to KR1019940038901A priority Critical patent/KR0180132B1/en
Priority to US08/478,558 priority patent/US5799109A/en
Priority to CN95109651A priority patent/CN1119027C/en
Priority to JP33854495A priority patent/JP3038143B2/en
Priority to DE1995149095 priority patent/DE19549095A1/en
Priority to FR9515766A priority patent/FR2728987B1/en
Priority to GB9526635A priority patent/GB2296839B/en
Publication of KR960028487A publication Critical patent/KR960028487A/en
Application granted granted Critical
Publication of KR0180132B1 publication Critical patent/KR0180132B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/20Contour coding, e.g. using detection of edges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명은 연속된 영상에서 윤곽선을 이동 보상 예측하고 예측 오차를 예측 오차 영역별로 전송하여 모양 정보 전송량을 감축시키는 움직임 추정 방식을 사용한 모양 정보 감축 방법에 관한 것으로, 기존에는 호터(HOETTER)의 논문에서 제안된 방식을 사용하여 모양 정보를 감축하였는데, 이 방식에서는 움직임 영역의 전체 윤곽선을 근사화한 다음, 근사화에 이용된 정점(VERTEX)들을 이동보상 예측하고, 그 오차를 전송함으로 해서 화질의 향상을 가져올 수가 없는 단점이 있었는데, 본 발명에서는 연속된 영상에서 동일 물체에 의한 움직임 영역의 모양 정보들간에의 중복성(REDUNDANCY)을 이용하여 윤곽선을 이동 보상 예측하고 예측 오차를 전송하여 모양 정보 전송량을 감축하도록 함으로써 영상 전화기, 영상 회의, 비디오 부호화 및 컴퓨터 비젼과 같이 움직임 물체의 모양 정보가 필요한 시스템에서 움직임 물체에 대한 모양 정보가 감축하여 전송 데이타가 대폭적으로 감축되도록 함으로써 화질의 향상을 얻을 수 있게 된다.The present invention relates to a shape information reduction method using a motion estimation method that reduces the shape information transmission amount by transfer-predicting the contours in a continuous image and transmitting the prediction error for each prediction error region. The shape is reduced by using the proposed method. In this method, the overall contour of the motion region is approximated, then the motion compensation is predicted by the vertices used for the approximation, and the error is transmitted to improve the image quality. In the present invention, by using the redundancy (REDUNDANCY) between the shape information of the motion region by the same object in the continuous image by moving compensation prediction and sending a prediction error to reduce the shape information transmission amount Help with video phones, video conferencing, video encoding and computer vision Shape information is reduced to the motion object in the system in which the shape information of the object being required, it is possible to obtain an improvement in image quality by ensuring that the transmission data is reduced drastically.

Description

움직임 추정 방식을 사용한 모양 정보 감축 방법 및 장치Shape information reduction method and apparatus using motion estimation method

제1도는 머리와 어깨 영상의 동영상 분할의 예시도.1 is an exemplary diagram of video segmentation of a head and shoulder image.

제2도는 머리와 어깨 영상의 이전 프레임과 현재 프레임의 상태도.2 is a state diagram of a previous frame and a current frame of a head and shoulder image.

제3도는 이전 프레임을 이동 보상한 영상과 현재 프레임의 비교 상태도.3 is a diagram illustrating a comparison state between an image obtained by moving compensation of a previous frame and a current frame.

제4도는 본 발명을 위한 이동 보상 윤곽선 예측 부호화 방식의 구성 블록도.4 is a configuration block diagram of a motion compensation contour prediction coding scheme according to the present invention.

제5a~c도는 본 발명을 위한 폴리건/스플린 근사화 과정도.5a to c is a polygon / splin approximation process diagram for the present invention.

제6도는 본 발명을 위한 폴리건/스플린 근사화 방식의 구성도.Figure 6 is a schematic diagram of the polygon / splin approximation method for the present invention.

제7도는 제6도에서 인접한 두 윤곽선간의 연결 과정도이다.7 is a diagram illustrating a connection process between two adjacent contour lines in FIG.

* 도면의 주요부분에 대한 부호의 설명* Explanation of symbols for main parts of the drawings

11 : 뺄셈 수단 12 : 임계 수행 수단11: subtraction means 12: critical performance means

13 : 윤곽선 예측 수단 14 : 윤곽선 재구성 수단13: contour prediction means 14: contour reconstruction means

15 : 덧셈 수단 16 : 이동 보상 예측 수단15: addition means 16: movement compensation prediction means

20 : 전송 윤곽선 30 : 폴리건20 Transmission Contour 30 Polygon

40 : 스플린40: splin

본 발명은 연속된 영상에서 윤곽선을 이동 보상 예측하고 예측 오차를 예측 오차 영역별로 전송하여 모양 정보 전송량을 감축시키는 움직임 추정 방식을 사용한 모양 정보 감축 방법 및 장치에 관한 것이다.The present invention relates to a shape information reduction method and apparatus using a motion estimation method of reducing the amount of shape information transmission by moving and predicting a contour in a continuous image and transmitting a prediction error for each prediction error region.

기존에는 호터(HOETTER)의 논문에서 제안된 방식을 사용하여 모양 정보를 감축하였는데, 이 방식에서는 움직임 영역의 전체 윤곽선을 근사화한 다음, 근사화에 이용된 정점(VERTEX)들을 이동 보상 예측하고, 그 오차를 전송한다.Previously, shape information was reduced using the method proposed in the paper of HOETTER. In this method, the overall contour of the motion region is approximated, and then the motion compensation prediction of the vertices used for approximation is performed, and the error is estimated. Send it.

이와 같이 모양 정보 전체를 근사화하여 이동 보상 예측한 후, 그 오차를 전송하므로 화질의 향상을 가져올 수가 없는 단점이 있었다.As described above, the shape information is approximated and the motion compensation is predicted, and the error is transmitted. Therefore, the image quality cannot be improved.

본 발명은 이러한 점을 감안하여 안출한 것으로, 본 발명의 목적은, 연속된 영상에서 동일 물체에 의한 움직임 영역의 모양 정보들간의 중복성(REDUNDANCY)을 이용하여 윤곽선을 이동 보상 예측하고 예측 오차를 전송하여 모양 정보 전송량을 감축하는데 있다.The present invention has been made in view of this point, and an object of the present invention is to use a redundancy (REDUNDANCY) of shape information of a motion region by a same object in a continuous image to perform motion compensation prediction of a contour and to transmit a prediction error. To reduce the amount of shape information transmission.

이하, 본 발명의 실시예를 첨부된 도면을 참고로 하여 상세히 설명하면 다음과 같다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

먼저, 물체별 동영상 부호화에서는 입력된 영상을 물체의 움직임에 의해 이전 영상과 다른 신호를 갖는 움직임 영역(changed region)과, 신호의 변화가 없는 배경으로 분할한다.First, in the video encoding for each object, the input image is divided into a changed region having a signal different from the previous image by the movement of the object, and a background having no signal change.

배경 영역은 더 이상의 분석 과정이나 정보의 전송이 불필요하며, 수신단에서는 이전 영상의 신호를 그대로 사용하여 재현한다.The background area does not need any further analysis or transmission of information, and the receiving end reproduces using the signal of the previous image as it is.

추출된 움직임 영역에서는 물체 모형(object model)과 이동 모형(motion model)을 사용하여 물체의 움직임 정보(motion information)를 추정하며, 움직임 정보와 움직임 영역의 모양 정보(shape Information)를 수신단에 전송하면, 수신단에서는 이러한 정보들을 가지고 이동 보상 예측(motion compensated prediction)으로 영상을 재현하게 된다.In the extracted motion region, the motion information of the object is estimated by using an object model and a motion model, and the motion information and shape information of the motion region are transmitted to the receiver. In this case, the receiving end reproduces the image by using motion compensated prediction with such information.

한편, 움직임 영역에서 이동 보상 예측 오차가 많이 발생하는 영역들이 있는데, 이러한 영역들은 가정된 물체 모형이 맞지 않거나 이동 모형이 맞지 않는 복잡한 움직임을 보이는 영역으로서, 일반적으로 눈, 입 등의 부분에서 발생한다.On the other hand, there are regions where movement compensation prediction errors occur in the movement region. These regions are complex regions where the assumed object model does not fit or the movement model does not fit. .

이 영역들은 사용자의 시각에 민감한 영역이므로 수신단에서 원신호를 충실하게 재현할 수 있도록 색상 정보(colour information)를 부호화하여 전송한다.Since these areas are sensitive to the user's vision, color information is encoded and transmitted so that the receiver can faithfully reproduce the original signal.

이외에도 물체의 움직임으로 인해 새로 드러난 배경이 나타나며, 이전 영상에서는 갖고 있지 않은 정보이므로 이에 대한 정보의 전송이 필요하다.In addition, a newly revealed background appears due to the movement of the object, and since the information is not included in the previous image, transmission of information about this is necessary.

제1도는 머리와 어깨(head and shoulder) 영상을 배경(background)으로 하여, 이동 보상 가능 영역, 이동 보상 불가능 물체 및 드러난 배경 등으로 분할한 예를 나타낸 것이다.FIG. 1 shows an example of dividing a head and shoulder image into a background and dividing the image into a moving compensable area, an uncompensable moving object, and an exposed background.

본 발명에서는 움직임 영역의 모양 정보를 부호화하는 방법으로써 움직임 물체에 대한 모양 정보를 대폭적으로 감축시킬 수 있도록 한다.In the present invention, as a method of encoding shape information of a motion region, shape information of a moving object can be significantly reduced.

여기서, 움직임 영역의 모양 정보는 영역/비영역을 나타내는 이진 영상(binary image)이나 그 경계의 윤곽선(contour)으로 나타낼 수 있으며, 연속된 영상에서 동일 물체에 의한 움직임 영역의 모양 정보들간에는 중복성(redundancy)이 크다.Here, the shape information of the motion region may be represented by a binary image representing a region / non-region or a contour of a boundary thereof. redundancy) is large.

이와 같은 성질을 이용하여 윤곽선을 이동 보상 예측하고 예측 오차를 전송하여 모양 정보 전송량을 감축하는 기법을 윤곽선 예측 부호화기법(predictive contour coding)이라 한다.The technique of moving compensation predicting the contour using such a property and transmitting the prediction error to reduce the shape information transmission amount is called predictive contour coding.

본 발명을 위한 윤곽선 예측 부호화 기법은 예측 오차를 전송하기 위하여 전송 예측 오차를 선택하는 임계 수행(thresholding operation)과 윤곽선 근사화(contour approximation)를 수행한다.The contour prediction coding scheme for the present invention performs a thresholding operation and contour approximation to select a transmission prediction error in order to transmit the prediction error.

본 발명을 위한 윤곽선 예측 부호화 방식을 첨부 도면을 참고로 하여 설명하면 다음과 같다.The contour prediction coding scheme for the present invention will be described with reference to the accompanying drawings.

물체별 동영상 부호화에서, 모양 정보는 움직임 정보와 함께 이 동영상 예측을 위해 가장 높은 우선 순위로 전송이 되어야 한다. 이러한 모양 정보의 전송은 물체의 경계를 중심으로 서로 인접한 화소에 서로 다른 움직임 정보를 주며, 이로 인하여 블록별 부호화에서 나타나는 주관적 화질의 저하를 피할 수 있으므로 모양 정보의 전송은 저전송률 부호화에서 물체별 부호화가 블록별 부호화에 대해 더 우수한 주관적 화질을 보여주는 단서가 된다.In object-specific video coding, shape information along with motion information should be transmitted at the highest priority for video prediction. The transmission of shape information gives different motion information to the pixels adjacent to each other around the boundary of the object, thereby avoiding the deterioration of the subjective quality of the block-by-block coding. Is a clue that shows better subjective quality for block-by-block coding.

여기서, 주관적 화질이란, 예를 들어 하나의 화면에 고화질과 저화질이 함께 나타날 경우 모자이크처럼 블록의 경계가 보이게 되는데 이러한 블록단위 부호화에서 블록의 경계가 보이는 것을 블랙킹 현상이라고 하며 이 블랙킹 현상이 안 보일 때 주관적 화질이 좋다고 말한다.Here, subjective picture quality, for example, when high quality and low picture quality appear on one screen, the boundary of the block is shown as a mosaic. In this block unit encoding, the boundary of the block is called a blacking phenomenon. When you see it, the subjective picture quality is good.

영역의 경계를 표현하기 위한 방법은 컴퓨터 그래픽스, 문자 인식, 물체 합성 등에서 사용되고 있는데 예를 들어, 체인 디퍼런스 코딩(chain difference coding), 에스(s)곡선, 폴리건(polygon)근사, 스플린(spline)근사, 퓨리어 기법(Fourier Descriptor) 등이 연구 사용되고 있다.Methods for expressing boundary of regions are used in computer graphics, character recognition, object synthesis, etc. For example, chain difference coding, S curve, polygon approximation, spline Approximation and Fourier Descriptor are being used.

그러나, 이러한 방식들은 전송을 고려하지 않은 기법들이기 때문에 매 프레임에서 움직임 영역의 윤곽선을 전송해야 하는 경우에는 높은 전송률로 인해 사용하기가 어렵다.However, since these methods do not consider transmission, they are difficult to use due to the high data rate when the contour of the motion area must be transmitted every frame.

연속되는 프레임 상에서 동일한 물체에 의해 생성되는 움직임 영역의 모양 정보간에는 형태와 위치에서 많은 유사성이 있으므로 과거의 모양 정보로부터 현재의 모양 정보의 예측이 가능하며, 이동 물체의 움직임 정보를 추정하고, 이 정보를 이용하여 모양 정보를 이동 보상 예측할 수 있다. 움직임 영역 추출과 움직임 정보 추정이 이상적으로 정확한 경우 모양 정보의 전송은 불필요하다.Since there is much similarity in shape and position between the shape information of the motion area generated by the same object on consecutive frames, it is possible to predict the current shape information from the previous shape information, estimate the motion information of the moving object, and The shape information may be compensated for by moving compensation. If the motion region extraction and the motion information estimation are ideally accurate, the transmission of the shape information is unnecessary.

그러나 전송률이 낮아질수록 모양 정보가 차지하는 비중이 커지므로 모양 정보 전송이 불필요한 블록별 부호화 방식에 비하여 부호화 이득을 얻기 위해서도 대폭적인 모양 정보의 감축이 필요하며, 이때 현재 모양 정보의 이동 보상 예측 시에는 고립된 예측 오차 영역(prediction error region)들이 발생하게 된다.However, as the data rate decreases, the shape information occupies a larger portion, and thus, a significant reduction of shape information is required to obtain coding gains compared to block-by-block coding methods that do not require shape information transmission. Prediction error regions occur.

제2도는 이전 프레임(N-1th 프레임)과 현재 프레임(Nth 프레임)의 모양 정보를 나타내고, 제3도는 이전 프레임(N-1th 프레임)의 모양 정보를 움직임 정보에 따라서 이동하여 현재 프레임을 이동 보상 예측했을 때, 9개의 고립된 예측 오차 영역이 나타남을 보여준다.FIG. 2 shows shape information of a previous frame (N-1th frame) and a current frame (Nth frame). FIG. 3 shows movement information of shape of a previous frame (N-1th frame) according to motion information. When predicted, nine isolated prediction error areas appear.

여기서, 9개의 예측 오차 영역 각각에 대해서 현재 프레임의 모양 정보에 해당되는 부분을 부호화하여 전송하게 된다. 예측 오차 그 자체의 전송은 인간의 시각에 영향을 미치지 않는 정보를 포함할 수 있다. 주관적 화질에 영향을 미치는 중요한 정보는 전송을 하고, 그렇지 않은 정보의 전송은 억제하여야 저전송률 부호화가 가능해진다.In this case, a portion corresponding to shape information of the current frame is encoded and transmitted for each of the nine prediction error regions. Transmission of the prediction error itself may include information that does not affect human vision. Important information affecting subjective picture quality should be transmitted, and transmission of other information can be suppressed to enable low bit rate encoding.

그러므로, 주관적 화질에 영향을 미치지 않는 정보는 임계 수행을 통해 제거하여 전송되지 못하도록 한다. 이때, 임계 수행은 오차가 발생하는 영역의 특성을 이용한다.Therefore, information that does not affect the subjective picture quality is removed through the threshold performance so that it cannot be transmitted. At this time, the threshold performance uses the characteristics of the region where the error occurs.

전송하기로 결정된 예측 오차 영역의 전송을 위해 그 윤곽선을 전송하는데 정확한 전송보다 근사화 방식을 이용함으로써 모양 정보의 감축을 꾀하며, 윤곽선 근사화 방식으로는 폴리건/스플린 근사화 방식을 사용한다.To transmit the contour for transmission of the prediction error region determined to be transmitted, the shape information is reduced by using an approximation method rather than an accurate transmission, and a polygon / sprinkle approximation method is used as the contour approximation method.

상기와 같이 모양 정보 감축을 위한 본 발명의 이동 보상 윤곽선 예측 부호화 장치의 구성은 제4도와 같다.As described above, the configuration of the motion compensation contour predictive encoding apparatus of the present invention for reducing shape information is shown in FIG.

즉, 이전 프레임의 모양 정보와 현재 프레임의 모양 정보를 이동 보상 예측하는 이동 보상 예측 수단(16)과, 상기 이동 보상 예측 수단(16)의 출력과 움직임 영역과의 차분을 구하는 뺄셈 수단(11)과, 상기 뺄셈 수단(11)을 통하여 고립된 예측 오차 영역들을 구하면서, 고립된 예측 오차 영역들에 대해서 임계 수행을 함으로써 인간의 시각에 영향을 미치는 중요한 정보는 전송을 하고 그렇지 않은 정도의 전송은 억제하는 임계 수행 수단(12)과, 전송하기로 결정된 예측 오차 영역의 전송을 위해 그 윤곽선을 전송하는데 정확한 전송보다 근사화 방식을 사용함으로써 모양 정보 감축을 꾀하는 윤곽선 예측 수단(13)과, 상기 임계 수행 수단(12)과 윤곽선 예측 수단(13)을 통해 부호화된 윤곽선을 고립된 예측 오차 영역으로 재구성하는 윤곽선 재구성 수단(14) 및 상기 윤곽선 재구성수단(14)에 의한 고립된 예측 오차 영역과 상기 이동 보상 예측 수단(16)의 출력을 더하여 현재 프레임의 모양 정보를 구성하여 상기 이동 보상 예측 수단(16)으로 입력하는 덧셈 수단(15)으로 이루어진다.That is, motion compensation prediction means 16 for motion compensation prediction of shape information of the previous frame and shape information of the current frame, and subtraction means 11 for obtaining a difference between the output of the motion compensation prediction means 16 and the motion region. By calculating the isolated prediction error areas through the subtraction means 11, critical information affecting the human vision is transmitted by performing critical execution on the isolated prediction error areas, and the transmission of the other information is not performed. Threshold performing means 12 for suppressing, contour prediction means 13 for reducing shape information by using an approximation method rather than an accurate transmission for transmitting the contour for transmission of the prediction error region determined to be transmitted, and performing the threshold Contour reconstruction means 14 and images for reconstructing the encoded contours through means 12 and contour prediction means 13 into isolated prediction error regions. Adder means 15 for forming the shape information of the current frame by adding the isolated prediction error region by the contour reconstruction means 14 and the output of the motion compensation prediction means 16 to input to the motion compensation prediction means 16. Is done.

이와 같은 본 발명의 구성에 의하면 전송할 오가 정보를 선택하는 임계 수행은 주관적 화질과 전송 데이타량에 영향을 미친다.According to the configuration of the present invention as described above, the threshold performance of selecting false information to be transmitted affects the subjective picture quality and the amount of data to be transmitted.

임계 수행은 오차 영역의 크기, 모양 등의 특성을 이용하며, 이를 위해서는 모양 정보 예측 오차에 관한 고찰이 필요하다. 이에 따라 오차 영역의 발생자 원인 그리고 이에 근거한 임계 수행을 설명한다.The critical performance uses characteristics such as the size and shape of the error region, and this requires consideration of shape information prediction errors. Accordingly, the cause of the error region and the threshold performance based thereon will be described.

각 영상에의 움직임 영역의 모양 정보와 움직임 정보는 연속되는 두 개의 실제 영상에서 추출한다. 즉, 현재의 모양 정보의 추출 과정은 이전 영상의 모양 정보와는 독립적이다. 이러한 두 모양 정보 사이의 예측이 정확하려면 움직임 영역의 추출과 움직임 정보의 추정이 정확해야 하며, 이상적인 경우 모양 정보의 전송은 불필요하다.Shape information and motion information of a motion region of each image are extracted from two consecutive real images. In other words, the current shape information extraction process is independent of the shape information of the previous image. In order for the prediction between the two shape information to be accurate, the extraction of the motion region and the estimation of the motion information must be accurate, and in the ideal case, the transmission of the shape information is unnecessary.

그러나 움직임 정보 추정 방법의 한계와 실제 영상의 신호 특성상의 문제 등으로 인하여 모방 정보 예측 오차가 생긴다. 또한 움직임 영역은 이동 물체와 함께 드러난 배경을 포함하며, 이 영역은 움직임 정보와는 무관한 영역이므로 이동 보상 예측이 불가능하며 오차가 발생한다.However, due to the limitation of the motion information estimation method and the problem of the signal characteristics of the real image, the imitation information prediction error occurs. In addition, the motion region includes a background exposed with the moving object. Since this region is not related to the motion information, the motion compensation prediction is impossible and an error occurs.

물체의 기하학적 형태와 전체적인 이동에 민감하게 반응하는 인간의 시각적 특성을 고려할 때, 모양 정보의 예측 오차는 인간의 시각에 민감하지 않은 정보를 포함할 수 있으므로, 본 발명에서는 이러한 오차를 임계 수행을 통해 제거, 전송을 하지 않는다.Considering the human visual characteristics that are sensitive to the geometrical shape of the object and the overall movement, the prediction error of the shape information may include information that is not sensitive to human vision. Do not remove or send.

이러한 오차의 비전송은 비슷한 주관적 화질 하에서 효과적인 전송률 감축을 가능하게 한다. 제안된 윤곽선 예측 부호화 방식에서의 임계 수행은 작은 오차 영역의 제거와 무의미한 모양 정보 변화 제거의 두가지 기능을 포함한다.Non-transmission of this error allows effective rate reduction under similar subjective picture quality. The critical performance in the proposed contour prediction coding scheme includes two functions of elimination of small error regions and elimination of meaningless shape information change.

우선, 작은 오차 영역의 제거에 대해 설명하면 다음과 같다.First, the removal of the small error region will be described.

전체적으로 볼 때의 모양 정보의 윤곽선은 단순하게 보일 수 있지만 화소단위의 관측에서는 매우 복잡한 변화를 보이는 것이 일반적이며, 이러한 모양 정보의 특성 때문에 예측 모양 정보와 실제 모양 정보의 두 이진 영상으로 화소 단위의 차(PEL-WISED DIFFERENCE)를 수행하면 수개에서 수백 개의 화소를 갖는 많은 오차 영역을 생성하며, 예측이 정확해도 좁은 지역에서 더해지는 부분과 감해지는 부분이 반복해서 나타날 수 있는데 이러한 무의미한 오차 영역을 제거하기 위해 작은 오차 영역의 제거가 필요하다.In general, the outline of the shape information can be seen as simple, but it is common to see very complicated changes in the pixel-based observation. Due to the characteristics of the shape information, the difference of the pixel unit by two binary images of the predicted shape information and the actual shape information (PEL-WISED DIFFERENCE) generates many error areas with several hundreds to hundreds of pixels, and even if the prediction is accurate, the added and subtracted areas may appear repeatedly in narrow areas. Elimination of small error areas is necessary.

작은 오차 영역의 제거에 필요한 임계치(threshold value)의 선택은 전체 영상에서 인간의 시각적 특성상 민감하지 않는 영역 크기의 최대치까지 가능하므로 적절한 임계치를 갖는 작은 오차 영역의 제거는 주관적 화질에 영향을 미치지 않으면서 전송률의 감축을 가져오고, 몇 개의 고립된 오차 영역으로 이송 물체의 윤곽선을 나눔으로써 이후의 수행을 간단하게 한다.The selection of the threshold value required for the removal of small error areas is possible up to the maximum size of the area that is not sensitive to human visual characteristics in the whole image, so eliminating small error areas with appropriate thresholds does not affect subjective quality. This reduces the transfer rate and simplifies subsequent performance by dividing the contour of the conveying object into several isolated error areas.

다음으로 무의미한 모양 정보 변화의 제거에 대해 설명한다.Next, the removal of meaningless shape information change will be described.

인간의 시각적 특성은 물체의 지역적인 위치 오차보다 물체 전체의 형태와 운동에 민감하므로 물체의 이동에 의해 변화된 영역이 아닌, 신호 특성이나 움직임 영역 추출 문제로 생성되는 물체 모양 형태의 급격한 변화는 인간의 시각적 특성에는 무의미한 모양 정보 변화라 할 수 있다.Since the human visual characteristics are more sensitive to the shape and motion of the whole object than the local positional error of the object, the rapid change in the shape of the object shape caused by the extraction of the signal characteristics or the movement area, rather than the area changed by the movement of the object, It can be said that the change in shape information is meaningless to the visual characteristics.

이를 전송하기 위해서는 상당한 데이타량이 필요한 반면, 주관적 화질 면에서는 불리할 수 있으므로 이러한 모양 정보 변화는 전송을 하지 않는 것이 요구된다.In order to transmit the data, a considerable amount of data is required, but it may be disadvantageous in terms of subjective picture quality, so this shape information change is not required to be transmitted.

상기에서 전송이 결정된 오차 영역은 전송을 위해 윤곽선 부호화를 수행한다. 오차 영역의 윤곽선은 이동 보상 예측 모양 정보의 윤곽선을 포함한다. 상기 예측 윤곽선을 제거한 윤곽선만을 부호화하여 전송을 한다.The error region in which the transmission is determined above performs contour coding for transmission. The contour of the error region includes the contour of the motion compensation prediction shape information. Only the contour from which the prediction contour is removed is encoded and transmitted.

머리와 어깨 영상에서는 좁은 폭의 띠 형태를 갖는 오차 영역이 많이 나타나면서, 그 영역의 전송 윤곽선 부호화에 오차가 없는 체인 디퍼런스 코딩(chain difference coding)을 사용하면 그 전송 테이타량이 상당해지므로 근사화 표현을 이용한 윤곽선 부호화 방식이 요구되는데, 이때 윤곽선의 국부적인 위치 오차가 발생한다.In the head and shoulder images, there are many error domains with narrow bands, and when the chain difference coding without error is used for the coding of the transmission contour of the region, the amount of transmission data becomes significant, so the approximation is expressed. The contour coding method using the SCA is required, and a local position error of the contour occurs.

그러나 인간의 시각적 특성이 물체 전체의 기하학적 형태에 민감하므로 이러한 작은 위치 오차에 의해 눈에 거슬리는 화질의 저하를 초래하지는 않는다.However, since the human visual characteristics are sensitive to the geometrical shape of the whole object, such small positional errors do not cause undesired deterioration of image quality.

제5도는 상기와 같은 윤곽선 근사화를 위해 이용되는 폴리건/스플린 근사화 과정을 나타낸 것으로, 전송이 결정된 오차 영역의 전송 윤곽선(20)은 제5a도와 같이, 우선 폴리건(30)으로 근사화하는데, 이때, 폴리건(30)의 정점(vertex)의 개수는 실제 전송 윤곽선(20)과 근사 폴리건(30) 사이의 근사화 정도에 의존한다.FIG. 5 illustrates a polygon / splin approximation process used for the above-described contour approximation. The transmission contour 20 of the error region in which the transmission is determined is approximated to the polygon 30 first as shown in FIG. 5A. The number of vertices of the polygon 30 depends on the degree of approximation between the actual transmission contour 20 and the approximate polygon 30.

이 근사화 정도는 실제 전송 윤곽선(20)과 근사 폴리건(30) 사이의 최대차이를 사용하여 나타내는데, 여기서 최대 차이가 클 때에는 거친 근사차가 되지만 정점의 개수는 줄어들며, 최대 차이가 작을 때에는 정밀한 근사화가 되지만 정점의 개수는 늘어난다.The degree of approximation is represented using the maximum difference between the actual transmission contour 20 and the approximate polygon 30, where the largest difference is a rough approximation, but the number of vertices is reduced, and the smallest difference is a precise approximation. The number of vertices increases.

그리고, 제5b도와 같이, 얻어진 근사 정점들을 지나는 스플린(40)을 구하고, 스플린(40)상의 각 화소에서 전송 윤곽선(20)과의 거리를 검사해서 그 거리가 임계값(dMAX)이상이면 제5c도와 같이, 그 화소가 포함된 근사 구간을 스플린(40) 대신 폴리건(20)으로 근사화하며, 정점의 위치와 정점 사이의 구간들이 폴리건 근사인지, 스플린 근사인지를 나타내는 인덱스(index)를 수신단에 전송하여 폴리건/스플린을 재현하게 한다.Then, as shown in FIG. 5B, the splins 40 passing through the obtained approximate vertices are obtained, and the distance to the transmission contour 20 is examined in each pixel on the splins 40, and if the distance is greater than or equal to the threshold value dMAX. As shown in FIG. 5C, an approximation section including the pixel is approximated by the polygon 20 instead of the splin 40, and an index indicating whether the positions of the vertices and the sections between the vertices are the polygon approximation or the splint approximation is shown. Send to the receiver to reproduce the polygon / sprinkle.

폴리건 근사화에 비해 폴리건과 스플린이 결합된 이러한 윤곽선 근사화는 적은 수의 정점으로 시각에 자연스러운 윤곽선 형태를 보여준다.Compared to polygon approximation, this contour approximation, combined with polygons and splins, provides a visually natural contour shape with fewer vertices.

상기와 같은 폴리건/스플린 근사화 기법을 사용하여 고립된 수개의 전송 윤곽선들을 근사화시키는 과정은 제6도와 같이 임계 수행 후에 전송이 결정된 오차 영역에서 전송 윤곽선을 찾으며(단계 S1),인접한 전송 윤곽선들 사이에서 불필요한 정점의 발생 방지를 위해 일정한 거리 안에서 인접한 두개의 전송 윤곽선을 하나의 전송 윤곽선으로 연결하는 과정을 수행한(단계 S2)후 연결된 전송 윤곽선에 대해 폴리건/스플린 근사화를 수행한다(단계 S3).The process of approximating several isolated transmission contours using the polygon / splin approximation technique as described above finds the transmission contour in the error region where the transmission is determined after performing a threshold as shown in FIG. 6 (step S1), and between adjacent transmission contours. In order to prevent the occurrence of unnecessary vertices, a process of connecting two adjacent transmission contours to one transmission contour within a predetermined distance is performed (step S2), and then polygon / sprinkle approximation is performed on the connected transmission contours (step S3). .

제7도는 인접한 두개의 전송 윤곽선을 하나의 전송 윤곽선으로 연결하는 과정을 나타낸 것으로, a에서와 같이 두 전송 윤곽선이 인접해 있을 경우, 위 윤곽선의 끝 근사 정점과 아래 윤곽선의 초기 정점을 b와 같이 중복해 전송해야 하므로 c처럼 연결을 시킨 후 다시 근사화를 수행하면 근사 정점1개와 초기 정점 1개를 줄일 수 있어 그 만큼의 전송량 감축이 가능하게 된다.7 shows a process of connecting two adjacent transmission contours to one transmission contour. When two transmission contours are adjacent to each other as shown in a, the final approximate end point of the upper contour and the initial vertex of the lower contour are represented as b. Since the data must be transmitted in duplicate, if the connection is made like c and then approximated again, one approximate vertex and one initial vertex can be reduced, thereby reducing the amount of transmission.

이와 같이 본 발명을 위한 폴리건/스플린 근사화는 전체 윤곽선을 수개의 전송 윤곽선으로 나누고 이를 근사화 시키는 방식이다. 그리고, 작은 오차 영역의 제거를 통해 전송량의 감축을 근사화하면서 수개의 작은 전송 윤곽선을 각각 근사화함으로씨 수행의 간단함을 가져온다. 또한 각 전송 윤곽선마다 다르게 줄 수 있는 임계값(dMAX)과 작은 오차 영역을 위해 사용되는 임계값(tsm)을 사용하여 모양 정보 전송량의 제어가 쉽게 가능해진다.As described above, the polygon / splin approximation for the present invention divides the entire contour into several transmission contours and approximates it. In addition, the removal of the small error area approximates the reduction of the transmission amount, while approximating several small transmission contours, respectively, resulting in simplicity of seed performance. In addition, the shape information transmission amount can be easily controlled by using a threshold value dMAX that can be given differently for each transmission contour and a threshold value tsm used for a small error area.

이상과 같은 본 발명은, 영상 전화기, 영상 회의, 비디오 부호화 및 컴퓨터 비젼과 같이 움직임 물체의 모양 정보가 필요한 시스템에서 움직임 물체에 대한 모양 정보를 감축하여 전송 데이터가 대폭적으로 감축됨으로써 화질의 향상을 얻을 수 있게 된다.As described above, the present invention can reduce the shape information of the moving object in a system requiring the shape information of the moving object such as a video telephone, video conferencing, video encoding, and computer vision, thereby greatly reducing the transmission data, thereby improving image quality. It becomes possible.

Claims (10)

물체별 동영상 부호화에서 모양 정보를 감축하여 전송하는 방법에 있어서, 연속된 영상에서 동일 물체에 의한 움직임 영역의 모양 정보들 간에 존재하는 중복성을 이용하여 윤곽선을 이동 보상 예측하고, 그 고립된 예측 오차를 전송하여 모양 정보 전송량을 감축함을 특징으로 하는 움직임 추정 방식을 사용한 모양 정보 감축 방법.In a method of reducing and transmitting shape information in object-based video encoding, a motion compensation prediction of an outline is performed by using redundancy existing between shape information of a motion region by the same object in consecutive images, and the isolated prediction error is determined. A shape information reduction method using a motion estimation method characterized in that the transmission to reduce the amount of shape information transmission. 제1항에 있어서, 이전 프레임의 모양 정보를 움직임 정보에 따라서 이동하여 현재프레임을 이동 보상 예측했을 경우, 고립된 오차 영역으로 이동 물체의 윤곽선을 나누어, 예측 오차 영역 각각에 대해서 현재 프레임의 모양 정보에 해당되는 부분만을 부호화하여 전송함을 특징으로 하는 움직임 추정 방식을 사용한 모양 정보 감축 방법.The shape information of the current frame according to claim 1, wherein when the shape information of the previous frame is moved according to the motion information and the current frame is subjected to the motion compensation prediction, the contour of the moving object is divided into isolated error areas, and the shape information of the current frame is obtained for each prediction error area. Shape information reduction method using a motion estimation method characterized in that only the portion corresponding to the transmission and coding. 이전 프레임의 모양 정보와 현재 프레임의 모양 정보를 이용하여 현재 프레임의 모양 정보를 이동 보상 예측하는 이동 보상 예측 단계와, 상기 이동 보상 예측 단계로부터 이동 보상 예측된 모양정보와 현재의 움직임 영역을 감산하여 독립한 예측 오차를 구하는 뺄셈 단계와, 상기 뺄셈 단계를 통해 고립된 예측 오차 영역에 대해서 임계 수행을 하여 시각에 의한 정보 전송 및 차단을 결정하는 임계 수행 단계와, 상기 임계 수행 단계를 통해 결정된 예측 오차 영역에서 윤곽선을 예측하여 모양 정보를 감축 부호화하여 전송하는 윤곽선 예측 단계와, 상기 윤곽선 예측 단계를 통해 부호화된 윤곽선을 고립된 예측 오차 영역으로 재구성하는 윤곽선 재구성 단계와, 상기 윤곽선 재구성 단계에 의한 고립된 예측 오차 영역과 상기 이동 보상 예측 단계의 현재 프레임의 모양 정보를 더하여 상기 이동 보상 예측 단계로 제공하는 덧셈 단계로 이루어짐을 특징으로 하는 움직임 추정 방식을 사용한 모양 정보 감축 방법.A motion compensation prediction step of performing motion compensation prediction on the shape information of the current frame using shape information of the previous frame and shape information of the current frame; and subtracting the motion compensation predicted shape information and the current motion region from the motion compensation prediction step. A subtraction step of obtaining independent prediction errors, a threshold performance step of determining a transmission and blocking of information based on time by performing a threshold on the isolated prediction error area through the subtraction step, and a prediction error determined through the threshold performance step A contour prediction step of predicting the contours in the area and reducing and encoding shape information, and a contour reconstructing step of reconstructing the encoded code through the contour prediction step into an isolated prediction error region, and is isolated by the contour reconstruction step. Prediction error region and the chord of the motion compensation prediction step In addition to the shape information of a frame the motion compensation predicting step shape information reduction method using a motion estimation method, characterized by made of an additive comprising: providing a. 제3항에 있어서, 상기 윤곽선 예측단계에서 고립된 수개의 전송 윤곽선들을 폴리건/스플린 근사화 기법으로 근사화할 때, 임계 수행 후 전송이 결정된 오차 영역에서 전송 윤곽선을 찾는 제1단계와, 일정한 거리 안의 인접한 두개의 전송 윤곽선을 하나의 전송 윤곽선으로 연결하는 제2단계와, 연결된 전송 윤곽선에 대해 폴리건/스플린 근사화를 수행하는 제3단계로 이루어짐을 특징으로 하는 움직임 추정 방식을 사용한 모양 정보 감축 방법.4. The method of claim 3, wherein when approximating several transmission contours isolated in the contour prediction step by a polygon / sprinkle approximation technique, a first step of finding a transmission contour in an error region in which transmission is determined after a threshold is performed, and within a predetermined distance. And a third step of connecting two adjacent transmission contours to one transmission contour, and a third step of performing polygon / sprinkle approximation on the connected transmission contours. 제4항에 있어서, 상기 제2단계에서 두 전송 윤곽선이 인접해 있을 경우, 위 윤곽선의 끝 근사 정점과 아래 윤곽신의 초기 정점을 연결시키고, 다시 근사화를 수행하여 근사 정점 1개와 초기 정점 1개를 줄이는 것을 특징으로 하는 움직임 추정 방식을 사용한 모양 정보 감축 방법.5. The method of claim 4, wherein in the second step, when two transmission contours are adjacent to each other, an approximation vertex of the upper contour and an initial vertex of the lower contour scene are connected, and the approximation is performed again to obtain one approximate vertex and one initial vertex. Shape information reduction method using a motion estimation method characterized in that the reduction. 제4항에 있어서, 상기 제3단계에서 전송이 결정된 오차 영역의 전송 윤곽선을 폴리건(30)으로 근사화 하는 단계와, 상기 단계에서 얻어진 근사 정점들을 지나는 스플린(40)을 구하는 단계와, 스플린(40)상의 각 화소에서 전송 윤곽선(20)과의 거리를 검사해서 그 거리가 임계값(dMAX)이상이면 그 화소가 포함된 근사 구간을 스플린(40) 대신 폴리건(20)으로 근사화하는 단계와, 정점의 위치와 정점 사이의 구간들이 폴리건 근사인지, 스플린 근사인지를 나타내는 인덱스를 수신단에 전송하여 폴리건/스플린을 재현하게 하는 단계로 이루어짐을 특징으로 하는 움직임 추정 방식을 사용한 모양 정보 감축 방법.5. The method of claim 4, further comprising: approximating the transmission contour of the error region in which the transmission is determined in the third step to the polygon 30, obtaining a splin 40 passing through the approximate vertices obtained in the step; Examining the distance to the transmission contour 20 at each pixel on the 40 and approximating the approximate section including the pixel to the polygon 20 instead of the spline 40 if the distance is greater than or equal to the threshold value dMAX. And shape information reduction using a motion estimation method, comprising: reproducing a polygon / sprinkle by transmitting an index indicating whether the position of the vertex and the interval between the vertices is a polygon approximation or a splin approximation to a receiver. Way. 이전 프레임의 모양 정보와 현재 프레임의 모양 정보를 이용하여 현재 프레임의 모양 정보를 이동 보상 예측하는 이동 보상 예측 수단(16)과, 상기 이동 보상 예측 수단(16)으로부터 이동 보상 예측된 모양 정보와 현재의 움직임 영역을 감산하여 독립한 예측 오차를 구하는 뺄셈 수단(11)과, 상기 뺄셈 수단(11)을 통해 고립된 예측 오차 영역에 대해서 임계 수행을 하여 시각에 의한 정보 전송 및 차단을 결정하는 임계 수행 수단(12)과, 상기 임계 수행 수단(12)을 통해 결정된 예측 오차 영역에서 윤곽선을 예측하여 모양 정보를 감축 부호화하여 전송하는 윤곽선 예측 수단(13)과, 상기 윤곽선 예측 수단(13)을 통해 부호화된 윤곽선을 고립된 예측 오차 영역으로 재구성하는 윤곽선 재구성 수단(14)과, 상기 윤곽선 재구성 수단(14)에 의한 고립된 예측 오차 영역과 상기 이동 보상 예측 수단(16)의 현재 프레임의 모양정보를 더하여 상기 이동 보상 예측 수단(16)으로 제공하는 덧셈 수단(15)으로 이루어짐을 특징으로 하는 움직임 추정 방식을 사용한 모양 정보 감축 장치.Motion compensation prediction means 16 for performing motion compensation prediction on shape information of the current frame using shape information of a previous frame and shape information of a current frame, and motion compensation predicted shape information and current from the motion compensation prediction means 16; A subtraction means 11 for subtracting the motion region of the subtractor 11 to obtain an independent prediction error, and performing a critical operation on the isolated prediction error area by the subtraction means 11 to determine information transmission and blocking based on time. Means (12), contour prediction means (13) for predicting contours in the prediction error region determined by the threshold performing means (12), and reducing and encoding shape information, and encoding through the contour prediction means (13). Contour reconstruction means 14 for reconstructing the extracted contour into an isolated prediction error region, and an isolated prediction error region by the contour reconstruction means 14. The motion compensation prediction shape information reduction device in addition to the shape information of the current frame of the means 16 with a motion estimation system, characterized by the addition constituted by any means 15 provided to the motion compensation prediction means (16). 제7항에 있어서, 상기 임계 수행 수단(12)이, 예측 모양 정보와 실제 모양 정보의 두 개의 이전 영상에 의해 화소 단위의 차를 수행하여 수개에서 수백 개의 화소를 갖는 많은 오차 영역을 생성하고, 윤곽선이 좁은 지역에서 더해지는 부분과 감해지는 부분이 반복해서 나타나는 무의미한 오차 영역을 제거함을 특징으로 하는 움직임 추정 방식을 사용한 모양 정보 감축 장치.The method according to claim 7, wherein the threshold performing means 12 generates a plurality of error regions having several to hundreds of pixels by performing a pixel-by-pixel difference based on two previous images of predicted shape information and actual shape information. A shape information reduction apparatus using a motion estimation method characterized by eliminating insignificant error areas in which added and subtracted portions appear repeatedly in a narrow area. 제7항에 있어서, 상기 윤곽선 예측 수단(13)이, 오차 영역의 윤곽선에 포함된 예측윤곽선을 제거한 전송 윤곽선만 부호화하여 전송함을 특징으로 하는 움직임 추정 방식을 사용한 모양 정보 감축 장치.8. The shape information reduction apparatus according to claim 7, wherein the contour prediction means (13) encodes and transmits only a transmission contour from which a prediction contour included in the contour of the error region is removed. 제7항에 있어서, 상기 윤곽선 예측 수단(13)이, 상기 임계 수행 수단(22)으로부터 얻어진 전송 체인 디퍼런스 코딩을 이용하여 윤곽선 근사화를 수행함을 특징으로 하는 움직임 추정 방식을 사용한 모양 정보 감축 장치.8. The shape information reduction apparatus according to claim 7, wherein the contour prediction means (13) performs contour approximation using transmission chain difference coding obtained from the threshold performing means (22).
KR1019940038901A 1994-12-29 1994-12-29 Shape information reducing method using motion estimating KR0180132B1 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
KR1019940038901A KR0180132B1 (en) 1994-12-29 1994-12-29 Shape information reducing method using motion estimating
US08/478,558 US5799109A (en) 1994-12-29 1995-06-07 Object-by shape information compression apparatus and method and coding method between motion picture compensation frames
CN95109651A CN1119027C (en) 1994-12-29 1995-07-28 Object-by shape information compression apparatus and method thereof and coding method between motion picture compensation...
JP33854495A JP3038143B2 (en) 1994-12-29 1995-12-26 Apparatus for reducing shape information for each object of video equipment, method for reducing the same, and polygon approximation method
DE1995149095 DE19549095A1 (en) 1994-12-29 1995-12-29 Method and device for reducing shape information, especially methods with successive polygon approximation
FR9515766A FR2728987B1 (en) 1994-12-29 1995-12-29 METHOD AND DEVICE FOR REDUCING SHAPE INFORMATION AND ITS METHOD OF SEQUENTIAL POLYGONAL APPROXIMATION
GB9526635A GB2296839B (en) 1994-12-29 1995-12-29 Shape information reduction apparatus and method thereof and its sequential polygonal approximation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019940038901A KR0180132B1 (en) 1994-12-29 1994-12-29 Shape information reducing method using motion estimating

Publications (2)

Publication Number Publication Date
KR960028487A KR960028487A (en) 1996-07-22
KR0180132B1 true KR0180132B1 (en) 1999-05-01

Family

ID=19405096

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019940038901A KR0180132B1 (en) 1994-12-29 1994-12-29 Shape information reducing method using motion estimating

Country Status (1)

Country Link
KR (1) KR0180132B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5912991A (en) * 1997-02-07 1999-06-15 Samsung Electronics Co., Ltd. Contour encoding method using error bands
KR100463003B1 (en) * 1997-03-20 2005-06-01 주식회사 팬택앤큐리텔 Method for encoding contour of MPEG-4 VOP
KR20010069800A (en) * 2001-05-11 2001-07-25 노일환 reconstruction device of the video data for a camera

Also Published As

Publication number Publication date
KR960028487A (en) 1996-07-22

Similar Documents

Publication Publication Date Title
JP3038143B2 (en) Apparatus for reducing shape information for each object of video equipment, method for reducing the same, and polygon approximation method
JP3725250B2 (en) Outline coding method
US5737449A (en) Apparatus for encoding a contour of regions contained in a video signal
KR0178231B1 (en) Method and apparatus for detecting motion vectors based on hierarchical motion estimation
KR100365555B1 (en) Image encoding / decoding device
EP0614318B1 (en) Video encoder and decoder
US5799109A (en) Object-by shape information compression apparatus and method and coding method between motion picture compensation frames
US5805221A (en) Video signal coding system employing segmentation technique
KR20000064847A (en) Image segmentation and target tracking methods, and corresponding systems
US5969766A (en) Method and apparatus for contour motion estimating a binary image by using a weighted block match algorithm
KR0181031B1 (en) Edge Compensation Device in Motion Compensated Interpolation
JP3056120B2 (en) Video signal shape information predictive coding method
KR100314098B1 (en) An interpolation method of binary shape data using an adaptive threshold by neighboring pixel values
US5774596A (en) Adaptive contour coding method for encoding a contour image in a video signal
KR0180132B1 (en) Shape information reducing method using motion estimating
US5896467A (en) Method and apparatus for encoding a contour image of an object in a video signal
JP2001506101A (en) System and method for contour-based movement estimation
JPH10507331A (en) Method and system for encoding an image sequence and associating the encoded signal with a storage medium, and method and system for decoding such an encoded signal
KR100607390B1 (en) Method and apparatus for coding a digitized image using an image full motion vector
JP3736291B2 (en) Image signal decoding apparatus and method
KR100196874B1 (en) Apparatus for selectively approximating contour of image
KR100188534B1 (en) Method for reducing shape information by using motion estimation and predictive contour
JP2882285B2 (en) Color image compression / expansion method
JP3032213B2 (en) Image encoding device and image decoding device
JP2980810B2 (en) Motion vector search method and apparatus

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 19941229

PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 19941229

Comment text: Request for Examination of Application

PG1501 Laying open of application
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 19980130

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 19980831

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 19981130

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 19981130

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20010926

Start annual number: 4

End annual number: 4

PR1001 Payment of annual fee

Payment date: 20020923

Start annual number: 5

End annual number: 5

PR1001 Payment of annual fee

Payment date: 20031015

Start annual number: 6

End annual number: 6

PR1001 Payment of annual fee

Payment date: 20041004

Start annual number: 7

End annual number: 7

PR1001 Payment of annual fee

Payment date: 20051014

Start annual number: 8

End annual number: 8

PR1001 Payment of annual fee

Payment date: 20061102

Start annual number: 9

End annual number: 9

PR1001 Payment of annual fee

Payment date: 20071024

Start annual number: 10

End annual number: 10

PR1001 Payment of annual fee

Payment date: 20081029

Start annual number: 11

End annual number: 11

PR1001 Payment of annual fee

Payment date: 20091027

Start annual number: 12

End annual number: 12

PR1001 Payment of annual fee

Payment date: 20101101

Start annual number: 13

End annual number: 13

PR1001 Payment of annual fee

Payment date: 20111028

Start annual number: 14

End annual number: 14

FPAY Annual fee payment

Payment date: 20121102

Year of fee payment: 15

PR1001 Payment of annual fee

Payment date: 20121102

Start annual number: 15

End annual number: 15

FPAY Annual fee payment

Payment date: 20131030

Year of fee payment: 16

PR1001 Payment of annual fee

Payment date: 20131030

Start annual number: 16

End annual number: 16

PC1801 Expiration of term

Termination date: 20150629

Termination category: Expiration of duration