KR0180132B1 - Shape information reducing method using motion estimating - Google Patents
Shape information reducing method using motion estimating Download PDFInfo
- Publication number
- KR0180132B1 KR0180132B1 KR1019940038901A KR19940038901A KR0180132B1 KR 0180132 B1 KR0180132 B1 KR 0180132B1 KR 1019940038901 A KR1019940038901 A KR 1019940038901A KR 19940038901 A KR19940038901 A KR 19940038901A KR 0180132 B1 KR0180132 B1 KR 0180132B1
- Authority
- KR
- South Korea
- Prior art keywords
- shape information
- contour
- prediction
- transmission
- motion
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/20—Contour coding, e.g. using detection of edges
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/004—Predictors, e.g. intraframe, interframe coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
본 발명은 연속된 영상에서 윤곽선을 이동 보상 예측하고 예측 오차를 예측 오차 영역별로 전송하여 모양 정보 전송량을 감축시키는 움직임 추정 방식을 사용한 모양 정보 감축 방법에 관한 것으로, 기존에는 호터(HOETTER)의 논문에서 제안된 방식을 사용하여 모양 정보를 감축하였는데, 이 방식에서는 움직임 영역의 전체 윤곽선을 근사화한 다음, 근사화에 이용된 정점(VERTEX)들을 이동보상 예측하고, 그 오차를 전송함으로 해서 화질의 향상을 가져올 수가 없는 단점이 있었는데, 본 발명에서는 연속된 영상에서 동일 물체에 의한 움직임 영역의 모양 정보들간에의 중복성(REDUNDANCY)을 이용하여 윤곽선을 이동 보상 예측하고 예측 오차를 전송하여 모양 정보 전송량을 감축하도록 함으로써 영상 전화기, 영상 회의, 비디오 부호화 및 컴퓨터 비젼과 같이 움직임 물체의 모양 정보가 필요한 시스템에서 움직임 물체에 대한 모양 정보가 감축하여 전송 데이타가 대폭적으로 감축되도록 함으로써 화질의 향상을 얻을 수 있게 된다.The present invention relates to a shape information reduction method using a motion estimation method that reduces the shape information transmission amount by transfer-predicting the contours in a continuous image and transmitting the prediction error for each prediction error region. The shape is reduced by using the proposed method. In this method, the overall contour of the motion region is approximated, then the motion compensation is predicted by the vertices used for the approximation, and the error is transmitted to improve the image quality. In the present invention, by using the redundancy (REDUNDANCY) between the shape information of the motion region by the same object in the continuous image by moving compensation prediction and sending a prediction error to reduce the shape information transmission amount Help with video phones, video conferencing, video encoding and computer vision Shape information is reduced to the motion object in the system in which the shape information of the object being required, it is possible to obtain an improvement in image quality by ensuring that the transmission data is reduced drastically.
Description
제1도는 머리와 어깨 영상의 동영상 분할의 예시도.1 is an exemplary diagram of video segmentation of a head and shoulder image.
제2도는 머리와 어깨 영상의 이전 프레임과 현재 프레임의 상태도.2 is a state diagram of a previous frame and a current frame of a head and shoulder image.
제3도는 이전 프레임을 이동 보상한 영상과 현재 프레임의 비교 상태도.3 is a diagram illustrating a comparison state between an image obtained by moving compensation of a previous frame and a current frame.
제4도는 본 발명을 위한 이동 보상 윤곽선 예측 부호화 방식의 구성 블록도.4 is a configuration block diagram of a motion compensation contour prediction coding scheme according to the present invention.
제5a~c도는 본 발명을 위한 폴리건/스플린 근사화 과정도.5a to c is a polygon / splin approximation process diagram for the present invention.
제6도는 본 발명을 위한 폴리건/스플린 근사화 방식의 구성도.Figure 6 is a schematic diagram of the polygon / splin approximation method for the present invention.
제7도는 제6도에서 인접한 두 윤곽선간의 연결 과정도이다.7 is a diagram illustrating a connection process between two adjacent contour lines in FIG.
* 도면의 주요부분에 대한 부호의 설명* Explanation of symbols for main parts of the drawings
11 : 뺄셈 수단 12 : 임계 수행 수단11: subtraction means 12: critical performance means
13 : 윤곽선 예측 수단 14 : 윤곽선 재구성 수단13: contour prediction means 14: contour reconstruction means
15 : 덧셈 수단 16 : 이동 보상 예측 수단15: addition means 16: movement compensation prediction means
20 : 전송 윤곽선 30 : 폴리건20 Transmission Contour 30 Polygon
40 : 스플린40: splin
본 발명은 연속된 영상에서 윤곽선을 이동 보상 예측하고 예측 오차를 예측 오차 영역별로 전송하여 모양 정보 전송량을 감축시키는 움직임 추정 방식을 사용한 모양 정보 감축 방법 및 장치에 관한 것이다.The present invention relates to a shape information reduction method and apparatus using a motion estimation method of reducing the amount of shape information transmission by moving and predicting a contour in a continuous image and transmitting a prediction error for each prediction error region.
기존에는 호터(HOETTER)의 논문에서 제안된 방식을 사용하여 모양 정보를 감축하였는데, 이 방식에서는 움직임 영역의 전체 윤곽선을 근사화한 다음, 근사화에 이용된 정점(VERTEX)들을 이동 보상 예측하고, 그 오차를 전송한다.Previously, shape information was reduced using the method proposed in the paper of HOETTER. In this method, the overall contour of the motion region is approximated, and then the motion compensation prediction of the vertices used for approximation is performed, and the error is estimated. Send it.
이와 같이 모양 정보 전체를 근사화하여 이동 보상 예측한 후, 그 오차를 전송하므로 화질의 향상을 가져올 수가 없는 단점이 있었다.As described above, the shape information is approximated and the motion compensation is predicted, and the error is transmitted. Therefore, the image quality cannot be improved.
본 발명은 이러한 점을 감안하여 안출한 것으로, 본 발명의 목적은, 연속된 영상에서 동일 물체에 의한 움직임 영역의 모양 정보들간의 중복성(REDUNDANCY)을 이용하여 윤곽선을 이동 보상 예측하고 예측 오차를 전송하여 모양 정보 전송량을 감축하는데 있다.The present invention has been made in view of this point, and an object of the present invention is to use a redundancy (REDUNDANCY) of shape information of a motion region by a same object in a continuous image to perform motion compensation prediction of a contour and to transmit a prediction error. To reduce the amount of shape information transmission.
이하, 본 발명의 실시예를 첨부된 도면을 참고로 하여 상세히 설명하면 다음과 같다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
먼저, 물체별 동영상 부호화에서는 입력된 영상을 물체의 움직임에 의해 이전 영상과 다른 신호를 갖는 움직임 영역(changed region)과, 신호의 변화가 없는 배경으로 분할한다.First, in the video encoding for each object, the input image is divided into a changed region having a signal different from the previous image by the movement of the object, and a background having no signal change.
배경 영역은 더 이상의 분석 과정이나 정보의 전송이 불필요하며, 수신단에서는 이전 영상의 신호를 그대로 사용하여 재현한다.The background area does not need any further analysis or transmission of information, and the receiving end reproduces using the signal of the previous image as it is.
추출된 움직임 영역에서는 물체 모형(object model)과 이동 모형(motion model)을 사용하여 물체의 움직임 정보(motion information)를 추정하며, 움직임 정보와 움직임 영역의 모양 정보(shape Information)를 수신단에 전송하면, 수신단에서는 이러한 정보들을 가지고 이동 보상 예측(motion compensated prediction)으로 영상을 재현하게 된다.In the extracted motion region, the motion information of the object is estimated by using an object model and a motion model, and the motion information and shape information of the motion region are transmitted to the receiver. In this case, the receiving end reproduces the image by using motion compensated prediction with such information.
한편, 움직임 영역에서 이동 보상 예측 오차가 많이 발생하는 영역들이 있는데, 이러한 영역들은 가정된 물체 모형이 맞지 않거나 이동 모형이 맞지 않는 복잡한 움직임을 보이는 영역으로서, 일반적으로 눈, 입 등의 부분에서 발생한다.On the other hand, there are regions where movement compensation prediction errors occur in the movement region. These regions are complex regions where the assumed object model does not fit or the movement model does not fit. .
이 영역들은 사용자의 시각에 민감한 영역이므로 수신단에서 원신호를 충실하게 재현할 수 있도록 색상 정보(colour information)를 부호화하여 전송한다.Since these areas are sensitive to the user's vision, color information is encoded and transmitted so that the receiver can faithfully reproduce the original signal.
이외에도 물체의 움직임으로 인해 새로 드러난 배경이 나타나며, 이전 영상에서는 갖고 있지 않은 정보이므로 이에 대한 정보의 전송이 필요하다.In addition, a newly revealed background appears due to the movement of the object, and since the information is not included in the previous image, transmission of information about this is necessary.
제1도는 머리와 어깨(head and shoulder) 영상을 배경(background)으로 하여, 이동 보상 가능 영역, 이동 보상 불가능 물체 및 드러난 배경 등으로 분할한 예를 나타낸 것이다.FIG. 1 shows an example of dividing a head and shoulder image into a background and dividing the image into a moving compensable area, an uncompensable moving object, and an exposed background.
본 발명에서는 움직임 영역의 모양 정보를 부호화하는 방법으로써 움직임 물체에 대한 모양 정보를 대폭적으로 감축시킬 수 있도록 한다.In the present invention, as a method of encoding shape information of a motion region, shape information of a moving object can be significantly reduced.
여기서, 움직임 영역의 모양 정보는 영역/비영역을 나타내는 이진 영상(binary image)이나 그 경계의 윤곽선(contour)으로 나타낼 수 있으며, 연속된 영상에서 동일 물체에 의한 움직임 영역의 모양 정보들간에는 중복성(redundancy)이 크다.Here, the shape information of the motion region may be represented by a binary image representing a region / non-region or a contour of a boundary thereof. redundancy) is large.
이와 같은 성질을 이용하여 윤곽선을 이동 보상 예측하고 예측 오차를 전송하여 모양 정보 전송량을 감축하는 기법을 윤곽선 예측 부호화기법(predictive contour coding)이라 한다.The technique of moving compensation predicting the contour using such a property and transmitting the prediction error to reduce the shape information transmission amount is called predictive contour coding.
본 발명을 위한 윤곽선 예측 부호화 기법은 예측 오차를 전송하기 위하여 전송 예측 오차를 선택하는 임계 수행(thresholding operation)과 윤곽선 근사화(contour approximation)를 수행한다.The contour prediction coding scheme for the present invention performs a thresholding operation and contour approximation to select a transmission prediction error in order to transmit the prediction error.
본 발명을 위한 윤곽선 예측 부호화 방식을 첨부 도면을 참고로 하여 설명하면 다음과 같다.The contour prediction coding scheme for the present invention will be described with reference to the accompanying drawings.
물체별 동영상 부호화에서, 모양 정보는 움직임 정보와 함께 이 동영상 예측을 위해 가장 높은 우선 순위로 전송이 되어야 한다. 이러한 모양 정보의 전송은 물체의 경계를 중심으로 서로 인접한 화소에 서로 다른 움직임 정보를 주며, 이로 인하여 블록별 부호화에서 나타나는 주관적 화질의 저하를 피할 수 있으므로 모양 정보의 전송은 저전송률 부호화에서 물체별 부호화가 블록별 부호화에 대해 더 우수한 주관적 화질을 보여주는 단서가 된다.In object-specific video coding, shape information along with motion information should be transmitted at the highest priority for video prediction. The transmission of shape information gives different motion information to the pixels adjacent to each other around the boundary of the object, thereby avoiding the deterioration of the subjective quality of the block-by-block coding. Is a clue that shows better subjective quality for block-by-block coding.
여기서, 주관적 화질이란, 예를 들어 하나의 화면에 고화질과 저화질이 함께 나타날 경우 모자이크처럼 블록의 경계가 보이게 되는데 이러한 블록단위 부호화에서 블록의 경계가 보이는 것을 블랙킹 현상이라고 하며 이 블랙킹 현상이 안 보일 때 주관적 화질이 좋다고 말한다.Here, subjective picture quality, for example, when high quality and low picture quality appear on one screen, the boundary of the block is shown as a mosaic. In this block unit encoding, the boundary of the block is called a blacking phenomenon. When you see it, the subjective picture quality is good.
영역의 경계를 표현하기 위한 방법은 컴퓨터 그래픽스, 문자 인식, 물체 합성 등에서 사용되고 있는데 예를 들어, 체인 디퍼런스 코딩(chain difference coding), 에스(s)곡선, 폴리건(polygon)근사, 스플린(spline)근사, 퓨리어 기법(Fourier Descriptor) 등이 연구 사용되고 있다.Methods for expressing boundary of regions are used in computer graphics, character recognition, object synthesis, etc. For example, chain difference coding, S curve, polygon approximation, spline Approximation and Fourier Descriptor are being used.
그러나, 이러한 방식들은 전송을 고려하지 않은 기법들이기 때문에 매 프레임에서 움직임 영역의 윤곽선을 전송해야 하는 경우에는 높은 전송률로 인해 사용하기가 어렵다.However, since these methods do not consider transmission, they are difficult to use due to the high data rate when the contour of the motion area must be transmitted every frame.
연속되는 프레임 상에서 동일한 물체에 의해 생성되는 움직임 영역의 모양 정보간에는 형태와 위치에서 많은 유사성이 있으므로 과거의 모양 정보로부터 현재의 모양 정보의 예측이 가능하며, 이동 물체의 움직임 정보를 추정하고, 이 정보를 이용하여 모양 정보를 이동 보상 예측할 수 있다. 움직임 영역 추출과 움직임 정보 추정이 이상적으로 정확한 경우 모양 정보의 전송은 불필요하다.Since there is much similarity in shape and position between the shape information of the motion area generated by the same object on consecutive frames, it is possible to predict the current shape information from the previous shape information, estimate the motion information of the moving object, and The shape information may be compensated for by moving compensation. If the motion region extraction and the motion information estimation are ideally accurate, the transmission of the shape information is unnecessary.
그러나 전송률이 낮아질수록 모양 정보가 차지하는 비중이 커지므로 모양 정보 전송이 불필요한 블록별 부호화 방식에 비하여 부호화 이득을 얻기 위해서도 대폭적인 모양 정보의 감축이 필요하며, 이때 현재 모양 정보의 이동 보상 예측 시에는 고립된 예측 오차 영역(prediction error region)들이 발생하게 된다.However, as the data rate decreases, the shape information occupies a larger portion, and thus, a significant reduction of shape information is required to obtain coding gains compared to block-by-block coding methods that do not require shape information transmission. Prediction error regions occur.
제2도는 이전 프레임(N-1th 프레임)과 현재 프레임(Nth 프레임)의 모양 정보를 나타내고, 제3도는 이전 프레임(N-1th 프레임)의 모양 정보를 움직임 정보에 따라서 이동하여 현재 프레임을 이동 보상 예측했을 때, 9개의 고립된 예측 오차 영역이 나타남을 보여준다.FIG. 2 shows shape information of a previous frame (N-1th frame) and a current frame (Nth frame). FIG. 3 shows movement information of shape of a previous frame (N-1th frame) according to motion information. When predicted, nine isolated prediction error areas appear.
여기서, 9개의 예측 오차 영역 각각에 대해서 현재 프레임의 모양 정보에 해당되는 부분을 부호화하여 전송하게 된다. 예측 오차 그 자체의 전송은 인간의 시각에 영향을 미치지 않는 정보를 포함할 수 있다. 주관적 화질에 영향을 미치는 중요한 정보는 전송을 하고, 그렇지 않은 정보의 전송은 억제하여야 저전송률 부호화가 가능해진다.In this case, a portion corresponding to shape information of the current frame is encoded and transmitted for each of the nine prediction error regions. Transmission of the prediction error itself may include information that does not affect human vision. Important information affecting subjective picture quality should be transmitted, and transmission of other information can be suppressed to enable low bit rate encoding.
그러므로, 주관적 화질에 영향을 미치지 않는 정보는 임계 수행을 통해 제거하여 전송되지 못하도록 한다. 이때, 임계 수행은 오차가 발생하는 영역의 특성을 이용한다.Therefore, information that does not affect the subjective picture quality is removed through the threshold performance so that it cannot be transmitted. At this time, the threshold performance uses the characteristics of the region where the error occurs.
전송하기로 결정된 예측 오차 영역의 전송을 위해 그 윤곽선을 전송하는데 정확한 전송보다 근사화 방식을 이용함으로써 모양 정보의 감축을 꾀하며, 윤곽선 근사화 방식으로는 폴리건/스플린 근사화 방식을 사용한다.To transmit the contour for transmission of the prediction error region determined to be transmitted, the shape information is reduced by using an approximation method rather than an accurate transmission, and a polygon / sprinkle approximation method is used as the contour approximation method.
상기와 같이 모양 정보 감축을 위한 본 발명의 이동 보상 윤곽선 예측 부호화 장치의 구성은 제4도와 같다.As described above, the configuration of the motion compensation contour predictive encoding apparatus of the present invention for reducing shape information is shown in FIG.
즉, 이전 프레임의 모양 정보와 현재 프레임의 모양 정보를 이동 보상 예측하는 이동 보상 예측 수단(16)과, 상기 이동 보상 예측 수단(16)의 출력과 움직임 영역과의 차분을 구하는 뺄셈 수단(11)과, 상기 뺄셈 수단(11)을 통하여 고립된 예측 오차 영역들을 구하면서, 고립된 예측 오차 영역들에 대해서 임계 수행을 함으로써 인간의 시각에 영향을 미치는 중요한 정보는 전송을 하고 그렇지 않은 정도의 전송은 억제하는 임계 수행 수단(12)과, 전송하기로 결정된 예측 오차 영역의 전송을 위해 그 윤곽선을 전송하는데 정확한 전송보다 근사화 방식을 사용함으로써 모양 정보 감축을 꾀하는 윤곽선 예측 수단(13)과, 상기 임계 수행 수단(12)과 윤곽선 예측 수단(13)을 통해 부호화된 윤곽선을 고립된 예측 오차 영역으로 재구성하는 윤곽선 재구성 수단(14) 및 상기 윤곽선 재구성수단(14)에 의한 고립된 예측 오차 영역과 상기 이동 보상 예측 수단(16)의 출력을 더하여 현재 프레임의 모양 정보를 구성하여 상기 이동 보상 예측 수단(16)으로 입력하는 덧셈 수단(15)으로 이루어진다.That is, motion compensation prediction means 16 for motion compensation prediction of shape information of the previous frame and shape information of the current frame, and subtraction means 11 for obtaining a difference between the output of the motion compensation prediction means 16 and the motion region. By calculating the isolated prediction error areas through the subtraction means 11, critical information affecting the human vision is transmitted by performing critical execution on the isolated prediction error areas, and the transmission of the other information is not performed. Threshold performing means 12 for suppressing, contour prediction means 13 for reducing shape information by using an approximation method rather than an accurate transmission for transmitting the contour for transmission of the prediction error region determined to be transmitted, and performing the threshold Contour reconstruction means 14 and images for reconstructing the encoded contours through means 12 and contour prediction means 13 into isolated prediction error regions. Adder means 15 for forming the shape information of the current frame by adding the isolated prediction error region by the contour reconstruction means 14 and the output of the motion compensation prediction means 16 to input to the motion compensation prediction means 16. Is done.
이와 같은 본 발명의 구성에 의하면 전송할 오가 정보를 선택하는 임계 수행은 주관적 화질과 전송 데이타량에 영향을 미친다.According to the configuration of the present invention as described above, the threshold performance of selecting false information to be transmitted affects the subjective picture quality and the amount of data to be transmitted.
임계 수행은 오차 영역의 크기, 모양 등의 특성을 이용하며, 이를 위해서는 모양 정보 예측 오차에 관한 고찰이 필요하다. 이에 따라 오차 영역의 발생자 원인 그리고 이에 근거한 임계 수행을 설명한다.The critical performance uses characteristics such as the size and shape of the error region, and this requires consideration of shape information prediction errors. Accordingly, the cause of the error region and the threshold performance based thereon will be described.
각 영상에의 움직임 영역의 모양 정보와 움직임 정보는 연속되는 두 개의 실제 영상에서 추출한다. 즉, 현재의 모양 정보의 추출 과정은 이전 영상의 모양 정보와는 독립적이다. 이러한 두 모양 정보 사이의 예측이 정확하려면 움직임 영역의 추출과 움직임 정보의 추정이 정확해야 하며, 이상적인 경우 모양 정보의 전송은 불필요하다.Shape information and motion information of a motion region of each image are extracted from two consecutive real images. In other words, the current shape information extraction process is independent of the shape information of the previous image. In order for the prediction between the two shape information to be accurate, the extraction of the motion region and the estimation of the motion information must be accurate, and in the ideal case, the transmission of the shape information is unnecessary.
그러나 움직임 정보 추정 방법의 한계와 실제 영상의 신호 특성상의 문제 등으로 인하여 모방 정보 예측 오차가 생긴다. 또한 움직임 영역은 이동 물체와 함께 드러난 배경을 포함하며, 이 영역은 움직임 정보와는 무관한 영역이므로 이동 보상 예측이 불가능하며 오차가 발생한다.However, due to the limitation of the motion information estimation method and the problem of the signal characteristics of the real image, the imitation information prediction error occurs. In addition, the motion region includes a background exposed with the moving object. Since this region is not related to the motion information, the motion compensation prediction is impossible and an error occurs.
물체의 기하학적 형태와 전체적인 이동에 민감하게 반응하는 인간의 시각적 특성을 고려할 때, 모양 정보의 예측 오차는 인간의 시각에 민감하지 않은 정보를 포함할 수 있으므로, 본 발명에서는 이러한 오차를 임계 수행을 통해 제거, 전송을 하지 않는다.Considering the human visual characteristics that are sensitive to the geometrical shape of the object and the overall movement, the prediction error of the shape information may include information that is not sensitive to human vision. Do not remove or send.
이러한 오차의 비전송은 비슷한 주관적 화질 하에서 효과적인 전송률 감축을 가능하게 한다. 제안된 윤곽선 예측 부호화 방식에서의 임계 수행은 작은 오차 영역의 제거와 무의미한 모양 정보 변화 제거의 두가지 기능을 포함한다.Non-transmission of this error allows effective rate reduction under similar subjective picture quality. The critical performance in the proposed contour prediction coding scheme includes two functions of elimination of small error regions and elimination of meaningless shape information change.
우선, 작은 오차 영역의 제거에 대해 설명하면 다음과 같다.First, the removal of the small error region will be described.
전체적으로 볼 때의 모양 정보의 윤곽선은 단순하게 보일 수 있지만 화소단위의 관측에서는 매우 복잡한 변화를 보이는 것이 일반적이며, 이러한 모양 정보의 특성 때문에 예측 모양 정보와 실제 모양 정보의 두 이진 영상으로 화소 단위의 차(PEL-WISED DIFFERENCE)를 수행하면 수개에서 수백 개의 화소를 갖는 많은 오차 영역을 생성하며, 예측이 정확해도 좁은 지역에서 더해지는 부분과 감해지는 부분이 반복해서 나타날 수 있는데 이러한 무의미한 오차 영역을 제거하기 위해 작은 오차 영역의 제거가 필요하다.In general, the outline of the shape information can be seen as simple, but it is common to see very complicated changes in the pixel-based observation. Due to the characteristics of the shape information, the difference of the pixel unit by two binary images of the predicted shape information and the actual shape information (PEL-WISED DIFFERENCE) generates many error areas with several hundreds to hundreds of pixels, and even if the prediction is accurate, the added and subtracted areas may appear repeatedly in narrow areas. Elimination of small error areas is necessary.
작은 오차 영역의 제거에 필요한 임계치(threshold value)의 선택은 전체 영상에서 인간의 시각적 특성상 민감하지 않는 영역 크기의 최대치까지 가능하므로 적절한 임계치를 갖는 작은 오차 영역의 제거는 주관적 화질에 영향을 미치지 않으면서 전송률의 감축을 가져오고, 몇 개의 고립된 오차 영역으로 이송 물체의 윤곽선을 나눔으로써 이후의 수행을 간단하게 한다.The selection of the threshold value required for the removal of small error areas is possible up to the maximum size of the area that is not sensitive to human visual characteristics in the whole image, so eliminating small error areas with appropriate thresholds does not affect subjective quality. This reduces the transfer rate and simplifies subsequent performance by dividing the contour of the conveying object into several isolated error areas.
다음으로 무의미한 모양 정보 변화의 제거에 대해 설명한다.Next, the removal of meaningless shape information change will be described.
인간의 시각적 특성은 물체의 지역적인 위치 오차보다 물체 전체의 형태와 운동에 민감하므로 물체의 이동에 의해 변화된 영역이 아닌, 신호 특성이나 움직임 영역 추출 문제로 생성되는 물체 모양 형태의 급격한 변화는 인간의 시각적 특성에는 무의미한 모양 정보 변화라 할 수 있다.Since the human visual characteristics are more sensitive to the shape and motion of the whole object than the local positional error of the object, the rapid change in the shape of the object shape caused by the extraction of the signal characteristics or the movement area, rather than the area changed by the movement of the object, It can be said that the change in shape information is meaningless to the visual characteristics.
이를 전송하기 위해서는 상당한 데이타량이 필요한 반면, 주관적 화질 면에서는 불리할 수 있으므로 이러한 모양 정보 변화는 전송을 하지 않는 것이 요구된다.In order to transmit the data, a considerable amount of data is required, but it may be disadvantageous in terms of subjective picture quality, so this shape information change is not required to be transmitted.
상기에서 전송이 결정된 오차 영역은 전송을 위해 윤곽선 부호화를 수행한다. 오차 영역의 윤곽선은 이동 보상 예측 모양 정보의 윤곽선을 포함한다. 상기 예측 윤곽선을 제거한 윤곽선만을 부호화하여 전송을 한다.The error region in which the transmission is determined above performs contour coding for transmission. The contour of the error region includes the contour of the motion compensation prediction shape information. Only the contour from which the prediction contour is removed is encoded and transmitted.
머리와 어깨 영상에서는 좁은 폭의 띠 형태를 갖는 오차 영역이 많이 나타나면서, 그 영역의 전송 윤곽선 부호화에 오차가 없는 체인 디퍼런스 코딩(chain difference coding)을 사용하면 그 전송 테이타량이 상당해지므로 근사화 표현을 이용한 윤곽선 부호화 방식이 요구되는데, 이때 윤곽선의 국부적인 위치 오차가 발생한다.In the head and shoulder images, there are many error domains with narrow bands, and when the chain difference coding without error is used for the coding of the transmission contour of the region, the amount of transmission data becomes significant, so the approximation is expressed. The contour coding method using the SCA is required, and a local position error of the contour occurs.
그러나 인간의 시각적 특성이 물체 전체의 기하학적 형태에 민감하므로 이러한 작은 위치 오차에 의해 눈에 거슬리는 화질의 저하를 초래하지는 않는다.However, since the human visual characteristics are sensitive to the geometrical shape of the whole object, such small positional errors do not cause undesired deterioration of image quality.
제5도는 상기와 같은 윤곽선 근사화를 위해 이용되는 폴리건/스플린 근사화 과정을 나타낸 것으로, 전송이 결정된 오차 영역의 전송 윤곽선(20)은 제5a도와 같이, 우선 폴리건(30)으로 근사화하는데, 이때, 폴리건(30)의 정점(vertex)의 개수는 실제 전송 윤곽선(20)과 근사 폴리건(30) 사이의 근사화 정도에 의존한다.FIG. 5 illustrates a polygon / splin approximation process used for the above-described contour approximation. The transmission contour 20 of the error region in which the transmission is determined is approximated to the polygon 30 first as shown in FIG. 5A. The number of vertices of the polygon 30 depends on the degree of approximation between the actual transmission contour 20 and the approximate polygon 30.
이 근사화 정도는 실제 전송 윤곽선(20)과 근사 폴리건(30) 사이의 최대차이를 사용하여 나타내는데, 여기서 최대 차이가 클 때에는 거친 근사차가 되지만 정점의 개수는 줄어들며, 최대 차이가 작을 때에는 정밀한 근사화가 되지만 정점의 개수는 늘어난다.The degree of approximation is represented using the maximum difference between the actual transmission contour 20 and the approximate polygon 30, where the largest difference is a rough approximation, but the number of vertices is reduced, and the smallest difference is a precise approximation. The number of vertices increases.
그리고, 제5b도와 같이, 얻어진 근사 정점들을 지나는 스플린(40)을 구하고, 스플린(40)상의 각 화소에서 전송 윤곽선(20)과의 거리를 검사해서 그 거리가 임계값(dMAX)이상이면 제5c도와 같이, 그 화소가 포함된 근사 구간을 스플린(40) 대신 폴리건(20)으로 근사화하며, 정점의 위치와 정점 사이의 구간들이 폴리건 근사인지, 스플린 근사인지를 나타내는 인덱스(index)를 수신단에 전송하여 폴리건/스플린을 재현하게 한다.Then, as shown in FIG. 5B, the splins 40 passing through the obtained approximate vertices are obtained, and the distance to the transmission contour 20 is examined in each pixel on the splins 40, and if the distance is greater than or equal to the threshold value dMAX. As shown in FIG. 5C, an approximation section including the pixel is approximated by the polygon 20 instead of the splin 40, and an index indicating whether the positions of the vertices and the sections between the vertices are the polygon approximation or the splint approximation is shown. Send to the receiver to reproduce the polygon / sprinkle.
폴리건 근사화에 비해 폴리건과 스플린이 결합된 이러한 윤곽선 근사화는 적은 수의 정점으로 시각에 자연스러운 윤곽선 형태를 보여준다.Compared to polygon approximation, this contour approximation, combined with polygons and splins, provides a visually natural contour shape with fewer vertices.
상기와 같은 폴리건/스플린 근사화 기법을 사용하여 고립된 수개의 전송 윤곽선들을 근사화시키는 과정은 제6도와 같이 임계 수행 후에 전송이 결정된 오차 영역에서 전송 윤곽선을 찾으며(단계 S1),인접한 전송 윤곽선들 사이에서 불필요한 정점의 발생 방지를 위해 일정한 거리 안에서 인접한 두개의 전송 윤곽선을 하나의 전송 윤곽선으로 연결하는 과정을 수행한(단계 S2)후 연결된 전송 윤곽선에 대해 폴리건/스플린 근사화를 수행한다(단계 S3).The process of approximating several isolated transmission contours using the polygon / splin approximation technique as described above finds the transmission contour in the error region where the transmission is determined after performing a threshold as shown in FIG. 6 (step S1), and between adjacent transmission contours. In order to prevent the occurrence of unnecessary vertices, a process of connecting two adjacent transmission contours to one transmission contour within a predetermined distance is performed (step S2), and then polygon / sprinkle approximation is performed on the connected transmission contours (step S3). .
제7도는 인접한 두개의 전송 윤곽선을 하나의 전송 윤곽선으로 연결하는 과정을 나타낸 것으로, a에서와 같이 두 전송 윤곽선이 인접해 있을 경우, 위 윤곽선의 끝 근사 정점과 아래 윤곽선의 초기 정점을 b와 같이 중복해 전송해야 하므로 c처럼 연결을 시킨 후 다시 근사화를 수행하면 근사 정점1개와 초기 정점 1개를 줄일 수 있어 그 만큼의 전송량 감축이 가능하게 된다.7 shows a process of connecting two adjacent transmission contours to one transmission contour. When two transmission contours are adjacent to each other as shown in a, the final approximate end point of the upper contour and the initial vertex of the lower contour are represented as b. Since the data must be transmitted in duplicate, if the connection is made like c and then approximated again, one approximate vertex and one initial vertex can be reduced, thereby reducing the amount of transmission.
이와 같이 본 발명을 위한 폴리건/스플린 근사화는 전체 윤곽선을 수개의 전송 윤곽선으로 나누고 이를 근사화 시키는 방식이다. 그리고, 작은 오차 영역의 제거를 통해 전송량의 감축을 근사화하면서 수개의 작은 전송 윤곽선을 각각 근사화함으로씨 수행의 간단함을 가져온다. 또한 각 전송 윤곽선마다 다르게 줄 수 있는 임계값(dMAX)과 작은 오차 영역을 위해 사용되는 임계값(tsm)을 사용하여 모양 정보 전송량의 제어가 쉽게 가능해진다.As described above, the polygon / splin approximation for the present invention divides the entire contour into several transmission contours and approximates it. In addition, the removal of the small error area approximates the reduction of the transmission amount, while approximating several small transmission contours, respectively, resulting in simplicity of seed performance. In addition, the shape information transmission amount can be easily controlled by using a threshold value dMAX that can be given differently for each transmission contour and a threshold value tsm used for a small error area.
이상과 같은 본 발명은, 영상 전화기, 영상 회의, 비디오 부호화 및 컴퓨터 비젼과 같이 움직임 물체의 모양 정보가 필요한 시스템에서 움직임 물체에 대한 모양 정보를 감축하여 전송 데이터가 대폭적으로 감축됨으로써 화질의 향상을 얻을 수 있게 된다.As described above, the present invention can reduce the shape information of the moving object in a system requiring the shape information of the moving object such as a video telephone, video conferencing, video encoding, and computer vision, thereby greatly reducing the transmission data, thereby improving image quality. It becomes possible.
Claims (10)
Priority Applications (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019940038901A KR0180132B1 (en) | 1994-12-29 | 1994-12-29 | Shape information reducing method using motion estimating |
US08/478,558 US5799109A (en) | 1994-12-29 | 1995-06-07 | Object-by shape information compression apparatus and method and coding method between motion picture compensation frames |
CN95109651A CN1119027C (en) | 1994-12-29 | 1995-07-28 | Object-by shape information compression apparatus and method thereof and coding method between motion picture compensation... |
JP33854495A JP3038143B2 (en) | 1994-12-29 | 1995-12-26 | Apparatus for reducing shape information for each object of video equipment, method for reducing the same, and polygon approximation method |
DE1995149095 DE19549095A1 (en) | 1994-12-29 | 1995-12-29 | Method and device for reducing shape information, especially methods with successive polygon approximation |
FR9515766A FR2728987B1 (en) | 1994-12-29 | 1995-12-29 | METHOD AND DEVICE FOR REDUCING SHAPE INFORMATION AND ITS METHOD OF SEQUENTIAL POLYGONAL APPROXIMATION |
GB9526635A GB2296839B (en) | 1994-12-29 | 1995-12-29 | Shape information reduction apparatus and method thereof and its sequential polygonal approximation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019940038901A KR0180132B1 (en) | 1994-12-29 | 1994-12-29 | Shape information reducing method using motion estimating |
Publications (2)
Publication Number | Publication Date |
---|---|
KR960028487A KR960028487A (en) | 1996-07-22 |
KR0180132B1 true KR0180132B1 (en) | 1999-05-01 |
Family
ID=19405096
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1019940038901A KR0180132B1 (en) | 1994-12-29 | 1994-12-29 | Shape information reducing method using motion estimating |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR0180132B1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5912991A (en) * | 1997-02-07 | 1999-06-15 | Samsung Electronics Co., Ltd. | Contour encoding method using error bands |
KR100463003B1 (en) * | 1997-03-20 | 2005-06-01 | 주식회사 팬택앤큐리텔 | Method for encoding contour of MPEG-4 VOP |
KR20010069800A (en) * | 2001-05-11 | 2001-07-25 | 노일환 | reconstruction device of the video data for a camera |
-
1994
- 1994-12-29 KR KR1019940038901A patent/KR0180132B1/en active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR960028487A (en) | 1996-07-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3038143B2 (en) | Apparatus for reducing shape information for each object of video equipment, method for reducing the same, and polygon approximation method | |
JP3725250B2 (en) | Outline coding method | |
US5737449A (en) | Apparatus for encoding a contour of regions contained in a video signal | |
KR0178231B1 (en) | Method and apparatus for detecting motion vectors based on hierarchical motion estimation | |
KR100365555B1 (en) | Image encoding / decoding device | |
EP0614318B1 (en) | Video encoder and decoder | |
US5799109A (en) | Object-by shape information compression apparatus and method and coding method between motion picture compensation frames | |
US5805221A (en) | Video signal coding system employing segmentation technique | |
KR20000064847A (en) | Image segmentation and target tracking methods, and corresponding systems | |
US5969766A (en) | Method and apparatus for contour motion estimating a binary image by using a weighted block match algorithm | |
KR0181031B1 (en) | Edge Compensation Device in Motion Compensated Interpolation | |
JP3056120B2 (en) | Video signal shape information predictive coding method | |
KR100314098B1 (en) | An interpolation method of binary shape data using an adaptive threshold by neighboring pixel values | |
US5774596A (en) | Adaptive contour coding method for encoding a contour image in a video signal | |
KR0180132B1 (en) | Shape information reducing method using motion estimating | |
US5896467A (en) | Method and apparatus for encoding a contour image of an object in a video signal | |
JP2001506101A (en) | System and method for contour-based movement estimation | |
JPH10507331A (en) | Method and system for encoding an image sequence and associating the encoded signal with a storage medium, and method and system for decoding such an encoded signal | |
KR100607390B1 (en) | Method and apparatus for coding a digitized image using an image full motion vector | |
JP3736291B2 (en) | Image signal decoding apparatus and method | |
KR100196874B1 (en) | Apparatus for selectively approximating contour of image | |
KR100188534B1 (en) | Method for reducing shape information by using motion estimation and predictive contour | |
JP2882285B2 (en) | Color image compression / expansion method | |
JP3032213B2 (en) | Image encoding device and image decoding device | |
JP2980810B2 (en) | Motion vector search method and apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 19941229 |
|
PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 19941229 Comment text: Request for Examination of Application |
|
PG1501 | Laying open of application | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 19980130 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 19980831 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 19981130 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 19981130 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PR1001 | Payment of annual fee |
Payment date: 20010926 Start annual number: 4 End annual number: 4 |
|
PR1001 | Payment of annual fee |
Payment date: 20020923 Start annual number: 5 End annual number: 5 |
|
PR1001 | Payment of annual fee |
Payment date: 20031015 Start annual number: 6 End annual number: 6 |
|
PR1001 | Payment of annual fee |
Payment date: 20041004 Start annual number: 7 End annual number: 7 |
|
PR1001 | Payment of annual fee |
Payment date: 20051014 Start annual number: 8 End annual number: 8 |
|
PR1001 | Payment of annual fee |
Payment date: 20061102 Start annual number: 9 End annual number: 9 |
|
PR1001 | Payment of annual fee |
Payment date: 20071024 Start annual number: 10 End annual number: 10 |
|
PR1001 | Payment of annual fee |
Payment date: 20081029 Start annual number: 11 End annual number: 11 |
|
PR1001 | Payment of annual fee |
Payment date: 20091027 Start annual number: 12 End annual number: 12 |
|
PR1001 | Payment of annual fee |
Payment date: 20101101 Start annual number: 13 End annual number: 13 |
|
PR1001 | Payment of annual fee |
Payment date: 20111028 Start annual number: 14 End annual number: 14 |
|
FPAY | Annual fee payment |
Payment date: 20121102 Year of fee payment: 15 |
|
PR1001 | Payment of annual fee |
Payment date: 20121102 Start annual number: 15 End annual number: 15 |
|
FPAY | Annual fee payment |
Payment date: 20131030 Year of fee payment: 16 |
|
PR1001 | Payment of annual fee |
Payment date: 20131030 Start annual number: 16 End annual number: 16 |
|
PC1801 | Expiration of term |
Termination date: 20150629 Termination category: Expiration of duration |