[go: up one dir, main page]

KR100698640B1 - Frame Interpolation Method Using Warping Transform and Its Apparatus - Google Patents

Frame Interpolation Method Using Warping Transform and Its Apparatus Download PDF

Info

Publication number
KR100698640B1
KR100698640B1 KR1020060022745A KR20060022745A KR100698640B1 KR 100698640 B1 KR100698640 B1 KR 100698640B1 KR 1020060022745 A KR1020060022745 A KR 1020060022745A KR 20060022745 A KR20060022745 A KR 20060022745A KR 100698640 B1 KR100698640 B1 KR 100698640B1
Authority
KR
South Korea
Prior art keywords
frame
interpolation
motion
motion vector
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR1020060022745A
Other languages
Korean (ko)
Inventor
고성제
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Priority to KR1020060022745A priority Critical patent/KR100698640B1/en
Application granted granted Critical
Publication of KR100698640B1 publication Critical patent/KR100698640B1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/18Image warping, e.g. rearranging pixels individually
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Television Systems (AREA)

Abstract

와핑 변환을 이용한 프레임 보간 방법 및 그 장치가 제공된다.Provided are a frame interpolation method and apparatus therefor using warping transformation.

본 발명에 따른 와핑 변환을 이용한 브레임 보간 방법은 제 1 프레임 및 제 2 프레임을 포함하는 연속된 영상신호를 입력하고, 상기 제 1 프레임과 상기 제 2 프레임 간의 움직임을 추정하는 단계; 상기 추정된 움직임으로부터 상기 제 1 프레임과 상기 제 2 프레임 간의 움직임 벡터를 생성하는 단계; 상기 생성된 움직임 벡터로부터 삽입하고자 하는 보간 프레임의 객체와 배경을 식별하는 단계; 및 상기 객체를 와핑 변환하고, 상기 배경에 블록 기반 프레임 보간 방법을 적용하여 상기 제 1 프레임과 상기 제 2 프레임 사이에 상기 보간 프레임을 삽입하는 단계를 포함하는 것을 특징으로 한다.In accordance with another aspect of the present invention, there is provided a brain interpolation method using a warping transformation, comprising: inputting a continuous video signal including a first frame and a second frame, and estimating a motion between the first frame and the second frame; Generating a motion vector between the first frame and the second frame from the estimated motion; Identifying an object and a background of an interpolation frame to be inserted from the generated motion vector; And warping the object, and inserting the interpolation frame between the first frame and the second frame by applying a block-based frame interpolation method to the background.

본 발명에 따른 와핑 변환을 이용한 프레임 보간 장치는 제 1 프레임 및 제 2 프레임을 포함하는 연속된 영상신호를 입력하고, 상기 제 1 프레임과 상기 제 2 프레임 간의 움직임을 추정하는 움직임 추정부; 상기 추정된 움직임으로부터 상기 제 1 프레임과 상기 제 2 프레임 간의 움직임 벡터를 생성하는 움직임 벡터 생성부; 상기 생성된 움직임 벡터로부터 삽입하고자 하는 보간 프레임의 객체와 배경을 식별하는 식별부; 및 상기 객체를 와핑 변환하고, 상기 배경에 블록 기반 프레임 보간 방법을 적용하여 상기 제 1 프레임과 상기 제 2 프레임 사이에 상기 보간 프레임을 삽입하는 보간 프레임 삽입부를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a frame interpolation apparatus using a warping transform, comprising: a motion estimator configured to input a continuous video signal including a first frame and a second frame, and estimate a motion between the first frame and the second frame; A motion vector generator configured to generate a motion vector between the first frame and the second frame from the estimated motion; An identification unit for identifying an object and a background of an interpolation frame to be inserted from the generated motion vector; And an interpolation frame inserter for warping the object and inserting the interpolation frame between the first frame and the second frame by applying a block-based frame interpolation method to the background.

본 발명에 의하면, 블록 기반 영상처리 방법을 적용하는 프레임 보간 방법과 와핑 변환 프레임 보간 방법을 동시에 적용함으로써, 홀드형 화상 표시 장치(Hold type display)에서 발생하는 움직임 블러링(motion blurring) 현상을 효율적으로 제거하여 프레임 보간시 발생할 수 있는 화질 열화를 최소화하는 효과가 있다.According to the present invention, by applying the frame interpolation method and the warping transform frame interpolation method simultaneously to apply the block-based image processing method, it is possible to effectively reduce the motion blurring phenomenon occurring in the hold type display. This can minimize the deterioration of image quality that can occur during frame interpolation.

Description

와핑 변환을 이용한 프레임 보간 방법 및 그 장치{Method to interpolate frame using warping transformation and Apparatus thereof}Method to interpolate frame using warping transformation and its device {Method to interpolate frame using warping transformation and Apparatus

도 1은 본 발명에 따른 와핑 변환을 이용한 프레임 보간 방법의 흐름도이다.1 is a flowchart of a frame interpolation method using warping transformation according to the present invention.

도 2는 본 발명에 따른 와핑 변환을 이용한 프레임 보간 장치의 블록도이다.2 is a block diagram of a frame interpolation apparatus using warping transformation according to the present invention.

도 3은 본 발명에 따른 움직임 벡터의 추정 과정이다.3 is a process of estimating a motion vector according to the present invention.

도 4a는 본 발명에 따른 움직임 벡터와 움직임 분할 과정이다.4A illustrates a motion vector and a motion segmentation process according to the present invention.

도 4b는 본 발명에 따른 적응적 움직임 보상 필드를 도시한 것이다.4b illustrates an adaptive motion compensation field according to the present invention.

도 5는 본 발명에 따른 추정된 움직임 벡터를 이용한 와핑 변환 과정이다.5 is a warping transformation process using the estimated motion vector according to the present invention.

도 6a는 이전 프레임의 영상을 도시한 것이다.6A shows an image of a previous frame.

도 6b는 현재 프레임의 영상을 도시한 것이다.6B shows an image of a current frame.

도 6c는 보간 프레임의 움직임 벡터를 도시한 것이다.6C illustrates a motion vector of an interpolated frame.

도 6d는 객체와 배경을 분리한 영상을 도시한 것이다.6D illustrates an image obtained by separating an object from a background.

도 6e는 와핑 변환 만을 이용한 보간 프레임의 영상을 도시한 것이다.6E illustrates an image of an interpolated frame using only warping transformation.

도 6f는 본 발명에 따른 보간 프레임의 영상을 도시한 것이다.6F illustrates an image of an interpolation frame according to the present invention.

도 7a는 종래의 블록 기반 프레임 보간 방법을 기반으로 한 보간 프레임의 영상의 객체 부분의 일부을 확대하여 도시한 것이다.7A shows an enlarged view of a part of an object part of an image of an interpolation frame based on a conventional block-based frame interpolation method.

도 7b는 도 6f의 객체 부분의 일부를 확대하여 도시한 것이다.FIG. 7B is an enlarged view of a part of the object part of FIG. 6F.

도 7c는 도 6e의 객체 부분의 일부를 확대하여 도시한 것이다.FIG. 7C is an enlarged view of a portion of the object part of FIG. 6E.

도 8은 본 발명의 일 실시예에 따른 프레임률의 변환과정을 도시한 것이다.8 illustrates a frame rate conversion process according to an embodiment of the present invention.

본 발명은 영상처리에 관한 것으로서, 특히 와핑 변환을 이용한 프레임 보간 방법 및 그 장치에 관한 것이다.The present invention relates to image processing, and more particularly, to a frame interpolation method and apparatus using warping transformation.

액정디스플레이(LCD)나 일렉트로 루미네슨스(Electro-luminescence) 디스플레이와 같이, 새로이 화상의 기록이 행해지기까지 전 프레임의 표시를 계속하여 유지하는 홀드형 화상 표시 장치(Hold type display)는 동화상 표시에 즈음하여 움직이는 물체의 움직임에 관찰자의 눈이 추적하는 것에 의한 움직임 블러링(motion blurring) 현상이 발생하여 화질의 열화가 생긴다는 단점을 가지고 있다. 이러한 움직임 블러링(motion blurring) 현상을 제거하기 위한 대표적인 방법으로 프레임 보간 방법(Frame rate-up conversion)이 있다. 이 프레임 보간 방법(Frame rate-up conversion) 기술은 프레임 사이에 새로운 보간 프레임을 만들어 프레임률을 높임으로써 움직임 블러링(motion blurring) 현상을 줄인다. 이 방법은 움직임 보상을 이용하여 보간 프레임을 작성하고, 그 보간 프레임에 인접하는 프레임 사이에 내삽 보간하는 방법이 있다. 이 움직임 보상은 블록 매칭 알고리즘(Block Matching Algorithm:BMA) 방법에 의해 검출되는 움직임 벡터가 사용된다. 블록 매칭 알고리즘 방법은 연속하는 영상의 제 1 프레임을 복수의 제 1 블록에 분할하고, 각 제 1 블록에 대해 제 1 프레임에 인접하는 제 2 프레임으로부터 가장 상관이 높은 제 2 블록을 탐색하여, 제 2 블록에서 제 1 블록으로의 움직임 벡터를 구하는 방법이다.Hold type displays, such as liquid crystal displays (LCDs) and electro-luminescence displays, which hold the display of all frames until a new image is recorded, are used for moving picture displays. At this time, the motion blurring phenomenon caused by the observer's eye is generated on the movement of the moving object, which results in deterioration of image quality. Frame rate-up conversion is a representative method for removing such a motion blurring phenomenon. This frame rate-up conversion technique reduces motion blurring by creating a new interpolation frame between frames to increase the frame rate. This method has a method of creating an interpolation frame using motion compensation and interpolating interpolation between frames adjacent to the interpolation frame. This motion compensation uses a motion vector detected by a Block Matching Algorithm (BMA) method. The block matching algorithm method divides a first frame of a continuous image into a plurality of first blocks, searches for a second block having the highest correlation from a second frame adjacent to the first frame for each first block, A method of obtaining a motion vector from two blocks to a first block.

이와 같은 움직임 보상을 이용하는 프레임 보간 방법은, 움직임 보상에 의해 보간 프레임을 생성할 때, 제 1 참조 프레임과 제 2 참조 프레임 사이에 관해 구해진 제 1 움직임 벡터를 보간 프레임 면과 제 1 참조 프레임 사이의 제 2 움직임 벡터로 변환하는 스케일 변환이라고 불리워지는 조작을 행한다. 이렇게 하여 스케일 변환에 의해 얻어진 제 2 움직임 벡터를 이용하여 움직임 보상을 행함으로써, 보간프레임을 생성한다. 즉, 제 2 움직임 벡터의 종점을 제 1 프레임 상에 고정하고, 제 1 프레임 상의 그 제 2 움직임 벡터의 종점이 가리키는 블록의 화상 데이터를 제 2 움직임 벡터의 시점이 가리키는 보간 프레임 면상의 블록의 위치에 복사한다. 이와 같이 종래의 프레임 보간 방법은 블록 기반의 영상 처리 방법을 기반으로 하여 움직임 예측과 움직임 보상을 실행하여 이루어진다.In the frame interpolation method using such motion compensation, when the interpolation frame is generated by the motion compensation, the first motion vector obtained with respect to the first reference frame and the second reference frame is interpolated between the interpolation frame surface and the first reference frame. An operation called scale conversion is performed to convert the second motion vector. The interpolation frame is generated by performing motion compensation using the second motion vector obtained by the scale conversion in this way. That is, the end point of the second motion vector is fixed on the first frame, and the position of the block on the interpolation frame plane where the start point of the second motion vector points to the image data of the block indicated by the end point of the second motion vector on the first frame. Copy to As described above, the conventional frame interpolation method is performed by executing motion prediction and motion compensation based on a block-based image processing method.

그러나 종래의 블록 기반 영상처리 방법으로 이루어진 프레임 보간 방법은 영상의 회전이나 확대, 축소와 같은 파라미터적(parametric) 움직임을 표현할 수 없어 이러한 움직임이 많은 영상에서는 블록현상(blocking artifact)에 의한 화질 열화가 발생하기 쉽다는 문제점이 있다.However, the frame interpolation method using the conventional block-based image processing method cannot express parametric movements such as rotation, enlargement, and reduction of an image. There is a problem that it is easy to occur.

따라서 본 발명이 이루고자 하는 첫 번째 기술적 과제는 홀드형 화상 표시 장치(hold type display)에서 발생하는 블록현상(blocking artifact)에 의한 움직임 블러링(motion blurring) 현상을 효율적으로 제거하여 프레임 보간시 생길 수 있는 화질 열화를 최소화할 수 있는 프레임 보간 방법을 제공하는 것이다.Accordingly, the first technical problem to be achieved by the present invention is to efficiently remove motion blurring caused by blocking artifacts occurring in a hold type display. It is to provide a frame interpolation method that can minimize image degradation.

본 발명이 이루고자 하는 두 번째 기술적 과제는 상기 프레임 보간 방법을 이용한 프레임 보간 장치를 제공하는 것이다.The second technical problem to be achieved by the present invention is to provide a frame interpolation apparatus using the frame interpolation method.

본 발명은 상기 첫 번째 기술적 과제를 달성하기 위하여,The present invention to achieve the first technical problem,

제 1 프레임 및 제 2 프레임을 포함하는 연속된 영상신호를 입력하고, 상기 제 1 프레임과 상기 제 2 프레임 간의 움직임을 추정하는 단계; 상기 추정된 움직임으로부터 상기 제 1 프레임과 상기 제 2 프레임 간의 움직임 벡터를 생성하는 단계; 상기 생성된 움직임 벡터로부터 삽입하고자 하는 보간 프레임의 객체와 배경을 식별하는 단계; 및 상기 객체를 와핑 변환하고, 상기 배경에 블록 기반 프레임 보간 방법을 적용하여 상기 제 1 프레임과 상기 제 2 프레임 사이에 상기 보간 프레임을 삽입하는 단계를 포함하는 와핑 변환을 이용한 프레임 보간 방법을 제공한다.Inputting a continuous video signal including a first frame and a second frame and estimating a motion between the first frame and the second frame; Generating a motion vector between the first frame and the second frame from the estimated motion; Identifying an object and a background of an interpolation frame to be inserted from the generated motion vector; And inserting the interpolation frame between the first frame and the second frame by warping the object and applying a block-based frame interpolation method to the background. .

본 발명은 상기 두 번째 기술적 과제를 달성하기 위하여,The present invention to achieve the second technical problem,

제 1 프레임 및 제 2 프레임을 포함하는 연속된 영상신호를 입력하고, 상기 제 1 프레임과 상기 제 2 프레임 간의 움직임을 추정하는 움직임 추정부; 상기 추정된 움직임으로부터 상기 제 1 프레임과 상기 제 2 프레임 간의 움직임 벡터를 생성하는 움직임 벡터 생성부; 상기 생성된 움직임 벡터로부터 삽입하고자 하는 보간 프레임의 객체와 배경을 식별하는 식별부; 및 상기 객체를 와핑 변환하고, 상기 배경에 블록 기반 프레임 보간 방법을 적용하여 상기 제 1 프레임과 상기 제 2 프레임 사이에 상기 보간 프레임을 삽입하는 보간 프레임 삽입부를 포함하는 와핑 변환 을 이용한 프레임 보간 장치를 제공한다.A motion estimator for inputting a continuous video signal including a first frame and a second frame and estimating a motion between the first frame and the second frame; A motion vector generator configured to generate a motion vector between the first frame and the second frame from the estimated motion; An identification unit for identifying an object and a background of an interpolation frame to be inserted from the generated motion vector; And an interpolation frame inserter for inserting the interpolation frame between the first frame and the second frame by warping the object and applying a block-based frame interpolation method to the background. to provide.

이하, 첨부된 도면 및 실시예를 참조하여 본 발명을 더욱 상세히 설명하지만, 본 발명이 이에 의해 제한되는 것은 아니다.Hereinafter, the present invention will be described in more detail with reference to the accompanying drawings and examples, but the present invention is not limited thereto.

도 1은 본 발명에 따른 와핑 변환을 이용한 프레임 보간 방법의 흐름도이다.1 is a flowchart of a frame interpolation method using warping transformation according to the present invention.

우선, 프레임을 보간하고자 하는 영상을 입력한다. 입력 영상은 시간적으로 연속된 프레임 단위로 입력되며, 그 중 현재의 프레임을 제 2 프레임, 이보다 시간적으로 앞선 직전 프레임을 제 1 프레임으로 정의하고 상술하기로 한다. First, an image for interpolating a frame is input. The input image is input in units of frames that are temporally contiguous, and a current frame is defined as a second frame, and a frame immediately preceding the temporal frame is defined as a first frame.

입력영상의 신호가 RGB 신호인 LCD 모니터의 경우 현재 60Hz의 프레임률로 주사하고 있으나 큰 화면과 액정(Liquid crystal)의 특성으로 인하여 화면의 변화가 큰 경우에는 움직임 지터나 움직임 블러링(motion blurring)이 발생한다. 60Hz의 입력 영상을 제안된 기법을 통해 90Hz의 출력 영상으로 변환하여 화면에 출력함으로써 이러한 화질 열화를 개선할 수 있다. In case of LCD monitor whose input image signal is RGB signal, it scans at the frame rate of 60Hz, but if the screen change is large due to the characteristics of large screen and liquid crystal, motion jitter or motion blurring This happens. This quality deterioration can be improved by converting a 60Hz input image into a 90Hz output image through the proposed technique and outputting it to the screen.

또한 낮은 프레임률로 압축된 영상을 높은 프레임률을 갖는 고화질의 영상으로 바꾸는 경우에도 사용될 수 있다. 즉, 입력영상이 기존의 아날로그나 디지털 신호인 YCbCr 또는 YPbPr의 낮은 프레임률로 압축된 영상을 높은 프레임률을 신호를 가지는 고화질의 영상으로 바꾸는 경우에도 사용될 수 있다. YCbCr 또는 YPbPr은 색상신호가 아니라 휘도(Luminance)를 지칭하는 Y와 색차신호 Cb(Pb), Cr(Pr)에 기반한 색표현 방식이다. 인간의 눈이 색상보다 밝기에 더 민감하기 때문에 색차신호를 이용해서 처리하는 것이다. 신호 표준들을 보면 Pb, Pr은 아날로그 색차신호를 호칭할때 사용하는 용어이고, Cb, Cr은 디지털 신호로 부호화 했을때 사용하는 용 어이다. 그러나 이를 혼용해서 지칭하는 경우가 많다. 본 발명에서 입력영상의 신호는 YCbCr 또는 YPbPr의 신호인 480i, 720i 또는 1080i등의 영상을 보간하는 경우에 사용될 수 있다.It can also be used in the case of converting an image compressed at a low frame rate into a high quality image having a high frame rate. That is, it may be used when the input image is converted into a high-quality image having a high frame rate of a signal that is compressed at a low frame rate of the existing analog or digital signal YCbCr or YPbPr. YCbCr or YPbPr is not a color signal but a color expression method based on Y, which refers to luminance, and color difference signals Cb (Pb) and Cr (Pr). Since the human eye is more sensitive to brightness than color, it is processed using a chrominance signal. In the signal standards, Pb and Pr are terms used to refer to analog color difference signals, and Cb and Cr are terms used when encoded into digital signals. However, they are often referred to interchangeably. In the present invention, the signal of the input image may be used when interpolating an image of 480i, 720i, or 1080i, which is a signal of YCbCr or YPbPr.

다음으로, 프레임간의 움직임을 추정한다(100 과정). 움직임 추정(Motion Estimation:ME)은 이전 프레임과 현재 프레임 사이에서 가장 비슷한 블록을 찾는 작업이다. 움직임 추정 방법은 움직임 정도의 정확도, 실시간 처리가능성 및 하드웨어 구현 등을 고려하여 블럭 매칭 알고리즘(Block Matching Algorithm:BMA)을 이용하고 있다. 프레임과 프레임 사이에 삽입될 영상 신호는 주로 블럭 매칭 알고리즘을 사용하여 생성되게 된다.Next, the motion between frames is estimated (step 100). Motion Estimation (ME) is the task of finding the most similar block between the previous frame and the current frame. The motion estimation method uses a Block Matching Algorithm (BMA) in consideration of accuracy of motion, real-time processing, and hardware implementation. The video signal to be inserted between the frames is mainly generated using a block matching algorithm.

시간적으로 연속하는 두 프레임간의 움직임을 추정한 후, 움직임 벡터를 생성한다(110 과정). 연속된 프레임간의 추정된 움직임으로부터 보간될 프레임에 움직임 벡터를 할당하게 된다. 이전 프레임과 현재 프레임을 기준으로 각 블록의 움직임 벡터를 구하고, 구해진 움직임 벡터가 보간 프레임의 블록에 미치는 영향이 큰 블록들을 후보로 정한다. 그리고 보간될 프레임의 움직임 벡터를 생성하기 위해 후보 블록들의 움직임 벡터에 보상될 블록에 미치는 영향을 가중치를 두고 합하여 보간 프레임 블록의 움직임 벡터를 결정한다.After estimating the motion between two consecutive frames in time, a motion vector is generated (step 110). A motion vector is assigned to a frame to be interpolated from the estimated motion between successive frames. A motion vector of each block is obtained based on the previous frame and the current frame, and blocks having a large influence on the blocks of the interpolated frame are determined as candidates. In order to generate the motion vector of the frame to be interpolated, the motion vector of the candidate blocks is added to the blocks to be compensated with weights to determine the motion vector of the interpolated frame block.

다음으로, 연산된 움직임 벡터를 기준으로 배경과 객체를 식별한다(120 과정). 이 때, 움직임 벡터의 변화율이 배경과 객체를 식별하는 기준이 된다. 움직임 벡터의 변화율은 제 1 프레임 내의 소정의 블록과 상기 블록에 해당하는 제 2 프레임 내의 블록간의 움직임 벡터의 기울기(gradient)이다. 움직임 벡터의 기울기 (gradient)가 거의 없는 경우는 움직임이 없는 배경 부분이 되며, 일정한 기울기(gradient)를 가지는 경우는 움직임을 가지는 배경이 된다. 한편, 유사한 움직임 벡터의 기울기(gradient)의 값을 가진 블록들은 동일한 객체로 취급된다.Next, the background and the object are identified based on the calculated motion vector (step 120). At this time, the rate of change of the motion vector serves as a reference for identifying the background and the object. The rate of change of the motion vector is the gradient of the motion vector between the predetermined block in the first frame and the block in the second frame corresponding to the block. If there is almost no gradient of the motion vector, the background part is motionless. If the motion vector is constant, the background is motionless. On the other hand, blocks with gradient values of similar motion vectors are treated as the same object.

그 다음으로, 객체로 판단된 부분은 와핑 변환을 적용하여 프레임을 보간한다(130 과정).Next, the part determined as the object interpolates the frame by applying the warping transformation (step 130).

배경으로 판단된 부분은 종래의 블록 기반 프레임 보간 방법을 적용하여 프레임을 보간한다(131 과정). The part determined as the background interpolates the frame by applying the conventional block-based frame interpolation method (step 131).

이러한 하이브리드 방법은 와핑 변환의 장점과 블록 기반 프레임 보간 기법의 장점을 모두 수용할 수 있어서, 적은 블록현상(blocking artifact)을 가진 프레임을 빠르게 보간 할 수 있다.This hybrid method can accommodate both the advantages of the warping transform and the advantages of the block-based frame interpolation technique, and thus can quickly interpolate frames with less blocking artifacts.

마지막으로, 보간 프레임을 생성한다(140 과정).Finally, an interpolation frame is generated (step 140).

도 2는 본 발명에 따른 와핑 변환을 이용한 프레임 보간 장치의 블록도이다. 본 발명에 따른 프레임 보간 장치는 움직임 추정부(200), 움직임 벡터 생성부(210), 식별부(220) 및 보간 프레임 생성부(230)를 포함하여 이루어진다. 2 is a block diagram of a frame interpolation apparatus using warping transformation according to the present invention. The frame interpolation apparatus according to the present invention includes a motion estimator 200, a motion vector generator 210, an identifier 220, and an interpolation frame generator 230.

움직임 추정부(200)는 입력 영상의 시간적으로 연속된 제 1 프레임과 제 2 프레임을 이용하여 백워드 움직임 추정(Backward Motion Estimation)을 수행한다. 백워드 움직임 추정이란 도 3을 참조하면, 시간적으로 이전인 제 1 프레임(300)과 이와 연속된 제 2 프레임(310)으로부터 보간될 프레임(320)의 움직임 벡터를 추정하는 역방향 움직임 추정을 의미한다.The motion estimator 200 performs backward motion estimation by using the temporally contiguous first and second frames of the input image. Referring to FIG. 3, backward motion estimation refers to backward motion estimation for estimating a motion vector of a frame 320 to be interpolated from a first frame 300 which is temporally previous and a second frame 310 consecutive to it. .

움직임 벡터 생성부(210)는 이전 프레임과 현재 프레임을 기준으로 각 블록 의 움직임 벡터를 구하고, 구해진 움직임 벡터로부터 보간 프레임의 블록에 미치는 영향이 큰 블록들을 후보로 정한다. 후보 블록들의 움직임 벡터에 보상될 블록에 미치는 영향을 가중치를 두고 합하여 보간 프레임 블록의 움직임 벡터를 결정한다.The motion vector generator 210 obtains a motion vector of each block based on the previous frame and the current frame, and determines candidate blocks having a large influence on the blocks of the interpolated frame from the obtained motion vectors. A motion vector of the interpolated frame block is determined by adding the weighted influences to the blocks to be compensated to the motion vectors of the candidate blocks.

식별부(220)는 움직임 벡터의 기울기를 연산하여 객체와 배경을 식별한다. 움직임 추정에 의해 구해진 움직임 벡터를 이용하여 움직임 벡터의 기울기를 연산한다. 움직임 벡터의 기울기를 연산하여 해당 블록이 어떤 이미지 영역에 속하는 지를 추정하여 배경과 객체를 식별하게 된다The identification unit 220 identifies the object and the background by calculating the slope of the motion vector. The slope of the motion vector is calculated using the motion vector obtained by the motion estimation. By calculating the slope of the motion vector, the image and object are identified by estimating which image area the block belongs to.

보간 프레임 생성부(230)는 객체로 판단된 부분은 와핑 변환을 수행하고, 배경으로 판단된 부분은 기존의 블록 기반 프레임 보간 방법을 수행하여 영상을 보간한다.The interpolated frame generation unit 230 performs warping transformation on the portion determined as the object and interpolates the image by performing the existing block-based frame interpolation method on the portion determined as the background.

도 3은 본 발명에 따른 움직임 벡터의 추정 과정이다. 일례로, 우선 제 1 프레임(300)과 이와 연속된 제 2 프레임(310)의 픽셀들을 우선 5×5 블록으로 나눈다. 본 발명은 시간적으로 이전인 제 1 프레임(300)과 이와 연속된 제 2 프레임(310)으로부터 보간될 프레임(320)의 움직임 벡터를 추정하는 역방향 움직임 추정을 적용한다(330). 즉, 이전 프레임과 현재 프레임을 기준으로 보간 프레임의 블록의 움직임 벡터를 구하고, 구해진 움직임 벡터가 보간 프레임의 블록에 미치는 영향이 큰 블록(325)을 후보로 정한다. 후보 블록의 움직임 벡터가 보상될 블록에 미치는 영향을 가중치(321,322,323,324)를 곱한값들을 합하여 보간 프레임 블록의 움직임 벡터에 할당한다. 가중치는

Figure 112006017161343-pat00001
,
Figure 112006017161343-pat00002
,
Figure 112006017161343-pat00003
,
Figure 112006017161343-pat00004
의 각각의 면적이 다. 시간적으로 연속한 제 1 프레임(300)과 제 2 프레임(310) 사이의 움직임 벡터들의 절반값만큼 이동한 값과 대치된다. 수식으로 표현하면 다음과 같다.3 is a process of estimating a motion vector according to the present invention. For example, first, the pixels of the first frame 300 and the second frame 310 consecutively divided are first divided into 5 × 5 blocks. The present invention applies backward motion estimation to estimate the motion vector of the frame 320 to be interpolated from the first frame 300 and the second frame 310 that are temporally previous (330). That is, a motion vector of a block of an interpolation frame is obtained based on a previous frame and a current frame, and a block 325 having a large influence on the block of the interpolation frame is determined as a candidate. The influence of the motion vector of the candidate block on the block to be compensated for is added to the motion vector of the interpolated frame block by adding the values multiplied by the weights 321, 322, 323, and 324. The weight is
Figure 112006017161343-pat00001
,
Figure 112006017161343-pat00002
,
Figure 112006017161343-pat00003
,
Figure 112006017161343-pat00004
Each of the area is c. It is replaced by a value shifted by half of the motion vectors between the temporally continuous first frame 300 and the second frame 310. Expressed as an expression:

Figure 112006017161343-pat00005
Figure 112006017161343-pat00005

그리고,

Figure 112006017161343-pat00006
는 움직임 벡터의 각각의 후보의 가중치를 나타내며,
Figure 112006017161343-pat00007
는 보간 프레임의
Figure 112006017161343-pat00008
번째 블록의 추정된 움직임 벡터를 나타낸다. 즉, 보간 프레임의
Figure 112006017161343-pat00009
번째 블록의 추정된 움직임 벡터는 각각의 움직임 벡터의 각각의 후보의 가중치와
Figure 112006017161343-pat00010
번째 블록의 추정된 움직임 벡터를 곱한값을 모두 더하고, 이 값에 가중치들의 총합을 나누어서 얻어지는 움직임 벡터의 절반값이 된다And,
Figure 112006017161343-pat00006
Denotes the weight of each candidate in the motion vector,
Figure 112006017161343-pat00007
Of the interpolation frame
Figure 112006017161343-pat00008
It represents the estimated motion vector of the first block. That is, the interpolation frame
Figure 112006017161343-pat00009
The estimated motion vector of the first block is equal to the weight of each candidate of each motion vector.
Figure 112006017161343-pat00010
Add up the product of the estimated motion vector of the first block and add this value to the half of the motion vector obtained by dividing the sum of the weights.

도 4a는 본 발명에 따른 움직임 벡터와 움직임 분할 과정이다.4A illustrates a motion vector and a motion segmentation process according to the present invention.

보간 프레임의 각각의 매크로 블록에 따른 움직임 벡터를 연산한 후에 이를 각각의 매크로 블록에 도시하면, 비슷한 움직임을 가지는 벡터는 객체로 분할되고, 아무런 변화가 없는 블록은 배경으로 분할된다. 배경과 객체 사이는 경계면에 해당된다.After calculating the motion vector according to each macro block of the interpolation frame and showing it in each macro block, vectors having similar motions are divided into objects, and blocks having no change are divided into backgrounds. Between the background and the object is a boundary.

도 4b는 본 발명에 따른 적응적 움직임 보상 필드를 도시한 것이다.4b illustrates an adaptive motion compensation field according to the present invention.

도 4b를 참조하면, 움직임 보상과 블록 매칭 알고리즘(Block Matching Algorithm)에 기반한 2-D 매크로 블록을 내부 영역과 객체의 경계면으로 도시하고 있다. 도 4a를 참조하면 벡터의 움직임이 없는 부분은 도 4b에서 배경(410)이 되고, 비슷한 움직임을 가지는 벡터는 하나의 객체(430)가 된다. 본 도 4b에서 객체는 내부영역으로 2-D 메쉬(mesh)로 도시된다. 경계면(420)은 인접한 두개의 프레임을 사용하여 움직임 추정시 오버랩(overlap)되는 부분이다.Referring to FIG. 4B, a 2-D macroblock based on motion compensation and a block matching algorithm is illustrated as an interface between an internal region and an object. Referring to FIG. 4A, a portion without a motion of the vector becomes a background 410 in FIG. 4B, and a vector with similar movement becomes an object 430. In FIG. 4B, the object is shown as a 2-D mesh as an inner region. The boundary surface 420 is an overlapped portion in motion estimation using two adjacent frames.

도 5는 본 발명에 따른 추정된 움직임 벡터를 이용한 와핑 변환 과정이다.5 is a warping transformation process using the estimated motion vector according to the present invention.

도 5를 참조하면, 네개의 블록의 중앙(

Figure 112006017161343-pat00011
,
Figure 112006017161343-pat00012
,
Figure 112006017161343-pat00013
,
Figure 112006017161343-pat00014
)과 연결된 움직임 벡터(
Figure 112006017161343-pat00015
,
Figure 112006017161343-pat00016
,,
Figure 112006017161343-pat00018
)로부터 와핑변환을 적용하여
Figure 112006017161343-pat00019
,
Figure 112006017161343-pat00020
,
Figure 112006017161343-pat00021
,
Figure 112006017161343-pat00022
를 생성하여 보간 프레임의 블록을 재구성한다. 이 변환은 3×3 행렬에 의해 동차의 3-벡터로 선형 변환시키는 과정이다. 구체적인 수학식은 다음과 같다.5, the center of the four blocks (
Figure 112006017161343-pat00011
,
Figure 112006017161343-pat00012
,
Figure 112006017161343-pat00013
,
Figure 112006017161343-pat00014
) And the motion vector associated with
Figure 112006017161343-pat00015
,
Figure 112006017161343-pat00016
, ,
Figure 112006017161343-pat00018
Apply warping transformation from
Figure 112006017161343-pat00019
,
Figure 112006017161343-pat00020
,
Figure 112006017161343-pat00021
,
Figure 112006017161343-pat00022
Reconstruct the blocks of the interpolated frame by generating. This transformation is the process of linear transformation into a homogeneous three-vector by a 3x3 matrix. The specific equation is as follows.

Figure 112006017161343-pat00023
Figure 112006017161343-pat00023

즉, 이를 간단히 표현하면

Figure 112006017161343-pat00024
의 형식으로 표현할 수 있다.
Figure 112006017161343-pat00025
는 동차(Homogeneous) 행렬이라고 정의한다. 여기서 9개의 동차(Homogeneous) 행렬의 각 성분은 보간 프레임의 성분들을 결정하게 된다. 참조 프레임의 네개의 중앙점(
Figure 112006017161343-pat00026
,
Figure 112006017161343-pat00027
,
Figure 112006017161343-pat00028
,
Figure 112006017161343-pat00029
)과 이에 해당하는 보간 프레임의 (
Figure 112006017161343-pat00030
,
Figure 112006017161343-pat00031
,
Figure 112006017161343-pat00032
,
Figure 112006017161343-pat00033
)변형된 점으로부터 동차(Homogeneous) 행렬
Figure 112006017161343-pat00034
를 결정할 수 있고, 이 동차(Homogeneous) 행렬을 적용하여 모든 픽셀의 움직임 벡터가 결정된다. 즉, 종래의 블록 기반 방식의 프레임 보간 방법은 블록내의 모든 픽셀들이 하나의 움직임 벡터를 가지는 방식이고, 본 발명은 와핑 변환을 적용한 움직임 벡터가 선형적으로 부드럽게 변하는 것이다. In short,
Figure 112006017161343-pat00024
It can be expressed in the form of.
Figure 112006017161343-pat00025
Is defined as a homogeneous matrix. Here, each component of the nine homogeneous matrices determines components of the interpolation frame. The four center points of the reference frame (
Figure 112006017161343-pat00026
,
Figure 112006017161343-pat00027
,
Figure 112006017161343-pat00028
,
Figure 112006017161343-pat00029
) And the corresponding interpolation frame's (
Figure 112006017161343-pat00030
,
Figure 112006017161343-pat00031
,
Figure 112006017161343-pat00032
,
Figure 112006017161343-pat00033
Homogeneous matrix from transformed points
Figure 112006017161343-pat00034
The motion vectors of all the pixels are determined by applying this homogeneous matrix. That is, in the conventional block-based frame interpolation method, all pixels in a block have a single motion vector. In the present invention, a motion vector to which a warping transformation is applied is linearly and smoothly changed.

도 6a는 연속된 이전 프레임의 영상(제 1 프레임)이고 도 6b(제 2 프레임)는 현재 프레임의 영상이다. 도 6c는 시간적으로 연속된 이전 프레임과 현재 프레임으로부터 추정된 보간 프레임의 움직임 벡터이다. 도 6c에서 점으로 표시된 영역이 움직임이 없는 배경을 나타내고, 일정한 방향을 표시하고 있는 영역이 움직임이 있는 객체를 나타내는 것이다.FIG. 6A is an image of a continuous previous frame (first frame) and FIG. 6B (second frame) is an image of the current frame. 6C is a motion vector of an interpolated frame estimated from a temporally continuous previous frame and a current frame. In FIG. 6C, an area indicated by a dot represents a background without movement, and an area displaying a certain direction represents an object with movement.

도 6d는 생성된 움직임 벡터로부터 객체와 배경을 분리한 영상을 도시한 것이다. 도 6d를 참조하면, 검정색 부분이 움직임이 없는 배경 부분을 도시한 것이고, 회색 부분이 움직임이 있는 객체부분, 그리고 흰색 부분이 배경과 객체의 경계 부분을 도시하고 있는 것이다.6D illustrates an image obtained by separating an object and a background from the generated motion vector. Referring to FIG. 6D, a black portion shows a background portion without movement, a gray portion shows an object portion with movement, and a white portion shows a boundary portion between the background and the object.

도 6e는 와핑 변환 만을 적용한 보간 프레임의 영상을 도시한 것이다.6E illustrates an image of an interpolated frame to which only warping transform is applied.

도 6f는 배경에 종래의 블록 기반 프레임 보간 방법이 적용되고, 객체에 와핑 변환을 이용한 프레임 보간 방법이 적용된 하이브리드 방식을 이용한 보간 프레 임 영상을 도시한 것이다.6F illustrates an interpolation frame image using a hybrid method in which a conventional block-based frame interpolation method is applied to a background and a frame interpolation method using a warping transform is applied to an object.

도 7a는 종래의 블록 기반 프레임 보간 방법을 기반으로 한 보간 프레임의 영상의 객체 부분의 일부을 확대하여 도시한 것이고, 도 7b는 본 발명에 따른 보간 프레임의 영상, 즉 도 6f 의 객체 부분의 일부를 확대하여 도시한 것이고, 도 7c는 와핑 변환만을 적용한 보간 프레임의 영상, 즉 도 6e의 객체 부분의 일부를 확대하여 도시한 것이다.7A is an enlarged view of a part of an object part of an image of an interpolation frame based on a conventional block-based frame interpolation method, and FIG. 7B is a part of an image of an interpolation frame according to the present invention, that is, a part of the object part of FIG. 6F. 7C is an enlarged view of an image of an interpolation frame to which only a warping transformation is applied, that is, a part of an object part of FIG. 6E.

도 7a와 도 7b를 비교하면 배경부분에는 화질의 차이가 없음을 알 수 있는 반면 움직임이 많은 객체 부분은 본 발명을 적용한 보간 프레임이 블록현상(blocking artifact) 정도가 현저하게 줄어들었음을 확인할 수 있다. 한편 도 7c는 배경과 객체 모두를 와핑 변환하여 생성한 보간 프레임의 영상을 도시한 것이다. 도 7b와 도 7c의 영상을 비교해 볼 때 배경 부분과 객체 부분의 화질이 매우 흡사하다. 이는 움직임이 없는 배경부분은 와핑변환을 적용하지 않고 종래의 블록 기반의 프레임 보간 방법을 적용하여도 보간 프레임의 전체적인 화질의 열화가 생기지 않음을 의미한다.7A and 7B, it can be seen that there is no difference in image quality in the background part, whereas the object part with a lot of motion shows that the blocking artifact degree of the interpolated frame to which the present invention is applied is significantly reduced. . FIG. 7C illustrates an image of an interpolation frame generated by warping a background and an object. When comparing the images of FIG. 7B and FIG. 7C, the image quality of the background part and the object part is very similar. This means that the background part without motion does not deteriorate the overall image quality of the interpolated frame even when the conventional block-based frame interpolation method is applied without applying the warping transformation.

본 발명의 실시예를 설명하기로 한다. 화질 개선을 위한 프레임 보간 방법에 대해 설명하면, LCD TV의 경우 현재 60Hz의 프레임률로 주사하고 있으나 큰 화면과 liquid crystal의 특성으로 인해 화면 변화가 큰 경우에는 움직임 지터나 움직임 블러링이 발생한다. 60Hz의 입력 영상을 제안된 방법을 통해 90Hz의 출력 영상으로 변환하여 화면에 출력함으로써 이러한 화질 열화를 최소화 시킨다.본 발명은 또한 ASIC를 통한 하드웨어 구현으로 실시간 적용이 가능하다. An embodiment of the present invention will be described. In the frame interpolation method for improving image quality, an LCD TV is currently scanning at a frame rate of 60 Hz, but motion jitter or motion blur occurs when the screen change is large due to the characteristics of a large screen and a liquid crystal. By converting the input image of 60Hz to the output image of 90Hz through the proposed method and minimizing such degradation of image quality, the present invention can also be applied in real time by hardware implementation through ASIC.

도 8 은 본 발명에 따른 프레임 보간 방법을 적용하여 60Hz의 영상이 90Hz의 프레임으로 바뀌는 과정을 도시하고 있다. 예를 들어 60Hz의 주파수를 가지는 영상이 한 프레임 마다 20ms 단위로 입력된다고 가정할 경우 90Hz의 주파수를 가지는 영상은 한 프레임 마다 13.3ms 단위로 프레임이 입력된다. 도 8을 참조하면 60Hz의 주파수를 가지는 영상의 프레임이 20ms 시간 단위로 입력되면 보간하고자 하는 90Hz의 주파수를 가지는 영상의 프레임은 13.3ms 시간 단위로 출력되어야 한다. 한편, 90Hz의 제 1 프레임(810)이 60Hz의 주파수를 가지는 영상의 제 1 프레임(800)과 동일 시간에서 출력되도록 놓는다. 그러면 입력된 60Hz의 주파수를 가지는 영상의 제 1 프레임(800)과 제 2 프레임(801) 사이의 2/3의 시간에 90Hz의 제 2 프레임(811)이 생성되고, 90Hz의 제 3 프레임(812)은 60Hz의 제 2 프레임(801)과 제 3 프레임(802)의 1/3의 시간 간격에 생성된다. 90Hz의 제 4 프레임(813)은 60Hz의 제 3 프레임(802)과 동일한 시간에 출력되고, 연속적으로 이러한 과정이 반복되게 된다. 본 발명에 따르면 화질의 열화를 가장 최소화 하면서 60Hz의 주파수를 가지는 영상을 90Hz로 변환할 수 있다.8 illustrates a process of changing an image of 60 Hz into a frame of 90 Hz by applying the frame interpolation method according to the present invention. For example, assuming that an image having a frequency of 60 Hz is input in 20 ms units per frame, an image having a frequency of 90 Hz is input in 13.3 ms units per frame. Referring to FIG. 8, when a frame of an image having a frequency of 60 Hz is input in a 20 ms time unit, a frame of an image having a frequency of 90 Hz to be interpolated should be output in a 13.3 ms time unit. On the other hand, the first frame 810 of 90Hz is placed to be output at the same time as the first frame 800 of the image having a frequency of 60Hz. Then, a second frame 811 of 90 Hz is generated at a two-thirds time between the first frame 800 and the second frame 801 of the image having a frequency of 60 Hz, and the third frame 812 of 90 Hz. ) Is generated at a time interval of 1/3 of the second frame 801 and the third frame 802 at 60 Hz. The fourth frame 813 at 90 Hz is output at the same time as the third frame 802 at 60 Hz, and this process is repeated continuously. According to the present invention, an image having a frequency of 60 Hz can be converted to 90 Hz while minimizing degradation of image quality.

비디오 포맷 변환을 위한 프레임 보간 방법을 설명하면, 다양한 표준을 따르는 프로그램들을 다양한 화면으로 보기 위해서는 이들간의 비디오 포맷 변환이 필요하다. 최근 보급이 확산되고 있는 HDTV의 경우, 고해상도의 프레임률이 필요하나, 현재 대부분의 방송 프로그램은 이를 지원하지 못하고 기존의 NTSC 방식이나 PAL 방식을 사용하고 있다. 따라서 낮은 프레임률을 가지고 방송되는 현재의 방송 프로그램을 HDTV에서 보기 위해서는 프레임 보간 방법을 통한 비디오 포맷 변환 과 정이 반드시 필요하다. 본 발명을 적용하면 보다 좋은 화질의 포맷 변환이 가능하다.When the frame interpolation method for video format conversion is described, video format conversion between them is required to view programs conforming to various standards on various screens. HDTV, which has recently been spreading, requires a high frame rate. However, most broadcast programs do not support this and use the existing NTSC or PAL method. Therefore, video format conversion through frame interpolation method is essential to view the current broadcasting program broadcasted with low frame rate on HDTV. Application of the present invention enables format conversion of better image quality.

본 발명은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터(정보 처리 기능을 갖는 장치를 모두 포함한다)가 읽을 수 있는 코드로서 구현하는 것이 가능하다.The present invention can be embodied as code that can be read by a computer (including all devices having an information processing function) in a computer-readable recording medium.

컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 테이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 장치의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있다.또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 장치에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The computer-readable recording medium includes all kinds of recording devices in which data is stored which can be read by a computer system. Examples of computer-readable recording devices include ROM, RAM, CD-ROM, magnetic tape, floppy disks, optical data storage devices, and the like. Computer-readable recording media are distributed and distributed over networked computer devices. Computer readable code may be stored and executed in such a manner.

본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사항에 의해 정해져야 할 것이다.Although the present invention has been described with reference to the embodiments shown in the drawings, this is merely exemplary, and it will be understood by those skilled in the art that various modifications and equivalent other embodiments are possible. Therefore, the true technical protection scope of the present invention will be defined by the technical details of the appended claims.

상술한 바와 같이 본 발명에 의하면, 블록 기반 영상처리 방법을 적용하는 프레임 보간 방법과 와핑 변환 프레임 보간 방법을 동시에 적용함으로써, 홀드형 화상 표시 장치(hold type display)에서 발생하는 움직임 블러링(motion blurring) 현상을 효율적으로 제거하여 프레임 보간시 발생할 수 있는 화질 열화를 최소화하는 효과가 있다.As described above, according to the present invention, a motion blurring generated in a hold type display by simultaneously applying a frame interpolation method and a warping transform frame interpolation method to which a block-based image processing method is applied. ) Effect can be effectively removed to minimize image quality deterioration that can occur during frame interpolation.

Claims (12)

제 1 프레임 및 제 2 프레임을 포함하는 연속된 영상신호를 입력하고, 상기 제 1 프레임과 상기 제 2 프레임 간의 움직임을 추정하는 단계;Inputting a continuous video signal including a first frame and a second frame and estimating a motion between the first frame and the second frame; 상기 추정된 움직임으로부터 상기 제 1 프레임과 상기 제 2 프레임 간의 움직임 벡터를 생성하는 단계;Generating a motion vector between the first frame and the second frame from the estimated motion; 상기 생성된 움직임 벡터로부터 삽입하고자 하는 보간 프레임의 객체와 배경을 식별하는 단계; 및Identifying an object and a background of an interpolation frame to be inserted from the generated motion vector; And 상기 객체를 와핑 변환하고, 상기 배경에 블록 기반 프레임 보간 방법을 적용하여 상기 제 1 프레임과 상기 제 2 프레임 사이에 상기 보간 프레임을 삽입하는 단계를 포함하는 와핑 변환을 이용한 프레임 보간 방법.Warping transformation of the object and inserting the interpolation frame between the first frame and the second frame by applying a block-based frame interpolation method to the background. 제 1 항에 있어서,The method of claim 1, 상기 영상신호는 RGB 신호인 것을 특징으로 하는 와핑 변환을 이용한 프레임 보간 방법.The image signal is a frame interpolation method using warping transform, characterized in that the RGB signal. 제 1 항에 있어서,The method of claim 1, 상기 영상신호는 YCbCr 또는 YPbPr 신호인 것을 특징으로 하는 와핑 변환을 이용한 프레임 보간 방법.And the video signal is a YCbCr or YPbPr signal. 제 1 항에 있어서,The method of claim 1, 상기 움직임을 추정하는 단계는 역방향의 움직임 추정인 것을 특징으로 하는 와핑 변환을 이용한 프레임 보간 방법.The step of estimating the motion is frame interpolation method using warping transform, characterized in that the backward motion estimation. 제 1 항에 있어서,The method of claim 1, 상기 움직임 벡터를 추정하는 단계는,Estimating the motion vector, 상기 제 1 프레임과 상기 제 2 프레임의 소정의 픽셀을 블록 단위로 구획하는 단계; 및 Dividing predetermined pixels of the first frame and the second frame in units of blocks; And 상기 제 1 프레임과 상기 제 2 프레임 간의 블록 단위의 움직임을 추정하는 단계를 포함하는 것을 특징으로 하는 와핑 변환을 이용한 프레임 보간 방법.Estimating a block-by-block motion between the first frame and the second frame. 제 1 항에 있어서,The method of claim 1, 상기 객체와 배경을 식별하는 단계는,Identifying the object and the background, 상기 제 1 프레임 내의 소정의 블록과 상기 블록에 해당하는 상기 제 2 프레임 내의 블록간의 움직임 벡터의 기울기를 연산하는 단계; 및Calculating a slope of a motion vector between a predetermined block in the first frame and a block in the second frame corresponding to the block; And 상기 연산된 움직임 벡터의 기울기에서 객체와 배경을 식별하는 단계를 포함하는 것을 특징으로 하는 와핑 변환을 이용한 프레임 보간 방법.And identifying an object and a background from the slope of the calculated motion vector. 제 1 항 내지 제 6 항 중 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for executing the method of any one of claims 1 to 6. 제 1 프레임 및 제 2 프레임을 포함하는 연속된 영상신호를 입력하고, 상기 제 1 프레임과 상기 제 2 프레임 간의 움직임을 추정하는 움직임 추정부;A motion estimator for inputting a continuous video signal including a first frame and a second frame and estimating a motion between the first frame and the second frame; 상기 추정된 움직임으로부터 상기 제 1 프레임과 상기 제 2 프레임 간의 움직임 벡터를 생성하는 움직임 벡터 생성부;A motion vector generator configured to generate a motion vector between the first frame and the second frame from the estimated motion; 상기 생성된 움직임 벡터로부터 삽입하고자 하는 보간 프레임의 객체와 배경을 식별하는 식별부; 및An identification unit for identifying an object and a background of an interpolation frame to be inserted from the generated motion vector; And 상기 객체를 와핑 변환하고, 상기 배경에 블록 기반 프레임 보간 방법을 적용하여 상기 제 1 프레임과 상기 제 2 프레임 사이에 상기 보간 프레임을 삽입하는 보간 프레임 삽입부를 포함하는 와핑 변환을 이용한 프레임 보간 장치.And an interpolation frame inserter which inserts the interpolation frame between the first frame and the second frame by warping the object and applying a block-based frame interpolation method to the background. 제 8 항에 있어서,The method of claim 8, 상기 영상신호는 RGB 신호인 것을 특징으로 하는 와핑 변환을 이용한 프레임 보간 장치.The image signal is a frame interpolation apparatus using warping transform, characterized in that the RGB signal. 제 8 항에 있어서,The method of claim 8, 상기 영상신호는 YCbCr 또는 YPbPr 신호인 것을 특징으로 하는 와핑 변환을 이용한 프레임 보간 장치.And the video signal is a YCbCr or YPbPr signal. 제 8 항에 있어서,The method of claim 8, 상기 움직임 벡터의 추정부는,The estimator of the motion vector, 상기 제 1 프레임과 상기 제 2 프레임의 소정의 픽셀을 블록 단위로 구획하는 구획부; 및 A partition unit for dividing the predetermined pixel of the first frame and the second frame in block units; And 상기 제 1 프레임과 상기 제 2 프레임 간의 블록 단위의 움직임을 추정하는 움직임 추정부를 포함하는 것을 특징으로 하는 와핑 변환을 이용한 프레임 보간 장치.And a motion estimator for estimating the motion in units of blocks between the first frame and the second frame. 제 8 항에 있어서,The method of claim 8, 상기 식별부는,The identification unit, 상기 제 1프레임 내의 소정의 블록과 상기 블록에 해당하는 상기 제 2 프레임 내의 블록간의 움직임 벡터의 기울기를 연산하는 연산부; 및An operation unit for calculating a slope of a motion vector between a predetermined block in the first frame and a block in the second frame corresponding to the block; And 상기 연산된 움직임 벡터의 기울기에서 객체와 배경을 식별하는 식별부를 포함하는 것을 특징으로 하는 와핑 변환을 이용한 프레임 보간 장치.And an identification unit for identifying an object and a background from the slope of the calculated motion vector.
KR1020060022745A 2005-12-30 2006-03-10 Frame Interpolation Method Using Warping Transform and Its Apparatus Expired - Fee Related KR100698640B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060022745A KR100698640B1 (en) 2005-12-30 2006-03-10 Frame Interpolation Method Using Warping Transform and Its Apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020050135985 2005-12-30
KR1020060022745A KR100698640B1 (en) 2005-12-30 2006-03-10 Frame Interpolation Method Using Warping Transform and Its Apparatus

Publications (1)

Publication Number Publication Date
KR100698640B1 true KR100698640B1 (en) 2007-03-21

Family

ID=41564136

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060022745A Expired - Fee Related KR100698640B1 (en) 2005-12-30 2006-03-10 Frame Interpolation Method Using Warping Transform and Its Apparatus

Country Status (1)

Country Link
KR (1) KR100698640B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102201297B1 (en) * 2020-05-29 2021-01-08 연세대학교 산학협력단 Apparatus and method for interpolating frames based on multiple flows

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08163572A (en) * 1994-12-07 1996-06-21 Nec Corp Moving picture encoding device using warping movement compensation
JPH08205163A (en) * 1995-01-27 1996-08-09 Nec Corp Motion compensative prediction image generating device
JPH1098729A (en) * 1996-09-20 1998-04-14 Hitachi Ltd Method of synthesizing inter-frame prediction image
JPH11285007A (en) * 1999-02-25 1999-10-15 Nec Corp Method and device for encoding moving image
US6037988A (en) * 1996-03-22 2000-03-14 Microsoft Corp Method for generating sprites for object-based coding sytems using masks and rounding average

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08163572A (en) * 1994-12-07 1996-06-21 Nec Corp Moving picture encoding device using warping movement compensation
JPH08205163A (en) * 1995-01-27 1996-08-09 Nec Corp Motion compensative prediction image generating device
US6037988A (en) * 1996-03-22 2000-03-14 Microsoft Corp Method for generating sprites for object-based coding sytems using masks and rounding average
JPH1098729A (en) * 1996-09-20 1998-04-14 Hitachi Ltd Method of synthesizing inter-frame prediction image
JPH11285007A (en) * 1999-02-25 1999-10-15 Nec Corp Method and device for encoding moving image

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102201297B1 (en) * 2020-05-29 2021-01-08 연세대학교 산학협력단 Apparatus and method for interpolating frames based on multiple flows
WO2021241804A1 (en) * 2020-05-29 2021-12-02 연세대학교 산학협력단 Multi-flow-based frame interpolation device and method

Similar Documents

Publication Publication Date Title
RU2419243C1 (en) Device and method to process images and device and method of images display
US6118488A (en) Method and apparatus for adaptive edge-based scan line interpolation using 1-D pixel array motion detection
KR100424600B1 (en) Motion adaptive scan-rate conversion using directional edge interpolation
EP2030440B1 (en) Scaling an image based on a motion vector
US20090231314A1 (en) Image displaying apparatus and method, and image processing apparatus and method
JP6335504B2 (en) Image processing apparatus, image processing method, and program
JP5133038B2 (en) Image restoration method and image restoration apparatus
US9215353B2 (en) Image processing device, image processing method, image display device, and image display method
EP1964395B1 (en) Methods and apparatus for progressive scanning of interlaced video
US20070103589A1 (en) Image signal processing apparatus, image signal processing method and program
US6804303B2 (en) Apparatus and method for increasing definition of digital television
KR100698640B1 (en) Frame Interpolation Method Using Warping Transform and Its Apparatus
JP2003069859A (en) Video processing adapted to motion
JP3898546B2 (en) Image scanning conversion method and apparatus
KR100913890B1 (en) Motion Adaptive Spatial-Temporal Deinterlacing Method
KR20060047635A (en) Film mode display determination method, motion compensation image processing method, film mode detector and motion compensator
JP5448983B2 (en) Resolution conversion apparatus and method, scanning line interpolation apparatus and method, and video display apparatus and method
US8115865B2 (en) De-interlacing system with an adaptive edge threshold and interpolating method thereof
KR101386891B1 (en) Method and apparatus for interpolating image
JP2011199349A (en) Unit and method for processing image, and computer program for image processing
JP2005318623A (en) Film mode extrapolation method, film mode detector and motion compensator
KR101144435B1 (en) Methods of edge-based deinterlacing using weight and image processing devices using the same
JP2005287006A (en) Image processing method, image processing program, recording medium provided with image processing program recorded thereon, and image processing apparatus
KR100628190B1 (en) How to convert color format of video data
KR101204210B1 (en) Methods of deinterlacing using geometric duality and image processing device using the same

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20060310

PA0201 Request for examination
E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20070312

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20070315

Patent event code: PR07011E01D

PR1002 Payment of registration fee
PG1601 Publication of registration
PR1001 Payment of annual fee
PR1001 Payment of annual fee
FPAY Annual fee payment

Payment date: 20111209

Year of fee payment: 6

PR1001 Payment of annual fee
FPAY Annual fee payment

Payment date: 20130111

Year of fee payment: 7

PR1001 Payment of annual fee
LAPS Lapse due to unpaid annual fee
PC1903 Unpaid annual fee