KR100949137B1 - Image interpolation device and method and computer readable recording medium recording the method - Google Patents
Image interpolation device and method and computer readable recording medium recording the method Download PDFInfo
- Publication number
- KR100949137B1 KR100949137B1 KR1020080069444A KR20080069444A KR100949137B1 KR 100949137 B1 KR100949137 B1 KR 100949137B1 KR 1020080069444 A KR1020080069444 A KR 1020080069444A KR 20080069444 A KR20080069444 A KR 20080069444A KR 100949137 B1 KR100949137 B1 KR 100949137B1
- Authority
- KR
- South Korea
- Prior art keywords
- interpolation
- current pixel
- value
- edge
- temp
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/01—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
- H04N7/0135—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
- H04N7/0142—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes the interpolation being edge adaptive
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/01—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
- H04N7/0135—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
- H04N7/014—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes involving the use of motion vectors
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Processing (AREA)
Abstract
본 발명은 영상 보간 장치와 그 방법 및 그 방법이 기록된 컴퓨터로 읽을 수 있는 기록매체에 관한 것이다. 본 발명에 따른 영상보간장치에 있어서, 현재 화소의 에지 방향을 검출하는 에지방향검출부; 및 상기 현재 화소와 상기 에지 방향의 화소와의 거리, 상기 현재 화소와 수직방향의 화소와의 거리에 따라 각각 거리 가중치를 부여하여 상기 현재 화소의 값을 산출하는 화소보간부를 포함한다. The present invention relates to an image interpolation apparatus, a method thereof, and a computer-readable recording medium on which the method is recorded. An image interpolation apparatus according to the present invention, comprising: an edge direction detector for detecting an edge direction of a current pixel; And a pixel interpolation unit configured to calculate a value of the current pixel by assigning a distance weight to the distance between the current pixel and the pixel in the edge direction and the distance between the current pixel and the pixel in the vertical direction.
이에 따라, 지역적 패턴을 고려한 보간 방식을 바탕으로 하는 새로운 거리 가중치 개념을 도입하여 성능을 향상시킬 수 있다. Accordingly, the performance can be improved by introducing a new distance weighting concept based on an interpolation method considering a regional pattern.
영상 보간, 거리 가중치, 비월주사 Image interpolation, distance weights, interlacing
Description
본 발명은 영상 보간 장치와 그 방법 및 그 방법이 기록된 컴퓨터로 읽을 수 있는 기록매체에 관한 것이다. The present invention relates to an image interpolation apparatus, a method thereof, and a computer-readable recording medium on which the method is recorded.
비월 주사 방식은 제한된 대역폭을 효율적으로 사용하기 때문에 NTSC, PAL, 및 SECAM을 포함한 많은 TV 시스템에서 널리 적용되고 있다. 이러한 비월 주사 방식을 사용하면 같은 대역폭을 사용하는 동안에 프레임율을 2배로 늘릴 수 있다는 장점을 갖지만, 주사 방식의 특성으로 인해 화면 사이의 깜박거림(flikering)이나 영상의 에지에서 톱니 모양(crawling) 또는 떨림(twitter) 현상과 같이 시각적 열화가 발생한다는 단점을 갖는다. Interlacing schemes are widely used in many TV systems, including NTSC, PAL, and SECAM, because they efficiently use limited bandwidth. This interlaced scanning method has the advantage of doubling the frame rate while using the same bandwidth, but due to the nature of the scanning method, there is a flickering between the screens, It has the disadvantage that visual deterioration occurs like twitter phenomenon.
이러한 문제점을 극복하기 위해 지금까지 다양한 비월 주사 방법들이 제안되어 왔다. 이러한 방법들은 크게 필드 간 예측을 이용한 인터-필드 비월 주사 방법 과 한 필드 내에서의 정보만을 이용하는 인트라-필드 주사 방법으로 나눌 수 있다. To overcome this problem, various interlacing injection methods have been proposed. These methods can be broadly divided into inter-field interlaced scanning using inter-field prediction and intra-field scanning using only information in one field.
인터-필드 비월 주사 방법은 움직임을 적응적으로 필터링하여 적용하는 방식과 움직임 보상을 이용하는 방법으로 분류된다. 인터-필드 비월 주사 방법은 일반적으로 움직임 정보가 신뢰할만하다면 수용할 만한 결과를 도출하지만, 움직임 정보를 신뢰할 수 없다면 좋은 성능을 기대할 수 없을 뿐만 아니라 하드웨어 구현 시 매우 복잡하다는 단점을 갖는다.The inter-field interlaced scanning method is classified into a method of adaptively filtering and applying motion and a method using motion compensation. The inter-field interlaced scanning method generally yields acceptable results if the motion information is reliable. However, the inter-field interlaced scanning method has a disadvantage of not only good performance if the motion information is reliable but also very complicated in hardware implementation.
인트라-필드 비월 주사 방법은 다양한 공간 필터를 사용하여 접근하는 방식과 에지의 방향성을 고려하여 접근하는 방식으로 분류된다. 영상의 에지와 그에 따른 방향성은 인간의 시각에 매우 민감한 정보이므로, 이러한 정보를 고려하지 않고 비월 주사를 수행하면 번짐 현상(blurring)이 발생하기 쉽다. 이러한 영상의 방향성을 고려한 인트라-필드 비월 주사 방법 중 가장 멀리 사용되는 방식이 ELA(Edge-based Line Averaging) 알고리즘이다. ELA 알고리즘은 간단한 계산과 구현의 용이성으로 인해 널리 사용되고 있으나, 화소 값의 작은 변화에 민감하다는 단점이 있다. 이러한 단점을 보완하기 위해 많은 기술이 제안되고 있다. Intra-field interlaced scanning methods are classified into approaches using various spatial filters and approaches considering edge orientation. Since the edge of the image and its orientation are very sensitive to human vision, blurring is likely to occur when interlaced scanning is performed without considering such information. Edge-based line averaging (ELA) algorithm is the most widely used method of intra-field interlaced scanning in consideration of the directionality of such an image. The ELA algorithm is widely used due to its simple calculation and ease of implementation, but has a disadvantage in that it is sensitive to small changes in pixel values. Many techniques have been proposed to compensate for this drawback.
한편, 에지 방향 결정 후, 보간을 수행하는 방법에 있어서도 다양한 방법이 시도되고 있다. 가장 간단한 방법은 에지 방향에 있는 두 개의 화소를 선형적으로 보간하는 선형보간 방법이 있다. 다만, 이러한 방법은 지역적 패턴을 고려하지 않기 때문에 영상 번짐 현상이 일어날 가능성이 크다. 이러한 문제를 해결하기 위해 에지 방향에 있는 다수개의 화소의 지역적 패턴을 고려한 방식이 제안되고 있다. On the other hand, various methods have also been tried in the method of performing interpolation after edge direction determination. The simplest method is a linear interpolation method that linearly interpolates two pixels in the edge direction. However, since this method does not consider the regional pattern, the image blurring phenomenon is likely to occur. In order to solve this problem, a method of considering a local pattern of a plurality of pixels in an edge direction has been proposed.
따라서, 본 발명의 목적은 지역적 패턴을 고려한 보간 방식을 바탕으로 새로운 거리 가중치 개념을 도입한 영상 보간 장치와 그 방법 및 그 방법이 기록된 컴퓨터로 읽을 수 있는 기록매체를 제공하는 것이다. Accordingly, it is an object of the present invention to provide an image interpolation apparatus adopting a new distance weight concept based on an interpolation method considering a regional pattern, a method thereof, and a computer-readable recording medium on which the method is recorded.
상기 목적은 본 발명에 따라, 영상보간장치에 있어서, 현재 화소의 에지 방향을 검출하는 에지방향검출부; 및 상기 현재 화소와 상기 에지 방향의 화소와의 거리, 상기 현재 화소와 수직방향의 화소와의 거리에 따라 각각 거리 가중치를 부여하여 상기 현재 화소의 값을 산출하는 화소보간부를 포함하는 것을 특징으로 하는 영상보간장치에 의해 달성될 수 있다. According to an aspect of the present invention, there is provided an image interpolation apparatus, comprising: an edge direction detection unit for detecting an edge direction of a current pixel; And a pixel interpolation unit configured to calculate a value of the current pixel by assigning a distance weight to the distance between the current pixel and the pixel in the edge direction and the distance between the current pixel and the pixel in the vertical direction. Can be achieved by an image interpolation device.
그리고, 상기 화소보간부는 상기 에지 방향의 화소들에 기초하여 에지보간값을 산출하는 에지보간산출부; 상기 현재 화소의 수직방향의 화소들에 기초하여 수직보간값을 산출하는 수직보간산출부; 및 상기 현재 화소와 상기 에지 방향의 화소와의 거리, 상기 현재 화소와 상기 수직방향의 화소와의 거리에 따라 상기 에지보간값과 상기 수직보간값에 각각 거리 가중치를 부여하여 상기 현재 화소의 값을 산출하는 최종보간산출부를 포함할 수 있다. The pixel interpolation unit may include an edge interpolation calculation unit configured to calculate an edge interpolation value based on pixels in the edge direction; A vertical interpolation calculator configured to calculate a vertical interpolation value based on the pixels in the vertical direction of the current pixel; And assigning distance weights to the edge interpolation value and the vertical interpolation value according to the distance between the current pixel and the pixel in the edge direction and the distance between the current pixel and the pixel in the vertical direction. The final interpolation calculation unit may be calculated.
여기서, 상기 에지방향검출부는 EDI 방법에 따라 상기 에지 방향을 검출하고; 상기 에지보간산출부와 상기 수직보간산출부는 NAL 보간방법에 따라 각각 상기 에지보간값과 상기 수직보간값을 산출할 수 있다. Wherein the edge direction detection unit detects the edge direction according to an EDI method; The edge interpolation calculation unit and the vertical interpolation calculation unit may calculate the edge interpolation value and the vertical interpolation value, respectively, according to a NAL interpolation method.
또한, 상기 에지보간산출부는 다음 식에 따라 상기 에지보간값을 산출하고: Xe(i,j)=(temp_e1×0.5+temp_e2×0.5)×β+(Xe(j-1)×0.5+Xe(j+1)×0.5)(1-β), temp_e1=Xe(j-1)×1.5-Xe(j-3)×0.5, temp_e2=Xe(j+1)×1.5-Xe(j+3)×0.5, (여기서, Xe(i,j)는 현재 화소의 에지보간값, Xe(j-3), Xe(j-1), Xe(j+1), Xe(j+3)는 에지방향의 화소들의 값, β는 가중치를 의미함) 상기 수직보간산출부는 다음 식에 따라 상기 수직보간값을 산출하며: Xv(i,j)=(temp_v1×0.5+temp_v2×0.5)×β+X(i,j-1)×0.5+X(i,j+1)×0.5)(1-β), temp_v1=X(i,j-1)×1.5-X(i,j-3)×0.5, temp_v2=X(i,j+1)×1.5-X(i,j+3)×0.5, (여기서, Xv(i,j)는 현재 화소의 수직보간값, X(i,j-3), X(i,j-1), X(i,j+1), X(i,j+3)는 수직방향의 화소들의 값, β는 가중치를 의미함) 상기 최종보간산출부는 상기 에지보간값과 상기 수직보간값에 기초하여 다음 식에 따라 상기 현재 화소의 값을 산출할 수 있다: X(i,j)=(Xe(i,j)×d1+Xv(i,j)×d2)/(d1+d2) (여기서, d1과 d2는 거리 가중치를 의미함)Further, the edge interpolation calculation unit calculates the edge interpolation value according to the following equation: Xe (i, j) = (temp_e1 × 0.5 + temp_e2 × 0.5) × β + (Xe (j-1) × 0.5 + Xe (j + 1) ) × 0.5) (1-β), temp_e1 = Xe (j-1) × 1.5-Xe (j-3) × 0.5, temp_e2 = Xe (j + 1) × 1.5-Xe (j + 3) × 0.5, Where Xe (i, j) is the edge interpolation value of the current pixel, Xe (j-3), Xe (j-1), Xe (j + 1), Xe (j + 3) is the Value, β means weight) The vertical interpolation calculation unit calculates the vertical interpolation value according to the following equation: Xv (i, j) = (temp_v1 × 0.5 + temp_v2 × 0.5) × β + X (i, j-1) × 0.5 + X (i, j + 1) × 0.5) (1-β), temp_v1 = X (i, j-1) × 1.5-X (i, j-3) × 0.5, temp_v2 = X (i, j +1) × 1.5-X (i, j + 3) × 0.5, where Xv (i, j) is the vertical interpolation value of the current pixel, X (i, j-3), X (i, j-1 ), X (i, j + 1), X (i, j + 3) denote values of pixels in the vertical direction, and β denote weights.) The final interpolation calculation unit is based on the edge interpolation value and the vertical interpolation value. The value of the current pixel can be calculated according to the following equation: X (i, j) = (Xe (i, j) × d1 + Xv (i, j) × d2) / (d1 + d2), where d1 and d2 represent distance weights
한편, 상기 목적은 본 발명에 따라, 영상보간방법에 있어서, 현재 화소의 에지 방향을 검출하는 단계; 및 상기 현재 화소와 상기 에지 방향의 화소와의 거리, 상기 현재 화소와 수직방향의 화소와의 거리에 따라 상기 에지 방향의 화소와 상기 수직방향의 화소에 각각 거리 가중치를 부여하여 상기 현재 화소의 값을 산출하는 단계를 포함하는 것을 특징으로 하는 영상보간방법에 의해 달성될 수 있다. Meanwhile, according to the present invention, there is provided an image interpolation method, comprising: detecting an edge direction of a current pixel; And assigning distance weights to the pixels in the edge direction and the pixels in the vertical direction according to the distance between the current pixel and the pixels in the edge direction and the distance between the current pixels and the pixels in the vertical direction. It can be achieved by an image interpolation method comprising the step of calculating the.
여기서, 상기 현재 화소의 보간 단계는 상기 에지방향의 화소들에 기초하여 지역적 패턴을 고려한 에지보간값을 산출하는 단계; 상기 수직방향의 화소들에 기 초하여 지역적 패턴을 고려한 수직보간값을 산출하는 단계; 및 상기 현재 화소와 상기 에지방향의 화소와의 거리, 상기 현재 화소와 상기 수직방향의 화소와의 거리에 따라 상기 에지보간값과 상기 수직보간값에 각각 거리 가중치를 부여하여 상기 현재 화소의 값을 산출하는 단계를 포함할 수 있다. The interpolation of the current pixel may include calculating an edge interpolation value in consideration of a regional pattern based on the pixels in the edge direction; Calculating a vertical interpolation value in consideration of a regional pattern based on the pixels in the vertical direction; And assigning distance weights to the edge interpolation value and the vertical interpolation value according to the distance between the current pixel and the pixel in the edge direction and the distance between the current pixel and the pixel in the vertical direction. It may include the step of calculating.
그리고, 상기 에지보간값은 다음 식에 따라 산출되고: Xe(i,j)=(temp_e1×0.5+temp_e2×0.5)×β+(Xe(j-1)×0.5+Xe(j+1)×0.5)(1-β), temp_e1=Xe(j-1)×1.5-Xe(j-3)×0.5, temp_e2=Xe(j+1)×1.5-Xe(j+3)×0.5, (여기서, Xe(i,j)는 현재 화소의 에지보간값, Xe(j-3), Xe(j-1), Xe(j+1), Xe(j+3)는 에지방향의 화소들의 값, β는 가중치를 의미함) 상기 수직보간값은 다음 식에 따라 산출되며: Xv(i,j)=(temp_v1×0.5+temp_v2×0.5)×β+X(i,j-1)×0.5+X(i,j+1)×0.5)(1-β), temp_v1=X(i,j-1)×1.5-X(i,j-3)×0.5, temp_v2=X(i,j+1)×1.5-X(i,j+3)×0.5, (여기서, Xv(i,j)는 현재 화소의 수직보간값, X(i,j-3), X(i,j-1), X(i,j+1), X(i,j+3)는 수직방향의 화소들의 값, β는 가중치를 의미함) 상기 현재 화소의 값은 다음과 같은 식으로 산출될 수 있다: X(i,j)=(Xe(i,j)×d1+Xv(i,j)×d2)/(d1+d2) (여기서, d1과 d2는 거리 가중치를 의미함)The edge interpolation value is calculated according to the following equation: Xe (i, j) = (temp_e1 × 0.5 + temp_e2 × 0.5) × β + (Xe (j-1) × 0.5 + Xe (j + 1) × 0.5) 1-β), temp_e1 = Xe (j-1) × 1.5-Xe (j-3) × 0.5, temp_e2 = Xe (j + 1) × 1.5-Xe (j + 3) × 0.5, where Xe ( i, j is the edge interpolation value of the current pixel, Xe (j-3), Xe (j-1), Xe (j + 1), Xe (j + 3) is the value of pixels in the edge direction, β is the weight The vertical interpolation value is calculated according to the following equation: Xv (i, j) = (temp_v1 × 0.5 + temp_v2 × 0.5) × β + X (i, j-1) × 0.5 + X (i, j + 1) X0.5) (1-β), temp_v1 = X (i, j-1) × 1.5-X (i, j-3) × 0.5, temp_v2 = X (i, j + 1) × 1.5-X (i, j + 3) × 0.5, where Xv (i, j) is the vertical interpolation value of the current pixel, X (i, j-3), X (i, j-1), X (i, j + 1) X (i, j + 3) is the value of the pixels in the vertical direction, β denotes the weight. The value of the current pixel may be calculated as follows: X (i, j) = (Xe ( i, j) × d1 + Xv (i, j) × d2) / (d1 + d2), where d1 and d2 represent distance weights
한편, 상기 목적은 본 발명에 따라, 상기 어느 하나의 항에 따른 방법이 기록된 컴퓨터로 읽을 수 있는 기록매체에 의해 달성될 수 있다. On the other hand, according to the present invention, the object can be achieved by a computer-readable recording medium on which the method according to any one of the above is recorded.
이상 설명한 바와 같이, 본 발명에 따르면, 지역적 패턴을 고려한 보간 방식 을 바탕으로 하는 새로운 거리 가중치 개념을 도입한 영상 보간 장치와 그 방법 및 그 방법이 기록된 컴퓨터로 읽을 수 있는 기록매체가 제공된다. As described above, according to the present invention, there is provided an image interpolation apparatus adopting a new distance weighting concept based on an interpolation scheme considering a regional pattern, a method thereof, and a computer-readable recording medium on which the method is recorded.
이하, 도면을 참조하여 본 발명의 구체적인 실시예들에 대해 설명하기로 한다. Hereinafter, specific embodiments of the present invention will be described with reference to the drawings.
도 1은 본 발명의 일 실시예에 따른 영상보간장치의 개략적인 제어블록도이다. 도 1에 도시된 바와 같이, 본 실시예에 따른 영상보간장치는 에지방향검출부(10) 및 화소보간부(20)를 포함한다.1 is a schematic control block diagram of an image interpolation apparatus according to an embodiment of the present invention. As shown in FIG. 1, the image interpolation apparatus according to the present exemplary embodiment includes an edge
에지방향검출부(10)는 현재 화소의 에지의 방향성을 검출하기 위한 것으로, 예를 들어, ELA(Edge-based Line Averaging), EDI(Edge Dependent Interpolation) 알고리즘 등에서 이용하는 에지검출방법이 사용될 수 있다. The edge
ELA 알고리즘은 3×3 윈도우를 이용하여 수직방향, 양의 대각 방향, 그리고, 음의 대각 방향의 세 가지 경우의 상관도를 검출하고, 인접 화소들 간의 상관관계에 근거하여 방향성을 찾는다. 이에 반해, EDI 알고리즘은 세 화소들의 집합인 두 벡터를 이용하여 에지 방향을 찾는다. The ELA algorithm detects the correlations of three cases in the vertical direction, the positive diagonal direction, and the negative diagonal direction using a 3x3 window, and finds the direction based on the correlation between adjacent pixels. In contrast, the EDI algorithm finds an edge direction using two vectors, which are sets of three pixels.
일반적으로, 화소 단위의 접근은 잡음, 명암의 편차, 또는 눈에 띄지 않는 에지 때문에 좋지 않은 결과를 가져올 가능성이 크다. 따라서, 본 실시예에서는 신뢰할 만한 에지를 찾아낼 확률을 높이기 위해 EDI 방법을 사용하는 것을 일 예로 한다.In general, pixel-by-pixel approaches are likely to lead to poor results due to noise, contrast variations, or inconspicuous edges. Therefore, in the present embodiment, an example of using the EDI method is to increase the probability of finding a reliable edge.
우선, 두 벡터를 다음과 같이 정의할 수 있다.First, two vectors can be defined as
여기서, X(i,j)는 현재 화소를 나타내며, i는 j는 x축 y축 방향의 위치를 나타낸다. 또한, l과 m은 수평 방향에서의 벡터들의 위치이다. Here, X (i, j) represents the current pixel, i represents the position in the x-axis y-axis direction. Also, l and m are the positions of the vectors in the horizontal direction.
에지방향검출부(10)는 이러한 벡터들을 기반으로 아래 수식에 따라 이들 간의 차이값을 산출한다. The edge
여기서, w는 거리에 따른 가중치이다. Here, w is a weight according to the distance.
에지방향검출부(10)는 아래의 수식에 따라 최종적으로 (l',m')을 산출한다.The edge
도 2는 에지방향검출부(10)의 에지 검출결과를 도시한 것이다. 도 2를 참조하면, 에지 방향은 모두 5가지 경우의 수를 갖는다. 2 illustrates the edge detection result of the edge
(l',m')=(-1,-1),(0,0),(1,1)로 산출되면 에지 방향은 수직 방향으로 결정된다(도 2의 vertical로 표시된 화살표 방향). 반면, (l',m')=(-1,1) 또는 (1,-1)로 산출되면 에지 방향은 ±45도가 되고(도 2에서 dia_10 또는 dia_20으로 표시된 화살표 방향), (l',m')=(-1,0),(0,1), 또는 (0,-1),(1,0)로 산출되면 에지 방향은 ±77.5도(도 2에서 dia_11 및 dia_12 또는 dia_21 및 dia_21로 표시된 화살표 방향)가 된다. When calculated as (l ', m') = (-1, -1), (0,0), (1,1), the edge direction is determined in the vertical direction (arrow direction indicated by vertical in FIG. 2). On the other hand, if (l ', m') = (-1,1) or (1, -1) is calculated, the edge direction is ± 45 degrees (arrow direction indicated by dia_10 or dia_20 in FIG. 2), (l ', If m ') = (-1,0), (0,1), or (0, -1), (1,0), the edge direction is ± 77.5 degrees (dia_11 and dia_12 or dia_21 and dia_21 in Figure 2). Arrow direction).
이를 표로 정리하면 다음과 같다.This is summarized as follows.
화소보간부(20)는 검출한 에지 방향정보를 이용하여 주변 화소값들에 기초하여 현재 화소 값을 산출하기 위한 것으로, 거리 가중치의 개념을 도입하여 현재 화소를 보간한다. 즉, 에지 방향에 있는 화소 이외에, 에지 방향에 있는 화소보다 더 가까이에 있는 수직방향의 화소들을 함께 고려하고, 이때 에지 방향의 화소들과 수직방향의 화소들 각각에 거리에 따른 가중치를 부여하여 현재 화소값을 산출한다. The
본 실시예에 따른 화소보간부(20)는 도 1에 도시된 바와 같이, 에지보간산출부(21), 수직보간산출부(23), 및 최종보간산출부(25)를 포함한다.As illustrated in FIG. 1, the
에지보간산출부(21)는 검출된 에지 방향에 따라 에지 방향에 있는 화소들에 기초하여 에지방향에 대한 정보를 담고 있는 에지보간값을 산출한다. 본 발명의 에지보간산출부(21)는 지역적 패턴을 고려한 보간기법이 사용되며, 본 실시예에서는 NAL(New Adaptive Linear interpolation) 알고리즘을 이용하여 에지보간값을 산출하는 것을 일 예로 설명한다.The edge
도 3은 NAL 알고리즘의 기본적인 개념을 보여주고 있다. 3 shows the basic concept of the NAL algorithm.
Xe(i,j)는 현재 화소의 에지보간값을 나타내고, Xe(j-3), Xe(j-1), Xe(j+1), Xe(j+3)은 에지 방향에 있는 참조 화소들의 값을 나타낸다.Xe (i, j) represents the edge interpolation value of the current pixel, and Xe (j-3), Xe (j-1), Xe (j + 1), and Xe (j + 3) represent the reference pixel in the edge direction. Indicates the value of
예를 들어, 에지 방향이 45°로 검출된 경우, 도 2에서 dia_20으로 표시된 화살표 방향에 위치하는 X(i+3,j-3), X(i+1,j-1), X(i-1,j+1), X(i-3,j+3)이 각각 Xe(j-3), Xe(j-1), Xe(j+1), Xe(j+3)에 해당한다. For example, if the edge direction is detected at 45 °, X (i + 3, j-3), X (i + 1, j-1), X (i located in the arrow direction indicated by dia_20 in FIG. -1, j + 1) and X (i-3, j + 3) correspond to Xe (j-3), Xe (j-1), Xe (j + 1) and Xe (j + 3), respectively. .
NAL 알고리즘은 기존에 근접한 두 개의 화소만을 이용하는 선형 보간 방법과 달리 4개의 근접 화소를 이용한다. The NAL algorithm uses four adjacent pixels, unlike the linear interpolation method using only two adjacent pixels.
다음 식은 에지보간산출부(21)에서 이용하는 에지보간값을 산출하기 위한 식이다. The following equation is for calculating the edge interpolation value used by the edge
여기서, temp_e1과 temp_e2는 다음 식에 따라 결정된다.Here, temp_e1 and temp_e2 are determined by the following equation.
temp_e2=Xe(j+1)×1.5-Xe(j+3)×0.5temp_e2 = Xe (j + 1) × 1.5-Xe (j + 3) × 0.5
수학식 4에서 beta 값은 조정인자로서 0과 1 사이의 값을 갖는다. 본 발명에서는 최적의 성능이 나오도록 적절하게 beta 값을 조절할 수 있다. In Equation 4, the beta value has a value between 0 and 1 as an adjustment factor. In the present invention, the beta value can be adjusted appropriately to obtain the best performance.
위 식을 통해 알 수 있듯이, 에지보간산출부(21)는 4 개의 에지방향의 픽셀들 중에서 현재 픽셀에 가까이 있는 두 개의 화소에 가중치를 더 주어(위 식에서는 1.5), temp_e1과 temp_e2를 산출하고, 이렇게 산출된 값들의 평균과 선형보간값 각각에 가중치(β와 1-β)를 부여하여 에지보간값을 산출한다. As can be seen from the above equation, the edge
위의 보간값 산출방법은 지역적인 패턴을 반영한 것으로, 도 3에서 직선의 기울기가 0° 또는 90 °가 될 수 있기 때문에, 이를 해결하기 위해 선형보간값을 이용하여 가중치(β)를 부여하여 조정한다.The above interpolation value calculation method reflects a regional pattern, and since the slope of the straight line in FIG. 3 may be 0 ° or 90 °, in order to solve this problem, a weight (β) is adjusted by using a linear interpolation value to adjust it. do.
한편, 수직보간산출부(23)는 현재 화소의 수직 방향에 있는 화소들에 기초하여 수직보간값을 산출한다. 본 발명의 수직보간산출부(23)는 전술한 에지보간산출부(21)의 산출방법과 동일하게 NAL 알고리즘을 사용하여 수직보간값을 산출한다. Meanwhile, the
이를 식으로 나타내면 다음과 같다. This is expressed as follows.
여기서, temp_v1과 temp_v2는 다음 식에 따라 결정된다.Here, temp_v1 and temp_v2 are determined by the following equation.
temp_v2=X(i,j+1)×1.5-X(i,j+3)×0.5temp_v2 = X (i, j + 1) × 1.5-X (i, j + 3) × 0.5
여기서, Xv(i,j)는 수직보간값을 나타내고, X(i,j-3), X(i,j-1), X(i,j+1), X(i,j+3)은 도 2의 수직방향에 있는 참조 화소들의 값을 나타낸다. 위 식은 전술한 수학식 4 및 5와 유사하므로, 이에 대한 구체적인 설명은 생략하기로 한다. Where Xv (i, j) represents a vertical interpolation value, and X (i, j-3), X (i, j-1), X (i, j + 1) and X (i, j + 3) Denotes values of reference pixels in the vertical direction of FIG. 2. Since the above equation is similar to the above Equations 4 and 5, a detailed description thereof will be omitted.
최종보간산출부(25)는 위에서 산출한 에지보간값과 수직보간값에 각각 거리가중치를 부여하여 최종적으로 현재 픽셀의 값을 산출한다. 전술한 바와 같이, 에지방향의 화소들만을 고려하여 현재 화소를 보간하는 종래의 방법과는 달리, 현재 화소에 가까이에 있는 수직방향의 화소들의 값을 거리 가중치의 개념을 도입하여 고려함으로써, 더욱 정확한 값으로의 현재 화소의 보간을 가능하게 한다.The
여기서, 거리 가중치는 현재 화소와의 거리에 따라 부여되는 것으로, 현재 화소와 에지방향의 화소까지의 거리, 현재 화소와 수직방향의 화소와의 거리에 따라 각각 값이 부여된다. Here, the distance weight is given according to the distance between the current pixel, and the value is given according to the distance between the current pixel and the pixel in the edge direction and the distance between the current pixel and the pixel in the vertical direction.
최종보간산출부(25)의 최종보간값 산출방법은 다음 식으로 표현될 수 있다.The final interpolation value calculation method of the final
여기서, d1, d2는 거리 가중치를 의미한다.Here, d1 and d2 mean distance weights.
본 실시예에서, 에지 방향이 총 5가지이므로, 이들 각각에 대해 현재 화소값을 보간하는 방법을 살펴보기로 한다.In this embodiment, since there are five edge directions in total, a method of interpolating the current pixel values for each of them will be described.
제1 예First example
제1 예로서, 에지 방향이 수직방향으로 검출된 경우이다.As a first example, the edge direction is detected in the vertical direction.
이 경우, 위 수학식 4 및 5에 따라 산출된 에지보간값과 수학식 6 및 7에 따라 산출된 수직보간값이 동일한 값으로 산출된다. 또한, 거리가 동일하므로, 거리 가중치가 동일하게 부여되어 결과적으로 동일한 값이 산출된다. In this case, the edge interpolation value calculated according to Equations 4 and 5 and the vertical interpolation value calculated according to Equations 6 and 7 are calculated to be the same value. In addition, since the distances are the same, the distance weights are given the same, resulting in the same value.
즉, X(i,j)=Xe(i,j)=Xv(i,j) 로 결정된다.That is, X (i, j) = Xe (i, j) = Xv (i, j) is determined.
제2 예Second example
제2 예로서, 에지방향이 45°로 검출된 경우이다.As a second example, the edge direction is detected at 45 degrees.
이 경우, 에지방향의 화소는 도 2에서 dia_20 화살표 방향에 위치하는 X(i+3,j-3), X(i+1,j-1), X(i-1,j+1), X(i-3,j+3)이 된다.In this case, the pixels in the edge direction are X (i + 3, j-3), X (i + 1, j-1), X (i-1, j + 1), located in the dia_20 arrow direction in FIG. 2. X (i-3, j + 3).
따라서, temp_e1과 temp_e2는 각각 다음과 같이 산출된다:Thus, temp_e1 and temp_e2 are respectively calculated as follows:
temp_e1=X(i+1,j-1)×1.5-X(i+3,j-3)×0.5, temp_e1 = X (i + 1, j-1) × 1.5-X (i + 3, j-3) × 0.5,
temp_e2=Xe(i-1,j+1)×1.5-X(i-3,j+3)×0.5temp_e2 = Xe (i-1, j + 1) × 1.5-X (i-3, j + 3) × 0.5
이에 따라, 에지보간값은 다음과 같이 산출된다:Accordingly, the edge interpolation value is calculated as follows:
Xe(i,j)=(temp_e1×0.5+temp_e2×0.5)×β+(X(i+1,j-1)×0.5+Xe(i+1,j+1)×0.5)(1-β).Xe (i, j) = (temp_e1 × 0.5 + temp_e2 × 0.5) × β + (X (i + 1, j-1) × 0.5 + Xe (i + 1, j + 1) × 0.5) (1-β).
한편, 수직보간값은 수학식 6 및 7에 따라 제1 예와 동일하게 산출된다. On the other hand, the vertical interpolation value is calculated in the same manner as in the first example according to equations (6) and (7).
본 예에서, 거리 가중치 d1= , d2=1로 결정된다. 이는 현재 화소와 에지방향의 화소들과의 최소거리가 이고, 현재 화소와 수직방향의 화소들과의 최소거리가 1이기 때문이다(도 4의 (a) 참조).In this example, the distance weight d1 = , d2 = 1. This means that the minimum distance between the current pixel and the pixels in the edge direction This is because the minimum distance between the current pixel and the pixels in the vertical direction is 1 (see FIG. 4A).
따라서, 최종적인 현재 화소값은 다음과 같이 산출된다:Thus, the final current pixel value is calculated as follows:
제3 예Third example
제3 예로서, 에지방향이 -45°로 검출된 경우이다. As a third example, the edge direction is detected at -45 degrees.
이 경우, 에지방향의 화소는 도 2에서 dia_10 화살표 방향에 위치하는 X(i-3,j-3), X(i-1,j-1), X(i+1,j+1), X(i+3,j+3)이 된다. In this case, the pixels in the edge direction are X (i-3, j-3), X (i-1, j-1), X (i + 1, j + 1), located in the dia_10 arrow direction in FIG. X (i + 3, j + 3) is obtained.
따라서, temp_e1과 temp_e2는 각각 다음과 같이 산출된다:Thus, temp_e1 and temp_e2 are respectively calculated as follows:
temp_e1=X(i-1,j-1)×1.5-X(i-3,j-3)×0.5,temp_e1 = X (i-1, j-1) × 1.5-X (i-3, j-3) × 0.5,
temp_e2=Xe(i+1,j+1)×1.5-X(i+3,j+3)×0.5temp_e2 = Xe (i + 1, j + 1) × 1.5-X (i + 3, j + 3) × 0.5
이에 따라, 에지보간값은 다음과 같이 산출된다:Accordingly, the edge interpolation value is calculated as follows:
Xe(i,j)=(temp_e1×0.5+temp_e2×0.5)×β+(X(i+1,j-1)×0.5+Xe(i+1,j+1)×0.5)(1-β)Xe (i, j) = (temp_e1 × 0.5 + temp_e2 × 0.5) × β + (X (i + 1, j-1) × 0.5 + Xe (i + 1, j + 1) × 0.5) (1-β)
한편, 수직보간값은 수학식 6 및 7에 따라 제1 예와 동일하게 산출된다. On the other hand, the vertical interpolation value is calculated in the same manner as in the first example according to equations (6) and (7).
본 예에서, 거리 가중치는 제2 예와 동일하게 결정된다. 즉, d1= , d2=1 로 결정된다. 따라서, 최종적인 현재 화소의 값은 다음과 같이 산출된다:In this example, the distance weight is determined in the same manner as in the second example. That is, d1 = , d2 = 1. Thus, the final value of the current pixel is calculated as follows:
제4 예Fourth example
제4 예로서, 에지방향이 77.5 °로 검출된 경우이다. As a fourth example, the edge direction is detected at 77.5 degrees.
이 경우, 에지방향의 화소는 도 2에서 dia_22 화살표 방향에 위치하는 X(i+1,j-3), X(i,j-1), X(i-1,j+1), X(i-2,j+3)과, 도 2에서 dia_21 화살표 방향에 위치하는 X((i+2,j-3), X(i+1,j-1), X(i,j+1), X(i-1,j+3) 두 가지가 존재한다. 따라서, 이 경우, 최종보간값은 이들 각각에 대한 보간값을 평균한 값으로 산출한다.In this case, the pixels in the edge direction are X (i + 1, j-3), X (i, j-1), X (i-1, j + 1), and X ( i-2, j + 3) and X ((i + 2, j-3), X (i + 1, j-1), X (i, j + 1) located in the dia_21 arrow direction in FIG. In this case, the final interpolation value is calculated by averaging the interpolation values for each of them.
즉, X(i+1,j-3), X(i,j-1), X(i-1,j+1), X(i-2,j+3)에 기초한 에지보간값(Xe1(i,j))과 수직보간값(Xv(i,j))에 따른 최종보간값1(X1(i,j))과, X(i+2,j-3), X(i+1,j-1), X(i,j+1), X(i-1,j+3) 에 기초한 에지보간값(Xe2(i,j))과 수직보간값(Xv(i,j))에 따른 최종보간값2(X2(i,j))를 평균한 값이 현재 화소의 값으로 결정된다.That is, edge interpolation values (Xe1 based on X (i + 1, j-3), X (i, j-1), X (i-1, j + 1), and X (i-2, j + 3) (i, j)) and the final interpolation value 1 (X1 (i, j)) according to the vertical interpolation value Xv (i, j), and X (i + 2, j-3), X (i + 1 edge interpolation value Xe2 (i, j) and vertical interpolation value Xv (i, j) based on, j-1), X (i, j + 1), X (i-1, j + 3) The average value of the final interpolation value 2 (X2 (i, j)) is determined as the value of the current pixel.
여기서, 최종보간값1과 최종보간값2의 산출 시, 거리가중치 d1=, d2=1로 결정한다. 비록 현재 화소와 에지방향의 화소의 최소거리는 1이지만, 다른 예들하고는 달리 에지방향의 화소들 모두가 현재 화소를 중심으로 대칭적으로 위치하지 않기 때문에(즉, 현재 화소를 지나는 에지방향에 위치하지 않음), 현재 화소를 지나는 에지방향으로 화소가 있다고 가정하고 그 거리를 산출한다. 도 4의 (b) 를 참조하면 수직으로는 1, 수평으로는 0.5이므로, 가상의 에지방향의 화소까지의 거리는 가 되므로, 이를 거리 가중치로 결정한다.Here, when calculating the
위 내용을 식으로 나타내면 다음과 같다:The above expression is expressed as:
제5 예5th example
마지막 예로서 에지방향이 -77.5 °로 검출된 경우이다. 이 경우, 에지방향의 화소는 도 2에서 dia_11 화살표 방향에 위치하는 X(i-2,j-3), X(i-1,j-1), X(i,j+1), X(i+1,j+3)과, dia_12 방향에 위치하는 X(i-1,j-3), X(i,j-1), X(i+1,j+1), X(i+2,j+3) 두 가지가 존재한다. 따라서, 제4 예와 동일하게, 최종보간값은 이들 각각에 대한 보간값을 평균한 값으로 산출한다.As a last example, the edge direction is detected as -77.5 °. In this case, the pixels in the edge direction are X (i-2, j-3), X (i-1, j-1), X (i, j + 1), and X ( i + 1, j + 3) and X (i-1, j-3), X (i, j-1), X (i + 1, j + 1) and X (i + located in dia_12 direction 2, j + 3) There are two things. Therefore, similarly to the fourth example, the final interpolation value is calculated as an average of the interpolation values for each of these.
이때, 거리 가중치는 제4예와 동일하게 d1=, d2=1로 결정한다. At this time, the distance weight is the same as the fourth example, d1 = , d2 = 1.
최종 보간값은 제4예에서의 수학식 8에 의해 구할 수 있다. 산출 방식은 제4예와 유사하므로, 이에 대한 구체적인 설명은 생략하기로 한다.The final interpolation value can be obtained by equation (8) in the fourth example. Since the calculation method is similar to the fourth example, a detailed description thereof will be omitted.
이하, 본 발명의 일 실시예에 따른 영상보간방법을 실제 영상 처리에 적용한 실험결과에 대해 설명한다. Hereinafter, an experimental result of applying an image interpolation method according to an embodiment of the present invention to actual image processing will be described.
본 실험에서는 본 발명에 따른 영상보간방법의 객관적인 성능과 주관적인 화질 측면에서 종래의 영상보간 알고리즘과 비교를 수행하였다. 실험은 '바바라'로 명명된 영상을 포함하여 8개의 정지영상을 대상으로 하였으며, 512×512 크기의 원본 영상을 우선 다운-샘플링하였다. 즉, 원본 영상의 짝수 라인만을 복사해서 512×256 크기의 영상을 만들고, 이후 본 발명을 홀수 라인을 보간하는데 적용하였다.In this experiment, we compared the conventional image interpolation algorithm in terms of objective performance and subjective image quality of the image interpolation method according to the present invention. The experiments included eight still images, including the image named 'Barbara', and first down-sampled the original image of 512 × 512 size. That is, only the even lines of the original image are copied to form a 512 × 256 size image, and then the present invention is applied to interpolating odd lines.
다만, 본 발명의 보간방법은 NAL 알고리즘을 적용하기 때문에 β값에 따라 성능이 달라질 수 있다. 또한, 영상에 따라서 최적의 성능을 나타내는 β값이 달라질 수 있다. 아래의 표는 각각의 시험영상에서 최적의 결과를 보여주는 β값을 나타내며, 도 5는 이에 대한 그래프이다.However, since the interpolation method of the present invention applies the NAL algorithm, the performance may vary depending on the β value. Also, β value representing optimal performance may vary depending on the image. The table below shows β values showing optimal results in each test image, and FIG. 5 is a graph thereof.
위 표 2와 도 5에서 알 수 있듯이, 조정인자 β값의 변화에 커다란 차이 없이 꾸준히 객관적인 성능(PSNR)이 향상됨을 알 수 있다. 또한, 평균적으로 β값이 0.3일 경우 최적의 결과를 보여준다. 따라서, 본 실험에서는 β값을 0.3으로 적용하였다.As can be seen from Table 2 and Figure 5, it can be seen that the objective performance (PSNR) is steadily improved without a significant difference in the change of the adjustment factor β value. In addition, the average value of β shows an optimal result. Therefore, β value was applied to 0.3 in this experiment.
아래의 표는 정지영상에서 종래의 보간방법과 본 발명의 영상보간방법을 통한 영상 처리 결과를 나타낸다.The table below shows the results of image processing using the conventional interpolation method and the image interpolation method of the present invention in still images.
위 표에서 알 수 있듯이, 본 발명의 영상보간방법이 종래의 영상보간방법에 비해 객관적인 성능이 뛰어남을 확인할 수 있다. 실험 대상의 모든 영상에서 PSNR 값이 1, 2번째를 차지하고 있다. As can be seen from the above table, it can be seen that the image interpolation method of the present invention is superior in objective performance compared to the conventional image interpolation method. The PSNR value occupies the 1st and 2nd in every image of the subject.
도 6a 내지 도 6g는 본 발명과 종래의 방법의 주관적인 화질을 비교하기 위한 처리결과에 대한 영상을 나타낸다.6A to 6G show images of processing results for comparing subjective image quality between the present invention and the conventional method.
도 6a는 원본영상이고, 도 6b는 도 6a의 일부영역의 확대영상을 도시한다. 도 6c는 라인더블링(LD) 방법을 적용한 결과 영상이고, 도 6d는 라인에버리징(LA) 방법을 적용한 결과 영상이다. 도 6e는 ELA 방법, 도 6f는 E-ELA 방법, 도 6g는 EDI 방법, 도 6h는 DOI 방법, 도 6i는 본 발명의 영상보간방법을 적용한 결과 영상을 나타낸다.6A is an original image, and FIG. 6B is an enlarged image of a partial region of FIG. 6A. FIG. 6C is a result image of applying the line doubling (LD) method, and FIG. 6D is a result image of applying the line averaging (LA) method. FIG. 6E shows an ELA method, FIG. 6F shows an E-ELA method, FIG. 6G shows an EDI method, FIG. 6H shows a DOI method, and FIG. 6I shows an image obtained by applying the image interpolation method of the present invention.
도 6a 내지 도 6i를 통해 알 수 있듯이, 본 발명에 따른 영상보간방법은 비교적 계산의 복잡도가 높고 주관적인 화질면에서 우수한 성능을 가진 것으로 평가받는 DOI 알고리즘에 비해 우수함을 확인할 수 있다. 또한, 본 발명이 적용된 영상이 원본 이미지와 거의 유사함을 확인할 수 있다.6A to 6I, it can be seen that the image interpolation method according to the present invention is superior to the DOI algorithm which is evaluated to have a relatively high computational complexity and excellent performance in terms of subjective image quality. In addition, it can be seen that the image to which the present invention is applied is almost similar to the original image.
아래 표는 다양한 비월주사기법을 통한 계산의 복잡도를 측정하기 위해 각각의 보간방법에 의한 영상처리에 걸리는 수행시간을 비교한 표이다(바바라 영상을 이용하였음).The table below compares the execution time for image processing by each interpolation method to measure the complexity of calculations through various interlaced scanning techniques (Barbara images were used).
위 표에서 알 수 있듯이, 본 발명에 따른 영상보간방법이 종래의 몇몇 알고리즘에 비해 시간이 다소 걸리지만, 우수하다고 평가받고 있는 DOI 알고리즘보다는 5배 정도 빠른 처리 속도를 갖는다. 위에서 살펴본 바와 같이, 본 발명에 따른 영상보간방법은 종래의 보간 알고리즘에 비해 성능이 우수하기 때문에, 어느 정도 처리시간이 걸리는 것은 이해될 수 있을 것이다.As can be seen from the above table, the image interpolation method according to the present invention takes some time compared to some conventional algorithms, but has a processing speed about five times faster than the DOI algorithm which is evaluated as excellent. As described above, since the image interpolation method according to the present invention is superior in performance to the conventional interpolation algorithm, it may be understood that it takes some processing time.
전술한 본 발명의 일 실시예에 따른 영상보간방법은 컴퓨터로 읽을 수 있는 프로그램으로 구현될 수 있다. 또한, 전술한 본 발명의 일 실시예에 따른 영상보간장치에 포함된 구성들은 컴퓨터로 읽을 수 있는 프로그램으로 제작될 수 있으며, 영상보간장치는 이 프로그램이 설치되는 메모리 등의 저장장치와, 이 프로그램이 실행되는 프로세서 등을 포함한 컴퓨터장치로 구현 가능하다. 또한, 비월주사신호를 수신하여 보간처리하는 프로세서가 장착된 모든 디스플레이에 적용 가능하다. The image interpolation method according to an embodiment of the present invention described above may be implemented as a computer readable program. In addition, the components included in the image interpolation apparatus according to the embodiment of the present invention described above may be manufactured by a computer readable program, and the image interpolation apparatus may include a storage device such as a memory in which the program is installed, and the program. It can be implemented by a computer device including a running processor and the like. In addition, it is applicable to all displays equipped with a processor that receives and interpolates interlaced signals.
전술한 실시예에서 거리 가중치의 값이 현재 화소와 해당 화소들 간의 거리에 정비례하여 부여하는 것으로 설명하였으나, 필요에 따라 정확하게 거리에 비례하여 부여되지 않고 근사적으로 또는 달리 부여될 수 있음은 물론이다.In the above-described embodiment, the value of the distance weight is described as being directly proportional to the distance between the current pixel and the corresponding pixels. However, the distance weight value may not be given in proportion to the distance, but may be given approximately or differently. .
비록 본 발명의 몇몇 실시예들이 도시되고 설명되었지만, 본 발명이 속하는 기술분야의 통상의 지식을 가진 당업자라면 본 발명의 원칙이나 정신에서 벗어나지 않으면서 본 실시예를 변형할 수 있음을 알 수 있을 것이다. 발명의 범위는 첨부된 청구항과 그 균등물에 의해 정해질 것이다.Although some embodiments of the invention have been shown and described, it will be apparent to those skilled in the art that modifications may be made to the embodiment without departing from the spirit or spirit of the invention. . It is intended that the scope of the invention be defined by the claims appended hereto and their equivalents.
도 1은 본 발명의 일 실시예에 따른 영상보간장치의 개략적인 제어블록도;1 is a schematic control block diagram of an image interpolation apparatus according to an embodiment of the present invention;
도 2는 본 발명의 일 실시예에 따른 영상보간장치에서 검출한 에지방향을 설명하기 위한 개략도;2 is a schematic diagram for explaining an edge direction detected by an image interpolation apparatus according to an embodiment of the present invention;
도 3은 본 발명의 일 실시예에 따른 영상보간장치에서 사용하는 NAL 알고리즘을 설명하기 위한 개략도;3 is a schematic diagram for explaining an NAL algorithm used in an image interpolation apparatus according to an embodiment of the present invention;
도 4는 본 발명의 일 실시예에 따른 거리 가중치의 계산의 예를 보여주는 도면;4 shows an example of calculating distance weights according to an embodiment of the present invention;
도 5는 본 발명의 일 실시예에 따른 영상보간장치에서 조정인자에 따른 성능을 비교한 그래프;5 is a graph comparing performance according to adjustment factors in an image interpolation apparatus according to an embodiment of the present invention;
도 6a 내지 도 6i는 본 발명이 적용된 영상과 종래의 보간방법이 적용된 영상의 비교영상들을 도시한 것이다. 6A to 6I illustrate comparative images of an image to which the present invention is applied and an image to which a conventional interpolation method is applied.
Claims (8)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080069444A KR100949137B1 (en) | 2008-07-17 | 2008-07-17 | Image interpolation device and method and computer readable recording medium recording the method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080069444A KR100949137B1 (en) | 2008-07-17 | 2008-07-17 | Image interpolation device and method and computer readable recording medium recording the method |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100008851A KR20100008851A (en) | 2010-01-27 |
KR100949137B1 true KR100949137B1 (en) | 2010-03-25 |
Family
ID=41817366
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020080069444A Expired - Fee Related KR100949137B1 (en) | 2008-07-17 | 2008-07-17 | Image interpolation device and method and computer readable recording medium recording the method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100949137B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103475838A (en) * | 2013-06-21 | 2013-12-25 | 青岛海信信芯科技有限公司 | Deinterlacing method based on edge self adaption |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20030024801A (en) * | 2001-05-22 | 2003-03-26 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | Refined quadrilinear interpolation |
KR100468786B1 (en) * | 2003-04-02 | 2005-01-29 | 삼성전자주식회사 | Interpolator providing for high resolution scaling by interpolation with direction estimation and polynomial filtering, scaler comprising it, and method thereof |
KR20080048385A (en) * | 2006-11-28 | 2008-06-02 | 한양대학교 산학협력단 | Adaptive Linear Interpolation Using New Distance Weights, Adaptive Linear Interpolation Considering Regional Patterns, Adaptive Linear Interpolation Using Pattern Weighting |
-
2008
- 2008-07-17 KR KR1020080069444A patent/KR100949137B1/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20030024801A (en) * | 2001-05-22 | 2003-03-26 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | Refined quadrilinear interpolation |
KR100468786B1 (en) * | 2003-04-02 | 2005-01-29 | 삼성전자주식회사 | Interpolator providing for high resolution scaling by interpolation with direction estimation and polynomial filtering, scaler comprising it, and method thereof |
KR20080048385A (en) * | 2006-11-28 | 2008-06-02 | 한양대학교 산학협력단 | Adaptive Linear Interpolation Using New Distance Weights, Adaptive Linear Interpolation Considering Regional Patterns, Adaptive Linear Interpolation Using Pattern Weighting |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103475838A (en) * | 2013-06-21 | 2013-12-25 | 青岛海信信芯科技有限公司 | Deinterlacing method based on edge self adaption |
CN103475838B (en) * | 2013-06-21 | 2017-03-15 | 青岛海信电器股份有限公司 | A kind of interlace-removing method based on edge self-adaption |
Also Published As
Publication number | Publication date |
---|---|
KR20100008851A (en) | 2010-01-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9036082B2 (en) | Method, apparatus, and system for line-based motion compensation in video image data | |
KR101536794B1 (en) | Image interpolation with halo reduction | |
US8447130B2 (en) | History-based spatio-temporal noise reduction | |
US9444977B2 (en) | Method and device for adaptive noise measurement of a video signal | |
KR101097673B1 (en) | Noise detection and estimation techniques for picture enhancement | |
US20100157070A1 (en) | Video stabilization in real-time using computationally efficient corner detection and correspondence | |
US8331689B2 (en) | Detecting a border region in an image | |
US20050068334A1 (en) | De-interlacing device and method therefor | |
WO2008152951A1 (en) | Method of and apparatus for frame rate conversion | |
KR100979811B1 (en) | Sequential Scanning Apparatus and Method Considering Horizontal Edge Patterns | |
US20220030192A1 (en) | De-interlacing processing method and device, and computer-readable storage medium | |
JP2004007696A (en) | Method and system for edge adaptive interpolation for interlace-progressive transformation | |
KR100967521B1 (en) | Deinterlacing apparatus and method using directional correlation | |
CN111294545B (en) | Image data interpolation method and device, storage medium and terminal | |
US20170085912A1 (en) | Video sequence processing | |
US8761262B2 (en) | Motion vector refining apparatus | |
KR20060091053A (en) | Device and method for pre-processing before encoding of a video sequence | |
KR100949137B1 (en) | Image interpolation device and method and computer readable recording medium recording the method | |
JP5197374B2 (en) | Motion estimation | |
Kang | Adaptive luminance coding-based scene-change detection for frame rate up-conversion | |
KR101158847B1 (en) | Deinterlacing apparatus and method using edge map | |
CN113286107B (en) | Video deinterlacing method, system, device and storage medium | |
KR100552685B1 (en) | Method and apparatus for converting interlaced image into sequential image | |
US8902360B2 (en) | Method for detecting image sequences having linewise repeated data | |
JP4250807B2 (en) | Field frequency conversion device and conversion method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
N231 | Notification of change of applicant | ||
PN2301 | Change of applicant |
St.27 status event code: A-3-3-R10-R11-asn-PN2301 St.27 status event code: A-3-3-R10-R13-asn-PN2301 |
|
D13-X000 | Search requested |
St.27 status event code: A-1-2-D10-D13-srh-X000 |
|
D14-X000 | Search report completed |
St.27 status event code: A-1-2-D10-D14-srh-X000 |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
PR1002 | Payment of registration fee |
Fee payment year number: 1 St.27 status event code: A-2-2-U10-U11-oth-PR1002 |
|
PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R11-asn-PN2301 St.27 status event code: A-5-5-R10-R13-asn-PN2301 |
|
FPAY | Annual fee payment |
Payment date: 20130111 Year of fee payment: 4 |
|
PR1001 | Payment of annual fee |
Fee payment year number: 4 St.27 status event code: A-4-4-U10-U11-oth-PR1001 |
|
FPAY | Annual fee payment |
Payment date: 20131230 Year of fee payment: 5 |
|
PR1001 | Payment of annual fee |
Fee payment year number: 5 St.27 status event code: A-4-4-U10-U11-oth-PR1001 |
|
P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |
|
PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R11-asn-PN2301 St.27 status event code: A-5-5-R10-R13-asn-PN2301 |
|
R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R11-asn-PN2301 St.27 status event code: A-5-5-R10-R13-asn-PN2301 |
|
FPAY | Annual fee payment |
Payment date: 20150105 Year of fee payment: 6 |
|
PR1001 | Payment of annual fee |
Fee payment year number: 6 St.27 status event code: A-4-4-U10-U11-oth-PR1001 |
|
R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
FPAY | Annual fee payment |
Payment date: 20160104 Year of fee payment: 7 |
|
PR1001 | Payment of annual fee |
Fee payment year number: 7 St.27 status event code: A-4-4-U10-U11-oth-PR1001 |
|
LAPS | Lapse due to unpaid annual fee | ||
PC1903 | Unpaid annual fee |
Not in force date: 20170317 Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE St.27 status event code: A-4-4-U10-U13-oth-PC1903 |
|
P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |
|
PC1903 | Unpaid annual fee |
Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE Not in force date: 20170317 St.27 status event code: N-4-6-H10-H13-oth-PC1903 |
|
R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R11-asn-PN2301 St.27 status event code: A-5-5-R10-R13-asn-PN2301 |
|
PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R11-asn-PN2301 St.27 status event code: A-5-5-R10-R13-asn-PN2301 |
|
R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R11-asn-PN2301 St.27 status event code: A-5-5-R10-R13-asn-PN2301 |
|
R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |