[go: up one dir, main page]

KR102112019B1 - Apparatus and method for generating intermediate view image - Google Patents

Apparatus and method for generating intermediate view image Download PDF

Info

Publication number
KR102112019B1
KR102112019B1 KR1020180100685A KR20180100685A KR102112019B1 KR 102112019 B1 KR102112019 B1 KR 102112019B1 KR 1020180100685 A KR1020180100685 A KR 1020180100685A KR 20180100685 A KR20180100685 A KR 20180100685A KR 102112019 B1 KR102112019 B1 KR 102112019B1
Authority
KR
South Korea
Prior art keywords
point
correlation
correlation point
view image
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020180100685A
Other languages
Korean (ko)
Other versions
KR20190038312A (en
Inventor
김상원
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US16/142,614 priority Critical patent/US10839540B2/en
Publication of KR20190038312A publication Critical patent/KR20190038312A/en
Application granted granted Critical
Publication of KR102112019B1 publication Critical patent/KR102112019B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

입체 영상의 중간시점 영상을 생성하는 장치로서, 좌시점 영상과 우시점 영상에서 윤곽선을 검출하고, 검출된 윤곽선에서 특징점을 검출하는 특징점 검출부, 상기 좌시점 영상과 상기 우시점 영상의 상기 특징점에 대한 상관점을 검출하는 상관점 검출부, 그리고 상기 특징점과 상기 상관점의 시차 정보에 기반하여 중간시점 영상을 생성하는 합성부를 포함하는 중간시점 영상 생성 장치가 제공된다.An apparatus for generating a mid-view image of a stereoscopic image, the feature point detector detects a contour line from a left-view image and a right-view image, and detects a feature point from the detected contour line, for the feature point of the left-view image and the right-view image An intermediate point image generating apparatus is provided which includes a correlation point detector for detecting a correlation point, and a synthesis unit for generating an intermediate point image based on disparity information of the feature point and the correlation point.

Description

중간시점 영상 생성 장치 및 방법{APPARATUS AND METHOD FOR GENERATING INTERMEDIATE VIEW IMAGE}Apparatus and method for generating mid-view images {APPARATUS AND METHOD FOR GENERATING INTERMEDIATE VIEW IMAGE}

본 기재는 입체 영상의 중간시점 영상을 생성하는 장치 및 방법에 관한 것이다.The present description relates to an apparatus and method for generating a mid-view image of a stereoscopic image.

중간시점 영상을 생성하는 방법으로는 영상의 전영역에 대한 균일한 시차 정보를 활용하는 방법, 영상의 모든 픽셀에 대한 시차 정보를 활용하는 방법, 영상의 일부 픽셀들에 대한 시차 정보를 활용하는 방법이 있다.As a method of generating the mid-view image, a method of using uniform parallax information for all areas of the image, a method of using parallax information for all pixels of the image, a method of using parallax information for some pixels of the image There is this.

영상의 전영역에 대한 균일한 시차 정보를 활용하는 방법은 좌우 영상의 일부 또는 전체에 대한 사각형 영역을 지정하고, 사각형 영역을 3차원 변환(Transformation)하여 중간시점의 사각형 영역을 찾으며, 좌우 영상의 사각형 영역에서 중간시점의 사각형 영역으로 영상 모핑하여 중간시점 영상을 생성한다. 이 방법은 시차 정보가 사각형 전영역에서 균일하다고 가정하므로, 복잡한 변화가 없는 영상에 한해서 사용 가능한 문제점이 있다.The method of using uniform parallax information for all regions of the image is to designate a rectangular region for a part or all of the left and right images, to find a square region at the middle point by 3D transformation of the square region, An image is generated by morphing an image from a rectangular region to a rectangular region of the middle viewpoint. Since this method assumes that parallax information is uniform in all areas of a rectangle, there is a problem that it can be used only for images without complicated changes.

영상의 모든 픽셀에 대한 시차 정보를 활용하는 방법은 좌우 영상의 모든 픽셀에 대한 시차 정보를 구하여 시차맵을 생성하고, 시차맵과 좌우 영상을 참조하여 중간시점 영상을 생성한다. 구체적으로, 해당 시차맵을 참조하여 좌우 각 영상을 3차원 공간으로 투사하여 합친 후, 3차원 공간상의 각 픽셀 정보를 다시 좌우 영상이 존재하는 평면의 지정된 중간 위치로 투사하여 중간시점 영상을 생성한다. As a method of utilizing parallax information for all pixels of the image, a parallax map is generated by obtaining parallax information for all pixels of the left and right images, and an intermediate viewpoint image is generated by referring to the parallax map and the left and right images. Specifically, the left and right images are projected and combined into a 3D space with reference to the corresponding parallax map, and then each pixel information in the 3D space is projected back to a designated intermediate position of a plane in which the left and right images exist to generate an intermediate viewpoint image. .

상기 방법은 복잡한 영상에 대해서도 중간시점을 구할 수 있으나, 사용되는 시차맵의 품질에 따라 생성되는 중간시점의 전체 품질이 좌우되는 문제점이 있다. 시차맵이 불완전하면 좌우 영상의 각 픽셀들이 3차원 공간상의 엉뚱한 위치로 투사되고, 다시 중간시점 평면의 엉뚱한 위치로 투사되면서 원래 픽셀이 위치할 곳에 구멍이 발생하고, 잘못 투사된 위치의 픽셀값이 교란된다. 이 방법은 좌우 영상의 모든 픽셀에 대한 시차 정보를 구해야 하므로 계산 시간이 오래 걸리고, 잘못된 시차 정보가 포함된 노이즈가 발생하기 쉬우므로 높은 품질의 시차맵을 구하는 것이 어려운 문제점이 있다.The above method can obtain an intermediate point of view even for a complex image, but has a problem in that the overall quality of the intermediate point of view generated depends on the quality of the parallax map used. When the parallax map is incomplete, each pixel of the left and right images is projected to the wrong location in the 3D space, and then projected to the wrong location in the mid-view plane, causing a hole where the original pixel will be located, and the pixel value at the wrongly projected location. Disturbed. This method has a problem in that it is difficult to obtain a high-quality parallax map because it requires a long time to calculate parallax information for all pixels of the left and right images, and noise containing false parallax information is prone to occur.

영상의 전체가 아닌 일부 지점의 픽셀에 대한 시차 정보를 구하는 방법은 필요한 지점을 찾는 것을 최소화해야 하고, 각 지점에서 구한 시차 정보의 오차를 최소화해야 하는 문제점이 있다.The method of obtaining parallax information for a pixel at a part of the image rather than the whole has a problem of minimizing finding a required point and minimizing an error of parallax information obtained at each point.

한 실시예는 입체 영상의 중간시점 영상을 생성하는 장치를 제공한다.One embodiment provides an apparatus for generating a mid-view image of a stereoscopic image.

다른 실시예는 입체 영상의 중간시점 영상을 생성하는 방법을 제공한다.Another embodiment provides a method of generating a mid-view image of a stereoscopic image.

한 실시예에 따르면, 입체 영상의 중간시점 영상을 생성하는 장치는, 좌시점 영상과 우시점 영상에서 윤곽선을 검출하고, 검출된 윤곽선에서 특징점을 검출하는 특징점 검출부, 상기 좌시점 영상과 상기 우시점 영상의 상기 특징점에 대한 상관점을 검출하는 상관점 검출부, 그리고 상기 특징점과 상기 상관점의 시차 정보에 기반하여 중간시점 영상을 생성하는 합성부를 포함한다.According to an embodiment of the present invention, an apparatus for generating a mid-view image of a stereoscopic image includes a feature point detection unit that detects a contour line from a left-view image and a right-view image, and detects a feature point from the detected contour line, the left-view image and the right view point It includes a correlation point detection unit for detecting a correlation point for the feature point of the image, and a synthesis unit for generating an intermediate view image based on the disparity information of the feature point and the correlation point.

상기 상관점 검출부는, 상기 상관점에 대한 역상관점을 검출하고, 상기 역상관점과 상기 특징점의 위치를 바탕으로 상기 상관점 중에서 비정상 상관점을 제거하여 유효 상관점을 선택하고, 상기 합성부는, 상기 특징점과 상기 유효 상관점의 시차 정보를 이용하여 상기 중간시점 영상을 생성할 수 있다.The correlation point detection unit detects an inverse correlation point with respect to the correlation point, removes an abnormal correlation point from the correlation points based on the position of the inverse correlation point and the feature point, selects an effective correlation point, and the synthesis unit includes the The mid-view image may be generated using disparity information between a feature point and the effective correlation point.

상기 상관점 검출부는, 상기 역상관점과 상기 특징점의 위치가 다르면 상기 검출된 상관점이 비정상인 것으로 판단하고, 비정상으로 판단된 상관점을 제거할 수 있다.The correlation point detection unit may determine that the detected correlation point is abnormal when the positions of the inverse correlation point and the feature point are different, and remove the correlation point determined as abnormal.

상기 상관점 검출부는, 상기 좌시점 영상과 상기 우시점 영상의 특징점 중 배경과 전경에 포함된 특징점을 분리하고, 상기 배경에 포함된 특징점에 대한 상관점과 상기 전경에 포함된 특징점에 대한 상관점을 검출하여 통합할 수 있다.The correlation point detector separates a feature point included in a background and a foreground among feature points of the left-view image and the right-view image, and a correlation point for a feature point included in the background and a correlation point for a feature point included in the foreground Can be detected and integrated.

다른 실시예에 따르면, 입체 영상의 중간시점 영상을 생성하는 방법은, 좌시점 영상과 우시점 영상에서 윤곽선을 검출하는 단계, 상기 윤곽선에서 특징점을 검출하는 단계, 상기 특징점에 대한 상관점을 검출하는 단계, 그리고 상기 특징점과 상기 상관점의 시차 정보에 기반하여 중간시점 영상을 생성하는 단계를 포함한다.According to another embodiment, a method of generating a mid-view image of a stereoscopic image includes detecting a contour line from a left-view image and a right-view image, detecting a feature point from the contour line, and detecting a correlation point with respect to the feature point And generating an intermediate view image based on disparity information of the feature point and the correlation point.

상기 상관점을 검출하는 단계 이후, 상기 상관점에 대한 역상관점을 검출하고, 상기 역상관점과 상기 특징점의 위치를 바탕으로 상기 상관점 중에서 비정상 상관점을 제거하여 유효 상관점을 선택하는 단계를 더 포함하고, 상기 중간시점 영상을 생성하는 단계는, 상기 특징점과 상기 유효 상관점의 시차 정보를 이용하여 중간시점 영상을 생성할 수 있다.After the step of detecting the correlation point, detecting an inverse correlation point with respect to the correlation point, and selecting an effective correlation point by removing an abnormal correlation point from the correlation points based on the position of the inverse correlation point and the feature point The generating of the mid-view image may include generating a mid-view image using disparity information between the feature point and the effective correlation point.

상기 유효 상관점을 선택하는 단계는, 상기 역상관점과 상기 검출된 특징점의 위치가 다르면 상기 검출된 상관점이 비정상인 것으로 판단하고, 비정상으로 판단된 상관점을 제거할 수 있다.In selecting the effective correlation point, if the positions of the inverse correlation point and the detected feature point are different, the detected correlation point is determined to be abnormal, and the correlation point determined to be abnormal can be removed.

상기 상관점을 검출하는 단계는, 상기 좌시점 영상과 상기 우시점 영상의 특징점 중 배경과 전경에 포함된 특징점을 분리하는 단계, 그리고 상기 배경에 포함된 특징점에 대한 상관점과 상기 전경에 포함된 특징점에 대한 상관점을 검출하여 통합하는 단계를 포함할 수 있다.The detecting of the correlation points may include separating a feature point included in a background and a foreground among feature points of the left and right view images, and a correlation point for the feature points included in the background and included in the foreground. And detecting and integrating the correlation points for the feature points.

상기 상관점을 검출하여 통합하는 단계는, 상기 배경에 포함된 특징점에 대한 상관점과 상기 전경에 포함된 특징점에 대한 상관점을 검출하는 단계, 상기 배경과 상기 전경에 포함된 상관점에 대한 각각의 역상관점을 검출하는 단계, 상기 역상관점과 상기 배경과 상기 전경에 포함된 특징점의 위치가 다르면 비정상 상관점으로 판단하여 상기 비정상 상관점을 제거하는 단계, 그리고 상기 비정상 상관점이 제거된 상기 배경 및 상기 전경에 포함된 상관점을 통합하는 단계를 포함할 수 있다.The detecting and integrating the correlation points may include detecting a correlation point for the feature points included in the background and a correlation point for the feature points included in the foreground, respectively for the correlation points included in the background and the foreground Detecting an inverse correlation point of the step, determining the abnormal correlation point when the position of the inverse correlation point and the background and the feature point included in the foreground are different, and removing the abnormal correlation point, and the background from which the abnormal correlation point is removed, and And integrating the correlation points included in the foreground.

다른 실시예에 따르면, 입체 영상의 중간시점 영상을 생성하는 장치는, 프로세서 및 메모리를 포함하고, 상기 프로세서는 상기 메모리에 저장된 프로그램을 실행하여, 좌시점 영상과 우시점 영상에서 윤곽선을 검출하고, 검출된 윤곽선에서 특징점을 검출하는 단계, 상기 좌시점 영상과 상기 우시점 영상의 상기 특징점에 대한 상관점을 검출하는 단계, 그리고 상기 특징점과 상기 상관점의 시차 정보에 기반하여 중간시점 영상을 생성하는 단계를 수행한다.According to another embodiment, an apparatus for generating a mid-view image of a stereoscopic image includes a processor and a memory, and the processor executes a program stored in the memory to detect contours in a left-view image and a right-view image, Detecting a feature point from the detected contour, detecting a correlation point for the feature point of the left-view image and the right-view image, and generating an intermediate view image based on disparity information of the feature point and the correlation point Perform the steps.

영상 전체에서 시차 정보를 구하지 않고 유효한 특징점에 대한 시차 정보를 확보함으로써, 고품질의 중간시점 영상을 생성할 수 있다.By obtaining parallax information for a valid feature point without obtaining parallax information from the entire image, a high-quality mid-view image can be generated.

또한, 영상 전체에서 시차 정보를 구하지 않으므로, 고속으로 중간시점 영상을 생성할 수 있다.In addition, since parallax information is not obtained from the entire image, an intermediate view image can be generated at a high speed.

도 1은 좌측시점 영상(a)과 우측시점 영상(b)을 나타내는 도면이다.
도 2는 영상의 전영역에서 시차 정보를 구하는 방법을 통해 도출된 시차맵을 나타내는 도면이다.
도 3은 영상의 전영역에서 시차 정보를 구하는 방법을 통해 생성된 중간시점 영상을 나타내는 도면이다.
도 4는 좌측시점 영상(a)과 우측시점 영상(b)을 나타내는 도면이다.
도 5는 시차 정보를 나타내는 도면이다.
도 6은 영상의 일부 픽셀에서 시차 정보를 구하는 방법을 통해 생성된 중간시점 영상을 나타내는 도면이다.
도 7은 한 실시예에 따른 중간시점 영상 생성 장치의 블록도이다.
도 8은 한 실시예에 따른 중간시점 영상 생성 장치에 의해 변환된 그레이 스케일 영상을 나타내는 도면이다.
도 9는 그레이 스케일 영상에서 검출된 특징점을 나타내는 도면이다.
도 10은 한 실시예에 따른 중간시점 영상 생성 장치에 의해 수행된 캐니 필터링을 수행하여 검출된 윤곽선을 나타내는 도면이다.
도 11은 윤곽선에서 검출된 특징점을 나타내는 도면이다.
도 12는 소벨 필터링된 영상과 캐니 필터링된 영상을 합성한 영상을 나타내는 도면이다.
도 13은 캐니 필터링된 영상에서 검출된 특징점을 나타내는 도면이다.
도 14 및 도 15는 한 실시예에 따른 중간시점 영상 생성 장치에 의해 검출된 상관점과 시차 벡터를 나타내는 도면이다.
도 16 내지 도 19는 비정상 상관점을 설명하기 위한 도면이다.
도 20 및 도 21은 배경 또는 전경을 분리하여 검출된 특징점을 나타내는 도면이다.
도 22는 모핑을 통해 생성된 중간시점 영상을 나타내는 도면이다.
도 23 및 도 24는 한 실시예에 따른 중간시점 영상 생성 방법을 나타내는 흐름도이다.
도 25는 한 실시예에 따른 상관점을 검출하는 단계를 나타내는 흐름도이다.
도 26은 다른 실시예에 따른 중간시점 영상 생성 장치를 나타내는 블록도이다.
1 is a view showing a left view image (a) and a right view image (b).
2 is a view showing a parallax map derived through a method of obtaining parallax information in all regions of an image.
3 is a view showing an intermediate viewpoint image generated through a method of obtaining parallax information in all regions of an image.
4 is a view showing a left view image (a) and a right view image (b).
5 is a view showing parallax information.
FIG. 6 is a diagram illustrating an intermediate view image generated through a method of obtaining parallax information from some pixels of an image.
7 is a block diagram of an apparatus for generating an intermediate viewpoint according to an embodiment.
8 is a diagram illustrating a gray scale image converted by an intermediate viewpoint image generating apparatus according to an embodiment.
9 is a diagram showing feature points detected in a gray scale image.
FIG. 10 is a diagram showing contours detected by performing canny filtering performed by the mid-view image generating apparatus according to an embodiment.
11 is a view showing the feature points detected in the contour.
12 is a view showing an image obtained by combining a Sobel filtered image and a Canny filtered image.
13 is a diagram showing feature points detected in a canny-filtered image.
14 and 15 are diagrams showing a correlation point and a parallax vector detected by an intermediate viewpoint image generating apparatus according to an embodiment.
16 to 19 are views for explaining an abnormal correlation point.
20 and 21 are views showing feature points detected by separating a background or a foreground.
22 is a view showing an intermediate viewpoint image generated through morphing.
23 and 24 are flowcharts illustrating a method for generating an intermediate viewpoint image according to an embodiment.
25 is a flowchart illustrating a step of detecting a correlation point according to an embodiment.
26 is a block diagram illustrating an apparatus for generating an intermediate viewpoint image according to another embodiment.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art to which the present invention pertains can easily practice. However, the present invention can be implemented in many different forms and is not limited to the embodiments described herein. In addition, in order to clearly describe the present invention in the drawings, parts irrelevant to the description are omitted, and like reference numerals are assigned to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part “includes” a certain component, it means that the component may further include other components, not to exclude other components, unless otherwise stated.

촬영된 좌우 영상 사이에서 중간시점 영상을 구하는 방법은 좌우 영상 사이에서 시차(Disparity) 정보를 구하는 방법과 시차 정보를 사용하여 좌우 영상을 합성하는 방법으로 구성된다.The method of obtaining the mid-view image between the captured left and right images is composed of a method of obtaining disparity information between the left and right images and a method of synthesizing the left and right images using the disparity information.

시차 정보를 구하는 방법은 영상의 전영역에서 시차 정보를 구하는 방법과 영상의 일부 영역에서 시차 정보를 구하는 방법으로 나뉜다.The method of obtaining parallax information is divided into a method of obtaining parallax information in all regions of the image and a method of obtaining parallax information in some regions of the image.

도 1은 좌측 영상(a)과 우측 영상(b)을 나타내는 도면이고, 도 2는 영상의 전영역에서 시차 정보를 구하는 방법을 통해 도출된 시차맵을 나타내는 도면이며, 도 3은 영상의 전영역에서 시차 정보를 구하는 방법을 통해 생성된 중간시점 영상을 나타내는 도면이다.FIG. 1 is a view showing a left image (a) and a right image (b), and FIG. 2 is a view showing a parallax map derived through a method of obtaining parallax information in all regions of the image, and FIG. 3 is a whole region of the image A diagram showing an intermediate viewpoint image generated through a method of obtaining parallax information in.

영상의 전영역에서 시차 정보를 구하는 방법은 좌우 영상의 모든 픽셀을 특징점으로 삼고, 특징점에 대응하는 상관점을 구하여 시차를 계산하는 방법이다. 이 방법은 스테레오 매칭(Stereo Matching) 기술을 통해 영상과 같은 사이즈의 시차맵(Disparity Map)을 구한다. 이 방법은 좌우 영상의 모든 픽셀에서 시차를 구하기 때문에 계산 시간이 많이 걸리고, 모든 픽셀에 대해 정확한 시차값을 구하는 것이 불가능하므로 중간시점 영상의 품질을 높이기 어렵다.A method of obtaining parallax information in all regions of an image is a method of calculating parallax by using all pixels of the left and right images as a feature point, and obtaining a correlation point corresponding to the feature point. In this method, a disparity map having the same size as an image is obtained through stereo matching technology. This method takes a lot of calculation time because the parallax is obtained from all the pixels in the left and right images, and it is difficult to increase the quality of the mid-view image because it is impossible to obtain an accurate parallax value for all pixels.

도 2를 참조하면, 시차맵에는 잘못된 시차 정보를 나타내는 노이즈가 많이 포함된 것을 확인할 수 있다. 이러한 노이즈로 인해, 도 3과 같이 중간시점 영상에서 인물의 윤곽선 부분이 깨지는 현상이 발생하게 된다.Referring to FIG. 2, it can be seen that the parallax map contains a lot of noise indicating incorrect parallax information. Due to this noise, a phenomenon in which the contour part of the person is broken in the mid-view image as shown in FIG. 3 occurs.

도 4는 좌측 영상(a)과 우측 영상(b)을 나타내는 도면이고, 도 5는 시차 정보를 나타내는 도면이며, 도 6은 영상의 일부 픽셀에서 시차 정보를 구하는 방법을 통해 생성된 중간시점 영상을 나타내는 도면이다.FIG. 4 is a view showing a left image (a) and a right image (b), FIG. 5 is a view showing parallax information, and FIG. 6 is a view of an intermediate viewpoint generated through a method of obtaining parallax information from some pixels of the image It is a figure to show.

영상의 일부 영역에서 시차 정보를 구하는 방법은 좌시점 영상 또는 우시점 영상 중 한쪽 영상에서 몇 개의 특징점을 찾고, 다른 한쪽 영상에서 각 특징점에 대응하는 상관점을 찾은 후 특징점과 상관점 사이의 거리(픽셀)로부터 시차값을 계산한다. 도 5를 참조하면, 특징점은 모서리 등을 구별하는 지점, 예컨데 손가락 끝 지점일 수 있고, 상관점은 다른 한쪽 영상의 해당 손가락 끝 지점일 수 있다.The method of obtaining parallax information in some areas of an image is to find several feature points in one image of a left-view image or a right-view image, find a correlation point corresponding to each feature point in the other image, and then find the distance between the feature point and the correlation point ( Pixel). Referring to FIG. 5, the feature point may be a point for distinguishing edges or the like, for example, a finger tip point, and a correlation point may be a corresponding finger tip point of the other image.

상관점을 찾는 방법은 좌우 각각의 영상에서 모든 특징점를 찾은 후, 특징점 매칭(Feature Point Matching) 기술을 사용하여 각 특징점에 대응되는 다른 한쪽 영상의 특징점을 상관점으로 하는 방법과 도 5에 도시된 바와 같이 옵티컬 플로우(Optical Flow) 기술을 사용하여 상관점을 찾는 방법이 있다.As a method of finding the correlation point, after finding all the feature points in each of the left and right images, a feature point matching technique using the feature point of the other image corresponding to each feature point as a correlation point and as shown in FIG. Likewise, there is a method of finding a correlation point using optical flow technology.

특징점에 대응하는 상관점 사이를 연결한 수평방향의 선의 길이가 길면 시차가 큰 것을 의미하고, 선의 길이가 짧으면 시차가 작은 것을 의미한다. If the length of the horizontal line connecting the correlation points corresponding to the feature points is long, the parallax is large, and if the length of the line is short, the parallax is small.

도 5를 참조하면, 카메라에서 가까운 인물에 대해서는 시차가 크고 카메라에서 먼 배경에 대해서는 시차가 작은 것을 확인할 수 있다. 도 6을 참조하면, 특징점과 상관점의 시차가 정확하지 않은 부분은 중간시점 영상에서 뿌옇게 보이거나 겹쳐 보이는 것을 확인할 수 있다.Referring to FIG. 5, it can be seen that the parallax is large for a person close to the camera and the parallax is small for a background far from the camera. Referring to FIG. 6, it can be seen that a part in which the parallax between the feature point and the correlation point is not correct appears blurry or overlapped in the mid-view image.

도 7은 한 실시예에 따른 중간시점 영상 생성 장치의 블록도이고, 도 8은 한 실시예에 따른 중간시점 영상 생성 장치에 의해 변환된 그레이 스케일 영상을 나타내는 도면이며, 도 9는 도 8의 그레이 스케일 영상에서 검출된 특징점을 나타내는 도면이며, 도 10은 한 실시예에 따른 중간시점 영상 생성 장치에 의해 수행된 캐니 필터링을 통해 검출된 윤곽선을 나타내는 도면이며, 도 11은 도 10의 윤곽선에서 검출된 특징점을 나타내는 도면이며, 도 12는 소벨 필터링된 영상과 캐니 필터링된 영상을 합성한 영상을 나타내는 도면이며, 도 13은 캐니 필터링된 영상에서 검출된 특징점을 나타내는 도면이다.7 is a block diagram of an apparatus for generating an intermediate viewpoint according to an embodiment, and FIG. 8 is a diagram illustrating a gray scale image converted by the apparatus for generating an intermediate viewpoint according to an embodiment. FIG. 10 is a diagram showing a feature point detected in a scale image, and FIG. 10 is a diagram showing a contour line detected through Canny filtering performed by the mid-view image generating apparatus according to an embodiment, and FIG. 11 is a line detected in the contour line of FIG. 10. FIG. 12 is a diagram showing a composite of a Sobel filtered image and a Canny filtered image, and FIG. 13 is a diagram showing the feature points detected in the Canny filtered image.

도 7을 참조하면, 한 실시예에 따른 중간시점 영상 생성 장치(1)는 특징점 검출부(30), 상관점 검출부(50), 합성부(70)를 포함한다.Referring to FIG. 7, the mid-view image generating apparatus 1 according to an embodiment includes a feature point detection unit 30, a correlation point detection unit 50, and a synthesis unit 70.

특징점 검출부(30)는 좌시점 영상과 우시점 영상에서 윤곽선 또는 중요지점을 검출하고, 검출된 윤곽선 또는 중요지점에서 특징점을 검출한다. 영상에서 찾은 특징점 모두가 중요한 것은 아니다. 무늬를 갖는 옷이나 벽지가 포함된 영상에서 검출되는 특징점들은 특징점 근처에서 시차 변화가 거의 없기 때문에 중요도가 낮다. 반면, 인물의 윤곽선에서 발견되는 특징점들은 특징점 근처에서 시차 변화가 크기 때문에 중요도가 높다.The feature point detection unit 30 detects a contour line or an important point in a left-view image and a right-view image, and detects a feature point in the detected contour or important point. Not all of the feature points found in the video are important. Feature points detected in an image that includes patterned clothes or wallpaper have low importance because there is little parallax change near the feature points. On the other hand, the feature points found in a person's outline are highly important because the parallax changes are large near the feature points.

특징점 검출부(30)는 좌시점 영상과 우시점 영상을 그레이 스케일(Gray-scale) 영상으로 변환한 후 소벨(Sobel) 필터링, 라플라시안(Laplacian) 필터링, 캐니(Canny) 필터링 등의 필터링을 수행하고, 필터링된 영상들을 하나로 합성하여 윤곽선 또는 중요지점을 검출한다. 그레이 스케일 영상으로 변환된 영상은 도 8과 같으며, 이 상태에서 특징점을 검출하면 도 9와 같이 특징점이 비교적 고르게 분포하는 것을 확인할 수 있다. 그레이 스케일 영상에 대해 캐니(Canny) 필터링을 수행하면 도 10과 같이 윤곽선만 나타나는 영상이 생성된다.The feature point detection unit 30 converts a left-view image and a right-view image into a gray-scale image and performs filtering such as Sobel filtering, Laplacian filtering, and Canny filtering, The filtered images are combined into one to detect contours or important points. The image converted to the gray scale image is shown in FIG. 8, and when the feature point is detected in this state, it can be confirmed that the feature point is relatively evenly distributed as shown in FIG. 9. When Canny filtering is performed on a gray scale image, an image in which only contours appear as shown in FIG. 10 is generated.

특징점 검출부(30)는 필터링을 통해 검출된 영상에서 특징점을 검출할 수 있다. 영상에서 특징점을 검출한 영상은 도 11과 같다.The feature point detection unit 30 may detect a feature point from an image detected through filtering. The image in which the feature point is detected in the image is shown in FIG. 11.

특징점 검출부(30)는 한 실시예로서 세부적인 변화도(Gradient)까지 포함하는 소벨 필터링된 영상과 윤곽선 위주의 캐니 필터링된 영상을 합성한 영상에서 특징점을 검출할 수 있다. 소벨 필터링된 영상과 캐니 필터링된 영상을 합성한 영상은 도 12와 같다.The feature point detection unit 30 may detect a feature point in an image obtained by synthesizing a Sobel filtered image including a detailed gradient and a canny filtered image based on a contour as an embodiment. The combined image of the Sobel filtered image and the Canny filtered image is shown in FIG. 12.

캐니 필터링된 영상을 사용하면 윤곽선 위주로 특징점들을 검출할 수 있으나, 윤곽선의 품질 문제가 발생할 수 있다. 캐니 필터링을 수행할 때 임계값(Threshold)을 낮게 설정하면, 윤곽선과 특징점들이 풍부하게 검출될 수 있다. 그러나, 실제 윤곽선을 중심으로 겹선이 발생하거나 노이즈 선분들이 발생하게 되므로, 특징점들이 실제 윤곽선에서 검출되지 않고 윤곽선 근처에서 검출되는 문제가 발생한다. 윤곽선 근처의 특징점들은 시차 변화가 뚜렷하지 않기 때문에 정확한 상관점이 검출되기 어렵다.If the canny-filtered image is used, the feature points can be detected mainly around the outline, but a quality problem of the outline may occur. If the threshold is set low when performing canny filtering, contours and feature points can be detected abundantly. However, since a double line occurs around the actual contour or noise segments are generated, a problem occurs in that feature points are not detected in the actual contour but are detected in the vicinity of the contour. The characteristic correlation points near the contour are difficult to detect because the parallax change is not clear.

캐니 필터링을 수행할 때 임계값을 높게 설정하면, 확실만 윤곽선만 검출되므로 특징점들이 도 13과 같이 깔끔하게 검출될 수 있다. 그러나, 도 13의 사각박스 부분과 같이, 윤곽선이 검출되지 않은 부분에서 특징점이 검출되지 않는 문제가 발생한다.When the threshold value is set high when performing canny filtering, only the contours are detected with certainty, so the feature points can be detected neatly as shown in FIG. 13. However, there is a problem in that a feature point is not detected in a portion where the outline is not detected, such as the square box portion in FIG. 13.

위와 같은 문제를 해결하기 위해 특징점 검출부(30)는 윤곽석을 구할 때 단계적으로 접근하여 중요한 윤곽선의 특징점을 먼저 구하고, 이후 덜 중요한 윤곽선의 특징점을 검출한다. 한 실시예로서 임계값을 제1 값과 제2 값으로 설정하여 각 임계값으로 캐니 필터링을 수행하고, 제1 값에 의한 캐니 필터링으로부터 검출된 특징점과 제2 값에 의한 캐니 필터링으로부터 검출된 특징점을 통합한다. 제1 값은 제2 값보다 더 큰 값일 수 있으며, 제1 값과 제2 값은 설정에 따라 달라질 수 있는 값이다. In order to solve the above problems, the feature point detection unit 30 approaches stepwise when obtaining a contour stone, first obtains a feature point of an important contour, and then detects a feature point of a less important contour. As an embodiment, the threshold value is set to the first value and the second value to perform canny filtering with each threshold value, and the feature point detected from the canny filtering by the first value and the feature point detected from the canny filtering by the second value To incorporate. The first value may be larger than the second value, and the first value and the second value are values that may vary depending on the setting.

특징점 검출부(30)는 한 실시예로서 임계값을 다양하게 설정하여 캐니 필터링을 수행하고 특징점을 검출하는 단계를 수 회 실시하고, 각 단계에서 검출된 특징점들을 하나로 통합할 수 있다. 특징점 검출부(30)는 임계값을 높게 설정한 상태에서 검출한 특징점들은 유지하고, 임계값을 높게 설정한 상태에서 검출한 특징점들 근처에 임계값을 낮게 설정한 상태에서 검출한 특징점들을 선별적으로 추가할 수 있다. 이를 통해, 유효하고, 중요도가 높으며, 품질이 높은 특징점을 검출할 수 있다.The feature point detection unit 30 may perform several steps of performing canny filtering and detecting the feature points by variously setting a threshold value as one embodiment, and combine the feature points detected in each step into one. The feature point detection unit 30 maintains the feature points detected in a state where the threshold is set high, and selectively selects feature points detected in a state where the threshold value is set low near the feature points detected in the state where the threshold value is set high. Can be added. Through this, it is possible to detect feature points that are effective, have high importance, and have high quality.

도 14 및 도 15는 한 실시예에 따른 중간시점 영상 생성 장치에 의해 검출된 상관점과 시차 벡터를 나타내는 도면이며, 도 16 내지 도 19는 비정상 상관점을 설명하기 위한 도면이며, 도 20 및 도 21은 배경 또는 전경을 분리하여 검출한 특징점을 나타내는 도면이며, 도 22는 모핑을 통해 생성된 중간시점 영상을 나타내는 도면이다.14 and 15 are diagrams illustrating correlation points and parallax vectors detected by the mid-view image generating apparatus according to an embodiment, and FIGS. 16 to 19 are views illustrating abnormal correlation points, and FIGS. 21 is a view showing the feature points detected by separating the background or the foreground, and FIG. 22 is a view showing the mid-view image generated through morphing.

상관점 검출부(50)는 좌시점 영상과 우시점 영상의 특징점에 대한 상관점을 검출한다. 상관점 검출부(50)는 특징점 검출부(30)를 통해 검출된 유효한 특징점에 대한 상관점을 검출한다.The correlation point detection unit 50 detects a correlation point for the feature points of the left-view image and the right-view image. The correlation point detection unit 50 detects a correlation point for an effective feature point detected through the feature point detection unit 30.

상관점은 영상에서 광류(Optical Flow)를 계산하는 방법을 통해 검출될 수 있다. 이 방법은 좌시점 영상 또는 우시점 영상 중 한쪽 영상의 특징점이 다른 한쪽 영상의 어느 지점으로 이동되는지를 계산하는 것으로, 여기서 이동된 지점이 상관점이 된다.The correlation point can be detected through a method of calculating optical flow in an image. This method calculates to which point the feature point of one image of the left-view image or the right-view image moves to the other image, where the moved point becomes a correlation point.

도 14 및 도 15를 참조하면, 특징점(100)에서 상관점(200)으로의 이동 변화는 시차 벡터(300)로 표현될 수 있다. 좌시점 영상에서 구해진 특징점들에 대응하는 상관점들이 우시점 영상에서 검출될 수 있고, 우시점 영상에서 구해진 특징점들에 대응하는 상관점들이 좌시점 영상에서 검출될 수도 있다. 좌시점 영상과 우시점 영상에서 각각 구한 특징점과 상관점 사이의 시차 정보를 합산함으로써, 보다 풍부한 시차 정보를 계산할 수 있다.14 and 15, a change in movement from the feature point 100 to the correlation point 200 may be represented by a parallax vector 300. Correlation points corresponding to the feature points obtained from the left view image may be detected in the right view image, and correlation points corresponding to the feature points obtained from the right view image may be detected from the left view image. By adding the disparity information between the feature point and the correlation point obtained from the left-view image and the right-view image, richer disparity information can be calculated.

일반적으로 광류(Optical Flow)를 계산하는 방법을 통해 대부분의 특징점들에 대한 상관점들이 정확하게 얻어질 수 있지만, 일부 특징점들에 대해서 비정상 상관점들이 검출되는 문제가 발생할 수 있다.In general, although correlation points for most of the feature points can be accurately obtained through a method of calculating the optical flow, a problem in which abnormal correlation points are detected for some feature points may occur.

도 16의 사각박스를 참조하면, 단독 특징점에 대한 상관점이 엉뚱한 위치에 발생된 것을 확인할 수 있다. 도 17의 사각박스를 참조하면, 일부 영역의 특징점 군에 대해서 전체적으로 비정상 상관점 군이 검출되는 것을 확인할 수 있다. 도 16의 나무의 상관점들은 비교적 정확하게 검출되었지만, 도 17의 나무의 일부 상관점이 비정상적으로 검출되었음을 확인할 수 있다. 도 17의 이와 같은 문제는 대부분 시차가 매우 큰 물체의 윤곽선 근처에 있는 배경에서 발생한다.Referring to the square box of FIG. 16, it can be confirmed that the correlation point for the single feature point was generated at the wrong location. Referring to the square box of FIG. 17, it can be seen that an abnormal correlation point group is detected as a whole with respect to a group of feature points in a partial region. Although the correlation points of the tree of FIG. 16 were relatively accurately detected, it can be confirmed that some correlation points of the tree of FIG. 17 were abnormally detected. This problem of FIG. 17 most often occurs in the background near the contours of objects with very large parallax.

단독 특징점에 대한 상관점이 엉뚱한 위치에 발생되는 문제는 도 16의 사각박스와 같이 엉뚱한 위치의 상관점과 특징점 사이의 거리가 긴 경우에는 육안으로 확인하여 제거할 수 있지만, 거리가 짧은 경우에는 육안으로 확인하여 제거하는데 어려움이 있다. 만일 특정 거리 이상의 상관점들을 모두 걸러낸다면, 도 18과 같이 카메라에 근접한 인물의 윤곽선에 놓인 특징점들에 대응하는 상관점들이 긴 거리 때문에 모두 걸러지게 된다. 만일 거리 조건을 완화하면 비정상 상관점들이 제거되지 않을 수도 있다.The problem in which the correlation point for the single feature point is generated at the wrong location can be visually confirmed and removed when the distance between the correlation point at the wrong location and the feature point is long, as shown in the square box in FIG. 16, but when the distance is short, it can be visually observed. Difficult to check and remove. If all the correlation points above a certain distance are filtered out, the correlation points corresponding to the feature points placed on the contour of the person close to the camera are all filtered due to the long distance as shown in FIG. 18. If the distance condition is relaxed, abnormal correlations may not be eliminated.

단독 특징점에 대한 상관점이 엉뚱한 위치에 발생되는 문제를 해결하기 위해 상관점 검출부(50)는 검출된 상관점에 대한 역상관점을 검출하고, 역상관점과 특징점 검출부(30)에서 검출된 특징점의 위치를 바탕으로 검출된 상관점 중에서 비정상 상관점을 제거하여 유효 상관점을 선택하고, 합성부(70)는 유효 상관점과 특징점 검출부(30)에서 검출된 유효 특징점의 시차 정보를 이용하여 중간시점 영상을 생성한다.In order to solve the problem that a correlation point for a single feature point is generated in the wrong location, the correlation point detection unit 50 detects an inverse correlation point for the detected correlation point, and determines the position of the feature point detected by the inverse correlation point and the feature point detection unit 30. The effective correlation point is selected by removing the abnormal correlation point from the detected correlation points, and the synthesis unit 70 uses the parallax information of the effective correlation point and the effective feature points detected by the feature point detection unit 30 to generate an intermediate viewpoint image. To create.

구체적으로, 도 14 및 도 15를 참조하면, 상관점 검출부(50)는 검출된 모든 상관점(200)들을 특징점(100)으로 삼아서 반대쪽 영상의 역상관점을 검출한 다음 특징점 검출부(30)에서 검출된 처음의 특징점(100) 위치와 역상관점의 위치를 비교한다. 만일 상관점이 정확하게 검출되었다면 역상관점도 정확하게 검출되므로, 특징점의 위치와 역상관점의 위치는 차이가 없게 된다. Specifically, referring to FIGS. 14 and 15, the correlation point detection unit 50 uses all the detected correlation points 200 as a feature point 100 to detect an inverse correlation point of the opposite image, and then detects the feature point detection unit 30 The position of the first feature point 100 and the position of the inverse correlation point are compared. If the correlation point is correctly detected, since the inverse correlation point is also accurately detected, there is no difference between the position of the feature point and the position of the inverse correlation point.

상관점 검출부(50)는 역상관점과 특징점 검출부(30)에서 검출된 특징점의 위치가 다르면 검출된 상관점이 비정상인 것으로 판단하고, 비정상으로 판단된 상관점을 제거한다. 이를 통해, 도 19와 같이 비정상 상관점들이 효과적으로 제거된다.The correlation point detection unit 50 determines that the detected correlation point is abnormal and removes the correlation point determined as abnormal if the positions of the inverse correlation points and the feature points detected by the feature point detection unit 30 are different. Through this, as shown in FIG. 19, abnormal correlation points are effectively removed.

일부 영역의 특징점 군에 대해서 전체적으로 비정상 상관점 군이 검출되는 문제를 해결하기 위해 상관점 검출부(50)는 도 20 및 도 21과 같이 좌시점 영상과 우시점 영상의 특징점 중 배경과 전경에 포함된 특징점을 분리하고, 배경에 포함된 특징점에 대한 상관점과 전경에 포함된 특징점에 대한 상관점을 검출하여 통합한다.In order to solve a problem in which a group of feature points in a certain region is detected as a group of abnormal correlation points, the correlation point detection unit 50 is included in the background and the foreground of the feature points of the left and right view images as shown in FIGS. 20 and 21. The feature points are separated, and the correlation points for the feature points included in the background and the correlation points for the feature points included in the foreground are detected and integrated.

구체적으로, 상관점 검출부(50)는 좌시점 영상과 우시점 영상에서 배경과 전경에 해당하는 특징점을 분리한다. 전경은 인물 등의 주요 객체를 의미한다. 배경과 전경의 특징점에 대한 각각의 상관점을 검출하여 통합한다.Specifically, the correlation point detection unit 50 separates feature points corresponding to a background and a foreground from a left-view image and a right-view image. Foreground refers to main objects such as people. Each correlation point for the background and foreground feature points is detected and integrated.

상관점의 품질을 높이기 위해 상관점 검출부(50)는 좌시점 영상과 우시점 영상의 특징점 중 배경과 전경에 포함된 특징점을 분리한 후 배경과 전경에 포함된 상관점에 대한 각각의 역상관점을 검출한다. 각각의 역상관점과 배경 및 전경에 포함된 각각의 특징점의 위치를 비교하여 배경과 전경에 포함된 상관점이 정상인지 판단하며, 역상관점과 배경 및 전경에 포함된 특징점의 위치가 다르면 비정상 상관점으로 판단하여 비정상 상관점을 제거한다. 비정상 상관점이 제거된 배경과 전경에 포함된, 나머지 상관점을 통합한다.In order to improve the quality of the correlation point, the correlation point detection unit 50 separates the feature points included in the background and the foreground among the feature points of the left and right view images, and then determines each of the inverse correlation points of the correlation points included in the background and the foreground. To detect. By comparing the position of each inverse correlation point with each feature point included in the background and foreground, it is determined whether the correlation point included in the background and foreground is normal, and if the position of the inverse correlation point and the feature points included in the background and foreground is different, it is used as an abnormal correlation point. The abnormal correlation point is removed by judging. Incorporate the remaining correlations included in the background and foreground where the abnormal correlations were removed.

합성부(70)는 특징점 검출부(30)를 통해 검출된 유효 특징점과 상관점 검출부(50)로부터 검출된 유효 상관점의 시차 정보를 이용하여 중간시점 영상을 생성한다. 합성부(70)는 시차 정보를 이용하는 모핑(Morping) 또는 와핑(Warping)을 수행하여 중간시점 영상을 생성한다.The synthesizing unit 70 generates an intermediate view image using disparity information between the effective feature point detected through the feature point detection unit 30 and the effective correlation point detected by the correlation point detection unit 50. The synthesizing unit 70 generates a mid-view image by performing morphing or warping using parallax information.

도 22를 참조하면, 합성부(70)는 검출된 특징점에서 구한 삼각패치와 상관점에서 구한 삼각패치 사이를 모핑하여 중간시점 영상을 생성한다.Referring to FIG. 22, the synthesis unit 70 morphs between the triangular patch obtained from the detected feature point and the triangular patch obtained from the correlation point to generate an intermediate view image.

도 23은 한 실시예에 따른 중간시점 영상 생성 방법을 나타내는 흐름도이다. 23 is a flowchart illustrating a method for generating an intermediate viewpoint image according to an embodiment.

도 23을 참조하면, 한 실시예에 따른 중간시점 영상 생성 방법은, 좌시점 영상과 우시점 영상에서 윤곽선을 검출하는 단계(S100), 윤곽선에서 특징점을 검출하는 단계(S200), 특징점에 대한 상관점을 검출하는 단계(S300), 그리고 특징점과 상관점의 시차 정보에 기반하여 중간시점 영상을 생성하는 단계(S400)를 포함한다.Referring to FIG. 23, a method for generating an intermediate viewpoint image according to an embodiment includes: detecting a contour in a left-view image and a right-view image (S100), detecting a feature point in the contour (S200), and correlating the feature points It includes the step of detecting the point (S300), and generating a mid-view image based on the disparity information of the feature point and the correlation point (S400).

도 24는 한 실시예에 따른 중간시점 영상 생성 방법을 나타내는 흐름도이다.24 is a flowchart illustrating a method for generating an intermediate viewpoint image according to an embodiment.

도 24를 참조하면, 중간시점 영상 생성 방법은 상관점을 검출하는 단계(S300) 이후, 상관점에 대한 역상관점을 검출하고, 역상관점과 특징점의 위치를 바탕으로 상관점 중에서 비정상 상관점을 제거하여 유효 상관점을 선택하는 단계(S310)를 더 포함할 수 있다. 중간시점 영상을 생성하는 단계(S400)는, 검출된 특징점과 유효 상관점의 시차 정보를 이용하여 중간시점 영상을 생성한다.Referring to FIG. 24, in the method of generating an intermediate viewpoint image, after the step of detecting a correlation point (S300), an inverse correlation point for the correlation point is detected, and an abnormal correlation point is removed from the correlation points based on the positions of the inverse correlation point and the feature point. By selecting an effective correlation point (S310) may be further included. In the generating of the mid-view image (S400), the mid-view image is generated using the disparity information of the detected feature point and the effective correlation point.

유효 상관점을 선택하는 단계(S310)는, 역상관점과 검출된 특징점의 위치가 다르면 검출된 상관점이 비정상인 것으로 판단하고, 비정상으로 판단된 상관점을 제거한다.In step S310 of selecting an effective correlation point, if the positions of the inverse correlation point and the detected feature points are different, the detected correlation point is determined to be abnormal, and the correlation point determined to be abnormal is removed.

도 25은 한 실시예에 따른 상관점을 검출하는 단계를 나타내는 흐름도이다.25 is a flowchart illustrating a step of detecting a correlation point according to an embodiment.

도 25을 참조하면, 상관점을 검출하는 단계(S300)는, 좌시점 영상과 우시점 영상의 특징점 중 배경과 전경에 포함된 특징점을 분리하는 단계(S320), 그리고 배경에 포함된 특징점에 대한 상관점과 전경에 포함된 특징점에 대한 상관점을 검출하여 통합하는 단계(S330)를 포함할 수 있다.Referring to FIG. 25, the step of detecting a correlation point (S300) includes: separating a feature point included in a background and a foreground among feature points of a left-view image and a right-view image (S320), and for a feature point included in the background It may include the step of detecting and integrating the correlation point for the correlation point and the feature point included in the foreground (S330).

상관점을 검출하여 통합하는 단계(S330)는, 배경에 포함된 특징점에 대한 상관점과 전경에 포함된 특징점에 대한 상관점을 검출하는 단계(S332), 배경과 전경에 포함된 상관점에 대한 각각의 역상관점을 검출하는 단계(S333), 역상관점과 배경 및 전경에 포함된 특징점의 위치가 다르면 비정상 상관점으로 판단하여 비정상 상관점을 제거하는 단계(S334), 그리고 비정상 상관점이 제거된 배경과 전경에 포함된 상관점을 통합하는 단계(S335)를 포함할 수 있다.The step of detecting and integrating the correlation point (S330) includes: detecting a correlation point for a feature point included in the background and a correlation point for a feature point included in the foreground (S332), for a correlation point included in the background and the foreground Detecting each inverse correlation point (S333), if the position of the inverse correlation point and the background and feature points included in the foreground is different, determining the abnormal correlation point and removing the abnormal correlation point (S334), and the background in which the abnormal correlation point is removed And integrating the correlation points included in the foreground (S335).

중간시점 영상을 생성하는 단계(S400)는, 시차 정보에 기반한 모핑 또는 와핑을 수행하여 중간시점 영상을 생성할 수 있다.In the generating of the mid-view image (S400), the mid-view image may be generated by performing morphing or warping based on parallax information.

윤곽선을 검출하는 단계(S100), 윤곽선에서 특징점을 검출하는 단계(S200), 특징점에 대한 상관점을 검출하는 단계(S300), 그리고 특징점과 상관점의 시차 정보에 기반하여 중간시점 영상을 생성하는 단계(S400)는 위에서 설명한 특징점 검출부(30), 상관점 검출부(50), 합성부(70)의 동작 내용과 동일하므로, 상세한 설명은 생략한다.Detecting a contour (S100), Detecting a feature point from the contour (S200), Detecting a correlation point for the feature point (S300), and generating a mid-view image based on disparity information between the feature point and the correlation point Step S400 is the same as the operation contents of the feature point detection unit 30, the correlation point detection unit 50, and the synthesis unit 70 described above, detailed description thereof will be omitted.

도 26은 한 실시예에 따른 중간시점 영상 생성 장치를 나타내는 블록도이다.26 is a block diagram illustrating an apparatus for generating an intermediate viewpoint image according to an embodiment.

도 26을 참조하면, 한 실시예에 따른 중간시점 영상 생성 장치는, 컴퓨터 시스템, 예를 들어 컴퓨터 판독 가능 매체로 구현될 수 있다. 컴퓨터 시스템(700)은, 버스(720)를 통해 통신하는 프로세서(710), 메모리(730), 사용자 인터페이스 입력 장치(760), 사용자 인터페이스 출력 장치(770), 및 저장 장치(780) 중 적어도 하나를 포함할 수 있다. 컴퓨터 시스템(700)은 또한 네트워크에 결합된 네트워크 인터페이스(790)를 포함할 수 있다. 프로세서(710)는 중앙 처리 장치(central processing unit, CPU)이거나, 또는 메모리(730) 또는 저장 장치(780)에 저장된 명령을 실행하는 반도체 장치일 수 있다. 메모리(730) 및 저장 장치(780)는 다양한 형태의 휘발성 또는 비휘발성 저장 매체를 포함할 수 있다. 예를 들어, 메모리는 ROM(read only memory)(731) 및 RAM(random access memory)(732)를 포함할 수 있다. 본 기재의 실시예는 컴퓨터에 구현된 방법으로서 구현되거나, 컴퓨터 실행 가능 명령이 저장된 비일시적 컴퓨터 판독 가능 매체로서 구현될 수 있다. 한 실시예에서, 프로세서에 의해 실행될 때, 컴퓨터 판독 가능 명령은 본 기재의 적어도 하나의 양상에 따른 방법을 수행할 수 있다.Referring to FIG. 26, the apparatus for generating a mid-view image according to an embodiment may be implemented as a computer system, for example, a computer-readable medium. The computer system 700 includes at least one of a processor 710, a memory 730, a user interface input device 760, a user interface output device 770, and a storage device 780 communicating through the bus 720. It may include. Computer system 700 may also include a network interface 790 coupled to the network. The processor 710 may be a central processing unit (CPU) or a semiconductor device that executes instructions stored in the memory 730 or the storage device 780. The memory 730 and the storage device 780 may include various types of volatile or nonvolatile storage media. For example, the memory may include read only memory (ROM) 731 and random access memory (RAM) 732. Embodiments of the present disclosure may be implemented as a computer-implemented method or as a non-transitory computer-readable medium having computer-executable instructions stored thereon. In one embodiment, when executed by a processor, computer readable instructions may perform a method according to at least one aspect of the present disclosure.

한 실시예에 따른 중간시점 영상 생성 장치는 프로세서(710) 및 메모리(730)를 포함하고, 프로세서(710)는 메모리(730)에 저장된 프로그램을 실행하여, 좌시점 영상과 우시점 영상에서 윤곽선을 검출하고, 검출된 윤곽선에서 특징점을 검출하는 단계, 좌시점 영상과 우시점 영상의 특징점에 대한 상관점을 검출하는 단계, 그리고 특징점과 상관점의 시차 정보에 기반하여 중간시점 영상을 생성하는 단계를 수행할 수 있다.The apparatus for generating a mid-view image according to an embodiment includes a processor 710 and a memory 730, and the processor 710 executes a program stored in the memory 730, thereby contouring the left-view and right-view images. Detecting, detecting a feature point in the detected contour, detecting a correlation point for a feature point of a left-view image and a right-view image, and generating an intermediate view image based on disparity information of the feature point and the correlation point It can be done.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements of those skilled in the art using the basic concept of the present invention defined in the following claims are also provided. It belongs to the scope of rights.

Claims (10)

입체 영상의 중간시점 영상을 생성하는 장치로서,
좌시점 영상과 우시점 영상에서 윤곽선을 검출하고, 검출된 윤곽선에서 특징점을 검출하는 특징점 검출부,
상기 좌시점 영상과 상기 우시점 영상의 상기 특징점에 대한 상관점을 검출하고, 상기 상관점에 대한 역상관점을 검출하고, 상기 역상관점과 상기 특징점의 위치를 바탕으로 상기 상관점 중에서 비정상 상관점을 제거하여 유효 상관점을 선택하는 상관점 검출부, 그리고
상기 특징점과 상기 유효 상관점의 시차 정보를 이용하여 중간시점 영상을 생성하는 합성부
를 포함하는 중간시점 영상 생성 장치.
A device for generating a mid-view image of a stereoscopic image,
The feature point detection unit detects a contour line from the left-view image and the right-view image, and detects a feature point from the detected contour line.
Detects a correlation point for the feature point of the left-view image and the right-view image, detects an inverse correlation point for the correlation point, and detects an abnormal correlation point among the correlation points based on the position of the inverse correlation point and the feature point. Correlation point detection unit to remove and select an effective correlation point, and
Synthesis unit for generating mid-view image using disparity information of the feature point and the effective correlation point
Intermediate view image generating device comprising a.
삭제delete 제1항에서,
상기 상관점 검출부는,
상기 역상관점과 상기 특징점의 위치가 다르면 상기 검출된 상관점이 비정상인 것으로 판단하고, 비정상으로 판단된 상관점을 제거하는, 중간시점 영상 생성 장치.
In claim 1,
The correlation point detection unit,
When the positions of the inverse correlation point and the feature point are different, the detected correlation point is determined to be abnormal, and the correlation point determined to be abnormal is removed.
제1항에서,
상기 상관점 검출부는,
상기 좌시점 영상과 상기 우시점 영상의 특징점 중 배경과 전경에 포함된 특징점을 분리하고, 상기 배경에 포함된 특징점에 대한 상관점과 상기 전경에 포함된 특징점에 대한 상관점을 검출하여 통합하는, 중간시점 영상 생성 장치.
In claim 1,
The correlation point detection unit,
Among the feature points of the left-view image and the right-view image, a feature point included in a background and a foreground is separated, and a correlation point for a feature point included in the background and a correlation point for a feature point included in the foreground are detected and integrated, Mid-point image generation device.
입체 영상의 중간시점 영상을 생성하는 방법으로서,
좌시점 영상과 우시점 영상에서 윤곽선을 검출하는 단계,
상기 윤곽선에서 특징점을 검출하는 단계,
상기 특징점에 대한 상관점을 검출하는 단계,
상기 상관점에 대한 역상관점을 검출하는 단계,
상기 역상관점과 상기 특징점의 위치를 바탕으로 상기 상관점 중에서 비정상 상관점을 제거하여 유효 상관점을 선택하는 단계, 그리고
상기 특징점과 상기 유효 상관점의 시차 정보를 이용하여 중간시점 영상을 생성하는 단계
를 포함하는 중간시점 영상 생성 방법.
As a method of generating a mid-view image of a stereoscopic image,
Detecting a contour line from the left-view image and the right-view image,
Detecting a feature point from the contour,
Detecting a correlation point with respect to the feature point,
Detecting an inverse correlation point with respect to the correlation point,
Selecting an effective correlation point by removing an abnormal correlation point from the correlation points based on the positions of the inverse correlation point and the feature point; and
Generating an intermediate viewpoint image using disparity information between the feature point and the effective correlation point
Method for generating an intermediate viewpoint image comprising a.
삭제delete 제5항에서,
상기 유효 상관점을 선택하는 단계는
상기 역상관점과 상기 검출된 특징점의 위치가 다르면 상기 검출된 상관점이 비정상인 것으로 판단하는 단계, 그리고
상기 비정상인 것으로 판단된 상관점을 제거하는 단계를 포함하는 중간시점 영상 생성 방법.
In claim 5,
The step of selecting the effective correlation point
Determining that the detected correlation point is abnormal when the positions of the inverse correlation point and the detected feature points are different, and
And removing the correlation point determined to be abnormal.
제5항에서,
상기 상관점을 검출하는 단계는,
상기 좌시점 영상과 상기 우시점 영상의 특징점 중 배경과 전경에 포함된 특징점을 분리하는 단계, 그리고
상기 배경에 포함된 특징점에 대한 상관점과 상기 전경에 포함된 특징점에 대한 상관점을 검출하여 통합하는 단계를 포함하는, 중간시점 영상 생성 방법.
In claim 5,
The step of detecting the correlation point,
Separating the feature points included in the background and the foreground among the feature points of the left-view image and the right-view image, and
And detecting and integrating a correlation point for the feature points included in the background and a correlation point for the feature points included in the foreground.
제8항에서,
상기 상관점을 검출하여 통합하는 단계는,
상기 배경에 포함된 특징점에 대한 상관점과 상기 전경에 포함된 특징점에 대한 상관점을 검출하는 단계,
상기 배경과 상기 전경에 포함된 상관점에 대한 각각의 역상관점을 검출하는 단계,
상기 역상관점과 상기 배경과 상기 전경에 포함된 특징점의 위치가 다르면 비정상 상관점으로 판단하여 상기 비정상 상관점을 제거하는 단계, 그리고
상기 비정상 상관점이 제거된 상기 배경 및 상기 전경에 포함된 상관점을 통합하는 단계를 포함하는, 중간시점 영상 생성 방법.
In claim 8,
Detecting and integrating the correlation point,
Detecting a correlation point for a feature point included in the background and a correlation point for a feature point included in the foreground,
Detecting each inverse correlation point with respect to a correlation point included in the background and the foreground,
If the location of the inverse correlation point and the feature point included in the background and the foreground are different, determining the abnormal correlation point and removing the abnormal correlation point, and
And integrating the correlation point included in the background and the foreground from which the abnormal correlation point is removed.
입체 영상의 중간시점 영상을 생성하는 장치로서,
프로세서 및 메모리를 포함하고,
상기 프로세서는 상기 메모리에 저장된 프로그램을 실행하여,
좌시점 영상과 우시점 영상에서 윤곽선을 검출하고, 검출된 윤곽선에서 특징점을 검출하는 단계,
상기 좌시점 영상과 상기 우시점 영상의 상기 특징점에 대한 상관점을 검출하는 단계,
상기 상관점에 대한 역상관점을 검출하는 단계,
상기 역상관점과 상기 특징점의 위치를 바탕으로 상기 상관점 중에서 비정상 상관점을 제거하여 유효 상관점을 선택하는 단계, 그리고
상기 특징점과 상기 유효 상관점의 시차 정보에 기반하여 중간시점 영상을 생성하는 단계
를 수행하는, 중간시점 영상 생성 장치.
A device for generating a mid-view image of a stereoscopic image,
Includes a processor and memory,
The processor executes a program stored in the memory,
Detecting a contour line from the left-view image and right-view image, and detecting a feature point from the detected contour line,
Detecting a correlation point for the feature point of the left-view image and the right-view image,
Detecting an inverse correlation point with respect to the correlation point,
Selecting an effective correlation point by removing an abnormal correlation point from the correlation points based on the positions of the inverse correlation point and the feature point; and
Generating an intermediate viewpoint image based on disparity information between the feature point and the effective correlation point
Performing, mid-view image generating device.
KR1020180100685A 2017-09-29 2018-08-27 Apparatus and method for generating intermediate view image Active KR102112019B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/142,614 US10839540B2 (en) 2017-09-29 2018-09-26 Apparatus and method for generating intermediate view image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20170127776 2017-09-29
KR1020170127776 2017-09-29

Publications (2)

Publication Number Publication Date
KR20190038312A KR20190038312A (en) 2019-04-08
KR102112019B1 true KR102112019B1 (en) 2020-05-18

Family

ID=66164391

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180100685A Active KR102112019B1 (en) 2017-09-29 2018-08-27 Apparatus and method for generating intermediate view image

Country Status (1)

Country Link
KR (1) KR102112019B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4065488B2 (en) * 2001-12-14 2008-03-26 キヤノン株式会社 3D image generation apparatus, 3D image generation method, and storage medium
JP2015087846A (en) * 2013-10-29 2015-05-07 山九株式会社 Three-dimensional model generation system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4065488B2 (en) * 2001-12-14 2008-03-26 キヤノン株式会社 3D image generation apparatus, 3D image generation method, and storage medium
JP2015087846A (en) * 2013-10-29 2015-05-07 山九株式会社 Three-dimensional model generation system

Also Published As

Publication number Publication date
KR20190038312A (en) 2019-04-08

Similar Documents

Publication Publication Date Title
US9070042B2 (en) Image processing apparatus, image processing method, and program thereof
US10043278B2 (en) Method and apparatus for reconstructing 3D face with stereo camera
US9898856B2 (en) Systems and methods for depth-assisted perspective distortion correction
JP6351238B2 (en) Image processing apparatus, imaging apparatus, and distance correction method
CN104978709B (en) Descriptor generation method and device
JP6355346B2 (en) Image processing apparatus, image processing method, program, and storage medium
US9141873B2 (en) Apparatus for measuring three-dimensional position, method thereof, and program
US10957068B2 (en) Information processing apparatus and method of controlling the same
JP2018530045A (en) Method for 3D reconstruction of objects from a series of images, computer-readable storage medium and apparatus configured to perform 3D reconstruction of objects from a series of images
KR20190101382A (en) Method and device for joint segmentation and 3D reconstruction of scenes
JP2011134114A (en) Pattern recognition method and pattern recognition apparatus
CN107392958A (en) A kind of method and device that object volume is determined based on binocular stereo camera
US9430834B2 (en) Visual perception matching cost on binocular stereo images
US20190080464A1 (en) Stereo matching method and apparatus
US9582859B2 (en) System and a method for depth-image-based rendering
US20150131853A1 (en) Stereo matching system and method for generating disparity map using same
JP2016505185A (en) Image processor having edge selection function
CN115690469A (en) Binocular image matching method, device, equipment and storage medium
US20080226159A1 (en) Method and System For Calculating Depth Information of Object in Image
CN104537627A (en) Depth image post-processing method
CN110443228B (en) Pedestrian matching method and device, electronic equipment and storage medium
JP2015148895A (en) object number distribution estimation method
EP2887261B1 (en) Information processing device, information processing method, and program
KR102112019B1 (en) Apparatus and method for generating intermediate view image
US11393116B2 (en) Information processing apparatus, method thereof, and non-transitory computer-readable storage medium

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20180827

PA0201 Request for examination
PG1501 Laying open of application
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20191011

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20200330

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20200512

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20200512

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20230424

Start annual number: 4

End annual number: 4

PR1001 Payment of annual fee

Payment date: 20231127

Start annual number: 5

End annual number: 5