KR101714224B1 - 3 dimension image reconstruction apparatus and method based on sensor fusion - Google Patents
3 dimension image reconstruction apparatus and method based on sensor fusion Download PDFInfo
- Publication number
- KR101714224B1 KR101714224B1 KR1020150133288A KR20150133288A KR101714224B1 KR 101714224 B1 KR101714224 B1 KR 101714224B1 KR 1020150133288 A KR1020150133288 A KR 1020150133288A KR 20150133288 A KR20150133288 A KR 20150133288A KR 101714224 B1 KR101714224 B1 KR 101714224B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- depth
- sensor
- processing unit
- data processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 230000004927 fusion Effects 0.000 title abstract description 6
- 238000004800 variational method Methods 0.000 claims description 9
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000001914 filtration Methods 0.000 description 7
- 230000035772 mutation Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000002146 bilateral effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- H04N13/0029—
-
- H04N13/0037—
-
- H04N13/0048—
-
- H04N13/0422—
-
- H04N13/0425—
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Abstract
본 발명은 센서 융합 기반 3차원 영상 복원 장치 및 방법에 관한 것으로, 깊이센서와 영상센서를 통해 깊이 영상과 둘 이상의 컬러 영상을 획득하는 데이터 획득부, 상기 깊이 영상을 상기 컬러 영상으로 워핑하는 좌표 변환부, 상기 깊이 영상의 해상도를 개선하여 변이 정보로 변환하는 깊이 데이터 처리부, 상기 변이 정보에 기반하여 상기 둘 이상의 컬러 영상의 스테레오 매칭을 통해 최종 깊이 영상을 추출하는 변이 데이터 처리부, 및 상기 최종 깊이 영상을 이용하여 3차원 영상을 복원하는 복원부를 포함한다.The present invention relates to an apparatus and method for restoring a three-dimensional image based on a sensor fusion, comprising a data acquiring unit for acquiring a depth image and two or more color images through a depth sensor and an image sensor, A depth data processing unit for improving the resolution of the depth image to convert the depth image into variance information, a disparity data processing unit for extracting a final depth image through stereo matching of the two or more color images based on the disparity information, And a reconstruction unit for reconstructing the three-dimensional image.
Description
본 발명은 능동 센서(active sensor)와 스테레오(다시점) 카메라를 이용하여 3차원 영상 복원 기술의 성능을 향상시킬 수 있는 센서 융합 기반 3차원 영상 복원 장치 및 방법에 관한 것이다.
The present invention relates to a sensor fusion-based three-dimensional image restoration apparatus and method capable of improving the performance of a three-dimensional image restoration technique using an active sensor and a stereo (multi-viewpoint) camera.
일반적으로, 3차원 영상 복원 기술(3차원 복원 기술)에는 스테레오(다시점) 카메라 기반 3차원 복원 기술과 능동 센서 기반 3차원 복원 기술이 있다.Generally, 3D reconstruction (3D reconstruction) includes stereo (multi-view) camera based 3D reconstruction and active sensor based 3D reconstruction.
스테레오 카메라 기반의 3차원 복원 기술은 추정되는 깊이 정보(depth map)의 정확도가 비교적 낮다. 품질 향상을 위해 연속 구간(continuous domain) 에서 깊이 정보 추정 시, 초기 값(initial data)의 설정에 따라 성능이 결정되나, 초기 값 추정 시 알고리즘 연산량이 많고 복잡하다. 또한, 스테레오 카메라 기반 3차원 복원 기술은 해상도와 프레임율이 높다.The stereo camera based 3D reconstruction technique has a relatively low accuracy of the depth map. In order to improve the quality, the performance is determined according to the setting of the initial data when estimating the depth information in the continuous domain. In addition, stereo camera based 3D reconstruction techniques have high resolution and frame rate.
능동(Active) 센서 기반 3차원 복원 기술은 깊이 정보가 정확하다. 깊이 정보를 센싱하는 알고리즘은 매우 단순하고 연산량이 적다. 또한, 능동 센서 기반 3차원 복원 기술은 해상도 및 프레임율이 낮다.Active sensor based 3D reconstruction techniques have accurate depth information. The algorithm for sensing depth information is very simple and has low computational complexity. In addition, active sensor based 3D reconstruction techniques have low resolution and frame rate.
이에, 각각의 방식을 향상시키는 방식이 아닌 서로 다른 두 가지 센서를 융합하여 상호 보완함으로써 성능을 향상시킬 수 있는 3차원 복원 기술이 요구된다.
Therefore, there is a need for a three-dimensional reconstruction technique capable of improving the performance by fusing two different sensors, complementing each other, rather than improving each method.
본 발명은 스테레오(다시점) 카메라와 능동 센서(active sensor)를 융합하여 두 센서의 단점을 상호 보완함으로써, 3차원 복원 기술의 성능을 향상시킬 수 있는 센서 융합 기반 3차원 영상 복원 장치 및 방법을 제공하고자 한다.
The present invention relates to a sensor fusion-based three-dimensional image restoration apparatus and method capable of improving the performance of a three-dimensional restoration technology by fusing a stereo (multi-viewpoint) camera and an active sensor, .
상기한 과제를 해결하기 위하여, 센서 융합 기반 3차원 영상 복원 장치는 깊이센서와 영상센서를 통해 깊이 영상과 둘 이상의 컬러 영상을 획득하는 데이터 획득부, 상기 깊이 영상을 상기 컬러 영상으로 워핑하는 좌표 변환부, 상기 깊이 영상의 해상도를 개선하여 변이 정보로 변환하는 깊이 데이터 처리부, 상기 변이 정보에 기반하여 상기 둘 이상의 컬러 영상의 스테레오 매칭을 통해 최종 깊이 영상을 추출하는 변이 데이터 처리부, 및 상기 최종 깊이 영상을 이용하여 3차원 영상을 복원하는 복원부를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a sensor fusion-based three-dimensional image restoration apparatus including a data acquisition unit for acquiring a depth image and two or more color images through a depth sensor and an image sensor, A depth data processing unit for improving the resolution of the depth image to convert the depth image into variance information, a disparity data processing unit for extracting a final depth image through stereo matching of the two or more color images based on the disparity information, And a reconstruction unit for reconstructing the three-dimensional image using the reconstructed image.
상기 깊이센서는 능동 방식의 센서인 것을 특징으로 한다.The depth sensor is an active sensor.
상기 깊이센서는 적외선 센서 또는 레이저로 구성되는 ToF(Time of Flight) 카메라인 것을 특징으로 한다.The depth sensor is a time-of-flight (ToF) camera composed of an infrared sensor or a laser.
상기 좌표 변환부는 상기 깊이센서와 상기 영상센서의 통합 좌표계를 캘리브레이션하는 것을 특징으로 한다.And the coordinate conversion unit may calibrate an integrated coordinate system of the depth sensor and the image sensor.
상기 깊이 데이터 처리부는 에지 기반 편탄 필터를 이용하여 상기 깊이 영상의 해상도를 개선하는 것을 특징으로 한다.And the depth data processing unit may improve the resolution of the depth image using an edge-based flattening filter.
상기 변이 데이터 처리부는 변분법을 이용하여 상기 최종 깊이 영상을 획득하는 것을 특징으로 한다.And the variation data processing unit obtains the final depth image using a variational method.
상기 깊이 데이터 처리부 및 상기 변이 데이터 처리부는 Z-모수화(Z-parameterization)를 통해 하나로 통합되는 것을 특징으로 한다.And the depth data processing unit and the variation data processing unit are integrated into one through Z-parameterization.
한편, 본 발명의 일 실시예에 따른 3차원 영상 복원 방법은 깊이센서와 영상 센서를 통해 깊이 영상 및 둘 이상의 컬러 영상을 획득하는 단계, 상기 깊이 영상을 상기 컬러 영상으로 워핑하는 단계, 상기 워핑된 깊이 영상의 해상도를 개선하고 상기 컬러 영상을 기준으로 상기 워핑된 깊이 영상을 변이 영상으로 변환하는 단계, 상기 변이 영상을 기반으로 상기 둘 이상의 컬러 영상을 스테레오 매칭하여 최종 깊이 영상을 획득하는 단계, 및 상기 최종 깊이 영상을 이용하여 3차원 영상을 복원하는 단계를 포함하는 것을 특징으로 한다.
Meanwhile, a 3D image reconstruction method according to an embodiment of the present invention includes acquiring a depth image and two or more color images through a depth sensor and an image sensor, warping the depth image into the color image, Converting the warped depth image into a disparity image based on the color image, improving the resolution of the depth image, stereo-matching the at least two color images based on the disparity image to obtain a final depth image, and And reconstructing the 3D image using the final depth image.
본 발명에 따르면, 스테레오(다시점) 카메라와 능동 센서의 융합을 통해 상호간의 단점을 보완하여 3차원 영상 복원 기술의 성능을 향상시킬 수 있다.According to the present invention, the performance of the three-dimensional image restoration technique can be improved by complementing the mutual disadvantages through the fusion of the stereo (multi-viewpoint) camera and the active sensor.
또한, 본 발명에 따르면, 고품질 깊이 정보를 기반으로 한 고품질 3D 복원을 통한 주변 환경 모델링, 주변환경 인식 및 SLAM(simultaneous localization and mapping) 등의 정밀화가 가능하다.Also, according to the present invention, it is possible to refine surrounding environment modeling, perimeter environment recognition, and simultaneous localization and mapping (SLAM) through high-quality 3D reconstruction based on high-quality depth information.
또한, 본 발명에 따르면 고품질 깊이 정보 기반의 장애물 검출, MOD(Moving object detection), 주차공간인식 등의 다양한 어플리케이션의 성능 향상이 가능하다.
Also, according to the present invention, it is possible to improve performance of various applications such as obstacle detection, moving object detection (MOD) based on high-quality depth information, parking space recognition, and the like.
도 1은 본 발명의 일 실시예에 따른 3차원 영상 복원 장치의 블록구성도.
도 2는 본 발명과 관련된 깊이 정보와 변이 정보의 관계 그래프.
도 3은 에너지 최적화 과정에서 초기값에 따른 최저치 수렴을 도시한 도면.
도 4는 본 발명의 일 실시예에 따른 깊이 데이터 필터링 기반 최종 깊이 정보 획득과정을 설명하기 위한 도면.
도 5는 본 발명의 일 실시예에 따른 3차원 영상 복원 방법을 도시한 흐름도.1 is a block diagram of a three-dimensional image restoration apparatus according to an embodiment of the present invention;
2 is a graph showing the relationship between depth information and variation information related to the present invention.
Fig. 3 is a diagram showing the lowest value convergence according to an initial value in an energy optimization process; Fig.
4 is a view for explaining a process of acquiring final depth information based on depth data filtering according to an embodiment of the present invention;
5 is a flowchart illustrating a three-dimensional image restoration method according to an embodiment of the present invention.
이하에서는 첨부된 도면들을 참조하여 본 발명의 실시예를 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
본 발명은 스테레오 비전 분야에서 많이 제안되고 있는 깊이 영상(depth map) 기반 3차원 복원(3D Reconstruction) 기술을 능동(active) 센서와의 융합을 통해 3차원 복원 성능을 향상시키고자 하는 것이다.
The present invention intends to improve the 3D reconstruction performance by integrating the depth map based 3D reconstruction technique proposed in the field of stereo vision with an active sensor.
도 1은 본 발명의 일 실시예에 따른 3차원 영상 복원 장치의 블록구성도를 도시하고, 도 2는 본 발명과 관련된 깊이 정보와 변이 정보의 관계 그래프를 도시하며, 도 3은 에너지 최적화 과정에서 초기값에 따른 최저치 수렴을 도시한 도면이다.FIG. 1 is a block diagram of a three-dimensional image reconstruction apparatus according to an embodiment of the present invention. FIG. 2 is a graph showing a relationship between depth information and variation information related to the present invention. FIG. FIG. 8 is a diagram showing the lowest value convergence according to an initial value. FIG.
도 1에 도시된 바와 같이, 3차원 영상 복원 장치(100)는 센서부(110), 데이터 획득부(120), 좌표 변환부(130), 깊이 데이터 처리부(140), 변이 데이터 처리부(150), 복원부(160)를 포함한다.1, the 3D
센서부(110)는 객체 표면의 고저(깊이)를 측정하는 깊이 센서(111) 및 둘 이상의 컬러 영상을 촬영하는 영상 센서(113)을 포함한다.The
깊이 센서(111)는 능동(active) 방식의 센서로, 깊이 정보를 직접 센싱한다. 깊이 센서(111)로는 적외선 센서 또는 레이저를 이용한 ToF(Time of Flight) 카메라가 사용될 수 있다.The
영상 센서(113)는 둘 이상의 컬러 카메라를 이용하여 입체 컬러 영상(컬러 영상)을 촬영한다. 예컨대, 영상 센서(113)는 둘 이상의 카메라를 통해 좌영상과 우영상을 동시에 캡쳐한다. 영상 센서(113)는 스테레오 카메라 또는 다시점 카메라(multi-view camera)로 구현될 수 있다. 영상 센서(113)에 의해 촬영된 영상은 깊이 영상(depth map)을 추정하는데 사용된다.The
데이터 획득부(120)는 깊이 센서(111)를 통해 깊이 영상(깊이 데이터, 깊이 정보)을 획득하고, 영상 센서(113)를 통해 컬러 영상(컬러 정보)을 획득한다.The
좌표 변환부(130)는 깊이 센서(111)와 영상 센서(113) 간의 통합 좌표계(예: 월드 좌표계)를 캘리브레이션하고 깊이 영상을 컬러 영상으로 워핑(warping)한다. 다시 말해서, 좌표 변환부(130)는 깊이 정보가 반영된 컬러 영상을 생성한다.The
깊이 데이터 처리부(140)는 필터링 기법을 이용하여 깊이 영상의 해상도를 개선한다. 그리고, 깊이 데이터 처리부(140)는 컬러 영상을 기준으로 깊이 영상을 변이 영상(변이 데이터, 변이 정보)으로 변환한다. 다시 말해서, 깊이 데이터 처리부(140)는 워핑된 깊이 영상을 변이 영상으로 변환한다.The depth
변이 데이터 처리부(150)는 변환된 변이 영상을 기반으로 영상센서(113)를 통해 획득한 둘 이상의 컬러 영상을 스테레오 매칭하여 최종 변이 영상을 추출한다. 그리고, 변이 데이터 처리부(150)는 최종 변이 영상을 최종 깊이 영상으로 변환한다.The variation
복원부(160)는 최종 깊이 영상을 이용하여 3차원 영상을 복원한다.The
본 발명에서 깊이 정보와 변이 정보는 각기 다른 의미를 지니고 있어 깊이 데이터 처리부(140)와 변이 데이터 처리부(150)가 나누어져 있다. 그러나, 깊이 데이터 처리부(140)와 변이 데이터 처리부(150)는 Z-모수화(parameterization)을 통해 하나로 통합될 수도 있다.In the present invention, the depth information and the variation information have different meanings, and the depth
도 2에 도시된 바와 같이, 깊이 정보와 변이 정보는 서로 반비례의 관계에 있고 이를 모델링한 Z-모수화 함수와 워핑되는 기준 컬러 카메라의 파라미터를 고려한다면 깊이 데이터(Z)를 변이 데이터(d)로 상호 변환하지 않고도 3차원 복원 기술 구현이 가능하다. 이를 통해, 데이터 포맷 간 변환에 의한 손실 혹은 오차를 줄일 수 있다. 3차원 복원 기술은 깊이 정보를 기준으로 이루어지기 때문에 Z-모수화를 통해 3차원 복원 성능 및 연산량을 개선할 수 있다.As shown in FIG. 2, when the depth information and the variation information are in inverse proportion to each other and the Z-parameterization function modeling the depth information and the parameters of the warped reference color camera are considered, the depth data (Z) It is possible to implement a 3D reconstruction technique without mutual conversion. Thus, loss or error due to conversion between data formats can be reduced. Since the 3D reconstruction technique is based on the depth information, it is possible to improve 3D reconstruction performance and computation through Z-parameterization.
변이 데이터 처리부(150)는 기존 스테레오 비전 분야에서 깊이/옵티컬 플로우(Optical flow) 추정, 또는 3D 복원 등에 대표적으로 사용되는 변분법(Variational method)을 사용한다. 변분법은 스테레오 매칭의 품질 향상을 위해 연속 영역(Continuous domain)에서 깊이 정보를 추정하는 방식으로 부동소수점(Floating point) 기반으로 깊이를 추정할 수 있다는 장점이 있다.The variation
그러나, 변분법과 같은 스테레오 매칭을 이용한 3D 복원의 경우 에너지 최적화 과정에서 지역 최저치(Local minima)에 빠질 수 있다는 치명적인 단점이 있다. 이는 심각한 깊이 오류(Depth error)를 초래할 수 있다. 도 3에 도시된 바와 같이 초기값(Initial point)에 따라 지역 최저치(Local minima)에 수렴되거나 전역 최저치(Global minima)에 수렴될 수도 있다.However, 3D reconstruction using stereo matching such as variational method has a fatal disadvantage that it can fall into the local minima in the energy optimization process. This can lead to a severe depth error. May be converged to a local minimum value or converged to a global minimum value according to an initial point as shown in FIG.
반면, 능동 센서는 해상도와 프레임율은 낮지만 아주 정확한 깊이 정보를 제공한다는 장점이 있다(cf. Depth accuracy: 1cm 이하 @10m). 따라서, 깊이 데이터 처리부(140)는 깊이센서(110)를 통해 획득한 깊이 정보를 이용하여 기존 스테레오 매칭을 위한 변분법의 에너지 방정식을 풀기 위한 초기값(초기 변이 데이터)을 제공함으로써, 변위에 따른 픽셀 에너지가 지역 최저치에 수렴되는 것을 방지하여 3차원 복원 성능을 향상시킬 수 있다.On the other hand, active sensors have the advantage of providing very accurate depth information with a low resolution and frame rate (cf. Depth accuracy: less than 1 cm @ 10 m). Therefore, the depth
또한, 변이 데이터 처리부(150)는 최종 깊이 결과를 부동소수점으로 제공하므로 서브-픽셀 정밀도(sub-pixel precision)를 요하는 3D 복원 기술에 적합하다.In addition, the displacement
변이 데이터 처리부(150)는 [수학식 1]과 같은 에너지 함수 E를 최소화하는 변이 d를 구한다. 에너지 함수 E는 스테레오 영상 (disparity)에 대한 데이터 항(data term)과 평활도 항(smoothness term) 및 능동 센서에 대한 데이터 항과 평활도 항으로 구성된다. 이를 통해 에너지 방정식을 풀 때, 지역 최저치에 수렴되는 문제를 해결하고 더욱 정밀한 스테레오 매칭 결과를 얻을 수 있고 이를 기반으로 한 3차원 복원 성능 역시 크게 향상될 수 있다.The variation
여기서, Ed는 스테레오 영상에 대한 데이터 항으로, 로 나타내고, Es는 스테레오 영상에 대한 평활도 항으로, 로 나타낸다.Here, E d is a data term for a stereo image, E s is the smoothness term for the stereo image, Respectively.
그리고, ETOF는 능동 센서에 대한 데이터 항으로, 로 나타내고, Es_TOF는 능동 센서에 대한 평활도 항이다.E TOF is a data term for the active sensor, And E s - TOF is the smoothness term for the active sensor.
λ는 평활도 항의 가중치(weighting factor)이고, d(disparity)는 두 영상의 대응점 간 픽셀차, p는 영상 내 픽셀의 위치좌표, Ω는 이미지 평면(image plane), Il는 좌영상, Ir는 우영상이고, DTOF는 능동 센서에서 측정된 깊이 정보, Ψ는 포텐셜 함수(Potential function), 는 확산 함수(diffusivity function)이다.λ is a smoothness term weight (weighting factor), d (disparity ) is the pixel difference between the two images corresponding points, p is the position coordinate of the pixels within the image, Ω is the image plane (image plane), I l is a left picture, I r D TOF is the depth information measured by the active sensor, Ψ is the potential function, Is a diffusivity function.
변이 데이터 처리부(150)는 스테레오 매칭 방법으로 변분법뿐만 아니라 깊이 센서(111)의 깊이 데이터와 융합이 가능한 다른 알고리즘을 사용할 수도 있다.The displacement
한편, 앞서 언급한 Z-모수화 기술을 이용하는 경우, [수학식 1]은 다음 [수학식 2]와 같이 수정될 수 있다. 즉, [수학식 2]와 같이 에너지 방정식을 변이 데이터(d 영역)가 아닌 깊이 데이터(z 영역)로 변환 할 수 있다.On the other hand, in the case of using the Z-parametrization technique described above, [Equation 1] can be modified as in Equation 2 below. That is, the energy equation can be converted into the depth data (z region) instead of the variation data (d region) as shown in [Equation 2].
도 4는 본 발명의 일 실시예에 따른 깊이 데이터 필터링 기반 최종 깊이 정보 획득과정을 설명하기 위한 도면이다.4 is a view for explaining a process of acquiring the final depth information based on the depth data filtering according to an embodiment of the present invention.
깊이 영상에서 컬러 영상으로 워핑된 데이터는 각 카메라의 해상도 차이로 인해 성기게(sparse) 워핑된다. 이를 극복하고 성능을 더욱 개선하기 위해서 워핑된 깊이 정보를 대응하는 컬러 영상을 기반으로 필터링하여 사용할 수 있다.The warped data from the depth image to the color image is sparse warped due to the resolution difference of each camera. In order to overcome this problem and further improve the performance, the warped depth information can be filtered based on the corresponding color image.
깊이 데이터 처리부(140)는 에지 기반 평탄 필터(Edge-aware smoothing filter)를 이용하여 깊이 영상의 해상도를 개선한다. 이때, 깊이 데이터 처리부(140)는 대응하는 컬러 영상의 정보를 활용한다. 에지 기반 평탄 필터는 WMF(Weighted Mode Filtering), JBU(Joint Bilateral Upsampling), 3D JBU 등 다양한 필터링 방식을 사용할 수 있다. 필터링을 수행하게 되면 대응하는 컬러 영상의 해상도와 동일한 수준의 깊이 영상을 구할 수 있다. The depth
변이 데이터 처리부(150)는 해상도가 개선된 깊이 영상에 근거한 초기 변이 데이터를 활용하여 영상센서(113)을 통해 획득한 스테레오 영상과 더불어 함께 변분법(비선형 편미분방정식, Non-linear PDE)을 연산하여 최종 깊이 정보를 획득할 수 있고 이는 3차원 복원 성능 향상에 직접적으로 연계된다.The variation
필터링 기법에도 역시 Z-모수화를 적용할 수 있다. 이를 통해, 직접 깊이 데이터를 기반으로 필터링이 가능하고 이를 바로 3D 모델링에 적용할 수 있다.
Z-parametrization can also be applied to filtering techniques. Through this, it is possible to filter based on direct depth data and apply it directly to 3D modeling.
도 5는 본 발명의 일 실시예에 따른 3차원 영상 복원 방법을 도시한 흐름도이다.5 is a flowchart illustrating a 3D image reconstruction method according to an embodiment of the present invention.
먼저, 3차원 영상 복원 장치(100)(이하, 복원 장치)는 깊이 센서(111) 및 영상 센서(113)를 통해 깊이 영상 및 스테레오(입체) 컬러 영상(컬러 영상)을 획득한다(S101).First, a three-dimensional image restoration apparatus 100 (hereinafter, a restoration apparatus) obtains a depth image and a stereo color image (color image) through a
복원 장치(100)는 깊이 센서(111)과 영상 센서(113) 간의 통합 좌표계를 캘리브레이션한다(S103).The
복원 장치(100)는 통합 좌표계를 캘리브레이션한 후 깊이 영상을 컬러 영상으로 워핑한다(S105). 다시 말해서, 좌표 변환부(130)는 깊이 정보를 이용하여 컬러 영상의 좌표를 변환한다.The
복원 장치(100)는 워핑된 깊이 영상의 해상도를 개선하고, 컬러 영상을 기준으로 워핑된 깊이 영상을 변이 영상으로 변환한다(S107). 깊이 데이터 처리부(140)는 WMF와 같은 에지 기반 평탄 필터를 이용하여 깊이 영상의 해상도를 개선한다. 그리고, 깊이 데이터 처리부(140)는 해상도가 개선된 깊이 영상에 근거하여 초기 변이 데이터(초기 변이 영상)를 추정하여 출력한다.The
복원 장치(100)는 변이 영상 기반 스테레오 매칭을 통해 최종 변이 영상을 추출한다(S109). 변이 데이터 처리부(150)는 초기 변이 데이터를 기반으로 영상센서(113)를 통해 획득한 둘 이상의 컬러 영상을 스테레오 매칭하여 최종 변이 영상을 획득한다. 이때, 변이 데이터 처리부(150)는 변분법을 이용하여 스테레오 매칭을 수행한다.The
복원 장치(100)는 최종 변이 영상을 최종 깊이 영상으로 변환한다(S111).The
복원 장치(113)는 최종 깊이 영상에 기반하여 3차원 영상을 복원한다(S113).
The
100: 3차원 영상 복원 장치
110: 센서부
111: 깊이센서
113: 영상센서
120: 데이터 획득부
130: 좌표 변환부
140: 깊이 데이터 처리부
150: 변이 데이터 처리부
160: 복원부100: 3D image restoration device
110:
111: Depth sensor
113: Image sensor
120: Data acquisition unit
130:
140: Depth data processor
150: Variation data processor
160:
Claims (8)
상기 깊이 영상을 상기 컬러 영상으로 워핑하는 좌표 변환부,
상기 깊이 영상의 해상도를 개선하여 변이 정보로 변환하는 깊이 데이터 처리부,
상기 변이 정보에 기반하여 상기 둘 이상의 컬러 영상의 스테레오 매칭을 통해 최종 깊이 영상을 추출하는 변이 데이터 처리부, 및
상기 최종 깊이 영상을 이용하여 3차원 영상을 복원하는 복원부를 포함하되,
상기 변이 데이터 처리부는 에너지 함수를 최소화하는 변이를 구하고,
상기 에너지 함수는 스테레오 영상에 대한 데이터 항(data term)과 평활도 항(smoothness term) 및 깊이 센서에 대한 데이터 항과 평활도 항으로 구성되는 것을 특징으로 하는 센서 융합 기반 3차원 영상 복원 장치.
A data acquisition unit for acquiring a depth image and two or more color images through a depth sensor and an image sensor,
A coordinate converter for warping the depth image into the color image,
A depth data processing unit for improving the resolution of the depth image and converting the depth image into variance information,
A disparity data processing unit for extracting a final depth image through stereo matching of the two or more color images based on the disparity information,
And a reconstruction unit for reconstructing the 3D image using the final depth image,
The variation data processing unit obtains a variation that minimizes the energy function,
Wherein the energy function comprises a data term for a stereo image, a smoothness term, and a data term and a smoothness term for the depth sensor.
상기 깊이센서는 능동 방식의 센서인 것을 특징으로 하는 센서 융합 기반 3차원 영상 복원 장치.
The method according to claim 1,
Wherein the depth sensor is an active type sensor.
상기 깊이센서는 적외선 센서 또는 레이저로 구성되는 ToF(Time of Flight) 카메라인 것을 특징으로 하는 센서 융합 기반 3차원 영상 복원 장치.
3. The method of claim 2,
Wherein the depth sensor is a time-of-flight (ToF) camera composed of an infrared sensor or a laser.
상기 좌표 변환부는,
상기 깊이센서와 상기 영상센서의 통합 좌표계를 캘리브레이션하는 것을 특징으로 하는 센서 융합 기반 3차원 영상 복원 장치.
The method according to claim 1,
Wherein the coordinate conversion unit comprises:
Wherein the integrated coordinate system of the depth sensor and the image sensor is calibrated.
상기 깊이 데이터 처리부는,
에지 기반 평탄 필터를 이용하여 상기 깊이 영상의 해상도를 개선하는 것을 특징으로 하는 센서 융합 기반 3차원 영상 복원 장치.
The method according to claim 1,
Wherein the depth data processing unit comprises:
And the resolution of the depth image is improved by using an edge-based flat filter.
상기 변이 데이터 처리부는,
변분법을 이용하여 상기 최종 깊이 영상을 획득하는 것을 특징으로 하는 센서 융합 기반 3차원 영상 복원 장치.
The method according to claim 1,
Wherein the variation data processing unit comprises:
And the final depth image is acquired using a variational method.
상기 깊이 데이터 처리부 및 상기 변이 데이터 처리부는,
Z-모수화(Z-parameterization)를 통해 하나로 통합되는 것을 특징으로 하는 센서 융합 기반 3차원 영상 복원 장치.
The method according to claim 1,
The depth data processing unit and the variation data processing unit,
And Z-parameterization to be integrated into one.
상기 깊이 영상을 상기 컬러 영상으로 워핑하는 단계,
상기 워핑된 깊이 영상의 해상도를 개선하고 상기 컬러 영상을 기준으로 상기 워핑된 깊이 영상을 변이 영상으로 변환하는 단계,
상기 변이 영상을 기반으로 상기 둘 이상의 컬러 영상을 스테레오 매칭하여 최종 깊이 영상을 획득하는 단계, 및
상기 최종 깊이 영상을 이용하여 3차원 영상을 복원하는 단계를 포함하되,
상기 스테레오 매칭 시 에너지 함수를 최소화하는 변이를 구하고,
상기 에너지 함수는 스테레오 영상에 대한 데이터 항과 평활도 항 및 깊이 센서에 대한 데이터 항과 평활도 항으로 구성되는 것을 특징으로 하는 센서 융합 기반 3차원 영상 복원 장치.Acquiring a depth image and two or more color images through a depth sensor and an image sensor,
Warping the depth image to the color image,
Converting the warped depth image into a disparity image based on the color image, improving the resolution of the warped depth image,
Obtaining a final depth image by stereo matching the two or more color images based on the shifted image, and
Reconstructing the 3D image using the final depth image,
A variation that minimizes the energy function in the stereo matching is found,
Wherein the energy function is composed of a data term for a stereo image, a term of smoothness, and a data term and a smoothness term for the depth sensor.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150133288A KR101714224B1 (en) | 2015-09-21 | 2015-09-21 | 3 dimension image reconstruction apparatus and method based on sensor fusion |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150133288A KR101714224B1 (en) | 2015-09-21 | 2015-09-21 | 3 dimension image reconstruction apparatus and method based on sensor fusion |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101714224B1 true KR101714224B1 (en) | 2017-03-08 |
Family
ID=58403873
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150133288A Active KR101714224B1 (en) | 2015-09-21 | 2015-09-21 | 3 dimension image reconstruction apparatus and method based on sensor fusion |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101714224B1 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107918939A (en) * | 2017-11-14 | 2018-04-17 | 佛山市南海区广工大数控装备协同创新研究院 | The big visual field localization method of stacking plate on plate fitment production line |
KR101930242B1 (en) | 2017-10-24 | 2018-12-18 | (주) 엠엔비젼 | The 3D image acquisition and analysis system of body |
CN110111380A (en) * | 2019-03-18 | 2019-08-09 | 西安电子科技大学 | 3D rendering transmission and method for reconstructing based on depth camera |
CN110809788A (en) * | 2018-09-26 | 2020-02-18 | 深圳市大疆创新科技有限公司 | Depth image fusion method and device and computer readable storage medium |
KR20200116666A (en) | 2019-04-02 | 2020-10-13 | (주) 엠엔비젼 | The 4-axis body measurement system using a laser scan |
WO2022025458A1 (en) * | 2020-07-29 | 2022-02-03 | 삼성전자주식회사 | Electronic device and method for controlling same |
CN114998131A (en) * | 2022-05-30 | 2022-09-02 | 深圳见得空间科技有限公司 | Image parallel color correction method, apparatus and storage medium |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120016439A (en) * | 2010-08-16 | 2012-02-24 | 삼성전자주식회사 | Image processing apparatus and method |
KR20120025777A (en) * | 2010-09-08 | 2012-03-16 | 삼성전자주식회사 | Deblocking filter and display device having the same |
KR20120097368A (en) * | 2009-06-25 | 2012-09-03 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | Stereoscopic image capturing method, system and camera |
-
2015
- 2015-09-21 KR KR1020150133288A patent/KR101714224B1/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120097368A (en) * | 2009-06-25 | 2012-09-03 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | Stereoscopic image capturing method, system and camera |
KR20120016439A (en) * | 2010-08-16 | 2012-02-24 | 삼성전자주식회사 | Image processing apparatus and method |
KR20120025777A (en) * | 2010-09-08 | 2012-03-16 | 삼성전자주식회사 | Deblocking filter and display device having the same |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101930242B1 (en) | 2017-10-24 | 2018-12-18 | (주) 엠엔비젼 | The 3D image acquisition and analysis system of body |
CN107918939A (en) * | 2017-11-14 | 2018-04-17 | 佛山市南海区广工大数控装备协同创新研究院 | The big visual field localization method of stacking plate on plate fitment production line |
CN107918939B (en) * | 2017-11-14 | 2020-03-13 | 佛山市南海区广工大数控装备协同创新研究院 | Laminated board large-view-field positioning method for board furniture production line |
CN110809788A (en) * | 2018-09-26 | 2020-02-18 | 深圳市大疆创新科技有限公司 | Depth image fusion method and device and computer readable storage medium |
WO2020061858A1 (en) * | 2018-09-26 | 2020-04-02 | 深圳市大疆创新科技有限公司 | Depth image fusion method, device and computer readable storage medium |
CN110809788B (en) * | 2018-09-26 | 2021-11-02 | 深圳市大疆创新科技有限公司 | Depth image fusion method and device and computer readable storage medium |
CN110111380A (en) * | 2019-03-18 | 2019-08-09 | 西安电子科技大学 | 3D rendering transmission and method for reconstructing based on depth camera |
KR20200116666A (en) | 2019-04-02 | 2020-10-13 | (주) 엠엔비젼 | The 4-axis body measurement system using a laser scan |
WO2022025458A1 (en) * | 2020-07-29 | 2022-02-03 | 삼성전자주식회사 | Electronic device and method for controlling same |
CN114998131A (en) * | 2022-05-30 | 2022-09-02 | 深圳见得空间科技有限公司 | Image parallel color correction method, apparatus and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101714224B1 (en) | 3 dimension image reconstruction apparatus and method based on sensor fusion | |
CN104680496B (en) | A kind of Kinect depth map restorative procedures based on color images | |
US8120644B2 (en) | Method and system for the dynamic calibration of stereovision cameras | |
CN101336856B (en) | Information Acquisition and Transmission Method of Auxiliary Vision System | |
KR101706093B1 (en) | System for extracting 3-dimensional coordinate and method thereof | |
CN106960454B (en) | Depth of field obstacle avoidance method and equipment and unmanned aerial vehicle | |
CN110009672A (en) | Improve ToF depth image processing method, 3D image imaging method and electronic device | |
CN106408513B (en) | Depth Map Super-Resolution Reconstruction Method | |
KR20180087947A (en) | Modeling method and modeling apparatus using 3d point cloud | |
CN108876836A (en) | A kind of depth estimation method, device, system and computer readable storage medium | |
CN106204731A (en) | A kind of multi-view angle three-dimensional method for reconstructing based on Binocular Stereo Vision System | |
CN106384382A (en) | Three-dimensional reconstruction system and method based on binocular stereoscopic vision | |
CN103971408A (en) | Three-dimensional facial model generating system and method | |
CN110462685B (en) | Three-dimensional model reconstruction method and system | |
WO2024032233A1 (en) | Stereophotogrammetric method based on binocular vision | |
Nair et al. | High accuracy tof and stereo sensor fusion at interactive rates | |
CN110853151A (en) | Three-dimensional point set recovery method based on video | |
CN112710284A (en) | Ground form detection method and system and unmanned aerial vehicle | |
CN102036094B (en) | A Stereo Matching Method Based on Digital Fractional Delay Technology | |
CN109840922B (en) | Depth acquisition method and system based on binocular field camera | |
Bethmann et al. | Semi-global matching in object space | |
CN109410234A (en) | A kind of control method and control system based on binocular vision avoidance | |
CN104065947A (en) | A Depth Map Acquisition Method for Integrated Imaging System | |
CN108564620A (en) | A Scene Depth Estimation Method for Light Field Array Camera | |
CN103093460A (en) | Moving camera virtual array calibration method based on parallel parallax |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20150921 |
|
PA0201 | Request for examination | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20160701 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20170116 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20170302 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20170302 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
FPAY | Annual fee payment |
Payment date: 20200227 Year of fee payment: 4 |
|
PR1001 | Payment of annual fee |
Payment date: 20200227 Start annual number: 4 End annual number: 4 |
|
PR1001 | Payment of annual fee |
Payment date: 20210225 Start annual number: 5 End annual number: 5 |
|
PR1001 | Payment of annual fee |
Payment date: 20220224 Start annual number: 6 End annual number: 6 |
|
PR1001 | Payment of annual fee |
Payment date: 20230227 Start annual number: 7 End annual number: 7 |
|
PR1001 | Payment of annual fee |
Payment date: 20240226 Start annual number: 8 End annual number: 8 |