KR20150029897A - Photographing device and operating method thereof - Google Patents
Photographing device and operating method thereof Download PDFInfo
- Publication number
- KR20150029897A KR20150029897A KR20130108887A KR20130108887A KR20150029897A KR 20150029897 A KR20150029897 A KR 20150029897A KR 20130108887 A KR20130108887 A KR 20130108887A KR 20130108887 A KR20130108887 A KR 20130108887A KR 20150029897 A KR20150029897 A KR 20150029897A
- Authority
- KR
- South Korea
- Prior art keywords
- depth information
- light
- photographing apparatus
- camera module
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000011017 operating method Methods 0.000 title 1
- 238000000034 method Methods 0.000 claims abstract description 38
- 239000002131 composite material Substances 0.000 claims abstract description 11
- 230000000903 blocking effect Effects 0.000 claims description 14
- 230000001678 irradiating effect Effects 0.000 claims description 12
- 238000012937 correction Methods 0.000 claims description 9
- 230000017525 heat dissipation Effects 0.000 claims description 6
- 230000035945 sensitivity Effects 0.000 description 12
- 230000003287 optical effect Effects 0.000 description 9
- 230000009977 dual effect Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000000415 inactivating effect Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000013011 mating Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000002366 time-of-flight method Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/15—Processing image signals for colour aspects of image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/156—Mixing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/257—Colour aspects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
- H04N23/11—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/55—Optical parts specially adapted for electronic image sensors; Mounting thereof
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Studio Devices (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
본 발명의 일 실시 예에 따른 촬영 장치의 동작 방법은 상기 촬영 장치의 제1 카메라 모듈을 통해 피사체의 제1 촬영 영상을 획득하여 상기 제1 촬영 영상의 색상 정보 및 제1 깊이 정보를 획득하는 단계와 상기 촬영 장치의 제2 카메라 모듈을 통해 상기 피사체의 제2 촬영 영상을 획득하여 상기 제2 촬영 영상의 제2 깊이 정보를 획득하는 단계와 상기 제1 깊이 정보를 상기 제2 깊이 정보에 매칭시켜 깊이 지도를 생성하는 단계 및 상기 색상 정보 및 상기 깊이 지도에 기초하여 상기 피사체의 합성 영상을 생성하는 단계를 포함한다.A method of operating a photographing apparatus according to an embodiment of the present invention includes acquiring a first photographing image of a subject through a first camera module of the photographing apparatus and obtaining color information and first depth information of the first photographing image And acquiring second depth information of the second shot image by acquiring a second shot image of the subject through the second camera module of the photographing apparatus and matching the first depth information to the second depth information Generating a depth map, and generating a composite image of the subject based on the color information and the depth map.
Description
본 발명은 촬영 장치 및 그의 동작 방법에 관한 것이다.The present invention relates to a photographing apparatus and an operation method thereof.
종래의 카메라는 2D 이미지 센서를 사용하여 영상을 획득하나, 3차원 정보인 깊이 정보를 얻을 수 없었다. 이에 피사체의 깊이를 측정하는 방안으로서 다음과 같은 방안들이 대두되었다.Conventional cameras acquire images using a 2D image sensor, but can not obtain depth information, which is three-dimensional information. In order to measure the depth of the subject, the following methods were suggested.
구조광 방식으로 특정패턴이 코딩된 레이저광을 물체에 조사하고, 되돌아오는 반사광의 패턴 shift 량을 계산함으로써 피사체의 깊이를 측정하는 방식이다.A depth of a subject is measured by irradiating an object with a laser beam having a specific pattern coded by a structured light method and calculating a shift amount of a pattern of the reflected light coming back.
그러나, 구조광 방식은 레이저 광원을 사용하고 코딩된 반사광을 받아들이는 송광부와 수광부의 물리적인 크기로 인하여 소형화에 제약이 따르고, 이로 인하여 모바일 제품에의 응용이 어려운 단점이 있다. 또한, 구조광 방식은 일반적으로 고정초점 렌즈와 passive 코딩소자를 사용함으로써 피사체의 깊이에 대한 해상도를 높이기 위한 가변적인 방안이 결여된 단점도 있다.However, due to the physical size of the light emitting portion and the light receiving portion which receive the coded reflected light by using the laser light source, the structured light method has a limitation in downsizing, which makes it difficult to apply it to mobile products. In addition, the structured optical system generally uses a fixed focus lens and a passive coding element, and thus has a disadvantage in that it lacks a variable method for increasing the resolution with respect to the depth of the subject.
TOF (Time of flight) 방식으로 물체에 직접적으로 빛을 조사하고 되돌아오는 반사광의 시간을 계산함으로써 피사체의 깊이를 측정하는 방식이다. It is a method of measuring the depth of a subject by directly irradiating the object with a time of flight (TOF) method and calculating the time of the reflected light coming back.
그러나, TOF 방식은 왕복광의 거리에 비례하는 시간을 계산하는 TOF 전용 센서의 비싼 가격과 밝기가 변조되는 발광 LED의 높은 파워 소비로 사용분야가 제한적이다.However, the TOF method is limited in its use due to the high cost of the TOF-dedicated sensor for calculating the time proportional to the distance of the reciprocating light and the high power consumption of the light-emitting LED in which the brightness is modulated.
3D카메라가 나오면서 기존의 2D 카메라와의 영상합성을 통한 성능향상을 도모하는 새로운 시도들이 시작되고 있다.As 3D cameras are emerging, new attempts are being made to improve the performance by synthesizing images with existing 2D cameras.
일례로서 2D카메라와 3D depth 측정용 IR카메라를 묶어 RGBIR센서와 1개의 렌즈를 사용하여 1개의 카메라로 2D영상과 3D depth를 측정하는 RGBIR카메라가 개발되고 있다. 하지만 RGBIR카메라는 IR픽셀에 RGB광이 교차 입사되고, RGB픽셀에 IR광이 교차 입사됨에 따라 광노이즈로 작용하여 성능이 저하되는 문제가 있다.As an example, an RGBIR camera is being developed, which combines a 2D camera and an IR camera for 3D depth measurement, and measures a 2D image and a 3D depth with one camera using an RGBIR sensor and a single lens. However, the RGBIR camera has the problem that the RGB light is cross-incident on the IR pixel and the IR light is cross-incident on the RGB pixel, thereby acting as a light noise and deteriorating the performance.
네번째, 전통적인 3D 카메라의 기본인 스테레오(stereo) 카메라를 이용한 스테레오 방식으로, 2개의 동일한 카메라를 사용하는 방식이다. 이 방식은 두 개의 카메라를 일정간격(baseline)으로 배치하여 별도의 2개의 완전히 독립된 카메라(2개의 렌즈, 2개의 센서, 2개의 ISP)를 사용하여 좌우영상을 획득하였다. Fourth, the stereoscopic method using the stereo camera which is the basic of the conventional 3D camera, using two identical cameras. In this method, two cameras were placed at a certain interval and two left and right images were obtained using two completely independent cameras (two lenses, two sensors, two ISPs).
그러나, 스테레오 방식의 3D카메라는 2개의 카메라를 사용함으로써 2D카메라에 비하여 비용이 2배로 들어가며, 2개의 카메라간의 조립오차에 따른 품질문제가 3D 품질을 저하시켜 고정밀 조립 공정 및 수율저하라는 문제점이 있었다. 또한, 3D depth 측정범위가 고정된 2카메라간의 간격인 baseline에 의하여 측정가능한 3D depth 범위가 결정되는 문제점이 있었다.However, the stereoscopic 3D camera uses two cameras and costs twice as much as the 2D camera, and the quality problem due to the assembly error between the two cameras deteriorates the 3D quality, resulting in a problem of a high-precision assembling process and a yield reduction . In addition, there is a problem that a 3D depth range that can be measured by a baseline, which is an interval between two cameras with a fixed 3D depth measurement range, is determined.
본 발명은 피사체의 깊이 정보를 정확히 획득할 수 있는 촬영 장치 및 그의 동작 방법을 제공하기 위한 것이다.An object of the present invention is to provide a photographing apparatus and an operation method thereof capable of accurately acquiring depth information of a subject.
본 발명의 일 실시 예에 따른 촬영 장치의 동작 방법은 상기 촬영 장치의 제1 카메라 모듈을 통해 피사체의 제1 촬영 영상을 획득하여 상기 제1 촬영 영상의 색상 정보 및 제1 깊이 정보를 획득하는 단계와 상기 촬영 장치의 제2 카메라 모듈을 통해 상기 피사체의 제2 촬영 영상을 획득하여 상기 제2 촬영 영상의 제2 깊이 정보를 획득하는 단계와 상기 제1 깊이 정보를 상기 제2 깊이 정보에 매칭시켜 깊이 지도를 생성하는 단계 및 상기 색상 정보 및 상기 깊이 지도에 기초하여 상기 피사체의 합성 영상을 생성하는 단계를 포함한다.A method of operating a photographing apparatus according to an embodiment of the present invention includes acquiring a first photographing image of a subject through a first camera module of the photographing apparatus and obtaining color information and first depth information of the first photographing image And acquiring second depth information of the second shot image by acquiring a second shot image of the subject through the second camera module of the photographing apparatus and matching the first depth information to the second depth information Generating a depth map, and generating a composite image of the subject based on the color information and the depth map.
본 발명의 일 실시 예에 따른 촬영 장치는 피사체의 제1 촬영 영상을 획득하여 상기 제1 촬영 영상의 색상 정보 및 제1 깊이 정보를 획득하는 제1 카메라 모듈과 상기 촬영 장치의 제2 카메라 모듈을 통해 상기 피사체의 제2 촬영 영상을 획득하여 상기 제2 촬영 영상의 제2 깊이 정보를 획득하는 제2 카메라 모듈 및 상기 제1 깊이 정보를 상기 제2 깊이 정보에 매칭시켜 깊이 지도를 생성하고, 상기 색상 정보 및 상기 깊이 지도에 기초하여 상기 피사체의 합성 영상을 생성하는 제어부를 포함한다.The photographing apparatus according to an embodiment of the present invention includes a first camera module for acquiring a first photographing image of a subject and acquiring color information and first depth information of the first photographing image, A second camera module for acquiring second depth information of the second shot image by acquiring a second shot image of the subject through the first camera module and a depth map by matching the first depth information with the second depth information, And a control unit for generating a composite image of the subject based on the color information and the depth map.
본 발명의 다양한 실시 예에 따르면, 피사체의 깊이 정보를 정확히 획득할 수 있다.According to various embodiments of the present invention, depth information of a subject can be accurately obtained.
또한, 본 발명의 실시 예인 촬영 장치가 차량에 장착되는 경우, 차량 전방에 위치한 다른 차량과의 거리를 깊이 정보에 의거하여 정확히 파악할 수 있다.Further, when the photographing apparatus, which is an embodiment of the present invention, is mounted on a vehicle, the distance to another vehicle located in front of the vehicle can be accurately grasped based on depth information.
도 1은 본 발명의 일 실시 예에 따른 촬영 장치의 블록 구성도(block diagram)이다.
도 2는 본 발명의 일 실시 예에 따른 촬영 장치의 구조를 간략히 나타낸 도면이다.
도 3은 본 발명의 일 실시 예에 따른 제1 카메라 모듈 및 제2 카메라 모듈의 구성을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시 예에 따라 제1 센서가 RGB IR 센서를 이용하는 경우, 파장 대역별 감도 곡선을 나타내는 도면이다.
도 5는 본 발명의 일 실시 예에 따라 제2 센서가 모노 센서를 이용하는 경우, 파장 대역별 감도 곡선을 나타내는 도면이다.
도 6은 본 발명의 일 실시 예에 따라 각 카메라 모듈에 포함된 렌즈의 구조를 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시 예에 따른 촬영 장치의 동작 방법을 설명하기 위한 흐름도이다.
도 8 및 도 9는 본 발명의 일 실시 예에 따른 촬영 장치를 차량에 적용한 실시 예를 설명하기 위한 도면이다.1 is a block diagram of a photographing apparatus according to an embodiment of the present invention.
2 is a view schematically showing a structure of a photographing apparatus according to an embodiment of the present invention.
3 is a view for explaining a configuration of a first camera module and a second camera module according to an embodiment of the present invention.
4 is a graph showing a sensitivity curve of each wavelength band when the first sensor uses an RGB IR sensor according to an embodiment of the present invention.
FIG. 5 is a graph showing sensitivity curves according to wavelength bands when the second sensor uses a mono sensor according to an embodiment of the present invention.
6 is a view for explaining a structure of a lens included in each camera module according to an embodiment of the present invention.
7 is a flowchart illustrating an operation method of a photographing apparatus according to an embodiment of the present invention.
8 and 9 are views for explaining an embodiment in which a photographing apparatus according to an embodiment of the present invention is applied to a vehicle.
이하, 본 발명과 관련된 실시 예에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. Hereinafter, embodiments related to the present invention will be described in detail with reference to the drawings. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role.
본 발명의 실시 예에 따른 촬영 장치는 자동차와 같은 차량에 장착될 수 있으나, 이에 한정될 필요는 없고, TV, 모바일 기기, 가전제품에 장착될 수도 있다.The photographing apparatus according to an embodiment of the present invention may be mounted on a vehicle such as an automobile, but is not limited thereto, and may be mounted on a TV, a mobile device, or a household appliance.
다음은 도 1 내지 도 3을 참고하여 본 발명의 일 실시 예에 따른 촬영 장치의 구조를 설명한다.Hereinafter, a structure of a photographing apparatus according to an embodiment of the present invention will be described with reference to FIGS. 1 to 3. FIG.
특히, 도 1은 본 발명의 일 실시 예에 따른 촬영 장치의 블록 구성도(block diagram)이고, 도 2는 본 발명의 일 실시 예에 따른 촬영 장치의 구조를 간략히 나타낸 도면이고, 도 3은 본 발명의 일 실시 예에 따른 제1 카메라 모듈 및 제2 카메라 모듈의 구성을 설명하기 위한 도면이다.1 is a block diagram of a photographing apparatus according to an embodiment of the present invention. FIG. 2 is a view schematically showing a structure of a photographing apparatus according to an embodiment of the present invention. FIG. 4 is a diagram illustrating a configuration of a first camera module and a second camera module according to an embodiment of the present invention. FIG.
먼저, 도 1 및 도 2를 참조하면, 본 발명의 실시 예에 따른 촬영 장치(100)는 광 조사부(110), 중앙 렌즈부(120), 방열부(130), 제1 카메라 모듈(140), 제2 카메라 모듈(150) 및 제어부(160)를 포함한다.1 and 2, a photographing
광 조사부(110)는 적외선 광(IR 광)을 피사체에 조사할 수 있다. 광 조사부(110)는 야간이나 저조도의 상태에서 제1 카메라 모듈(140) 및 제2 카메라 모듈(150)에 유입되는 광량이 적은 경우(기 설정된 광량 이하인 경우), 광을 조사하여 피사체의 촬영 영상을 획득하기 위해 사용될 수 있다. 광 조사부(110)는 레이저 다이오드(Laser Diode, LD), 발광 다이오드(Light Emitting Diode, LED) 중 어느 하나가 사용될 수 있다.The
중앙 렌즈부(120)는 광 조사부(110)가 광을 방출하는 위치인 광 조사부(110)의 전면에 배치될 수 있다.The
중앙 렌즈부(120)는 광 조사부(110)에서 방출되는 광의 분포를 조절할 수 있다. 구체적으로, 광 조사부(110)로 레이저 다이오드를 사용하는 경우, 중앙 렌즈부(120)는 레이저 다이오드에서 방출되는 광의 분포가 x,y 비대칭의 가우시안 형태의 분포를 가지므로, 가우시안 형태의 분포를 원형으로 만들어 광의 분포를 균일하게 만들 수 있다. 또한, 광 조사부(110)로 발광 다이오드를 사용하는 경우, 중앙 렌즈부(120)는 발광 다이오드에서 방출되는 광의 분포를 원형으로 만들어 광의 분포를 균일하게 만들 수 있다.The
광 조사부(110)에서 방출하는 광의 방사각 범위는 피사체를 맞고 반사되는 반사광이 제1 카메라 모듈(140) 및 제2 카메라 모듈(150)에 유입시 균일한 광 분포를 가지면서 제1 카메라 모듈(140) 및 제2 카메라 모듈(150)의 화각 범위를 만족시키도록 고려될 수 있다.The radiation angle range of the light emitted from the light irradiating
또한, 중앙 렌즈부(120)는 광 조사부(110)의 광축 방향으로 이동될 수 있고, 광축 방향으로 이동됨에 따라 제1 카메라 모듈(140) 및 제2 카메라 모듈(150)의 화각 범위를 변경할 수 있다.The
방열부(130)는 광 조사부(110)의 후면에 배치될 수 있다.The
방열부(130)는 광 조사부(110)에서 발생되는 열을 방출시킬 수 있다. 구체적으로, 광 조사부(110)로 사용될 수 있는 레이저 다이오드 또는 발광 다이오드의 온도 특성에 따라 방출되는 광의 파장이 변경될 수 있으므로, 방열부(130)는 광의 파장 변화를 최소화하기 위해 광 조사부(110)에서 발생되는 열을 방출시킬 수 있다. The
일 실시 예에서 방열부(130)는 방열판, 팬(fan), 온도 조절 장치인 열전소자 중 어느 하나를 포함할 수 있다.In one embodiment, the
방열부(130)를 사용함에 따라 광의 파장 변화가 최소화되어 제1 카메라 모듈(140) 및 제2 카메라 모듈(150)에 유입되는 외부 광에 민감하지 않은 효과를 가져올 수 있다. 구체적으로, 광의 파장이 변하게 되면, 후술할 제1 센서(149)의 전단에 배치된 제1 필터(147) 및 제2 센서(159)의 전단에 배치된 제2 필터(157)에서 통과시킬 수 있는 광의 투과 범위가 넓어져, 광의 투과 범위가 넓어진 만큼, 외부 광에 영향을 받아 피사체의 영상을 제대로 복원할 수 없다. 이에 방열부(130)는 광의 파장 변화를 최소화하여 제1 필터(147) 및 제2 필터(157)의 광 투과 범위를 넓히지 않을 수 있고, 외부 광에 영향을 받지 않아 피사체의 영상을 제대로 복원하는데 도움을 줄 수 있다.The use of the
제1 카메라 모듈(140)은 피사체의 제1 촬영 영상을 획득하여 제1 촬영 영상의 색상 정보 및 제1 깊이 정보를 획득할 수 있다.The
제2 카메라 모듈(150)은 피사체의 제2 촬영 영상을 획득하여 제2 촬영 영상의 제2 깊이 정보를 획득할 수 있다.The
제1 카메라 모듈(140) 및 제2 카메라 모듈(150) 간의 떨어진 거리(Base line)는 고정될 수 있으나, 이에 한정될 필요는 없다.The distance between the
제1 카메라 모듈(140) 및 제2 카메라 모듈(150)의 상세한 구성에 대해서는 도 3을 참조하여 설명한다.The detailed configuration of the
도 3을 참조하면, 제1 카메라 모듈(140)은 제1 렌즈(141), 제1 조리개(143), 제1 가시광 차단부(145), 제1 필터(147) 및 제1 센서(149)를 포함할 수 있고, 제2 카메라 모듈(150)은 제2 렌즈(151), 제2 조리개(153), 제2 가시광 차단부(155), 제2 필터(157) 및 제2 센서(159)를 포함할 수 있다.3, the
제1 렌즈(141) 및 제2 렌즈(151)는 피사체로부터 반사된 광을 수신할 수 있다.The
제1 조리개(143)는 제1 렌즈(141)의 중앙에 배치될 수 있고, 제2 조리개(153)는 제2 렌즈(151)의 중앙에 배치될 수 있다. 제1 조리개(143)는 제1 렌즈(141)를 통과하는 광량을 조절할 수 있다. 즉, 제1 조리개(143)는 제1 렌즈(141)에 유입되는 광량을 조절하여 제1 필터(147)에 전달할 수 있다. 마찬가지고, 제2 조리개(153)는 제2 렌즈에 통과하는 광량을 조절하여 제2 필터(157)에 전달할 수 있다.The
제1 조리개(143) 및 제2 조리개(153)의 크기는 기본적으로 고정될 수 있으나, 이에 한정될 필요는 없고, 제1 렌즈(141)에 유입되는 광량에 따라 자동으로 변경될 수 있다. The size of the
예를 들어, 제1 조리개(143)는 광량이 많이 유입될 수 있는 환경인 낮 시간대의 경우, 크기가 작아져 제1 렌즈(141)의 초점 심도를 높이면서 제1 깊이 정보를 획득할 수 있다. 반대로, 제1 조리개(143) 및 제2 조리개(153)는 광량이 적게 유입될 수 있는 환경인 해뜰 무렵이나, 해질 무렵에는 크기가 커져 초점 심도를 조금 떨어뜨리더라도 광량을 충분히 확보하여 제1 센서(149)가 제1 깊이 정보를 정확히 얻을 수 있도록 한다. For example, the
또한, 제2 조리개(153)는 광량이 많이 유입될 수 있는 환경인 낮 시간대의 경우, 크기가 작아져 제2 렌즈(151)의 초점 심도를 높이면서 제2 센서(159)가 제2 깊이 정보를 획득할 수 있도록 한다. 반대로, 제2 조리개(153)는 광량이 적게 유입될 수 있는 환경인 해뜰 무렵이나, 해질 무렵에는 크기가 커져 초점 심도를 조금 떨어뜨리더라도 광량을 충분히 확보하여 제2 깊이 정보를 정확히 얻을 수 있다.Also, the
제1 조리개(143) 및 제2 조리개(153)는 유입되는 광량에 따라 동기화되어 크기가 변경될 수 있다. 구체적으로, 제어부(160)는 제1 카메라 모듈(140) 및 제2 카메라 모듈(150)에 유입되는 광량에 따라 제1 조리개(143) 및 제2 조리개(153)의 크기를 동시에 조절할 수 있다. 이는, 제1 조리개(143) 및 제2 조리개(153) 각각의 크기가 다르게 되면 유입되는 광량 및 광량의 유입 시점 등이 달라지게 되고, 왜곡이 발생하게 되어 촬영 영상의 정확한 깊이 정보를 획득할 수 없기 때문이다.The
제1 가시광 차단부(145) 및 제2 가시광 차단부(155)는 광 조사부(110)에서 조사하는 적외선 광 이외의 가시광을 차단할 수 있다. 구체적으로, 제1 가시광 차단부(145) 및 제2 가시광 차단부(155)는 광 조사부(110)가 적외선 광을 조사하는지 여부에 따라 가시광을 차단 또는 차단하지 않을 수 있다. 이에 대해 더 구체적으로 설명한다.The first visible
제1 가시광 차단부(145)는 광 조사부(110)가 동작하여 피사체에 적외선 광을 조사하는 경우, 적외선 광만을 투과시킬 수 있다. 일 실시 예에서 제1 가시광 차단부(145)는 적외선 대역 통과 필터(IR band pass filter)를 포함할 수 있고, 광 조사부(110)가 동작하여 피사체에 적외선 광을 조사하는 경우, 적외선 대역 통과 필터(IR band pass filter)를 활성화시켜 적외선 광만을 투과시킬 수 있다. 반대로, 광 조사부(110)가 동작하지 않는 경우, 제1 가시광 차단부(145)는 적외선 대역 통과 필터를 비활성화 시켜 가시광 및 적외선 광을 모두 투과시킬 수 있다.The first visible
마찬가지로, 제2 가시광 차단부(155)는 적외선 대역 통과 필터(IR band pass filter)를 포함할 수 있고, 광 조사부(110)가 동작하여 피사체에 적외선 광을 조사하는 경우, 적외선 대역 통과 필터(IR band pass filter)를 활성화시켜 적외선 광만을 투과시킬 수 있다. 반대로, 광 조사부(110)가 동작하지 않는 경우, 제2 가시광 차단부(155)는 적외선 대역 통과 필터를 비활성화 시켜 가시광 및 적외선 광을 모두 투과시킬 수 있다.Similarly, the second visible
결과적으로, 제1 가시광 차단부(145) 및 제2 가시광 차단부(155)는 광 조사부(110)가 적외선 광을 조사하는지 여부에 따라 활성화 또는 비활성화 될 수 있으므로, 선택적으로 동작할 수 있다.As a result, the first visible
제1 필터(147)는 제1 렌즈(141)에 입사하는 가시광 및 적외선 광을 통과시켜 제1 센서(149)에 전달할 수 있다. 일 실시 예에서 제1 필터(147)는 듀얼 밴드 통과 필터(Dual band pass filter)일 수 있다. 즉, 제1 필터(147)는 가시광 대역의 파장 및 적외선 광 대역의 파장을 통과시키고, 가시광 및 적외선 광 대역 이외의 대역의 파장을 차단하기 위해 듀얼 밴드 통과 필터를 포함할 수 있다. The
제2 필터(157)는 제2 렌즈(151)에 입사하는 가시광 및 적외선 광 대역의 파장을 통과시켜 제2 센서(159)에 전달할 수 있다. 일 실시 예에서 제1 필터(147)는 듀얼 밴드 통과 필터(Dual band pass filter)일 수 있다. 즉, 제2 필터(149)는 가시광 대역의 파장 및 적외선 광 대역의 파장을 통과시키고, 가시광 및 적외선 광 대역 이외의 대역의 파장을 차단하기 위해 듀얼 밴드 통과 필터를 포함할 수 있다. The
제2 필터(157)는 제1 필터(147)에서 통과하는 광의 파장 대역과 동일한 파장 대역을 통과시키기 위해 제1 필터(147)와 같은 듀얼 밴드 통과 필터를 포함할 수 있다.The
또 다른 실시 예에서 제2 필터(157)로 제1 필터(147)와는 달리, 전체 파장 대역을 통과시킬 수 있는 전대역 필터(All pass filter)가 사용될 수 있다.In another embodiment, unlike the
제1 필터(147)는 제1 센서(149)에 포함될 수 있고, 제2 필터(157)는 제2 센서(159)에 포함될 수 있다.The
제1 센서(149) 및 제2 센서(159)는 피사체의 촬영 영상을 검지하여 검지된 촬영 영상을 전기적인 영상신호로 변환하는 이미지 센서일 수 있다.The
제1 센서(149)는 제1 필터(147)에서 통과된 가시광 및 적외선 광 대역의 파장을 이용하여 제1 촬영 영상의 색상 정보 및 제1 깊이 정보를 획득할 수 있다. 일 실시 예에서 제1 센서(149)는 RGB 적외선 광(RGBIR) 센서를 포함할 수 있다. The
제1 센서(149)는 복수의 픽셀을 포함할 수 있고, 제1 깊이 정보를 일정 간격의 픽셀 단위로 획득할 수 있다.The
제2 센서(159)는 제2 필터(157)에서 통과된 가시광 및 적외선 광 대역의 파장을 이용하여 제2 촬영 영상의 제2 깊이 정보를 획득할 수 있다. 일 실시 예에서 제2 센서(159)는 모노(mono) 센서를 포함할 수 있고, 모노 센서는 복수의 픽셀을 포함할 수 있고, 픽셀 단위로 제2 촬영 영상의 제2 깊이 정보를 획득할 수 있다.The
제1 센서(149)가 RGB IR 센서를 이용하고, 제2 센서(159)가 모노 센서를 이용하는 경우, 각 센서는 특정한 파장별 감도 곡선을 갖는다. 이에 대해서는 도 4 및 도 5를 참조하여 설명한다.When the
도 4는 본 발명의 일 실시 예에 따라 제1 센서가 RGB IR 센서를 이용하는 경우, 파장 대역별 감도 곡선을 나타내고, 도 5는 본 발명의 일 실시 예에 따라 제2 센서가 모노 센서를 이용하는 경우, 파장 대역별 감도 곡선을 나타내는 도면이다.FIG. 4 is a graph illustrating sensitivity curves for respective wavelength bands when the first sensor uses an RGB IR sensor according to an exemplary embodiment of the present invention. FIG. 5 is a graph illustrating sensitivity curves , And a sensitivity curve for each wavelength band.
먼저, 도 4를 참조하면, RGB IR 센서의 경우, 각 픽셀마다 특정한 대역의 파장에 대해 감도가 좋은 것을 확인할 수 있다. 특히, Blue, Green, Red 색상에 대한 대역의 파장에 대해 감도가 다른 대역의 파장에 비해 좋음을 확인할 수 있다. 이는, 제1 센서(149)의 전단에 제1 필터(147)로 가시광 및 적외선 광만을 통과시키는 듀얼 밴드 통과 필터를 사용하기 때문이다. 감도가 좋다는 것은 촬영 영상을 복원하기가 보다 수월함을 의미할 수 있다.First, referring to FIG. 4, in the case of the RGB IR sensor, it can be confirmed that the sensitivity to the wavelength of a specific band is good for each pixel. In particular, it can be seen that the sensitivity to the wavelength of the blue, green and red colors is better than that of the other bands. This is because a dual band-pass filter that allows only visible light and infrared light to pass through the
도 5를 참조하면, 모노 센서의 경우, 전체 파장 대역의 빛을 수신하므로, RGB IR 센서에 비해 전체적으로 감도가 좋다.Referring to FIG. 5, in the case of a mono sensor, since the light of the entire wavelength band is received, overall sensitivity is better than that of the RGB IR sensor.
제1 렌즈(141)는 및 제2 렌즈(151) 각각은 제1 센서(149)의 감도 특성 및 제2 센서(159)의 감도 특성을 각각 고려하여 가시광 영역에서 적외선 광 영역까지 광대역의 파장을 포커싱하도록 제작될 수 있다. 이에 대해서는 도 6을 참조하여 설명한다.Each of the
도 6은 본 발명의 일 실시 예에 따라 각 카메라 모듈에 포함된 렌즈의 구조를 설명하기 위한 도면이다.6 is a view for explaining a structure of a lens included in each camera module according to an embodiment of the present invention.
먼저, 도 6의 (a)를 참조하면, 도 1 내지 도 3에서 설명한 제1 카메라 모듈(140)의 제1 렌즈(141), 제2 카메라 모듈(150)의 제2 렌즈(151) 각각은 렌즈에 입사되는 광을 효과적으로 수신하기 위해 복수의 렌즈를 포함할 수 있다. 복수의 렌즈는 일렬로 배치될 수 있다. 그러나, 복수의 렌즈를 포함하게 되면, 렌즈의 광학전장이 증가되고, 결국 이는 각 카메라 모듈의 사이지 증가로 이어진다.Referring to FIG. 6A, each of the
도 6의 (b)를 참조하면, 제1 카메라 모듈(140)의 제1 렌즈(141), 제2 카메라 모듈(150)의 제2 렌즈(151) 각각은 복수의 렌즈 및 프리즘(200)을 포함할 수 있다.6B, each of the
복수의 렌즈 중 일부 렌즈는 나머지 렌즈와 수직으로 배치될 수 있다. 프리즘은 상기 일부 렌즈와 나머지 렌즈 사이에 배치되어 광선을 수직으로 꺾을 수 있다. 이로 인해, 각 카메라 모듈의 사이즈가 줄어들 수 있어 전체적인 촬영 장치의 사이즈가 감소되는 효과를 얻을 수 있다.Some of the plurality of lenses may be disposed perpendicular to the remaining lenses. A prism may be disposed between the partial lens and the other lens to vertically fold the light rays. Therefore, the size of each camera module can be reduced, and the overall size of the photographing apparatus can be reduced.
다시 도 1 및 도 2를 설명한다.1 and Fig. 2 will be described again.
제어부(160)는 촬영 장치(100)의 구성요소들을 전반적으로 제어할 수 있다.The
특히, 제어부(160)는 촬영 장치(100)의 주변 환경 즉, 제1 카메라 모듈(140) 및 제2 카메라 모듈(150)에 유입되는 광량을 확인하여 확인된 광량이 기 설정된 값 이하인 경우, 광 조사부(110)를 동작시킬 수 있다. 즉, 제어부(160)는 제1 카메라 모듈(140) 및 제2 카메라 모듈(150)에 유입되는 광량이 기 설정된 값 이하인 경우, 광 조사부(110)이 적외선 광을 피사체에 조사하도록 제어할 수 있다.More specifically, the
제어부(160)는 제1 카메라 모듈(140)이 획득한 제1 깊이 정보 및 제2 카메라 모듈(150)이 획득한 제2 깊이 정보를 보정할 수 있다.The
제어부(160)는 는 보정된 제1 깊이 정보 및 제2 깊이 정보를 이용하여 제1 깊이 정보 및 제2 깊이 정보를 매칭시킬 수 있다.The
제어부(160)는 매칭된 제1 깊이 정보 및 제2 깊이 정보를 이용하여 깊이 지도(depth map)를 생성할 수 있다.The
제어부(160)는 색상 정보를 통해 2차원 색상 영상을 획득하고, 획득한 2차원 색상 영상과 생성된 깊이 지도에 기초하여 합성 영상을 생성할 수 있다.The
제어부(160)는 생성된 합성 영상을 디스플레이부 또는 저장부에 출력할 수 있다. The
제어부(160)의 상세한 동작에 대해서는 후술한다.The detailed operation of the
촬영 장치(100)는 상술한 구성요소 이외에도 제1 촬영 영상, 제2 촬영 영상 및 복원된 영상을 표시하기 위한 디스플레이부(미도시)를 더 포함할 수 있다.The photographing
도 7은 본 발명의 일 실시 예에 따른 촬영 장치의 동작 방법을 설명하기 위한 흐름도이다.7 is a flowchart illustrating an operation method of a photographing apparatus according to an embodiment of the present invention.
도 7을 참조하면, 촬영 장치(100)의 제1 카메라 모듈(140)은 제1 카메라 모듈( 140)에서 촬영된 제1 촬영 영상의 색상 정보 및 제1 깊이 정보를 획득한다( S101 ). 구체적으로, 제1 카메라 모듈(140)의 제1 센서(149)는 제1 렌즈(141)에 입사되는 광을 이용하여 획득한 제1 촬영 영상의 색상 정보 및 제1 깊이 정보를 획득할 수 있다. Referring to FIG. 7, the
일 실시 예에서 제1 센서(149)는 RGB 적외선(RGB IR) 센서일 수 있다. RGB IR 센서는 피사체의 색상을 획득하기 위해 사용되나, 피사체의 깊이 정보 또한 획득하기 위해 사용된다.In one embodiment, the
RGB IR 센서는 피사체의 제1 깊이 정보를 일정 간격의 픽셀 단위로 획득할 수 있다. 일정 간격은 λ/4 픽셀 단위일 수 있으나, 이는 예시에 불과하다.The RGB IR sensor can acquire the first depth information of the subject in units of pixels at regular intervals. The constant interval may be? / 4 pixel unit, but this is only an example.
제1 센서(149)를 통해 획득한 색상 정보 및 제1 깊이 정보는 추후 분리될 수 있다. 분리된 색상 정보는 이미지 신호 처리(Image Signal Processing, ISP)를 통해 컬러 튜닝될 수 있고, 컬러 튜닝된 후에는 2차원 색상 영상으로 복원될 수 있다.The color information and the first depth information acquired through the
분리된 제1 깊이 정보는 후술될 제2 깊이 정보와 매칭되어 깊이 지도를 생성하는데 이용될 수 있다.The separated first depth information may be used to generate a depth map by matching with second depth information to be described later.
촬영 장치(100)의 제2 카메라 모듈(150)은 제2 카메라 모듈(150)에 입사되는 광을 통해 제2 촬영 영상의 제2 깊이 정보를 획득한다( S103 ). 구체적으로, 제2 카메라 모듈(150)의 제2 센서(159)는 제2 렌즈(151)에 입사되는 광을 이용하여 획득한 제2 촬영 영상의 제2 깊이 정보를 획득할 수 있다. The
일 실시 예에서 제2 센서(159)는 모노(mono) 센서일 수 있다. 모노 센서는 모든 픽셀이 동일한 휘도 정보를 가지므로 픽셀 단위의 정확한 디스패리티(disprarity)를 얻을 수 있어, 촬영 영상의 정확한 깊이 정보를 획득하기 위해 사용된다.In one embodiment, the
본 발명의 실시 예에서는 제1 카메라 모듈(140)에서 RGB IR 센서를 사용하고, 제2 카메라 모듈(150)에서 모노 센서를 사용하는데, 이는 제1 카메라 모듈(140) 및 제2 카메라 모듈(150)에서 동일하게 모노 센서를 사용하면, 픽셀 매칭에 있어 매우 방대한 연산량이 요구되기 때문이다. 즉, 방대한 연상량을 처리해야 하므로 비대한 하드웨어 구성으로 촬영 장치(100)의 단가가 상승하고, 구성이 복잡해지며, 피사체의 색상 정보를 획득할 수 없다. In the embodiment of the present invention, the
따라서, 본 발명의 실시 예에서는 피사체의 색상 정보와 깊이 정보를 획득하기 위해 제1 카메라 모듈(140)에서 피사체의 색상 정보와 깊이 정보를 모두 획득할 수 있는 RGB IR 센서를 이용하고, 제2 카메라 모듈(150)에서 피사체의 깊이 정보를 획득할 수 있는 모노 센서를 이용하는 것을 특징으로 한다.Therefore, in the embodiment of the present invention, an RGB IR sensor capable of acquiring color information and depth information of a subject in the
단계 S101 및 단계 S103은 동시에 수행될 수 있다.Steps S101 and S103 may be performed simultaneously.
촬영 장치(100)의 제어부(160)는 획득한 제1 깊이 정보 및 제2 깊이 정보를 보정한다( S105 ). 구체적으로, 제어부(160)는 깊이 지도의 생성을 위해 제1 센서(149)를 통해 분리된 제1 깊이 정보 및 제2 센서(159)를 통해 획득한 제2 깊이 정보를 왜곡 보정(rectification) 할 수 있다. 더 구체적으로, 제어부(160)는 획득한 제1 깊이 정보에 대한 왜곡 보정을 수행하고, 동일한 왜곡 보정 방식으로 제2 깊이 정보에 대한 왜곡 보정을 수행할 수 있다. The
일 실시 예에서 제어부(160)는 피사체와 촬영 장치(100) 간의 거리, 촬영 장치(100)의 내부 온도 및 깊이 보정 값을 룩업 테이블의 형태로 대응시킨 저장부를 포함할 수 있다. 제어부(160)는 제1 깊이 정보 및 제2 깊이 정보 각각을 상기 저장부에 저장된 룩업 테이블을 검색하여 왜곡 보정을 수행 할 수 있다. 이는, 피사체와 촬영 장치(100) 간의 거리, 촬영 장치(100)의 내부 온도는 항상 달라질 수 있으므로 피사체와 촬영 장치(100) 간의 거리, 촬영 장치(100)의 내부 온도에 따라 깊이 보정 값을 달리하여 보다 획득한 깊이 정보에 대한 정확한 보정을 행하기 위함이다. In one embodiment, the
촬영 장치(100)의 제어부(160)는 보정된 제1 깊이 정보 및 제2 깊이 정보를 이용하여 제1 깊이 정보 및 제2 깊이 정보를 매칭시킨다( S107 ). 일 실시 예에서 제어부(160)는 보정된 제1 깊이 정보를 보정된 제2 깊이 정보에 매칭시킬 수 있다. 구체적으로, 제어부(160)는 일정 간격의 픽셀 단위로 획득되어 보정된 제1 깊이 정보를 제2 깊이 정보에 매칭시킬 수 있다. The
촬영 장치(100)의 제어부(160)는 매칭된 제1 깊이 정보 및 제2 깊이 정보를 이용하여 깊이 지도( depth map )를 생성한다( S109 ). 생성된 깊이 지도는 촬영 장치(100)와 피사체 간의 거리를 식별하는데 사용될 수도 있고, 피사체의 색상 영상과 합성되어 합성 영상을 생성하는데 사용될 수도 있다. The
촬영 장치(100)의 제어부(160)는 색상 정보를 통해 2차원 색상 영상을 획득하고, 획득한 2차원 색상 영상과 생성된 깊이 지도에 기초하여 합성 영상을 생성한다( S111 ). 즉, 제어부(160)는 제1 카메라 모듈(140)이 획득한 제1 촬영 영상의 색상 정보를 통해 2차원의 색상 영상을 획득하고, 2차원의 색상 영상과 깊이 지도를 이용하여 피사체의 합성 영상을 생성할 수 있다. The
촬영 장치(100)의 제어부(160)는 생성된 합성 영상을 The
다음으로, 도 8 및 도 9를 참조하여, 본 발명의 일 실시 예에 따른 촬영 장치를 차량에 적용한 실시 예를 설명한다.Next, an embodiment in which the photographing apparatus according to an embodiment of the present invention is applied to a vehicle will be described with reference to Figs. 8 and 9. Fig.
먼저, 도 8을 참조하면, 본 발명의 실시 예에 따른 촬영 장치(100)는 차량 앞 좌석의 상단에 배치될 수 있다. 구체적으로, 촬영 장치(100)는 차량의 윈드 쉴드(windshield, 300)와 접촉하여 배치되어 차량의 전방에 있는 피사체를 촬영할 수 있다. 8, the photographing
차량에는 촬영 장치(100)에서 방출하는 광의 방향을 조절하기 위한 광 쉴드부(400)가 더 배치될 수 있다. 광 쉴드부(400)는 윈드 쉴드(300)와 촬영 장치(100) 각각에 접촉하여 배치될 수 있다.The vehicle may further include an
그러나, 도 8과 같은 구조는 차량의 윈드 쉴드(300)와 광 쉴드부(400)의 상호반사작용으로 인해 외부에서 유입되는 외부 광이 촬영 장치(100)로 유입되어 촬영 장치(100)가 차량 전방에 있는 피사체의 영상을 제대로 복원하기 어려운 문제가 있다. 이에 도 9와 같이, 광 쉴드부(400)의 배치를 변경 가능하게 하는 구조를 취하면, 촬영 장치(100)에 유입되는 외부 광을 감소시킬 수 있다.However, the structure as shown in FIG. 8 differs from the structure shown in FIG. 8 in that external light introduced from the outside flows into the photographing
도 9를 참조하면, 광 쉴드부(500)는 수평선(A)과 윈드 쉴드(300)를 기준으로 0도 또는 수평선(A)을 기준으로 윈드 쉴드(300)의 반대방향으로 소정의 각도(θ)를 갖도록 배치될 수 있다. 광 쉴드부(500)는 특정방향으로의 반사를 최소화하기 위해 계단 형상의 난반사 재질이 사용될 수 있다.9, the
수평선(A)을 기준으로 윈드 쉴드(300)와 소정의 각도를 갖는 광 쉴드부(500)로 인해 외부 광이 촬영 장치(100)로 유입되는 것이 최소화되어 촬영 장치(100)는 차량의 전방에 위치한 피사체의 영상을 정확히 획득할 수 있다. 특히, 촬영 장치(100)는 차량의 전방에 위치한 다른 차량과의 거리를 깊이 정보를 통해 정확히 획득할 수 있다.The external light is minimally introduced into the photographing
본 발명의 일 실시 예에 의하면, 전술한 방법은, 프로그램이 기록된 매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.According to an embodiment of the present invention, the above-described method can be implemented as a code readable by a processor on a medium on which a program is recorded. Examples of the medium that can be read by the processor include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, etc., and may be implemented in the form of a carrier wave (e.g., transmission over the Internet) .
상기와 같이 설명된 이동 단말기는 상기 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The mobile terminal described above can be applied to not only the configuration and method of the embodiments described above but also all or some of the embodiments may be selectively combined so that various modifications may be made to the embodiments It is possible.
Claims (15)
상기 촬영 장치의 제1 카메라 모듈을 통해 피사체의 제1 촬영 영상을 획득하여 상기 제1 촬영 영상의 색상 정보 및 제1 깊이 정보를 획득하는 단계;
상기 촬영 장치의 제2 카메라 모듈을 통해 상기 피사체의 제2 촬영 영상을 획득하여 상기 제2 촬영 영상의 제2 깊이 정보를 획득하는 단계;
상기 제1 깊이 정보를 상기 제2 깊이 정보에 매칭시켜 깊이 지도를 생성하는 단계; 및
상기 색상 정보 및 상기 깊이 지도에 기초하여 상기 피사체의 합성 영상을 생성하는 단계를 포함하는
촬영 장치의 동작 방법.A method of operating a photographing apparatus,
Acquiring a first captured image of a subject through the first camera module of the photographing apparatus to obtain color information and first depth information of the first captured image;
Acquiring a second captured image of the subject through the second camera module of the photographing device to obtain second depth information of the second captured image;
Matching the first depth information with the second depth information to generate a depth map; And
And generating a composite image of the subject based on the color information and the depth map
A method of operating a photographing apparatus.
상기 획득한 제1 깊이 정보 및 상기 획득한 제2 깊이 정보를 왜곡 보정하는 단계를 더 포함하고,
상기 매칭시키는 단계는
상기 왜곡 보정된 상기 제1 깊이 정보를 상기 왜곡 보정된 상기 제2 깊이 정보에 매칭시키는 단계를 포함하는
촬영 장치의 동작 방법.The method according to claim 1,
Further comprising distortion correcting the obtained first depth information and the obtained second depth information,
The matching step
And matching the distortion-corrected first depth information to the distortion-corrected second depth information
A method of operating a photographing apparatus.
상기 왜곡 보정하는 단계는
상기 피사체와 상기 촬영 장치 간의 거리, 상기 촬영 장치의 내부 온도 및 깊이 보정 값을 이용하여 상기 제1 깊이 정보 및 제2 깊이 정보 각각을 왜곡 보정하는 단계를 포함하는
촬영 장치의 동작 방법.3. The method of claim 2,
The distortion correction step
Correcting each of the first depth information and the second depth information using a distance between the subject and the photographing apparatus, an internal temperature of the photographing apparatus, and a depth correction value,
A method of operating a photographing apparatus.
상기 제1 촬영 영상의 색상 정보 및 제1 깊이 정보는 상기 촬영 장치의 RGB 적외선 센서를 통해 획득되고,
상기 제2 촬영 영상의 제2 깊이 정보는 모노 센서를 통해 획득되는
촬영 장치의 동작 방법.The method according to claim 1,
The color information and the first depth information of the first captured image are acquired through the RGB infrared sensor of the photographing apparatus,
The second depth information of the second captured image is acquired through a mono sensor
A method of operating a photographing apparatus.
상기 촬영 장치에 유입되는 광량이 기 설정된 값 이하 인 경우, 적외선 광을 상기 피사체에 조사하는 단계를 더 포함하는
촬영 장치의 동작 방법.The method according to claim 1,
And irradiating the subject with infrared light when the amount of light entering the photographing apparatus is less than a predetermined value
A method of operating a photographing apparatus.
피사체의 제1 촬영 영상을 획득하여 상기 제1 촬영 영상의 색상 정보 및 제1 깊이 정보를 획득하는 제1 카메라 모듈;
상기 촬영 장치의 제2 카메라 모듈을 통해 상기 피사체의 제2 촬영 영상을 획득하여 상기 제2 촬영 영상의 제2 깊이 정보를 획득하는 제2 카메라 모듈; 및
상기 제1 깊이 정보를 상기 제2 깊이 정보에 매칭시켜 깊이 지도를 생성하고, 상기 색상 정보 및 상기 깊이 지도에 기초하여 상기 피사체의 합성 영상을 생성하는 제어부를 포함하는
촬영 장치.In a photographing apparatus,
A first camera module for acquiring a first captured image of a subject to acquire color information and first depth information of the first captured image;
A second camera module for acquiring a second captured image of the subject through the second camera module of the photographing device and acquiring second depth information of the second captured image; And
And a control unit for generating a depth map by matching the first depth information with the second depth information and generating a composite image of the subject based on the color information and the depth map
Shooting device.
상기 제어부는
상기 획득한 제1 깊이 정보 및 상기 획득한 제2 깊이 정보를 왜곡 보정하고, 상기 왜곡 보정된 상기 제1 깊이 정보를 상기 왜곡 보정된 상기 제2 깊이 정보에 매칭시켜 상기 깊이 지도를 생성하는
촬영 장치.The method according to claim 6,
The control unit
Distortion-correcting the obtained first depth information and the obtained second depth information, and generating the depth map by matching the distortion-corrected first depth information with the distortion-corrected second depth information
Shooting device.
상기 제어부는
상기 피사체와 상기 촬영 장치 간의 거리, 상기 촬영 장치의 내부 온도 및 깊이 보정 값을 이용하여 상기 제1 깊이 정보 및 제2 깊이 정보 각각을 왜곡 보정하는
촬영 장치.8. The method of claim 7,
The control unit
Corrects each of the first depth information and the second depth information using a distance between the subject and the photographing apparatus, an internal temperature of the photographing apparatus, and a depth correction value
Shooting device.
상기 제1 카메라 모듈은
상기 제1 촬영 영상의 색상 정보 및 제1 깊이 정보를 획득하기 위한 RGB 적외선 센서를 포함하고,
상기 제2 카메라 모듈은
상기 제2 촬영 영상의 제2 깊이 정보를 획득하기 위한 모노 센서를 포함하는
촬영 장치.The method according to claim 6,
The first camera module
And an RGB infrared sensor for acquiring color information and first depth information of the first captured image,
The second camera module
And a mono sensor for acquiring second depth information of the second captured image
Shooting device.
상기 촬영 장치에 유입되는 광량이 기 설정된 값 이하 인 경우, 적외선 광을 상기 피사체에 조사하는 광 조사부를 더 포함하는
촬영 장치.The method according to claim 6,
And a light irradiation unit for irradiating the subject with infrared light when the amount of light entering the photographing apparatus is less than a preset value
Shooting device.
상기 광 조사부에서 조사되는 광의 분포를 조절하기 위한 중앙 렌즈부를 더 포함하는
촬영 장치.11. The method of claim 10,
And a central lens unit for adjusting the distribution of light emitted from the light irradiation unit
Shooting device.
상기 광 조사부의 일측에 배치되어 상기 광 조사부에서 발생되는 열을 방출시키는 방열부를 더 포함하는
촬영 장치.11. The method of claim 10,
And a heat dissipation unit disposed on one side of the light irradiation unit and emitting heat generated in the light irradiation unit
Shooting device.
상기 제1 카메라 모듈은
상기 피사체로부터 반사된 광을 수신하는 제1 렌즈와
상기 제1 렌즈를 통과하는 광량을 조절하기 위한 제1 조리개를 포함하고,
상기 제2 카메라 모듈은
상기 피사체로부터 반사된 광을 수신하는 제2 렌즈와
상기 제2 렌즈를 통과하는 광량을 조절하기 위한 제2 조리개를 포함하는
촬영 장치.The method according to claim 6,
The first camera module
A first lens for receiving the light reflected from the subject;
And a first diaphragm for adjusting an amount of light passing through the first lens,
The second camera module
A second lens for receiving light reflected from the subject;
And a second diaphragm for adjusting an amount of light passing through the second lens
Shooting device.
상기 제1 조리개 및 상기 제2 조리개는
상기 제1 렌즈 및 상기 제2 렌즈 각각에 유입되는 광량에 따라 크기가 동시에 조절되는
촬영 장치.14. The method of claim 13,
The first diaphragm and the second diaphragm
The magnitude of which is adjusted according to the amount of light entering the first lens and the second lens, respectively
Shooting device.
상기 제1 카메라 모듈은
상기 광 조사부가 적외선 광을 조사하는지 여부에 따라 가시광을 차단하는 제1 가시광 차단부를 더 포함하고,
상기 제2 카메라 모듈은
상기 광 조사부가 적외선 광을 조사하는지 여부에 따라 가시광을 차단하는 제2 가시광 차단부를 더 포함하는
촬영 장치.11. The method of claim 10,
The first camera module
Further comprising a first visible light blocking unit for blocking visible light depending on whether the light irradiation unit irradiates infrared light,
The second camera module
And a second visible light blocking unit for blocking visible light depending on whether the light irradiation unit irradiates infrared light
Shooting device.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR20130108887A KR20150029897A (en) | 2013-09-11 | 2013-09-11 | Photographing device and operating method thereof |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR20130108887A KR20150029897A (en) | 2013-09-11 | 2013-09-11 | Photographing device and operating method thereof |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| KR20150029897A true KR20150029897A (en) | 2015-03-19 |
Family
ID=53024124
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR20130108887A Withdrawn KR20150029897A (en) | 2013-09-11 | 2013-09-11 | Photographing device and operating method thereof |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR20150029897A (en) |
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2016153224A1 (en) * | 2015-03-20 | 2016-09-29 | 엘지전자 주식회사 | Autonomous calibration device for vehicles and vehicle having same |
| KR101673000B1 (en) * | 2015-11-11 | 2016-11-07 | 공간정보기술 주식회사 | System for improvement of subject outline using 3-lens stereo image |
| WO2017051975A1 (en) * | 2015-09-22 | 2017-03-30 | 엘지전자 주식회사 | Mobile terminal and control method therefor |
| WO2017090848A1 (en) * | 2015-11-23 | 2017-06-01 | Samsung Electronics Co., Ltd. | Photographing device and operating method of the same |
| US10136110B2 (en) | 2015-10-21 | 2018-11-20 | Samsung Electronics Co., Ltd. | Low-light image quality enhancement method for image processing device and method of operating image processing system performing the method |
| WO2018216937A1 (en) * | 2017-05-23 | 2018-11-29 | 삼성전자 주식회사 | Method and device for image processing using dual image sensor |
| WO2024034837A1 (en) * | 2022-08-09 | 2024-02-15 | 삼성전자주식회사 | Electronic device and method for acquiring depth map |
| US12452505B2 (en) | 2021-05-27 | 2025-10-21 | Samsung Electronics Co., Ltd. | Electronic device comprising a plurality of imaging optical systems |
-
2013
- 2013-09-11 KR KR20130108887A patent/KR20150029897A/en not_active Withdrawn
Cited By (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2016153224A1 (en) * | 2015-03-20 | 2016-09-29 | 엘지전자 주식회사 | Autonomous calibration device for vehicles and vehicle having same |
| WO2017051975A1 (en) * | 2015-09-22 | 2017-03-30 | 엘지전자 주식회사 | Mobile terminal and control method therefor |
| US10291833B2 (en) | 2015-09-22 | 2019-05-14 | Lg Electronics Inc. | Mobile terminal for image capturing and method for controlling the same |
| US10136110B2 (en) | 2015-10-21 | 2018-11-20 | Samsung Electronics Co., Ltd. | Low-light image quality enhancement method for image processing device and method of operating image processing system performing the method |
| KR101673000B1 (en) * | 2015-11-11 | 2016-11-07 | 공간정보기술 주식회사 | System for improvement of subject outline using 3-lens stereo image |
| WO2017090848A1 (en) * | 2015-11-23 | 2017-06-01 | Samsung Electronics Co., Ltd. | Photographing device and operating method of the same |
| WO2018216937A1 (en) * | 2017-05-23 | 2018-11-29 | 삼성전자 주식회사 | Method and device for image processing using dual image sensor |
| US11277572B2 (en) | 2017-05-23 | 2022-03-15 | Samsung Electronics Co., Ltd. | Method and device for composing an image based on data detected by first and second image sensor |
| US12452505B2 (en) | 2021-05-27 | 2025-10-21 | Samsung Electronics Co., Ltd. | Electronic device comprising a plurality of imaging optical systems |
| WO2024034837A1 (en) * | 2022-08-09 | 2024-02-15 | 삼성전자주식회사 | Electronic device and method for acquiring depth map |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12219119B2 (en) | Time-of-flight camera system | |
| KR20150029897A (en) | Photographing device and operating method thereof | |
| US9344705B2 (en) | Time of flight camera with rectangular field of illumination | |
| US9514378B2 (en) | Space-time modulated active 3D imager | |
| US9560345B2 (en) | Camera calibration | |
| EP2451150B1 (en) | Color sensor insensitive to distance variations | |
| US10349037B2 (en) | Structured-stereo imaging assembly including separate imagers for different wavelengths | |
| US11610339B2 (en) | Imaging processing apparatus and method extracting a second RGB ToF feature points having a correlation between the first RGB and TOF feature points | |
| US20150341619A1 (en) | Method and system for light patterning and imaging | |
| JP5966467B2 (en) | Ranging device | |
| US20140055565A1 (en) | 3-dimensional image acquisition apparatus and 3d image acquisition method for simultaneously obtaining color image and depth image | |
| US12069227B2 (en) | Multi-modal and multi-spectral stereo camera arrays | |
| US10055881B2 (en) | Video imaging to assess specularity | |
| CN104935790A (en) | Imaging system | |
| CN107783353A (en) | Device and system for capturing stereoscopic images | |
| JP2013124985A (en) | Compound-eye imaging apparatus and distance measuring device | |
| KR20150109187A (en) | Structured light system | |
| CN107392955B (en) | Depth of field estimation device and method based on brightness | |
| US20240337751A1 (en) | Imaging device and imaging method | |
| KR20230080941A (en) | Three dimensional distance measuring device | |
| JP2011109237A (en) | Information processor, information processing method, and electronic apparatus |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20130911 |
|
| PG1501 | Laying open of application | ||
| PC1203 | Withdrawal of no request for examination | ||
| WITN | Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid |