[go: up one dir, main page]

KR20150029897A - Photographing device and operating method thereof - Google Patents

Photographing device and operating method thereof Download PDF

Info

Publication number
KR20150029897A
KR20150029897A KR20130108887A KR20130108887A KR20150029897A KR 20150029897 A KR20150029897 A KR 20150029897A KR 20130108887 A KR20130108887 A KR 20130108887A KR 20130108887 A KR20130108887 A KR 20130108887A KR 20150029897 A KR20150029897 A KR 20150029897A
Authority
KR
South Korea
Prior art keywords
depth information
light
photographing apparatus
camera module
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
KR20130108887A
Other languages
Korean (ko)
Inventor
이창환
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR20130108887A priority Critical patent/KR20150029897A/en
Publication of KR20150029897A publication Critical patent/KR20150029897A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Studio Devices (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

본 발명의 일 실시 예에 따른 촬영 장치의 동작 방법은 상기 촬영 장치의 제1 카메라 모듈을 통해 피사체의 제1 촬영 영상을 획득하여 상기 제1 촬영 영상의 색상 정보 및 제1 깊이 정보를 획득하는 단계와 상기 촬영 장치의 제2 카메라 모듈을 통해 상기 피사체의 제2 촬영 영상을 획득하여 상기 제2 촬영 영상의 제2 깊이 정보를 획득하는 단계와 상기 제1 깊이 정보를 상기 제2 깊이 정보에 매칭시켜 깊이 지도를 생성하는 단계 및 상기 색상 정보 및 상기 깊이 지도에 기초하여 상기 피사체의 합성 영상을 생성하는 단계를 포함한다.A method of operating a photographing apparatus according to an embodiment of the present invention includes acquiring a first photographing image of a subject through a first camera module of the photographing apparatus and obtaining color information and first depth information of the first photographing image And acquiring second depth information of the second shot image by acquiring a second shot image of the subject through the second camera module of the photographing apparatus and matching the first depth information to the second depth information Generating a depth map, and generating a composite image of the subject based on the color information and the depth map.

Description

촬영 장치 및 그의 동작 방법{PHOTOGRAPHING DEVICE AND OPERATING METHOD THEREOF}[0001] PHOTOGRAPHING DEVICE AND OPERATING METHOD THEREOF [0002]

본 발명은 촬영 장치 및 그의 동작 방법에 관한 것이다.The present invention relates to a photographing apparatus and an operation method thereof.

종래의 카메라는 2D 이미지 센서를 사용하여 영상을 획득하나, 3차원 정보인 깊이 정보를 얻을 수 없었다. 이에 피사체의 깊이를 측정하는 방안으로서 다음과 같은 방안들이 대두되었다.Conventional cameras acquire images using a 2D image sensor, but can not obtain depth information, which is three-dimensional information. In order to measure the depth of the subject, the following methods were suggested.

구조광 방식으로 특정패턴이 코딩된 레이저광을 물체에 조사하고, 되돌아오는 반사광의 패턴 shift 량을 계산함으로써 피사체의 깊이를 측정하는 방식이다.A depth of a subject is measured by irradiating an object with a laser beam having a specific pattern coded by a structured light method and calculating a shift amount of a pattern of the reflected light coming back.

그러나, 구조광 방식은 레이저 광원을 사용하고 코딩된 반사광을 받아들이는 송광부와 수광부의 물리적인 크기로 인하여 소형화에 제약이 따르고, 이로 인하여 모바일 제품에의 응용이 어려운 단점이 있다. 또한, 구조광 방식은 일반적으로 고정초점 렌즈와 passive 코딩소자를 사용함으로써 피사체의 깊이에 대한 해상도를 높이기 위한 가변적인 방안이 결여된 단점도 있다.However, due to the physical size of the light emitting portion and the light receiving portion which receive the coded reflected light by using the laser light source, the structured light method has a limitation in downsizing, which makes it difficult to apply it to mobile products. In addition, the structured optical system generally uses a fixed focus lens and a passive coding element, and thus has a disadvantage in that it lacks a variable method for increasing the resolution with respect to the depth of the subject.

TOF (Time of flight) 방식으로 물체에 직접적으로 빛을 조사하고 되돌아오는 반사광의 시간을 계산함으로써 피사체의 깊이를 측정하는 방식이다. It is a method of measuring the depth of a subject by directly irradiating the object with a time of flight (TOF) method and calculating the time of the reflected light coming back.

그러나, TOF 방식은 왕복광의 거리에 비례하는 시간을 계산하는 TOF 전용 센서의 비싼 가격과 밝기가 변조되는 발광 LED의 높은 파워 소비로 사용분야가 제한적이다.However, the TOF method is limited in its use due to the high cost of the TOF-dedicated sensor for calculating the time proportional to the distance of the reciprocating light and the high power consumption of the light-emitting LED in which the brightness is modulated.

3D카메라가 나오면서 기존의 2D 카메라와의 영상합성을 통한 성능향상을 도모하는 새로운 시도들이 시작되고 있다.As 3D cameras are emerging, new attempts are being made to improve the performance by synthesizing images with existing 2D cameras.

일례로서 2D카메라와 3D depth 측정용 IR카메라를 묶어 RGBIR센서와 1개의 렌즈를 사용하여 1개의 카메라로 2D영상과 3D depth를 측정하는 RGBIR카메라가 개발되고 있다. 하지만 RGBIR카메라는 IR픽셀에 RGB광이 교차 입사되고, RGB픽셀에 IR광이 교차 입사됨에 따라 광노이즈로 작용하여 성능이 저하되는 문제가 있다.As an example, an RGBIR camera is being developed, which combines a 2D camera and an IR camera for 3D depth measurement, and measures a 2D image and a 3D depth with one camera using an RGBIR sensor and a single lens. However, the RGBIR camera has the problem that the RGB light is cross-incident on the IR pixel and the IR light is cross-incident on the RGB pixel, thereby acting as a light noise and deteriorating the performance.

네번째, 전통적인 3D 카메라의 기본인 스테레오(stereo) 카메라를 이용한 스테레오 방식으로, 2개의 동일한 카메라를 사용하는 방식이다. 이 방식은 두 개의 카메라를 일정간격(baseline)으로 배치하여 별도의 2개의 완전히 독립된 카메라(2개의 렌즈, 2개의 센서, 2개의 ISP)를 사용하여 좌우영상을 획득하였다. Fourth, the stereoscopic method using the stereo camera which is the basic of the conventional 3D camera, using two identical cameras. In this method, two cameras were placed at a certain interval and two left and right images were obtained using two completely independent cameras (two lenses, two sensors, two ISPs).

그러나, 스테레오 방식의 3D카메라는 2개의 카메라를 사용함으로써 2D카메라에 비하여 비용이 2배로 들어가며, 2개의 카메라간의 조립오차에 따른 품질문제가 3D 품질을 저하시켜 고정밀 조립 공정 및 수율저하라는 문제점이 있었다. 또한, 3D depth 측정범위가 고정된 2카메라간의 간격인 baseline에 의하여 측정가능한 3D depth 범위가 결정되는 문제점이 있었다.However, the stereoscopic 3D camera uses two cameras and costs twice as much as the 2D camera, and the quality problem due to the assembly error between the two cameras deteriorates the 3D quality, resulting in a problem of a high-precision assembling process and a yield reduction . In addition, there is a problem that a 3D depth range that can be measured by a baseline, which is an interval between two cameras with a fixed 3D depth measurement range, is determined.

본 발명은 피사체의 깊이 정보를 정확히 획득할 수 있는 촬영 장치 및 그의 동작 방법을 제공하기 위한 것이다.An object of the present invention is to provide a photographing apparatus and an operation method thereof capable of accurately acquiring depth information of a subject.

본 발명의 일 실시 예에 따른 촬영 장치의 동작 방법은 상기 촬영 장치의 제1 카메라 모듈을 통해 피사체의 제1 촬영 영상을 획득하여 상기 제1 촬영 영상의 색상 정보 및 제1 깊이 정보를 획득하는 단계와 상기 촬영 장치의 제2 카메라 모듈을 통해 상기 피사체의 제2 촬영 영상을 획득하여 상기 제2 촬영 영상의 제2 깊이 정보를 획득하는 단계와 상기 제1 깊이 정보를 상기 제2 깊이 정보에 매칭시켜 깊이 지도를 생성하는 단계 및 상기 색상 정보 및 상기 깊이 지도에 기초하여 상기 피사체의 합성 영상을 생성하는 단계를 포함한다.A method of operating a photographing apparatus according to an embodiment of the present invention includes acquiring a first photographing image of a subject through a first camera module of the photographing apparatus and obtaining color information and first depth information of the first photographing image And acquiring second depth information of the second shot image by acquiring a second shot image of the subject through the second camera module of the photographing apparatus and matching the first depth information to the second depth information Generating a depth map, and generating a composite image of the subject based on the color information and the depth map.

본 발명의 일 실시 예에 따른 촬영 장치는 피사체의 제1 촬영 영상을 획득하여 상기 제1 촬영 영상의 색상 정보 및 제1 깊이 정보를 획득하는 제1 카메라 모듈과 상기 촬영 장치의 제2 카메라 모듈을 통해 상기 피사체의 제2 촬영 영상을 획득하여 상기 제2 촬영 영상의 제2 깊이 정보를 획득하는 제2 카메라 모듈 및 상기 제1 깊이 정보를 상기 제2 깊이 정보에 매칭시켜 깊이 지도를 생성하고, 상기 색상 정보 및 상기 깊이 지도에 기초하여 상기 피사체의 합성 영상을 생성하는 제어부를 포함한다.The photographing apparatus according to an embodiment of the present invention includes a first camera module for acquiring a first photographing image of a subject and acquiring color information and first depth information of the first photographing image, A second camera module for acquiring second depth information of the second shot image by acquiring a second shot image of the subject through the first camera module and a depth map by matching the first depth information with the second depth information, And a control unit for generating a composite image of the subject based on the color information and the depth map.

본 발명의 다양한 실시 예에 따르면, 피사체의 깊이 정보를 정확히 획득할 수 있다.According to various embodiments of the present invention, depth information of a subject can be accurately obtained.

또한, 본 발명의 실시 예인 촬영 장치가 차량에 장착되는 경우, 차량 전방에 위치한 다른 차량과의 거리를 깊이 정보에 의거하여 정확히 파악할 수 있다.Further, when the photographing apparatus, which is an embodiment of the present invention, is mounted on a vehicle, the distance to another vehicle located in front of the vehicle can be accurately grasped based on depth information.

도 1은 본 발명의 일 실시 예에 따른 촬영 장치의 블록 구성도(block diagram)이다.
도 2는 본 발명의 일 실시 예에 따른 촬영 장치의 구조를 간략히 나타낸 도면이다.
도 3은 본 발명의 일 실시 예에 따른 제1 카메라 모듈 및 제2 카메라 모듈의 구성을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시 예에 따라 제1 센서가 RGB IR 센서를 이용하는 경우, 파장 대역별 감도 곡선을 나타내는 도면이다.
도 5는 본 발명의 일 실시 예에 따라 제2 센서가 모노 센서를 이용하는 경우, 파장 대역별 감도 곡선을 나타내는 도면이다.
도 6은 본 발명의 일 실시 예에 따라 각 카메라 모듈에 포함된 렌즈의 구조를 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시 예에 따른 촬영 장치의 동작 방법을 설명하기 위한 흐름도이다.
도 8 및 도 9는 본 발명의 일 실시 예에 따른 촬영 장치를 차량에 적용한 실시 예를 설명하기 위한 도면이다.
1 is a block diagram of a photographing apparatus according to an embodiment of the present invention.
2 is a view schematically showing a structure of a photographing apparatus according to an embodiment of the present invention.
3 is a view for explaining a configuration of a first camera module and a second camera module according to an embodiment of the present invention.
4 is a graph showing a sensitivity curve of each wavelength band when the first sensor uses an RGB IR sensor according to an embodiment of the present invention.
FIG. 5 is a graph showing sensitivity curves according to wavelength bands when the second sensor uses a mono sensor according to an embodiment of the present invention.
6 is a view for explaining a structure of a lens included in each camera module according to an embodiment of the present invention.
7 is a flowchart illustrating an operation method of a photographing apparatus according to an embodiment of the present invention.
8 and 9 are views for explaining an embodiment in which a photographing apparatus according to an embodiment of the present invention is applied to a vehicle.

이하, 본 발명과 관련된 실시 예에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. Hereinafter, embodiments related to the present invention will be described in detail with reference to the drawings. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role.

본 발명의 실시 예에 따른 촬영 장치는 자동차와 같은 차량에 장착될 수 있으나, 이에 한정될 필요는 없고, TV, 모바일 기기, 가전제품에 장착될 수도 있다.The photographing apparatus according to an embodiment of the present invention may be mounted on a vehicle such as an automobile, but is not limited thereto, and may be mounted on a TV, a mobile device, or a household appliance.

다음은 도 1 내지 도 3을 참고하여 본 발명의 일 실시 예에 따른 촬영 장치의 구조를 설명한다.Hereinafter, a structure of a photographing apparatus according to an embodiment of the present invention will be described with reference to FIGS. 1 to 3. FIG.

특히, 도 1은 본 발명의 일 실시 예에 따른 촬영 장치의 블록 구성도(block diagram)이고, 도 2는 본 발명의 일 실시 예에 따른 촬영 장치의 구조를 간략히 나타낸 도면이고, 도 3은 본 발명의 일 실시 예에 따른 제1 카메라 모듈 및 제2 카메라 모듈의 구성을 설명하기 위한 도면이다.1 is a block diagram of a photographing apparatus according to an embodiment of the present invention. FIG. 2 is a view schematically showing a structure of a photographing apparatus according to an embodiment of the present invention. FIG. 4 is a diagram illustrating a configuration of a first camera module and a second camera module according to an embodiment of the present invention. FIG.

먼저, 도 1 및 도 2를 참조하면, 본 발명의 실시 예에 따른 촬영 장치(100)는 광 조사부(110), 중앙 렌즈부(120), 방열부(130), 제1 카메라 모듈(140), 제2 카메라 모듈(150) 및 제어부(160)를 포함한다.1 and 2, a photographing apparatus 100 according to an exemplary embodiment of the present invention includes a light irradiation unit 110, a center lens unit 120, a heat dissipation unit 130, a first camera module 140, A second camera module 150, and a controller 160.

광 조사부(110)는 적외선 광(IR 광)을 피사체에 조사할 수 있다. 광 조사부(110)는 야간이나 저조도의 상태에서 제1 카메라 모듈(140) 및 제2 카메라 모듈(150)에 유입되는 광량이 적은 경우(기 설정된 광량 이하인 경우), 광을 조사하여 피사체의 촬영 영상을 획득하기 위해 사용될 수 있다. 광 조사부(110)는 레이저 다이오드(Laser Diode, LD), 발광 다이오드(Light Emitting Diode, LED) 중 어느 하나가 사용될 수 있다.The light irradiation unit 110 can irradiate the object with infrared light (IR light). The light irradiating unit 110 irradiates light to the first camera module 140 and the second camera module 150 when the amount of light entering the first camera module 140 and the second camera module 150 is small ≪ / RTI > The light irradiation unit 110 may be a laser diode (LD), a light emitting diode (LED) or the like.

중앙 렌즈부(120)는 광 조사부(110)가 광을 방출하는 위치인 광 조사부(110)의 전면에 배치될 수 있다.The central lens unit 120 may be disposed on the front surface of the light irradiation unit 110, which is a position where the light irradiation unit 110 emits light.

중앙 렌즈부(120)는 광 조사부(110)에서 방출되는 광의 분포를 조절할 수 있다. 구체적으로, 광 조사부(110)로 레이저 다이오드를 사용하는 경우, 중앙 렌즈부(120)는 레이저 다이오드에서 방출되는 광의 분포가 x,y 비대칭의 가우시안 형태의 분포를 가지므로, 가우시안 형태의 분포를 원형으로 만들어 광의 분포를 균일하게 만들 수 있다. 또한, 광 조사부(110)로 발광 다이오드를 사용하는 경우, 중앙 렌즈부(120)는 발광 다이오드에서 방출되는 광의 분포를 원형으로 만들어 광의 분포를 균일하게 만들 수 있다.The central lens unit 120 can control the distribution of light emitted from the light irradiation unit 110. Specifically, when a laser diode is used as the light irradiating unit 110, the center lens unit 120 has a Gaussian distribution of x, y asymmetry of light emitted from the laser diode, So that the distribution of light can be made uniform. When the light emitting unit 110 is used as the light irradiating unit 110, the central lens unit 120 may make the distribution of the light emitted from the light emitting diode circular so as to make the light distribution uniform.

광 조사부(110)에서 방출하는 광의 방사각 범위는 피사체를 맞고 반사되는 반사광이 제1 카메라 모듈(140) 및 제2 카메라 모듈(150)에 유입시 균일한 광 분포를 가지면서 제1 카메라 모듈(140) 및 제2 카메라 모듈(150)의 화각 범위를 만족시키도록 고려될 수 있다.The radiation angle range of the light emitted from the light irradiating unit 110 is such that the reflected light reflected by the subject is incident on the first camera module 140 and the second camera module 150, 140 and the second camera module 150 of the camera module.

또한, 중앙 렌즈부(120)는 광 조사부(110)의 광축 방향으로 이동될 수 있고, 광축 방향으로 이동됨에 따라 제1 카메라 모듈(140) 및 제2 카메라 모듈(150)의 화각 범위를 변경할 수 있다.The center lens unit 120 can be moved in the optical axis direction of the light irradiation unit 110 and can change the angle of view range of the first camera module 140 and the second camera module 150 have.

방열부(130)는 광 조사부(110)의 후면에 배치될 수 있다.The heat dissipation unit 130 may be disposed on the rear surface of the light irradiation unit 110.

방열부(130)는 광 조사부(110)에서 발생되는 열을 방출시킬 수 있다. 구체적으로, 광 조사부(110)로 사용될 수 있는 레이저 다이오드 또는 발광 다이오드의 온도 특성에 따라 방출되는 광의 파장이 변경될 수 있으므로, 방열부(130)는 광의 파장 변화를 최소화하기 위해 광 조사부(110)에서 발생되는 열을 방출시킬 수 있다. The heat dissipating unit 130 may emit heat generated in the light irradiating unit 110. In order to minimize the wavelength variation of the light, the light emitting unit 110 may include a light emitting unit 110 and a light emitting unit 110. The light emitting unit 110 may include a light emitting diode 110, The heat generated from the heat source can be released.

일 실시 예에서 방열부(130)는 방열판, 팬(fan), 온도 조절 장치인 열전소자 중 어느 하나를 포함할 수 있다.In one embodiment, the heat dissipation unit 130 may include any one of a heat sink, a fan, and a thermoelectric device as a temperature control device.

방열부(130)를 사용함에 따라 광의 파장 변화가 최소화되어 제1 카메라 모듈(140) 및 제2 카메라 모듈(150)에 유입되는 외부 광에 민감하지 않은 효과를 가져올 수 있다. 구체적으로, 광의 파장이 변하게 되면, 후술할 제1 센서(149)의 전단에 배치된 제1 필터(147) 및 제2 센서(159)의 전단에 배치된 제2 필터(157)에서 통과시킬 수 있는 광의 투과 범위가 넓어져, 광의 투과 범위가 넓어진 만큼, 외부 광에 영향을 받아 피사체의 영상을 제대로 복원할 수 없다. 이에 방열부(130)는 광의 파장 변화를 최소화하여 제1 필터(147) 및 제2 필터(157)의 광 투과 범위를 넓히지 않을 수 있고, 외부 광에 영향을 받지 않아 피사체의 영상을 제대로 복원하는데 도움을 줄 수 있다.The use of the heat dissipation unit 130 minimizes the wavelength variation of the light and can provide an effect that is not sensitive to the external light introduced into the first camera module 140 and the second camera module 150. Specifically, when the wavelength of the light changes, the first filter 149 and the second filter 157 disposed at the front end of the first sensor 149 and the second sensor 157, respectively, The transmission range of the light having a wide range of light is widened and the transmission range of the light is widened, so that the image of the object can not be restored properly due to the influence of external light. Accordingly, the heat dissipation unit 130 minimizes the wavelength variation of the light so as not to widen the light transmission range of the first filter 147 and the second filter 157, and properly restores the image of the object Can help.

제1 카메라 모듈(140)은 피사체의 제1 촬영 영상을 획득하여 제1 촬영 영상의 색상 정보 및 제1 깊이 정보를 획득할 수 있다.The first camera module 140 may acquire the first shot image of the subject to obtain the color information and the first depth information of the first shot image.

제2 카메라 모듈(150)은 피사체의 제2 촬영 영상을 획득하여 제2 촬영 영상의 제2 깊이 정보를 획득할 수 있다.The second camera module 150 may acquire the second captured image of the subject and acquire the second depth information of the second captured image.

제1 카메라 모듈(140) 및 제2 카메라 모듈(150) 간의 떨어진 거리(Base line)는 고정될 수 있으나, 이에 한정될 필요는 없다.The distance between the first camera module 140 and the second camera module 150 may be fixed but is not limited thereto.

제1 카메라 모듈(140) 및 제2 카메라 모듈(150)의 상세한 구성에 대해서는 도 3을 참조하여 설명한다.The detailed configuration of the first camera module 140 and the second camera module 150 will be described with reference to FIG.

도 3을 참조하면, 제1 카메라 모듈(140)은 제1 렌즈(141), 제1 조리개(143), 제1 가시광 차단부(145), 제1 필터(147) 및 제1 센서(149)를 포함할 수 있고, 제2 카메라 모듈(150)은 제2 렌즈(151), 제2 조리개(153), 제2 가시광 차단부(155), 제2 필터(157) 및 제2 센서(159)를 포함할 수 있다.3, the first camera module 140 includes a first lens 141, a first diaphragm 143, a first visible light blocking part 145, a first filter 147, and a first sensor 149, And the second camera module 150 may include a second lens 151, a second diaphragm 153, a second visible light blocking part 155, a second filter 157, and a second sensor 159. [ . ≪ / RTI >

제1 렌즈(141) 및 제2 렌즈(151)는 피사체로부터 반사된 광을 수신할 수 있다.The first lens 141 and the second lens 151 can receive the light reflected from the subject.

제1 조리개(143)는 제1 렌즈(141)의 중앙에 배치될 수 있고, 제2 조리개(153)는 제2 렌즈(151)의 중앙에 배치될 수 있다. 제1 조리개(143)는 제1 렌즈(141)를 통과하는 광량을 조절할 수 있다. 즉, 제1 조리개(143)는 제1 렌즈(141)에 유입되는 광량을 조절하여 제1 필터(147)에 전달할 수 있다. 마찬가지고, 제2 조리개(153)는 제2 렌즈에 통과하는 광량을 조절하여 제2 필터(157)에 전달할 수 있다.The first diaphragm 143 may be disposed at the center of the first lens 141 and the second diaphragm 153 may be disposed at the center of the second lens 151. The first diaphragm 143 can adjust the amount of light passing through the first lens 141. That is, the first diaphragm 143 can adjust the amount of light entering the first lens 141 and transmit it to the first filter 147. Likewise, the second diaphragm 153 can transmit the amount of light passing through the second lens to the second filter 157.

제1 조리개(143) 및 제2 조리개(153)의 크기는 기본적으로 고정될 수 있으나, 이에 한정될 필요는 없고, 제1 렌즈(141)에 유입되는 광량에 따라 자동으로 변경될 수 있다. The size of the first diaphragm 143 and the second diaphragm 153 may be fixed basically, but it is not limited thereto and may be automatically changed according to the amount of light entering the first lens 141.

예를 들어, 제1 조리개(143)는 광량이 많이 유입될 수 있는 환경인 낮 시간대의 경우, 크기가 작아져 제1 렌즈(141)의 초점 심도를 높이면서 제1 깊이 정보를 획득할 수 있다. 반대로, 제1 조리개(143) 및 제2 조리개(153)는 광량이 적게 유입될 수 있는 환경인 해뜰 무렵이나, 해질 무렵에는 크기가 커져 초점 심도를 조금 떨어뜨리더라도 광량을 충분히 확보하여 제1 센서(149)가 제1 깊이 정보를 정확히 얻을 수 있도록 한다. For example, the first diaphragm 143 may be smaller in size in the daytime when the amount of light can be increased, so that the depth of focus of the first lens 141 may be increased and the first depth information may be acquired . In contrast, the first diaphragm 143 and the second diaphragm 153 have a large size at the time of sunrise, which is an environment where the amount of light can be reduced, So that the first depth information 149 can be accurately obtained.

또한, 제2 조리개(153)는 광량이 많이 유입될 수 있는 환경인 낮 시간대의 경우, 크기가 작아져 제2 렌즈(151)의 초점 심도를 높이면서 제2 센서(159)가 제2 깊이 정보를 획득할 수 있도록 한다. 반대로, 제2 조리개(153)는 광량이 적게 유입될 수 있는 환경인 해뜰 무렵이나, 해질 무렵에는 크기가 커져 초점 심도를 조금 떨어뜨리더라도 광량을 충분히 확보하여 제2 깊이 정보를 정확히 얻을 수 있다.Also, the second diaphragm 153 is reduced in size in the daytime when the amount of light can be increased, and the depth of focus of the second lens 151 is increased, . On the contrary, the second diaphragm 153 can obtain the second depth information precisely by sufficiently securing the light amount even when the depth of focus is increased by increasing the size at the time of the sunrise, which is the environment where the light amount can be reduced.

제1 조리개(143) 및 제2 조리개(153)는 유입되는 광량에 따라 동기화되어 크기가 변경될 수 있다. 구체적으로, 제어부(160)는 제1 카메라 모듈(140) 및 제2 카메라 모듈(150)에 유입되는 광량에 따라 제1 조리개(143) 및 제2 조리개(153)의 크기를 동시에 조절할 수 있다. 이는, 제1 조리개(143) 및 제2 조리개(153) 각각의 크기가 다르게 되면 유입되는 광량 및 광량의 유입 시점 등이 달라지게 되고, 왜곡이 발생하게 되어 촬영 영상의 정확한 깊이 정보를 획득할 수 없기 때문이다.The first diaphragm 143 and the second diaphragm 153 can be synchronized in size according to the amount of incident light. The control unit 160 can simultaneously adjust the size of the first diaphragm 143 and the second diaphragm 153 according to the amount of light entering the first camera module 140 and the second camera module 150. [ If the sizes of the first diaphragm 143 and the second diaphragm 153 are different from each other, the amount of light to be introduced and the inflow timing of the light amount are different, and distortion occurs, It is because there is not.

제1 가시광 차단부(145) 및 제2 가시광 차단부(155)는 광 조사부(110)에서 조사하는 적외선 광 이외의 가시광을 차단할 수 있다. 구체적으로, 제1 가시광 차단부(145) 및 제2 가시광 차단부(155)는 광 조사부(110)가 적외선 광을 조사하는지 여부에 따라 가시광을 차단 또는 차단하지 않을 수 있다. 이에 대해 더 구체적으로 설명한다.The first visible light blocking part 145 and the second visible light blocking part 155 can block visible light other than the infrared light irradiated by the light irradiation part 110. Specifically, the first visible light blocking part 145 and the second visible light blocking part 155 may not block or block the visible light according to whether the light irradiation part 110 irradiates infrared light. This will be described in more detail.

제1 가시광 차단부(145)는 광 조사부(110)가 동작하여 피사체에 적외선 광을 조사하는 경우, 적외선 광만을 투과시킬 수 있다. 일 실시 예에서 제1 가시광 차단부(145)는 적외선 대역 통과 필터(IR band pass filter)를 포함할 수 있고, 광 조사부(110)가 동작하여 피사체에 적외선 광을 조사하는 경우, 적외선 대역 통과 필터(IR band pass filter)를 활성화시켜 적외선 광만을 투과시킬 수 있다. 반대로, 광 조사부(110)가 동작하지 않는 경우, 제1 가시광 차단부(145)는 적외선 대역 통과 필터를 비활성화 시켜 가시광 및 적외선 광을 모두 투과시킬 수 있다.The first visible light blocking unit 145 can transmit only infrared light when the light irradiation unit 110 operates to irradiate the subject with infrared light. In one embodiment, the first visible light intercepting unit 145 may include an infrared band pass filter (IR band pass filter). When the light irradiating unit 110 operates to irradiate infrared light to a subject, (IR band pass filter) can be activated to transmit only infrared light. On the contrary, when the light irradiating unit 110 does not operate, the first visible light intercepting unit 145 may pass the visible light and the infrared light by inactivating the infrared band-pass filter.

마찬가지로, 제2 가시광 차단부(155)는 적외선 대역 통과 필터(IR band pass filter)를 포함할 수 있고, 광 조사부(110)가 동작하여 피사체에 적외선 광을 조사하는 경우, 적외선 대역 통과 필터(IR band pass filter)를 활성화시켜 적외선 광만을 투과시킬 수 있다. 반대로, 광 조사부(110)가 동작하지 않는 경우, 제2 가시광 차단부(155)는 적외선 대역 통과 필터를 비활성화 시켜 가시광 및 적외선 광을 모두 투과시킬 수 있다.Similarly, the second visible light blocking unit 155 may include an infrared band pass filter (IR band pass filter). When the light irradiation unit 110 operates to irradiate infrared light to a subject, an infrared band pass filter (IR band pass filter can be activated to transmit only the infrared light. On the other hand, when the light irradiating unit 110 is not operated, the second visible light intercepting unit 155 may pass the visible light and the infrared light by inactivating the infrared band-pass filter.

결과적으로, 제1 가시광 차단부(145) 및 제2 가시광 차단부(155)는 광 조사부(110)가 적외선 광을 조사하는지 여부에 따라 활성화 또는 비활성화 될 수 있으므로, 선택적으로 동작할 수 있다.As a result, the first visible light blocking portion 145 and the second visible light blocking portion 155 can be selectively activated because they can be activated or deactivated depending on whether the light irradiation portion 110 irradiates infrared light.

제1 필터(147)는 제1 렌즈(141)에 입사하는 가시광 및 적외선 광을 통과시켜 제1 센서(149)에 전달할 수 있다. 일 실시 예에서 제1 필터(147)는 듀얼 밴드 통과 필터(Dual band pass filter)일 수 있다. 즉, 제1 필터(147)는 가시광 대역의 파장 및 적외선 광 대역의 파장을 통과시키고, 가시광 및 적외선 광 대역 이외의 대역의 파장을 차단하기 위해 듀얼 밴드 통과 필터를 포함할 수 있다. The first filter 147 may transmit visible light and infrared light incident on the first lens 141 to the first sensor 149. In one embodiment, the first filter 147 may be a dual band pass filter. That is, the first filter 147 may include a dual band pass filter to pass the wavelength of the visible light band and the infrared light band, and to block the wavelengths of the visible light and the infrared light band.

제2 필터(157)는 제2 렌즈(151)에 입사하는 가시광 및 적외선 광 대역의 파장을 통과시켜 제2 센서(159)에 전달할 수 있다. 일 실시 예에서 제1 필터(147)는 듀얼 밴드 통과 필터(Dual band pass filter)일 수 있다. 즉, 제2 필터(149)는 가시광 대역의 파장 및 적외선 광 대역의 파장을 통과시키고, 가시광 및 적외선 광 대역 이외의 대역의 파장을 차단하기 위해 듀얼 밴드 통과 필터를 포함할 수 있다. The second filter 157 may transmit the visible light and the wavelength of the infrared light band incident on the second lens 151 to the second sensor 159. In one embodiment, the first filter 147 may be a dual band pass filter. That is, the second filter 149 may include a dual band pass filter to pass the wavelength of the visible light band and the wavelength of the infrared light band, and to block the wavelengths of the visible light and the infrared band other than the infrared light band.

제2 필터(157)는 제1 필터(147)에서 통과하는 광의 파장 대역과 동일한 파장 대역을 통과시키기 위해 제1 필터(147)와 같은 듀얼 밴드 통과 필터를 포함할 수 있다.The second filter 157 may include a dual band pass filter, such as the first filter 147, to pass the same wavelength band as the wavelength band of light passing through the first filter 147.

또 다른 실시 예에서 제2 필터(157)로 제1 필터(147)와는 달리, 전체 파장 대역을 통과시킬 수 있는 전대역 필터(All pass filter)가 사용될 수 있다.In another embodiment, unlike the first filter 147 with the second filter 157, an all pass filter capable of passing the entire wavelength band can be used.

제1 필터(147)는 제1 센서(149)에 포함될 수 있고, 제2 필터(157)는 제2 센서(159)에 포함될 수 있다.The first filter 147 may be included in the first sensor 149 and the second filter 157 may be included in the second sensor 159.

제1 센서(149) 및 제2 센서(159)는 피사체의 촬영 영상을 검지하여 검지된 촬영 영상을 전기적인 영상신호로 변환하는 이미지 센서일 수 있다.The first sensor 149 and the second sensor 159 may be an image sensor that detects a photographed image of a subject and converts the sensed photographed image into an electrical image signal.

제1 센서(149)는 제1 필터(147)에서 통과된 가시광 및 적외선 광 대역의 파장을 이용하여 제1 촬영 영상의 색상 정보 및 제1 깊이 정보를 획득할 수 있다. 일 실시 예에서 제1 센서(149)는 RGB 적외선 광(RGBIR) 센서를 포함할 수 있다. The first sensor 149 can acquire the color information and the first depth information of the first captured image using the wavelengths of the visible light and the infrared light band passed through the first filter 147. In one embodiment, the first sensor 149 may comprise an RGB infrared light (RGBIR) sensor.

제1 센서(149)는 복수의 픽셀을 포함할 수 있고, 제1 깊이 정보를 일정 간격의 픽셀 단위로 획득할 수 있다.The first sensor 149 may include a plurality of pixels, and may acquire the first depth information in units of pixels at regular intervals.

제2 센서(159)는 제2 필터(157)에서 통과된 가시광 및 적외선 광 대역의 파장을 이용하여 제2 촬영 영상의 제2 깊이 정보를 획득할 수 있다. 일 실시 예에서 제2 센서(159)는 모노(mono) 센서를 포함할 수 있고, 모노 센서는 복수의 픽셀을 포함할 수 있고, 픽셀 단위로 제2 촬영 영상의 제2 깊이 정보를 획득할 수 있다.The second sensor 159 can acquire the second depth information of the second photographic image using the wavelengths of the visible light and the infrared light band passed through the second filter 157. In one embodiment, the second sensor 159 may comprise a mono sensor, the mono sensor may comprise a plurality of pixels and may acquire second depth information of the second captured image on a pixel by pixel basis have.

제1 센서(149)가 RGB IR 센서를 이용하고, 제2 센서(159)가 모노 센서를 이용하는 경우, 각 센서는 특정한 파장별 감도 곡선을 갖는다. 이에 대해서는 도 4 및 도 5를 참조하여 설명한다.When the first sensor 149 uses the RGB IR sensor and the second sensor 159 uses the mono sensor, each sensor has a specific wavelength-dependent sensitivity curve. This will be described with reference to FIGS. 4 and 5. FIG.

도 4는 본 발명의 일 실시 예에 따라 제1 센서가 RGB IR 센서를 이용하는 경우, 파장 대역별 감도 곡선을 나타내고, 도 5는 본 발명의 일 실시 예에 따라 제2 센서가 모노 센서를 이용하는 경우, 파장 대역별 감도 곡선을 나타내는 도면이다.FIG. 4 is a graph illustrating sensitivity curves for respective wavelength bands when the first sensor uses an RGB IR sensor according to an exemplary embodiment of the present invention. FIG. 5 is a graph illustrating sensitivity curves , And a sensitivity curve for each wavelength band.

먼저, 도 4를 참조하면, RGB IR 센서의 경우, 각 픽셀마다 특정한 대역의 파장에 대해 감도가 좋은 것을 확인할 수 있다. 특히, Blue, Green, Red 색상에 대한 대역의 파장에 대해 감도가 다른 대역의 파장에 비해 좋음을 확인할 수 있다. 이는, 제1 센서(149)의 전단에 제1 필터(147)로 가시광 및 적외선 광만을 통과시키는 듀얼 밴드 통과 필터를 사용하기 때문이다. 감도가 좋다는 것은 촬영 영상을 복원하기가 보다 수월함을 의미할 수 있다.First, referring to FIG. 4, in the case of the RGB IR sensor, it can be confirmed that the sensitivity to the wavelength of a specific band is good for each pixel. In particular, it can be seen that the sensitivity to the wavelength of the blue, green and red colors is better than that of the other bands. This is because a dual band-pass filter that allows only visible light and infrared light to pass through the first filter 147 at the front end of the first sensor 149 is used. The good sensitivity means that it is better to restore the photographed image.

도 5를 참조하면, 모노 센서의 경우, 전체 파장 대역의 빛을 수신하므로, RGB IR 센서에 비해 전체적으로 감도가 좋다.Referring to FIG. 5, in the case of a mono sensor, since the light of the entire wavelength band is received, overall sensitivity is better than that of the RGB IR sensor.

제1 렌즈(141)는 및 제2 렌즈(151) 각각은 제1 센서(149)의 감도 특성 및 제2 센서(159)의 감도 특성을 각각 고려하여 가시광 영역에서 적외선 광 영역까지 광대역의 파장을 포커싱하도록 제작될 수 있다. 이에 대해서는 도 6을 참조하여 설명한다.Each of the first lens 141 and the second lens 151 has a wide wavelength range from the visible light region to the infrared light region in consideration of the sensitivity characteristic of the first sensor 149 and the sensitivity characteristic of the second sensor 159 Can be made to focus. This will be described with reference to FIG.

도 6은 본 발명의 일 실시 예에 따라 각 카메라 모듈에 포함된 렌즈의 구조를 설명하기 위한 도면이다.6 is a view for explaining a structure of a lens included in each camera module according to an embodiment of the present invention.

먼저, 도 6의 (a)를 참조하면, 도 1 내지 도 3에서 설명한 제1 카메라 모듈(140)의 제1 렌즈(141), 제2 카메라 모듈(150)의 제2 렌즈(151) 각각은 렌즈에 입사되는 광을 효과적으로 수신하기 위해 복수의 렌즈를 포함할 수 있다. 복수의 렌즈는 일렬로 배치될 수 있다. 그러나, 복수의 렌즈를 포함하게 되면, 렌즈의 광학전장이 증가되고, 결국 이는 각 카메라 모듈의 사이지 증가로 이어진다.Referring to FIG. 6A, each of the first lens 141 of the first camera module 140 and the second lens 151 of the second camera module 150, which are described in FIGS. 1 to 3, And may include a plurality of lenses to effectively receive the light incident on the lens. The plurality of lenses may be arranged in a line. However, the inclusion of a plurality of lenses increases the optical length of the lens, which in turn leads to an increase in the spacing of each camera module.

도 6의 (b)를 참조하면, 제1 카메라 모듈(140)의 제1 렌즈(141), 제2 카메라 모듈(150)의 제2 렌즈(151) 각각은 복수의 렌즈 및 프리즘(200)을 포함할 수 있다.6B, each of the first lens 141 of the first camera module 140 and the second lens 151 of the second camera module 150 includes a plurality of lenses and a prism 200 .

복수의 렌즈 중 일부 렌즈는 나머지 렌즈와 수직으로 배치될 수 있다. 프리즘은 상기 일부 렌즈와 나머지 렌즈 사이에 배치되어 광선을 수직으로 꺾을 수 있다. 이로 인해, 각 카메라 모듈의 사이즈가 줄어들 수 있어 전체적인 촬영 장치의 사이즈가 감소되는 효과를 얻을 수 있다.Some of the plurality of lenses may be disposed perpendicular to the remaining lenses. A prism may be disposed between the partial lens and the other lens to vertically fold the light rays. Therefore, the size of each camera module can be reduced, and the overall size of the photographing apparatus can be reduced.

다시 도 1 및 도 2를 설명한다.1 and Fig. 2 will be described again.

제어부(160)는 촬영 장치(100)의 구성요소들을 전반적으로 제어할 수 있다.The control unit 160 can control the components of the photographing apparatus 100 as a whole.

특히, 제어부(160)는 촬영 장치(100)의 주변 환경 즉, 제1 카메라 모듈(140) 및 제2 카메라 모듈(150)에 유입되는 광량을 확인하여 확인된 광량이 기 설정된 값 이하인 경우, 광 조사부(110)를 동작시킬 수 있다. 즉, 제어부(160)는 제1 카메라 모듈(140) 및 제2 카메라 모듈(150)에 유입되는 광량이 기 설정된 값 이하인 경우, 광 조사부(110)이 적외선 광을 피사체에 조사하도록 제어할 수 있다.More specifically, the control unit 160 checks the amount of light entering the surrounding environment of the photographing apparatus 100, that is, the first camera module 140 and the second camera module 150, The irradiation unit 110 can be operated. That is, when the amount of light entering the first camera module 140 and the second camera module 150 is less than a preset value, the control unit 160 may control the light irradiation unit 110 to irradiate the infrared ray to the subject .

제어부(160)는 제1 카메라 모듈(140)이 획득한 제1 깊이 정보 및 제2 카메라 모듈(150)이 획득한 제2 깊이 정보를 보정할 수 있다.The control unit 160 may correct the first depth information acquired by the first camera module 140 and the second depth information acquired by the second camera module 150. [

제어부(160)는 는 보정된 제1 깊이 정보 및 제2 깊이 정보를 이용하여 제1 깊이 정보 및 제2 깊이 정보를 매칭시킬 수 있다.The controller 160 may match the first depth information and the second depth information using the corrected first depth information and the second depth information.

제어부(160)는 매칭된 제1 깊이 정보 및 제2 깊이 정보를 이용하여 깊이 지도(depth map)를 생성할 수 있다.The controller 160 may generate a depth map using the matched first depth information and the second depth information.

제어부(160)는 색상 정보를 통해 2차원 색상 영상을 획득하고, 획득한 2차원 색상 영상과 생성된 깊이 지도에 기초하여 합성 영상을 생성할 수 있다.The control unit 160 may acquire a two-dimensional color image through the color information, and may generate a composite image based on the obtained two-dimensional color image and the generated depth map.

제어부(160)는 생성된 합성 영상을 디스플레이부 또는 저장부에 출력할 수 있다. The control unit 160 may output the generated composite image to the display unit or the storage unit.

제어부(160)의 상세한 동작에 대해서는 후술한다.The detailed operation of the control unit 160 will be described later.

촬영 장치(100)는 상술한 구성요소 이외에도 제1 촬영 영상, 제2 촬영 영상 및 복원된 영상을 표시하기 위한 디스플레이부(미도시)를 더 포함할 수 있다.The photographing apparatus 100 may further include a display unit (not shown) for displaying the first photographing image, the second photographing image, and the restored image in addition to the above-described components.

도 7은 본 발명의 일 실시 예에 따른 촬영 장치의 동작 방법을 설명하기 위한 흐름도이다.7 is a flowchart illustrating an operation method of a photographing apparatus according to an embodiment of the present invention.

도 7을 참조하면, 촬영 장치(100)의 제1 카메라 모듈(140)은 제1 카메라 모듈( 140)에서 촬영된 제1 촬영 영상의 색상 정보 및 제1 깊이 정보를 획득한다( S101 ). 구체적으로, 제1 카메라 모듈(140)의 제1 센서(149)는 제1 렌즈(141)에 입사되는 광을 이용하여 획득한 제1 촬영 영상의 색상 정보 및 제1 깊이 정보를 획득할 수 있다. Referring to FIG. 7, the first camera module 140 of the photographing apparatus 100 acquires color information and first depth information of the first photographed image photographed by the first camera module 140 ( S101 ) . Specifically, the first sensor 149 of the first camera module 140 may acquire color information and first depth information of the first captured image obtained using the light incident on the first lens 141 .

일 실시 예에서 제1 센서(149)는 RGB 적외선(RGB IR) 센서일 수 있다. RGB IR 센서는 피사체의 색상을 획득하기 위해 사용되나, 피사체의 깊이 정보 또한 획득하기 위해 사용된다.In one embodiment, the first sensor 149 may be an RGB infrared (RGB) IR sensor. The RGB IR sensor is used to acquire the color of the subject, but it is also used to acquire the depth information of the subject.

RGB IR 센서는 피사체의 제1 깊이 정보를 일정 간격의 픽셀 단위로 획득할 수 있다. 일정 간격은 λ/4 픽셀 단위일 수 있으나, 이는 예시에 불과하다.The RGB IR sensor can acquire the first depth information of the subject in units of pixels at regular intervals. The constant interval may be? / 4 pixel unit, but this is only an example.

제1 센서(149)를 통해 획득한 색상 정보 및 제1 깊이 정보는 추후 분리될 수 있다. 분리된 색상 정보는 이미지 신호 처리(Image Signal Processing, ISP)를 통해 컬러 튜닝될 수 있고, 컬러 튜닝된 후에는 2차원 색상 영상으로 복원될 수 있다.The color information and the first depth information acquired through the first sensor 149 may be separated later. The separated color information can be color tuned through image signal processing (ISP) and can be restored to a two-dimensional color image after color tuning.

분리된 제1 깊이 정보는 후술될 제2 깊이 정보와 매칭되어 깊이 지도를 생성하는데 이용될 수 있다.The separated first depth information may be used to generate a depth map by matching with second depth information to be described later.

촬영 장치(100)의 제2 카메라 모듈(150)은 제2 카메라 모듈(150)에 입사되는 광을 통해 제2 촬영 영상의 제2 깊이 정보를 획득한다( S103 ). 구체적으로, 제2 카메라 모듈(150)의 제2 센서(159)는 제2 렌즈(151)에 입사되는 광을 이용하여 획득한 제2 촬영 영상의 제2 깊이 정보를 획득할 수 있다. The second camera module 150 of the photographing apparatus 100 acquires the second depth information of the second photographic image through the light incident on the second camera module 150 ( S103 ). Specifically, the second sensor 159 of the second camera module 150 can acquire the second depth information of the second captured image obtained using the light incident on the second lens 151.

일 실시 예에서 제2 센서(159)는 모노(mono) 센서일 수 있다. 모노 센서는 모든 픽셀이 동일한 휘도 정보를 가지므로 픽셀 단위의 정확한 디스패리티(disprarity)를 얻을 수 있어, 촬영 영상의 정확한 깊이 정보를 획득하기 위해 사용된다.In one embodiment, the second sensor 159 may be a mono sensor. Since the mono sensor has the same luminance information of all the pixels, accurate disparisity in pixel units can be obtained and used to acquire accurate depth information of the photographed image.

본 발명의 실시 예에서는 제1 카메라 모듈(140)에서 RGB IR 센서를 사용하고, 제2 카메라 모듈(150)에서 모노 센서를 사용하는데, 이는 제1 카메라 모듈(140) 및 제2 카메라 모듈(150)에서 동일하게 모노 센서를 사용하면, 픽셀 매칭에 있어 매우 방대한 연산량이 요구되기 때문이다. 즉, 방대한 연상량을 처리해야 하므로 비대한 하드웨어 구성으로 촬영 장치(100)의 단가가 상승하고, 구성이 복잡해지며, 피사체의 색상 정보를 획득할 수 없다. In the embodiment of the present invention, the first camera module 140 uses an RGB IR sensor and the second camera module 150 uses a mono sensor. This is because the first camera module 140 and the second camera module 150 ), The use of a mono sensor in the same manner requires a very large amount of computation for pixel matching. In other words, since it is necessary to process a large amount of mating quantity, the unit price of the photographing apparatus 100 is increased with the expensive hardware configuration, the configuration becomes complicated, and color information of the subject can not be obtained.

따라서, 본 발명의 실시 예에서는 피사체의 색상 정보와 깊이 정보를 획득하기 위해 제1 카메라 모듈(140)에서 피사체의 색상 정보와 깊이 정보를 모두 획득할 수 있는 RGB IR 센서를 이용하고, 제2 카메라 모듈(150)에서 피사체의 깊이 정보를 획득할 수 있는 모노 센서를 이용하는 것을 특징으로 한다.Therefore, in the embodiment of the present invention, an RGB IR sensor capable of acquiring color information and depth information of a subject in the first camera module 140 is used to acquire color information and depth information of a subject, A mono sensor capable of acquiring depth information of a subject in the module 150 is used.

단계 S101 및 단계 S103은 동시에 수행될 수 있다.Steps S101 and S103 may be performed simultaneously.

촬영 장치(100)의 제어부(160)는 획득한 제1 깊이 정보 및 제2 깊이 정보를 보정한다( S105 ). 구체적으로, 제어부(160)는 깊이 지도의 생성을 위해 제1 센서(149)를 통해 분리된 제1 깊이 정보 및 제2 센서(159)를 통해 획득한 제2 깊이 정보를 왜곡 보정(rectification) 할 수 있다. 더 구체적으로, 제어부(160)는 획득한 제1 깊이 정보에 대한 왜곡 보정을 수행하고, 동일한 왜곡 보정 방식으로 제2 깊이 정보에 대한 왜곡 보정을 수행할 수 있다. The controller 160 of the photographing apparatus 100 corrects the acquired first depth information and second depth information ( S105 ). Specifically, the control unit 160 rectifies the first depth information separated through the first sensor 149 and the second depth information acquired through the second sensor 159 to generate a depth map . More specifically, the controller 160 performs distortion correction on the acquired first depth information and distortion correction on the second depth information using the same distortion correction method.

일 실시 예에서 제어부(160)는 피사체와 촬영 장치(100) 간의 거리, 촬영 장치(100)의 내부 온도 및 깊이 보정 값을 룩업 테이블의 형태로 대응시킨 저장부를 포함할 수 있다. 제어부(160)는 제1 깊이 정보 및 제2 깊이 정보 각각을 상기 저장부에 저장된 룩업 테이블을 검색하여 왜곡 보정을 수행 할 수 있다. 이는, 피사체와 촬영 장치(100) 간의 거리, 촬영 장치(100)의 내부 온도는 항상 달라질 수 있으므로 피사체와 촬영 장치(100) 간의 거리, 촬영 장치(100)의 내부 온도에 따라 깊이 보정 값을 달리하여 보다 획득한 깊이 정보에 대한 정확한 보정을 행하기 위함이다. In one embodiment, the controller 160 may include a storage unit that associates the distance between the subject and the photographing apparatus 100, the internal temperature of the photographing apparatus 100, and the depth correction value in the form of a look-up table. The control unit 160 may perform distortion correction by searching the lookup table stored in the storage unit for each of the first depth information and the second depth information. This is because the distance between the subject and the photographing apparatus 100 and the internal temperature of the photographing apparatus 100 may be always different and therefore the depth correction value may be varied depending on the distance between the subject and the photographing apparatus 100 and the internal temperature of the photographing apparatus 100 Thereby correcting the acquired depth information more precisely.

촬영 장치(100)의 제어부(160)는 보정된 제1 깊이 정보 및 제2 깊이 정보를 이용하여 제1 깊이 정보 및 제2 깊이 정보를 매칭시킨다( S107 ). 일 실시 예에서 제어부(160)는 보정된 제1 깊이 정보를 보정된 제2 깊이 정보에 매칭시킬 수 있다. 구체적으로, 제어부(160)는 일정 간격의 픽셀 단위로 획득되어 보정된 제1 깊이 정보를 제2 깊이 정보에 매칭시킬 수 있다. The control unit 160 of the photographing apparatus 100 matches the first depth information and the second depth information using the corrected first depth information and the second depth information ( S107 ). In one embodiment, the controller 160 may match the corrected first depth information to the corrected second depth information. Specifically, the controller 160 may match the corrected first depth information to the second depth information, which are obtained in units of pixels at regular intervals.

촬영 장치(100)의 제어부(160)는 매칭된 제1 깊이 정보 및 제2 깊이 정보를 이용하여 깊이 지도( depth map )를 생성한다( S109 ). 생성된 깊이 지도는 촬영 장치(100)와 피사체 간의 거리를 식별하는데 사용될 수도 있고, 피사체의 색상 영상과 합성되어 합성 영상을 생성하는데 사용될 수도 있다. The controller 160 of the photographing apparatus 100 using the first depth information and the second depth information matching depth maps (depth map ( S109 ). The generated depth map may be used to identify the distance between the photographing apparatus 100 and the subject, or may be combined with the color image of the subject to generate a composite image.

촬영 장치(100)의 제어부(160)는 색상 정보를 통해 2차원 색상 영상을 획득하고, 획득한 2차원 색상 영상과 생성된 깊이 지도에 기초하여 합성 영상을 생성한다( S111 ). 즉, 제어부(160)는 제1 카메라 모듈(140)이 획득한 제1 촬영 영상의 색상 정보를 통해 2차원의 색상 영상을 획득하고, 2차원의 색상 영상과 깊이 지도를 이용하여 피사체의 합성 영상을 생성할 수 있다. The control unit 160 of the photographing apparatus 100 acquires a two-dimensional color image through the color information, and generates a composite image based on the obtained two-dimensional color image and the generated depth map ( S111 ). That is, the control unit 160 acquires a two-dimensional color image through the color information of the first captured image acquired by the first camera module 140, and generates a composite image of the subject using the two- Can be generated.

촬영 장치(100)의 제어부(160)는 생성된 합성 영상을 The control unit 160 of the photographing apparatus 100 outputs the generated composite image 디스플레이부Display portion 또는 저장부에 출력한다( Or outputs it to the storage unit ( S113S113 ).).

다음으로, 도 8 및 도 9를 참조하여, 본 발명의 일 실시 예에 따른 촬영 장치를 차량에 적용한 실시 예를 설명한다.Next, an embodiment in which the photographing apparatus according to an embodiment of the present invention is applied to a vehicle will be described with reference to Figs. 8 and 9. Fig.

먼저, 도 8을 참조하면, 본 발명의 실시 예에 따른 촬영 장치(100)는 차량 앞 좌석의 상단에 배치될 수 있다. 구체적으로, 촬영 장치(100)는 차량의 윈드 쉴드(windshield, 300)와 접촉하여 배치되어 차량의 전방에 있는 피사체를 촬영할 수 있다. 8, the photographing apparatus 100 according to the embodiment of the present invention may be disposed at the top of the front seat of the vehicle. Specifically, the photographing apparatus 100 can be placed in contact with a windshield 300 of a vehicle to photograph a subject in front of the vehicle.

차량에는 촬영 장치(100)에서 방출하는 광의 방향을 조절하기 위한 광 쉴드부(400)가 더 배치될 수 있다. 광 쉴드부(400)는 윈드 쉴드(300)와 촬영 장치(100) 각각에 접촉하여 배치될 수 있다.The vehicle may further include an optical shield unit 400 for adjusting the direction of light emitted from the photographing apparatus 100. The optical shield section 400 may be disposed in contact with the windshield 300 and the photographing apparatus 100, respectively.

그러나, 도 8과 같은 구조는 차량의 윈드 쉴드(300)와 광 쉴드부(400)의 상호반사작용으로 인해 외부에서 유입되는 외부 광이 촬영 장치(100)로 유입되어 촬영 장치(100)가 차량 전방에 있는 피사체의 영상을 제대로 복원하기 어려운 문제가 있다. 이에 도 9와 같이, 광 쉴드부(400)의 배치를 변경 가능하게 하는 구조를 취하면, 촬영 장치(100)에 유입되는 외부 광을 감소시킬 수 있다.However, the structure as shown in FIG. 8 differs from the structure shown in FIG. 8 in that external light introduced from the outside flows into the photographing apparatus 100 due to mutual reflection action of the windshield 300 of the vehicle and the light shielding section 400, There is a problem that it is difficult to properly restore the image of the subject in front. As shown in FIG. 9, if the arrangement of the optical shield section 400 is changeable, external light introduced into the photographing apparatus 100 can be reduced.

도 9를 참조하면, 광 쉴드부(500)는 수평선(A)과 윈드 쉴드(300)를 기준으로 0도 또는 수평선(A)을 기준으로 윈드 쉴드(300)의 반대방향으로 소정의 각도(θ)를 갖도록 배치될 수 있다. 광 쉴드부(500)는 특정방향으로의 반사를 최소화하기 위해 계단 형상의 난반사 재질이 사용될 수 있다.9, the optical shield part 500 is disposed at a predetermined angle (?) In the direction opposite to the windshield 300 with respect to the horizontal line A and the windshield 300, ). ≪ / RTI > The optical shield portion 500 may be formed of a step-like diffusely reflecting material to minimize reflection in a specific direction.

수평선(A)을 기준으로 윈드 쉴드(300)와 소정의 각도를 갖는 광 쉴드부(500)로 인해 외부 광이 촬영 장치(100)로 유입되는 것이 최소화되어 촬영 장치(100)는 차량의 전방에 위치한 피사체의 영상을 정확히 획득할 수 있다. 특히, 촬영 장치(100)는 차량의 전방에 위치한 다른 차량과의 거리를 깊이 정보를 통해 정확히 획득할 수 있다.The external light is minimally introduced into the photographing apparatus 100 due to the light shielding section 500 having a predetermined angle with the windshield 300 on the basis of the horizontal line A so that the photographing apparatus 100 is located in front of the vehicle It is possible to accurately acquire an image of a subject located on the screen. In particular, the photographing apparatus 100 can accurately obtain the distance to another vehicle located in front of the vehicle through the depth information.

본 발명의 일 실시 예에 의하면, 전술한 방법은, 프로그램이 기록된 매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.According to an embodiment of the present invention, the above-described method can be implemented as a code readable by a processor on a medium on which a program is recorded. Examples of the medium that can be read by the processor include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, etc., and may be implemented in the form of a carrier wave (e.g., transmission over the Internet) .

상기와 같이 설명된 이동 단말기는 상기 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The mobile terminal described above can be applied to not only the configuration and method of the embodiments described above but also all or some of the embodiments may be selectively combined so that various modifications may be made to the embodiments It is possible.

Claims (15)

촬영 장치의 동작 방법에 있어서,
상기 촬영 장치의 제1 카메라 모듈을 통해 피사체의 제1 촬영 영상을 획득하여 상기 제1 촬영 영상의 색상 정보 및 제1 깊이 정보를 획득하는 단계;
상기 촬영 장치의 제2 카메라 모듈을 통해 상기 피사체의 제2 촬영 영상을 획득하여 상기 제2 촬영 영상의 제2 깊이 정보를 획득하는 단계;
상기 제1 깊이 정보를 상기 제2 깊이 정보에 매칭시켜 깊이 지도를 생성하는 단계; 및
상기 색상 정보 및 상기 깊이 지도에 기초하여 상기 피사체의 합성 영상을 생성하는 단계를 포함하는
촬영 장치의 동작 방법.
A method of operating a photographing apparatus,
Acquiring a first captured image of a subject through the first camera module of the photographing apparatus to obtain color information and first depth information of the first captured image;
Acquiring a second captured image of the subject through the second camera module of the photographing device to obtain second depth information of the second captured image;
Matching the first depth information with the second depth information to generate a depth map; And
And generating a composite image of the subject based on the color information and the depth map
A method of operating a photographing apparatus.
제1항에 있어서,
상기 획득한 제1 깊이 정보 및 상기 획득한 제2 깊이 정보를 왜곡 보정하는 단계를 더 포함하고,
상기 매칭시키는 단계는
상기 왜곡 보정된 상기 제1 깊이 정보를 상기 왜곡 보정된 상기 제2 깊이 정보에 매칭시키는 단계를 포함하는
촬영 장치의 동작 방법.
The method according to claim 1,
Further comprising distortion correcting the obtained first depth information and the obtained second depth information,
The matching step
And matching the distortion-corrected first depth information to the distortion-corrected second depth information
A method of operating a photographing apparatus.
제2항에 있어서,
상기 왜곡 보정하는 단계는
상기 피사체와 상기 촬영 장치 간의 거리, 상기 촬영 장치의 내부 온도 및 깊이 보정 값을 이용하여 상기 제1 깊이 정보 및 제2 깊이 정보 각각을 왜곡 보정하는 단계를 포함하는
촬영 장치의 동작 방법.
3. The method of claim 2,
The distortion correction step
Correcting each of the first depth information and the second depth information using a distance between the subject and the photographing apparatus, an internal temperature of the photographing apparatus, and a depth correction value,
A method of operating a photographing apparatus.
제1항에 있어서,
상기 제1 촬영 영상의 색상 정보 및 제1 깊이 정보는 상기 촬영 장치의 RGB 적외선 센서를 통해 획득되고,
상기 제2 촬영 영상의 제2 깊이 정보는 모노 센서를 통해 획득되는
촬영 장치의 동작 방법.
The method according to claim 1,
The color information and the first depth information of the first captured image are acquired through the RGB infrared sensor of the photographing apparatus,
The second depth information of the second captured image is acquired through a mono sensor
A method of operating a photographing apparatus.
제1항에 있어서,
상기 촬영 장치에 유입되는 광량이 기 설정된 값 이하 인 경우, 적외선 광을 상기 피사체에 조사하는 단계를 더 포함하는
촬영 장치의 동작 방법.
The method according to claim 1,
And irradiating the subject with infrared light when the amount of light entering the photographing apparatus is less than a predetermined value
A method of operating a photographing apparatus.
촬영 장치에 있어서,
피사체의 제1 촬영 영상을 획득하여 상기 제1 촬영 영상의 색상 정보 및 제1 깊이 정보를 획득하는 제1 카메라 모듈;
상기 촬영 장치의 제2 카메라 모듈을 통해 상기 피사체의 제2 촬영 영상을 획득하여 상기 제2 촬영 영상의 제2 깊이 정보를 획득하는 제2 카메라 모듈; 및
상기 제1 깊이 정보를 상기 제2 깊이 정보에 매칭시켜 깊이 지도를 생성하고, 상기 색상 정보 및 상기 깊이 지도에 기초하여 상기 피사체의 합성 영상을 생성하는 제어부를 포함하는
촬영 장치.
In a photographing apparatus,
A first camera module for acquiring a first captured image of a subject to acquire color information and first depth information of the first captured image;
A second camera module for acquiring a second captured image of the subject through the second camera module of the photographing device and acquiring second depth information of the second captured image; And
And a control unit for generating a depth map by matching the first depth information with the second depth information and generating a composite image of the subject based on the color information and the depth map
Shooting device.
제6항에 있어서,
상기 제어부는
상기 획득한 제1 깊이 정보 및 상기 획득한 제2 깊이 정보를 왜곡 보정하고, 상기 왜곡 보정된 상기 제1 깊이 정보를 상기 왜곡 보정된 상기 제2 깊이 정보에 매칭시켜 상기 깊이 지도를 생성하는
촬영 장치.
The method according to claim 6,
The control unit
Distortion-correcting the obtained first depth information and the obtained second depth information, and generating the depth map by matching the distortion-corrected first depth information with the distortion-corrected second depth information
Shooting device.
제7항에 있어서,
상기 제어부는
상기 피사체와 상기 촬영 장치 간의 거리, 상기 촬영 장치의 내부 온도 및 깊이 보정 값을 이용하여 상기 제1 깊이 정보 및 제2 깊이 정보 각각을 왜곡 보정하는
촬영 장치.
8. The method of claim 7,
The control unit
Corrects each of the first depth information and the second depth information using a distance between the subject and the photographing apparatus, an internal temperature of the photographing apparatus, and a depth correction value
Shooting device.
제6항에 있어서,
상기 제1 카메라 모듈은
상기 제1 촬영 영상의 색상 정보 및 제1 깊이 정보를 획득하기 위한 RGB 적외선 센서를 포함하고,
상기 제2 카메라 모듈은
상기 제2 촬영 영상의 제2 깊이 정보를 획득하기 위한 모노 센서를 포함하는
촬영 장치.
The method according to claim 6,
The first camera module
And an RGB infrared sensor for acquiring color information and first depth information of the first captured image,
The second camera module
And a mono sensor for acquiring second depth information of the second captured image
Shooting device.
제6항에 있어서,
상기 촬영 장치에 유입되는 광량이 기 설정된 값 이하 인 경우, 적외선 광을 상기 피사체에 조사하는 광 조사부를 더 포함하는
촬영 장치.
The method according to claim 6,
And a light irradiation unit for irradiating the subject with infrared light when the amount of light entering the photographing apparatus is less than a preset value
Shooting device.
제10항에 있어서,
상기 광 조사부에서 조사되는 광의 분포를 조절하기 위한 중앙 렌즈부를 더 포함하는
촬영 장치.
11. The method of claim 10,
And a central lens unit for adjusting the distribution of light emitted from the light irradiation unit
Shooting device.
제10항에 있어서,
상기 광 조사부의 일측에 배치되어 상기 광 조사부에서 발생되는 열을 방출시키는 방열부를 더 포함하는
촬영 장치.
11. The method of claim 10,
And a heat dissipation unit disposed on one side of the light irradiation unit and emitting heat generated in the light irradiation unit
Shooting device.
제6항에 있어서,
상기 제1 카메라 모듈은
상기 피사체로부터 반사된 광을 수신하는 제1 렌즈와
상기 제1 렌즈를 통과하는 광량을 조절하기 위한 제1 조리개를 포함하고,
상기 제2 카메라 모듈은
상기 피사체로부터 반사된 광을 수신하는 제2 렌즈와
상기 제2 렌즈를 통과하는 광량을 조절하기 위한 제2 조리개를 포함하는
촬영 장치.
The method according to claim 6,
The first camera module
A first lens for receiving the light reflected from the subject;
And a first diaphragm for adjusting an amount of light passing through the first lens,
The second camera module
A second lens for receiving light reflected from the subject;
And a second diaphragm for adjusting an amount of light passing through the second lens
Shooting device.
제13항에 있어서,
상기 제1 조리개 및 상기 제2 조리개는
상기 제1 렌즈 및 상기 제2 렌즈 각각에 유입되는 광량에 따라 크기가 동시에 조절되는
촬영 장치.
14. The method of claim 13,
The first diaphragm and the second diaphragm
The magnitude of which is adjusted according to the amount of light entering the first lens and the second lens, respectively
Shooting device.
제10항에 있어서,
상기 제1 카메라 모듈은
상기 광 조사부가 적외선 광을 조사하는지 여부에 따라 가시광을 차단하는 제1 가시광 차단부를 더 포함하고,
상기 제2 카메라 모듈은
상기 광 조사부가 적외선 광을 조사하는지 여부에 따라 가시광을 차단하는 제2 가시광 차단부를 더 포함하는
촬영 장치.
11. The method of claim 10,
The first camera module
Further comprising a first visible light blocking unit for blocking visible light depending on whether the light irradiation unit irradiates infrared light,
The second camera module
And a second visible light blocking unit for blocking visible light depending on whether the light irradiation unit irradiates infrared light
Shooting device.
KR20130108887A 2013-09-11 2013-09-11 Photographing device and operating method thereof Withdrawn KR20150029897A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20130108887A KR20150029897A (en) 2013-09-11 2013-09-11 Photographing device and operating method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20130108887A KR20150029897A (en) 2013-09-11 2013-09-11 Photographing device and operating method thereof

Publications (1)

Publication Number Publication Date
KR20150029897A true KR20150029897A (en) 2015-03-19

Family

ID=53024124

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20130108887A Withdrawn KR20150029897A (en) 2013-09-11 2013-09-11 Photographing device and operating method thereof

Country Status (1)

Country Link
KR (1) KR20150029897A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016153224A1 (en) * 2015-03-20 2016-09-29 엘지전자 주식회사 Autonomous calibration device for vehicles and vehicle having same
KR101673000B1 (en) * 2015-11-11 2016-11-07 공간정보기술 주식회사 System for improvement of subject outline using 3-lens stereo image
WO2017051975A1 (en) * 2015-09-22 2017-03-30 엘지전자 주식회사 Mobile terminal and control method therefor
WO2017090848A1 (en) * 2015-11-23 2017-06-01 Samsung Electronics Co., Ltd. Photographing device and operating method of the same
US10136110B2 (en) 2015-10-21 2018-11-20 Samsung Electronics Co., Ltd. Low-light image quality enhancement method for image processing device and method of operating image processing system performing the method
WO2018216937A1 (en) * 2017-05-23 2018-11-29 삼성전자 주식회사 Method and device for image processing using dual image sensor
WO2024034837A1 (en) * 2022-08-09 2024-02-15 삼성전자주식회사 Electronic device and method for acquiring depth map
US12452505B2 (en) 2021-05-27 2025-10-21 Samsung Electronics Co., Ltd. Electronic device comprising a plurality of imaging optical systems

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016153224A1 (en) * 2015-03-20 2016-09-29 엘지전자 주식회사 Autonomous calibration device for vehicles and vehicle having same
WO2017051975A1 (en) * 2015-09-22 2017-03-30 엘지전자 주식회사 Mobile terminal and control method therefor
US10291833B2 (en) 2015-09-22 2019-05-14 Lg Electronics Inc. Mobile terminal for image capturing and method for controlling the same
US10136110B2 (en) 2015-10-21 2018-11-20 Samsung Electronics Co., Ltd. Low-light image quality enhancement method for image processing device and method of operating image processing system performing the method
KR101673000B1 (en) * 2015-11-11 2016-11-07 공간정보기술 주식회사 System for improvement of subject outline using 3-lens stereo image
WO2017090848A1 (en) * 2015-11-23 2017-06-01 Samsung Electronics Co., Ltd. Photographing device and operating method of the same
WO2018216937A1 (en) * 2017-05-23 2018-11-29 삼성전자 주식회사 Method and device for image processing using dual image sensor
US11277572B2 (en) 2017-05-23 2022-03-15 Samsung Electronics Co., Ltd. Method and device for composing an image based on data detected by first and second image sensor
US12452505B2 (en) 2021-05-27 2025-10-21 Samsung Electronics Co., Ltd. Electronic device comprising a plurality of imaging optical systems
WO2024034837A1 (en) * 2022-08-09 2024-02-15 삼성전자주식회사 Electronic device and method for acquiring depth map

Similar Documents

Publication Publication Date Title
US12219119B2 (en) Time-of-flight camera system
KR20150029897A (en) Photographing device and operating method thereof
US9344705B2 (en) Time of flight camera with rectangular field of illumination
US9514378B2 (en) Space-time modulated active 3D imager
US9560345B2 (en) Camera calibration
EP2451150B1 (en) Color sensor insensitive to distance variations
US10349037B2 (en) Structured-stereo imaging assembly including separate imagers for different wavelengths
US11610339B2 (en) Imaging processing apparatus and method extracting a second RGB ToF feature points having a correlation between the first RGB and TOF feature points
US20150341619A1 (en) Method and system for light patterning and imaging
JP5966467B2 (en) Ranging device
US20140055565A1 (en) 3-dimensional image acquisition apparatus and 3d image acquisition method for simultaneously obtaining color image and depth image
US12069227B2 (en) Multi-modal and multi-spectral stereo camera arrays
US10055881B2 (en) Video imaging to assess specularity
CN104935790A (en) Imaging system
CN107783353A (en) Device and system for capturing stereoscopic images
JP2013124985A (en) Compound-eye imaging apparatus and distance measuring device
KR20150109187A (en) Structured light system
CN107392955B (en) Depth of field estimation device and method based on brightness
US20240337751A1 (en) Imaging device and imaging method
KR20230080941A (en) Three dimensional distance measuring device
JP2011109237A (en) Information processor, information processing method, and electronic apparatus

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20130911

PG1501 Laying open of application
PC1203 Withdrawal of no request for examination
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid