[go: up one dir, main page]

KR102858186B1 - Camera module - Google Patents

Camera module

Info

Publication number
KR102858186B1
KR102858186B1 KR1020190116065A KR20190116065A KR102858186B1 KR 102858186 B1 KR102858186 B1 KR 102858186B1 KR 1020190116065 A KR1020190116065 A KR 1020190116065A KR 20190116065 A KR20190116065 A KR 20190116065A KR 102858186 B1 KR102858186 B1 KR 102858186B1
Authority
KR
South Korea
Prior art keywords
unit
phase
light
light emitting
optical signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020190116065A
Other languages
Korean (ko)
Other versions
KR20210034301A (en
Inventor
박강열
김석현
주양현
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Priority to KR1020190116065A priority Critical patent/KR102858186B1/en
Publication of KR20210034301A publication Critical patent/KR20210034301A/en
Application granted granted Critical
Publication of KR102858186B1 publication Critical patent/KR102858186B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

본 발명의 실시예에 따른 카메라 모듈은 객체에 광신호를 출력하는 발광부; 상기 발광부로부터 출력되어 상기 객체에 반사된 광신호를 집광하는 수광부; 상기 수광부에 의해 집광된 광신호를 수신하는 센서부; 및 상기 발광부의 출력 위상 및 상기 센서부의 수신 위상 중 적어도 하나를 시프트시키도록 상기 발광부 및 상기 센서부 중 적어도 하나를 제어하는 제어부를 포함한다. A camera module according to an embodiment of the present invention includes a light emitting unit that outputs an optical signal to an object; a light receiving unit that collects an optical signal output from the light emitting unit and reflected by the object; a sensor unit that receives the optical signal collected by the light receiving unit; and a control unit that controls at least one of the light emitting unit and the sensor unit to shift at least one of an output phase of the light emitting unit and a reception phase of the sensor unit.

Description

카메라 모듈{CAMERA MODULE} Camera Module {CAMERA MODULE}

실시 예는 카메라 모듈에 관한 것이다. The embodiment relates to a camera module.

3 차원 콘텐츠는 게임, 문화뿐만 아니라 교육, 제조, 자율주행 등 많은 분야에서 적용되고 있으며, 3차원 콘텐츠를 획득하기 위하여 깊이 정보(Depth Map)가 필요하다. 깊이 정보는 공간 상의 거리를 나타내는 정보이며, 2차원 영상의 한 지점에 대하여 다른 지점의 원근 정보를 나타낸다. 3D content is being applied in many fields, including gaming, culture, education, manufacturing, and autonomous driving. Depth information (depth maps) are required to acquire 3D content. Depth information represents spatial distance and provides perspective information for one point in a 2D image relative to another.

깊이 정보를 획득하는 방법으로, IR(Infrared) 구조광을 객체에 투사하는 방식, 스테레오 카메라를 이용하는 방식, TOF(Time of Flight) 방식 등이 이용되고 있다. TOF 방식에 따르면, 비행 시간, 즉 빛을 쏘아서 반사되어 오는 시간을 측정함으로써 물체와의 거리를 계산한다. ToF 방식의 가장 큰 장점은 3차원 공간에 대한 거리정보를 실시간으로 빠르게 제공한다는 점에 있다. 또한 사용자가 별도의 알고리즘 적용이나 하드웨어적 보정을 하지 않고도 정확한 거리 정보를 얻을 수 있다. 또한 매우 가까운 피사체를 측정하거나 움직이는 피사체를 측정하여도 정확한 깊이 정보를 획득할 수 있다. Methods for acquiring depth information include projecting IR (Infrared) structured light onto an object, using stereo cameras, and the Time of Flight (TOF) method. According to the TOF method, the distance to an object is calculated by measuring the time of flight, or the time it takes for light to be emitted and reflected. The greatest advantage of the ToF method is that it provides distance information for three-dimensional space quickly and in real time. Furthermore, users can obtain accurate distance information without applying separate algorithms or hardware corrections. Furthermore, accurate depth information can be obtained even when measuring very close or moving subjects.

이에 따라, TOF 방식을 생체 인증에 이용하고자 하는 시도가 있다. 예를 들어, 손가락 등에 퍼진 정맥의 모양은 태아 때부터 일생 동안 변하지 않고, 사람마다 다르다고 알려져 있다. 이에 따라, TOF 기능이 탑재된 카메라 장치를 이용하여 정맥 패턴을 식별할 수 있다. 이를 위하여, 손가락을 촬영한 후, 손가락의 색과 형상을 기반으로 배경을 제거하여 각 손가락을 검출할 수 있으며, 검출된 각 손가락의 색 정보로부터 각 손가락의 정맥 패턴을 추출할 수 있다. 즉, 손가락의 평균 색깔, 손가락에 분포된 정맥의 색깔, 및 손가락에 있는 주름의 색깔은 서로 상이할 수 있다. 예를 들어, 손가락에 분포된 정맥의 색깔은 손가락의 평균 색깔에 비하여 적색이 약할 수 있으며, 손가락에 있는 주름의 색깔은 손가락의 평균 색깔에 비하여 어두울 수 있다. 이러한 특징을 이용하여 픽셀 별로 정맥에 근사한 값을 계산할 수 있으며, 계산한 결과를 이용하여 정맥 패턴을 추출할 수 있다. 그리고 추출된 각 손가락의 정맥 패턴과 미리 등록된 데이터를 대비하여 개인을 식별할 수 있다. Accordingly, there are attempts to utilize the TOF method for biometric authentication. For example, it is known that the shape of the veins on the fingers, etc., does not change from fetal age throughout life and varies from person to person. Therefore, vein patterns can be identified using a camera device equipped with TOF functionality. To do this, after photographing a finger, the background can be removed based on the color and shape of the finger to detect each finger. The vein pattern for each finger can be extracted from the color information of each finger. Specifically, the average finger color, the color of the veins distributed on the finger, and the color of the wrinkles on the finger can differ. For example, the color of the veins distributed on the finger may be less red than the average finger color, and the color of the wrinkles on the finger may be darker than the average finger color. These characteristics can be used to calculate a value approximating the veins for each pixel, and the calculated results can be used to extract the vein pattern. Furthermore, the extracted vein pattern for each finger can be compared with pre-registered data to identify the individual.

다만, TOF 기능이 탑재된 카메라 장치의 경우 빛을 출력하는 광원 수단이 더 구비되어 있으므로 전력의 소모가 크다. 이러한 문제점은 시프트 단말과 같이 배터리 용량이 한정적인 단말 장치에서 크게 나타날 수 있다. 따라서, 전력 효율을 높일 수 있는 ToF 카메라 장치의 개발이 요구된다. However, camera devices equipped with TOF functionality require additional light sources, resulting in significant power consumption. This issue can be particularly pronounced in devices with limited battery capacity, such as Shift devices. Therefore, the development of ToF camera devices that can improve power efficiency is required.

본 발명이 이루고자 하는 기술적 과제는 전력 효율이 높은 카메라 모듈을 제공하는데 있다. The technical problem to be solved by the present invention is to provide a camera module with high power efficiency.

본 발명의 실시예에 따른 카메라 모듈은 객체에 광신호를 출력하는 발광부; 상기 발광부로부터 출력되어 상기 객체에 반사된 광신호를 집광하는 수광부; 상기 수광부에 의해 집광된 광신호를 수신하는 센서부; 및 상기 발광부의 출력 위상 및 상기 센서부의 수신 위상 중 적어도 하나를 시프트시키도록 상기 발광부 및 상기 센서부 중 적어도 하나를 제어하는 제어부를 포함한다. A camera module according to an embodiment of the present invention includes a light emitting unit that outputs an optical signal to an object; a light receiving unit that collects an optical signal output from the light emitting unit and reflected by the object; a sensor unit that receives the optical signal collected by the light receiving unit; and a control unit that controls at least one of the light emitting unit and the sensor unit to shift at least one of an output phase of the light emitting unit and a reception phase of the sensor unit.

상기 광신호의 듀티비는, 0%보다 크고 25%보다 작은 범위 내에서 설정될 수 있다. The duty ratio of the above optical signal can be set within a range greater than 0% and less than 25%.

상기 제어부는, 상기 발광부 또는 상기 센서부를 복수의 시퀀스에 따라 제어하고, 상기 복수의 시퀀스는, 기준 위상에 대응하는 제1 시퀀스 및 상기 기준 위상으로부터 소정의 위상만큼 시프트된 제2 시퀀스를 포함할 수 있다. The control unit controls the light emitting unit or the sensor unit according to a plurality of sequences, and the plurality of sequences may include a first sequence corresponding to a reference phase and a second sequence shifted by a predetermined phase from the reference phase.

상기 복수의 시퀀스 각각은, 서로 다른 위상에 대응할 수 있다. Each of the above plurality of sequences can correspond to a different phase.

상기 제1 시퀀스에 대응하는 광신호의 노출 주기는, 상기 제2 시퀀스에 대응하는 광신호의 노출 주기보다 작을 수 있다. The exposure period of the optical signal corresponding to the first sequence may be shorter than the exposure period of the optical signal corresponding to the second sequence.

상기 제어부는, 상기 제1 시퀀스에 대응하여 생성된 영상 신호에 기초하여 상기 제2 시퀀스의 위상을 설정할 수 있다. The control unit can set the phase of the second sequence based on the image signal generated corresponding to the first sequence.

상기 제어부는, 상기 복수의 시퀀스 각각이 하나의 영상 프레임에 대응하는 노출주기 동안 수행될 수 있다. The above control unit can be configured to perform each of the plurality of sequences during an exposure cycle corresponding to one image frame.

상기 제어부는, 상기 제1 시퀀스에 대응하여 생성된 영상 신호에 기초하여 상기 센서부의 각 픽셀 별로 상기 광신호에 대한 복조 신호의 위상을 시프트시키도록 상기 센서부를 제어할 수 있다. The control unit can control the sensor unit to shift the phase of the demodulation signal for the optical signal for each pixel of the sensor unit based on the image signal generated in response to the first sequence.

상기 복수의 시퀀스에 대응하는 복수의 영상 신호를 이용하여 깊이 영상을 생성하는 영상 처리부를 더 포함할 수 있다. It may further include an image processing unit that generates a depth image using a plurality of image signals corresponding to the plurality of sequences.

본 발명의 일 실시예에 따르면, 카메라 모듈의 전력 효율을 높일 수 있다. According to one embodiment of the present invention, the power efficiency of a camera module can be increased.

또한, 적은 전력을 사용하더라도 객체에 대한 정확한 거리 정보를 측정할 수 있다. Additionally, it can measure accurate distance information about objects even when using little power.

도 1은 본 발명의 실시예에 따른 카메라 모듈의 구성도이다.
도 2는 본 발명의 실시예에 따른 발광부의 구성도이다.
도 3는 본 발명의 실시예에 따른 수광부를 설명하기 위한 도면이다.
도 4는 본 발명의 실시예에 따른 센서부를 설명하기 위한 도면이다.
도 5은 본 발명의 실시예에 따른 전기 신호 생성 과정을 설명하기 위한 도면이다.
도 6은 본 발명의 실시예에 따른 서브 프레임 영상을 설명하기 위한 도면이다.
도 7은 본 발명의 실시예에 따른 깊이 영상을 설명하기 위한 도면이다.
도 8는 본 발명의 실시예에 따른 ToF IR 영상을 설명하기 위한 도면이다.
도 9는 본 발명의 실시예에 따른 발광부의 광신호를 설명하기 위한 도면이다.
도 10은 본 발명의 실시예에 따른 발광부의 광신호에 따른 측정 가능한 위상 영역을 나타낸 도면이다.
도 11은 본 발명의 실시예에 따른 발광부의 출력 위상 시프트를 설명하기 위한 도면이다.
도 12는 본 발명의 실시예에 따른 센서부의 수신 위상 시프트를 설명하기 위한 도면이다.
도 13은 본 발명의 실시예에 따른 위상별 측정 가능 영역을 설명하기 위한 도면이다.
도 14는 본 발명의 실시예에 따른 제어부의 시프트 위상 설정의 일 실시예를 설명하기 위한 도면이다.
Figure 1 is a configuration diagram of a camera module according to an embodiment of the present invention.
Figure 2 is a configuration diagram of a light emitting unit according to an embodiment of the present invention.
Fig. 3 is a drawing for explaining a light receiving unit according to an embodiment of the present invention.
Figure 4 is a drawing for explaining a sensor unit according to an embodiment of the present invention.
FIG. 5 is a drawing for explaining an electric signal generation process according to an embodiment of the present invention.
FIG. 6 is a drawing for explaining a sub-frame image according to an embodiment of the present invention.
FIG. 7 is a drawing for explaining a depth image according to an embodiment of the present invention.
FIG. 8 is a drawing for explaining a ToF IR image according to an embodiment of the present invention.
Fig. 9 is a drawing for explaining an optical signal of a light emitting unit according to an embodiment of the present invention.
FIG. 10 is a diagram showing a measurable phase region according to an optical signal of a light emitting unit according to an embodiment of the present invention.
Fig. 11 is a drawing for explaining the output phase shift of a light emitting unit according to an embodiment of the present invention.
Fig. 12 is a drawing for explaining the reception phase shift of the sensor unit according to an embodiment of the present invention.
Fig. 13 is a drawing for explaining a phase-specific measurable area according to an embodiment of the present invention.
FIG. 14 is a drawing for explaining one embodiment of shift phase setting of a control unit according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다.Hereinafter, a preferred embodiment of the present invention will be described in detail with reference to the attached drawings.

다만, 본 발명의 기술 사상은 설명되는 일부 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 기술 사상 범위 내에서라면, 실시 예들간 그 구성 요소들 중 하나 이상을 선택적으로 결합, 치환하여 사용할 수 있다.However, the technical idea of the present invention is not limited to some of the embodiments described, but can be implemented in various different forms, and within the scope of the technical idea of the present invention, one or more of the components between the embodiments can be selectively combined or substituted for use.

또한, 본 발명의 실시예에서 사용되는 용어(기술 및 과학적 용어를 포함)는, 명백하게 특별히 정의되어 기술되지 않는 한, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 일반적으로 이해될 수 있는 의미로 해석될 수 있으며, 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미를 고려하여 그 의미를 해석할 수 있을 것이다.In addition, terms (including technical and scientific terms) used in the embodiments of the present invention may be interpreted as having a meaning that can be generally understood by a person of ordinary skill in the technical field to which the present invention belongs, unless explicitly and specifically defined and described, and terms that are commonly used, such as terms defined in a dictionary, may be interpreted in consideration of the contextual meaning of the relevant technology.

또한, 본 발명의 실시예에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다.Additionally, the terms used in the embodiments of the present invention are intended to describe the embodiments and are not intended to limit the present invention.

본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함할 수 있고, "A 및(와) B, C 중 적어도 하나(또는 한 개 이상)"로 기재되는 경우 A, B, C로 조합할 수 있는 모든 조합 중 하나 이상을 포함할 수 있다.In this specification, the singular may also include the plural unless specifically stated otherwise in the phrase, and when it is described as “A and/or at least one (or more) of B, C”, it may include one or more of all combinations that can be combined with A, B, C.

또한, 본 발명의 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다.Additionally, in describing components of embodiments of the present invention, terms such as first, second, A, B, (a), (b), etc. may be used.

이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등으로 한정되지 않는다.These terms are intended only to distinguish one component from another, and are not intended to limit the nature, order, or sequence of the component.

그리고, 어떤 구성 요소가 다른 구성요소에 '연결', '결합' 또는 '접속'된다고 기재된 경우, 그 구성 요소는 그 다른 구성 요소에 직접적으로 연결, 결합 또는 접속되는 경우뿐만 아니라, 그 구성 요소와 그 다른 구성 요소 사이에 있는 또 다른 구성 요소로 인해 '연결', '결합' 또는 '접속' 되는 경우도 포함할 수 있다.And, when a component is described as being 'connected', 'coupled' or 'connected' to another component, it may include not only cases where the component is directly connected, coupled or connected to the other component, but also cases where the component is 'connected', 'coupled' or 'connected' by another component between the component and the other component.

또한, 각 구성 요소의 "상(위) 또는 하(아래)"에 형성 또는 배치되는 것으로 기재되는 경우, 상(위) 또는 하(아래)는 두 개의 구성 요소들이 서로 직접 접촉되는 경우뿐만 아니라 하나 이상의 또 다른 구성 요소가 두 개의 구성 요소들 사이에 형성 또는 배치되는 경우도 포함한다. 또한, "상(위) 또는 하(아래)"으로 표현되는 경우 하나의 구성 요소를 기준으로 위쪽 방향뿐만 아니라 아래쪽 방향의 의미도 포함할 수 있다. Additionally, when described as being formed or arranged "above or below" each component, "above" or "below" includes not only cases where the two components are in direct contact with each other, but also cases where one or more other components are formed or arranged between the two components. Furthermore, when expressed as "above" or "below", it can include the meaning of a downward direction as well as an upward direction based on one component.

도 1은 본 발명의 실시예에 따른 카메라 모듈의 구성도이다. Figure 1 is a configuration diagram of a camera module according to an embodiment of the present invention.

본 발명의 실시예에 따른 카메라 모듈(100)은 카메라 장치, ToF(Time of Flight) 카메라 모듈, ToF 카메라 장치 등으로 명명될 수 있다. The camera module (100) according to an embodiment of the present invention may be named a camera device, a ToF (Time of Flight) camera module, a ToF camera device, etc.

본 발명의 실시예에 따른 카메라 모듈(100)은 광학기기에 포함될 수 있다. 광학기기는 핸드폰, 휴대폰, 스마트폰(smart phone), 휴대용 스마트 기기, 디지털 카메라, 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player) 및 내비게이션(navigation) 중 어느 하나를 포함할 수 있다. 다만, 광학기기의 종류가 이에 제한되는 것은 아니며 영상 또는 사진을 촬영하기 위한 어떠한 장치도 광학기기에 포함될 수 있다.The camera module (100) according to an embodiment of the present invention may be included in an optical device. The optical device may include any one of a mobile phone, a cell phone, a smart phone, a portable smart device, a digital camera, a laptop computer, a digital broadcasting terminal, a PDA (Personal Digital Assistant), a PMP (Portable Multimedia Player), and a navigation device. However, the type of the optical device is not limited thereto, and any device for taking images or photographs may be included in the optical device.

도 1을 참조하면, 본 발명의 실시예에 따른 카메라 모듈(100)은 발광부(110), 수광부(120), 센서부(130) 및 제어부(140)를 포함하며, 영상 처리부(150) 및 틸트부(160)를 더 포함할 수 있다. Referring to FIG. 1, a camera module (100) according to an embodiment of the present invention includes a light emitting unit (110), a light receiving unit (120), a sensor unit (130), and a control unit (140), and may further include an image processing unit (150) and a tilt unit (160).

발광부(110)는 발광모듈, 발광유닛, 발광어셈블리 또는 발광장치일 수 있다. 발광부(110)는 광신호를 출력할 수 있다. 발광부(110)는 광신호를 생성한 후 객체에 출력, 즉 조사할 수 있다. 이때, 발광부(110)는 펄스파(pulse wave)의 형태나 지속파(continuous wave)의 형태로 광신호를 생성하여 출력할 수 있다. 지속파는 사인파(sinusoid wave)나 사각파(squared wave)의 형태일 수 있다. 본 명세서에서, 발광부(110)가 출력하는 광신호는 객체에 입사되는 광신호를 의미할 수 있다. 발광부(110)가 출력하는 광신호는 카메라 모듈(100)을 기준으로 출력광, 출력광 신호 등으로 불릴 수 있다. 발광부(110)가 출력하는 광은 객체를 기준으로 입사광, 입사광 신호 등으로 불릴 수 있다. The light emitting unit (110) may be a light emitting module, a light emitting unit, a light emitting assembly, or a light emitting device. The light emitting unit (110) may output an optical signal. The light emitting unit (110) may generate an optical signal and then output, i.e., irradiate, the optical signal to an object. At this time, the light emitting unit (110) may generate and output an optical signal in the form of a pulse wave or a continuous wave. The continuous wave may be in the form of a sinusoid wave or a square wave. In the present specification, the optical signal output by the light emitting unit (110) may refer to an optical signal incident on an object. The optical signal output by the light emitting unit (110) may be referred to as output light, an output optical signal, etc. with respect to the camera module (100). The light output by the light emitting unit (110) may be referred to as incident light, an incident optical signal, etc. with respect to the object.

발광부(110)는 광을 소정의 노출주기(integration time) 동안 객체에 출력, 즉 조사할 수 있다. 여기서, 노출주기란 1개의 프레임 주기, 즉 1개의 영상 프레임 주기를 의미할 수 있다. 복수의 프레임을 생성하는 경우, 설정된 노출주기가 반복된다. 예를 들어, 카메라 모듈(100)이 20 FPS로 객체를 촬영하는 경우, 노출주기는 1/20[sec]가 된다. 그리고 100개의 프레임을 생성하는 경우, 노출주기는 100번 반복될 수 있다. The light emitting unit (110) can output, or irradiate, light to an object for a predetermined exposure cycle (integration time). Here, the exposure cycle may mean one frame cycle, or one image frame cycle. When generating multiple frames, the set exposure cycle is repeated. For example, when the camera module (100) captures an object at 20 FPS, the exposure cycle becomes 1/20 [sec]. And when generating 100 frames, the exposure cycle can be repeated 100 times.

발광부(110)는 서로 다른 주파수를 가지는 복수의 광신호를 출력할 수 있다. 발광부(110)는 서로 다른 주파수를 가지는 복수의 광신호를 순차적으로 반복하여 출력할 수 있다. 또는, 발광부(110)는 서로 다른 주파수를 가지는 복수의 광신호를 동시에 출력할 수도 있다.The light emitting unit (110) can output multiple optical signals having different frequencies. The light emitting unit (110) can sequentially and repeatedly output multiple optical signals having different frequencies. Alternatively, the light emitting unit (110) can simultaneously output multiple optical signals having different frequencies.

발광부(110)는 광신호의 듀티비(duty ratio)를 기 설정된 범위에서 설정할 수 있다. 본 발명의 실시예에 따르면, 발광부(110)가 출력하는 광신호의 듀티비는 0%보다 크거 25%보다 작은 범위 내에서 설정될 수 있다. 예를 들어, 광신호의 듀티비는 10%나 20%로 설정될 수 있다. 광신호의 듀티비는 기 설정되거나 제어부(140)에 의해 설정될 수 있다. The light emitting unit (110) can set the duty ratio of the optical signal within a preset range. According to an embodiment of the present invention, the duty ratio of the optical signal output by the light emitting unit (110) can be set within a range greater than 0% and less than 25%. For example, the duty ratio of the optical signal can be set to 10% or 20%. The duty ratio of the optical signal can be preset or set by the control unit (140).

수광부(120)는 수광모듈, 수광유닛, 수광어셈블리 또는 수광장치일 수 있다. 수광부(120)는 발광부(110)로부터 출력되어 객체로부터 반사된 광신호를 집광할 수 있다. 수광부(120)는 발광부(110)와 나란히 배치될 수 있다. 수광부(120)는 발광부(110) 옆에 배치될 수 있다. 수광부(120)는 발광부(110)와 같은 방향으로 배치될 수 있다. 수광부(120)는 객체에 반사된 광신호를 통과시키기 위한 필터를 포함할 수 있다. The light receiving unit (120) may be a light receiving module, a light receiving unit, a light receiving assembly, or a light receiving device. The light receiving unit (120) may collect an optical signal output from the light emitting unit (110) and reflected from an object. The light receiving unit (120) may be arranged parallel to the light emitting unit (110). The light receiving unit (120) may be arranged next to the light emitting unit (110). The light receiving unit (120) may be arranged in the same direction as the light emitting unit (110). The light receiving unit (120) may include a filter for passing an optical signal reflected from an object.

본 명세서에서, 수광부(120)가 집광하는 광신호는 발광부(110)로부터 출력된 광신호가 객체에 도달한 후 반사된 광신호를 의미할 수 있다. 수광부(120)가 집광하는 광신호는 카메라 모듈(100)을 기준으로 입력광, 입력광 신호 등으로 불릴 수 있다. 수광부(120)가 출력하는 광은 객체를 기준으로 반사광, 반사광 신호 등으로 불릴 수 있다. In this specification, the light signal collected by the light receiving unit (120) may refer to a light signal reflected after the light signal output from the light emitting unit (110) reaches the object. The light signal collected by the light receiving unit (120) may be referred to as input light, input light signal, etc. based on the camera module (100). The light output by the light receiving unit (120) may be referred to as reflected light, reflected light signal, etc. based on the object.

센서부(130)는 수광부(120)가 집광한 광신호를 센싱할 수 있다. 센서부(130)는 광신호를 센싱하는 이미지 센서일 수 있다. 센서부(130)는 센서, 이미지 센서, 이미지 센서부, ToF 센서, ToF 이미지 센서, ToF 이미지 센서부 등과 혼용될 수 있다. The sensor unit (130) can sense the optical signal collected by the light receiving unit (120). The sensor unit (130) may be an image sensor that senses the optical signal. The sensor unit (130) may be used interchangeably with a sensor, an image sensor, an image sensor unit, a ToF sensor, a ToF image sensor, a ToF image sensor unit, etc.

센서부(130)는 광을 감지하여 전기적 신호를 생성할 수 있다. 즉, 센서부(130)는 수광부(120)가 집광한 광신호를 통해 전기 신호를 생성할 수 있다. 생성된 전기 신호는 아날로그 형태일 수 있다. 센서부(130)는 생성된 전기 신호에 기초하여 영상 신호를 생성하고, 생성된 영상 신호를 영상 처리부(150)로 전송할 수 있다. 이때, 영상 신호는 아날로그 형태의 전기 신호이거나 아날로그 형태의 전기 신호를 디지털 변환한 신호일 수 있다. 아날로그 형태의 전기 신호를 영상 신호로 전송하는 경우, 영상 처리부(150)는 아날로그 디지털 컨버터(analog-digital converter, ADC)와 같은 장치를 통해 전기 신호를 디지털 변환할 수 있다. The sensor unit (130) can detect light and generate an electrical signal. That is, the sensor unit (130) can generate an electrical signal through the light signal collected by the light receiving unit (120). The generated electrical signal may be in analog form. The sensor unit (130) can generate an image signal based on the generated electrical signal and transmit the generated image signal to the image processing unit (150). At this time, the image signal may be an analog electrical signal or a signal obtained by converting an analog electrical signal into a digital signal. When transmitting an analog electrical signal as an image signal, the image processing unit (150) can convert the electrical signal into a digital signal through a device such as an analog-digital converter (ADC).

센서부(130)는 발광부(110)에서 출력하는 광의 파장에 대응하는 파장의 광을 감지할 수 있다. 예를 들어, 센서부(130)는 적외선을 감지할 수 있다. 또는, 센서부(130)는 가시광선을 감지할 수 있다.The sensor unit (130) can detect light having a wavelength corresponding to the wavelength of light output from the light emitting unit (110). For example, the sensor unit (130) can detect infrared rays. Alternatively, the sensor unit (130) can detect visible light.

센서부(130)는 CMOS(Complementary Metal Oxide Semiconductor) 이미지 센서일 수 있으며, CCD(Charge Coupled Device) 이미지 센서일 수도 있다. 또한, 센서부(130)는 피사체에 반사되는 적외선 광신호를 입력받은 후 시간 또는 위상 차를 이용해 거리를 측정하는 ToF 센서를 포함할 수 있다. The sensor unit (130) may be a CMOS (Complementary Metal Oxide Semiconductor) image sensor or a CCD (Charge Coupled Device) image sensor. In addition, the sensor unit (130) may include a ToF sensor that receives an infrared light signal reflected from a subject and then measures the distance using a time or phase difference.

제어부(140)는 카메라 모듈(100)에 포함된 각 구성을 제어할 수 있다. The control unit (140) can control each component included in the camera module (100).

본 발명의 실시예에 따르면, 제어부(140)는 발광부(110) 및 센서부(130) 중 적어도 하나를 제어할 수 있다. 본 발명의 일 실시예에 따르면, 제어부(140)는 발광부의 출력 위상 및 센서부의 수신 위상 중 적어도 하나를 시프트시키도록 발광부 및 센서부 중 적어도 하나를 제어할 수 있다. 예를 들어, 제어부(140)는 복수의 시퀀스에 따라 광신호의 출력 위상을 시프트시키도록 발광부(110)를 제어할 수 있다. 다른 예로, 제어부(140)는 복수의 시퀀스에 따라 광신호의 수신 위상을 시프트시키도록 센서부(130)를 제어할 수 있다. 다른 예로, 제어부(140)는 복수의 시퀀스에 따라 광신호의 출력 위상 및 광신호의 수신 위상을 시프트시키도록 발광부(110) 및 센서부(130)를 제어할 수 있다. According to an embodiment of the present invention, the control unit (140) can control at least one of the light emitting unit (110) and the sensor unit (130). According to one embodiment of the present invention, the control unit (140) can control at least one of the light emitting unit and the sensor unit to shift at least one of the output phase of the light emitting unit and the reception phase of the sensor unit. For example, the control unit (140) can control the light emitting unit (110) to shift the output phase of an optical signal according to a plurality of sequences. As another example, the control unit (140) can control the sensor unit (130) to shift the reception phase of an optical signal according to a plurality of sequences. As another example, the control unit (140) can control the light emitting unit (110) and the sensor unit (130) to shift the output phase of an optical signal and the reception phase of an optical signal according to a plurality of sequences.

또한, 제어부(140)는 센서부(130)의 수광부(120)가 집광한 광신호의 센싱 주기를 발광부(110)의 노출주기에 연동하여 제어할 수 있다. In addition, the control unit (140) can control the sensing cycle of the light signal collected by the light receiving unit (120) of the sensor unit (130) in conjunction with the exposure cycle of the light emitting unit (110).

또한, 제어부(140)는 틸트부(160)를 제어할 수 있다. 예를 들어, 제어부(140)는 소정의 규칙에 따라 틸트부(160)의 틸트 구동을 제어할 수 있다. Additionally, the control unit (140) can control the tilt unit (160). For example, the control unit (140) can control the tilt operation of the tilt unit (160) according to a predetermined rule.

영상 처리부(150)는 센서부(130)로부터 영상 신호를 입력받고, 영상 신호를 처리(예컨대, 디지털 변환, 보간, 프레임 합성 등)하여 영상을 생성할 수 있다. The image processing unit (150) can receive an image signal from the sensor unit (130) and process the image signal (e.g., digital conversion, interpolation, frame synthesis, etc.) to generate an image.

일 실시예에 따르면, 영상 처리부(150)는 복수의 프레임(저해상도)을 이용하여 하나의 프레임(고해상도)을 합성할 수 있다. 즉, 영상 처리부(150)는 센서부(130)로부터 받은 영상 신호에 대응하는 복수의 영상 프레임을 합성하고, 합성된 결과를 합성 영상으로서 생성할 수 있다. 영상 처리부(150)에서 생성된 합성 영상은 영상 신호에 대응하는 복수의 영상 프레임보다 높은 해상도를 가질 수 있다. 즉, 영상 처리부(150)는 슈퍼레졸루션(Super Resolution, SR) 기법을 통해 고해상도의 영상을 생성할 수 있다.According to one embodiment, the image processing unit (150) can synthesize a single frame (high resolution) using a plurality of frames (low resolution). That is, the image processing unit (150) can synthesize a plurality of image frames corresponding to an image signal received from the sensor unit (130) and generate a synthesized result as a composite image. The composite image generated by the image processing unit (150) can have a higher resolution than the plurality of image frames corresponding to the image signal. That is, the image processing unit (150) can generate a high-resolution image through a super resolution (SR) technique.

영상 처리부(150)는 영상 신호를 처리하여 영상을 생성하는 프로세서를 포함할 수 있다. 프로세서는 영상 처리부(150)의 기능에 따라 복수로 구현될 수 있으며, 복수의 프로세서 중 일부가 센서부(130)와 결합되어 구현될 수 있다. 예를 들어, 아날로그 방식의 전기 신호를 디지털 방식의 영상 신호로 변환하는 프로세서는 센서와 결합되어 구현될 수 있다. 다른 예로, 영상 처리부(150)가 포함하는 복수의 프로세서는 센서부(130)와 분리되어 구현될 수도 있다. The image processing unit (150) may include a processor that processes an image signal to generate an image. Multiple processors may be implemented depending on the function of the image processing unit (150), and some of the multiple processors may be implemented in conjunction with the sensor unit (130). For example, a processor that converts an analog electrical signal into a digital image signal may be implemented in conjunction with a sensor. As another example, the multiple processors included in the image processing unit (150) may be implemented separately from the sensor unit (130).

틸트부(160)는 필터 및 렌즈 중 적어도 하나를 통과한 광의 광경로가 소정의 규칙에 따라 반복하여 시프트하도록 필터 및 렌즈 중 적어도 하나를 틸트시킬 수 있다. 이를 위해, 틸트부(160)는 틸트 드라이버 및 틸트 액츄에이터(Tilting Actuator)를 포함할 수 있다. The tilt unit (160) can tilt at least one of the filters and lenses so that the optical path of light passing through at least one of the filters and lenses repeatedly shifts according to a predetermined rule. To this end, the tilt unit (160) can include a tilt driver and a tilt actuator.

렌즈는 광 경로를 변경시킬 수 있는 가변 렌즈일 수도 있다. 가변 렌즈는 초점 가변 렌즈일 수 있다. 또한 가변 렌즈는 초점이 조절되는 렌즈일 수 있다. 가변 렌즈는 액체 렌즈, 폴리머 렌즈, 액정 렌즈, VCM 타입, SMA 타입 중 적어도 하나일 수 있다. 액체 렌즈는 하나의 액체를 포함하는 액체 렌즈와 두 개의 액체를 포함하는 액체 렌즈를 포함할 수 있다. 하나의 액체를 포함하는 액체 렌즈는 액체와 대응되는 위치에 배치되는 멤브레인을 조절하여 초점을 가변시킬 수 있으며, 예를들어 마그넷과 코일의 전자기력에 의해 멤브레인을 가압하여 초점을 가변시킬 수 있다. 두개의 액체를 포함하는 액체 렌즈는 전도성 액체와 비전도성 액체를 포함하여 액체 렌즈에 인가되는 전압을 이용하여 전도성 액체와 비전도성 액체가 형성하는 계면을 조절할 수 있다. 폴리머 렌즈는 고분자 물질을 피에조 등의 구동부를 통해 초점을 가변시킬 수 있다. 액정 렌즈는 전자기력에 의해 액정을 제어하여 초점을 가변시킬 수 있다. VCM 타입은 고체 렌즈 또는 고체 렌즈를 포함하는 렌즈 어셈블리를 마그넷과 코일간의 전자기력을 통해 조절하여 초점을 가변시킬 수 있다. SMA 타입은 형상기억합금을 이용하여 고체 렌즈 또는 고체 렌즈를 포함하는 렌즈 어셈블리를 제어하여 초점을 가변시킬 수 있다. The lens may be a variable lens capable of changing the optical path. The variable lens may be a focus-variable lens. Additionally, the variable lens may be a lens with an adjustable focus. The variable lens may be at least one of a liquid lens, a polymer lens, a liquid crystal lens, a VCM type, and an SMA type. The liquid lens may include a liquid lens containing one liquid and a liquid lens containing two liquids. The liquid lens containing one liquid can vary its focus by adjusting a membrane positioned corresponding to the liquid, and for example, the focus can be varied by pressurizing the membrane using the electromagnetic force of a magnet and a coil. The liquid lens containing two liquids can include a conductive liquid and a non-conductive liquid and control the interface formed between the conductive liquid and the non-conductive liquid using a voltage applied to the liquid lens. The polymer lens can vary its focus by using a driving unit such as a piezoelectric element to actuate the polymer material. The liquid crystal lens can vary its focus by controlling the liquid crystal using an electromagnetic force. The VCM type can vary the focus by controlling the electromagnetic force between a magnet and a coil of a solid lens or a lens assembly including a solid lens. The SMA type can vary the focus by controlling the solid lens or a lens assembly including a solid lens using a shape memory alloy.

틸트부(160)는 틸트 후 필터를 통과한 광의 경로가 틸트 전 필터 및 렌즈 중 적어도 하나를 통과한 광의 경로를 기준으로 센서부(130)의 0픽셀보다 크고 1픽셀보다 작은 단위만큼 시프트되도록 필터 및 렌즈 중 적어도 하나를 틸트시킬 수 있다. 틸트부(160)는 필터 및 렌즈 중 적어도 하나를 통과한 광의 경로가 기 설정된 기준 경로로부터 적어도 1회 시프트되도록 필터 및 렌즈 중 적어도 하나를 틸트시킬 수 있다. The tilt unit (160) can tilt at least one of the filter and the lens so that the path of light passing through the filter after tilting is shifted by a unit that is greater than 0 pixel and less than 1 pixel of the sensor unit (130) based on the path of light passing through at least one of the filter and the lens before tilting. The tilt unit (160) can tilt at least one of the filter and the lens so that the path of light passing through at least one of the filter and the lens is shifted at least once from a preset reference path.

이하에서는 도면을 참조하여, 도 1에 도시된 본 발명의 실시예에 따른 카메라 모듈(100)의 각 구성을 상세하게 살펴보도록 한다. Hereinafter, with reference to the drawings, each configuration of the camera module (100) according to the embodiment of the present invention illustrated in FIG. 1 will be examined in detail.

도 2는 본 발명의 실시예에 따른 발광부의 구성도이다. Figure 2 is a configuration diagram of a light emitting unit according to an embodiment of the present invention.

앞서 도 1을 통해 살펴본 것처럼, 발광부(110)는 광신호를 생성한 후 객체에 출력하는 구성 요소를 의미할 수 있다. 이러한 기능을 구현하기 위하여, 발광부(110)는 발광 소자(111)와 광학 소자(112)를 포함할 수 있으며, 광변조부(112)를 포함할 수 있다. As previously discussed with reference to FIG. 1, the light emitting unit (110) may refer to a component that generates an optical signal and then outputs it to an object. To implement this function, the light emitting unit (110) may include a light emitting element (111) and an optical element (112), and may include a light modulation unit (112).

우선, 발광 소자(111)는 전기를 공급받아 빛(광)을 생성하는 소자를 의미할 수 있다. 발광 소자(111)가 생성하는 빛은 파장이 770 내지 3000nm인 적외선 일 수 있다. 또는 발광 소자(111)가 생성하는 빛은 파장이 380 내지 770 nm인 가시광선 일 수 있다. First, the light-emitting element (111) may refer to an element that receives electricity and generates light. The light generated by the light-emitting element (111) may be infrared rays with a wavelength of 770 to 3000 nm. Alternatively, the light generated by the light-emitting element (111) may be visible light with a wavelength of 380 to 770 nm.

발광 소자(111)는 발광 다이오드(Light Emitting Diode, LED)를 포함할 수 있다. 뿐만 아니라, 발광 소자(111)는 유기 발광 다이오드(Organic light emitting diode, OLED)나 레이저 다이오드(Laser diode, LD)를 포함할 수 있다.The light emitting element (111) may include a light emitting diode (LED). In addition, the light emitting element (111) may include an organic light emitting diode (OLED) or a laser diode (LD).

발광 소자(111)는 일정한 패턴에 따라 배열된 형태로 구현될 수 있다. 따라서, 발광 소자(111)는 복수로 구성될 수 있다. 복수의 발광 소자(111)는 기판 상에 행과 열에 따라 배열될 수 있다. 복수의 발광 소자(111)는 기판 위에 실장될 수 있다. 기판은 회로 패턴이 형성된 인쇄 회로 기판(Printed Circuit Board, PCB)일 수 있다. 기판은 일정 유연성을 확보하기 위하여 연성 인쇄 회로 기판(FPCB)으로 구현될 수 있다. 이 외에도 기판은 수지 계열의 인쇄회로기판, 메탈 코아(MetalCore) PCB, 세라믹 PCB, FR-4 기판 중 어느 하나로 구현될 수도 있다. 이외에도 복수의 발광 소자(111)는 칩(chip)의 형태로 구현될 수도 있다. The light emitting element (111) can be implemented in a form arranged according to a certain pattern. Accordingly, the light emitting element (111) can be configured in plurality. The plurality of light emitting elements (111) can be arranged according to rows and columns on the substrate. The plurality of light emitting elements (111) can be mounted on the substrate. The substrate can be a printed circuit board (PCB) on which a circuit pattern is formed. The substrate can be implemented as a flexible printed circuit board (FPCB) to ensure a certain flexibility. In addition, the substrate can be implemented as any one of a resin-based printed circuit board, a metal core PCB, a ceramic PCB, and an FR-4 substrate. In addition, the plurality of light emitting elements (111) can also be implemented in the form of a chip.

광변조부(112)는 발광 소자(111)의 점멸을 제어하여 발광 소자(111)가 지속파나 펄스파 형태의 광신호를 생성하도록 제어할 수 있다. 광변조부(112)는 주파수 변조(frequency modulation)나 펄스 변조(pulse modulation) 등을 통해 발광 소자(111)가 지속파나 펄스파 형태의 광을 생성하도록 제어할 수 있다. 예를 들어, 광변조부(112)는 일정 시간 간격으로 발광 소자(111)의 점멸(on/off)을 반복시켜 펄스파 형태나 지속파 형태의 광을 생성하도록 제어할 수 있다. 일정 시간 간격은 광신호의 주파수일 수 있다. The optical modulation unit (112) can control the blinking of the light-emitting element (111) so that the light-emitting element (111) generates an optical signal in the form of a continuous wave or pulse wave. The optical modulation unit (112) can control the light-emitting element (111) to generate light in the form of a continuous wave or pulse wave through frequency modulation, pulse modulation, or the like. For example, the optical modulation unit (112) can control the light-emitting element (111) to generate light in the form of a pulse wave or continuous wave by repeating the blinking (on/off) of the light-emitting element (111) at regular time intervals. The regular time interval may be the frequency of the optical signal.

도 3는 본 발명의 실시예에 따른 수광부를 설명하기 위한 도면이다. Fig. 3 is a drawing for explaining a light receiving unit according to an embodiment of the present invention.

도 3를 참조하면, 수광부(120)는 렌즈 어셈블리(121) 및 필터(125)를 포함한다. 렌즈 어셈블리(121)는 렌즈(122), 렌즈 배럴(123) 및 렌즈 홀더(124)를 포함할 수 있다. Referring to FIG. 3, the light receiving unit (120) includes a lens assembly (121) and a filter (125). The lens assembly (121) may include a lens (122), a lens barrel (123), and a lens holder (124).

렌즈(122)는 복수 매로 구성될 수 있으며, 1매로 구성될 수도 있다. 렌즈(122)는 위에서 설명한 가변 렌즈를 포함할 수 있다. 렌즈(122)가 복수 매로 구성될 경우 각 렌즈들은 중심축을 기준으로 정렬하여 광학계를 형성할 수 있다. 여기서, 중심축은 광학계의 광축(Optical axis)과 동일할 수 있다. The lens (122) may be composed of multiple lenses, or may be composed of a single lens. The lens (122) may include the variable lens described above. When the lens (122) is composed of multiple lenses, each lens may be aligned with respect to a central axis to form an optical system. Here, the central axis may be identical to the optical axis of the optical system.

렌즈 배럴(123)은 렌즈 홀더(124)와 결합되며, 내부에 렌즈를 수용할 수 있는 공간이 마련될 수 있다. 렌즈 배럴(123)은 하나 또는 복수의 렌즈와 회전 결합될 수 있으나, 이는 예시적인 것이며, 접착제(예를 들어, 에폭시(epoxy) 등의 접착용 수지)를 이용한 방식 등 다른 방식으로 결합될 수 있다.The lens barrel (123) is coupled with a lens holder (124), and a space for accommodating a lens may be provided inside. The lens barrel (123) may be rotatably coupled with one or more lenses, but this is exemplary, and the lens barrel may be coupled in other ways, such as using an adhesive (e.g., an adhesive resin such as epoxy).

렌즈 홀더(124)는 렌즈 배럴(123)과 결합되어 렌즈 배럴(123)을 지지하고, 센서(130)가 탑재된 인쇄회로기판(126)에 결합될 수 있다. 여기서, 센서는 도 1의 센서부(130)에 대응할 수 있다. 렌즈 홀더(124)에 의하여 렌즈 배럴(123) 하부에 필터(125)가 부착될 수 있는 공간이 형성될 수 있다. 렌즈 홀더(124)외 내주면에는 나선형 패턴이 형성될 수 있고, 이와 마찬가지로 외주면에 나선형 패턴이 형성된 렌즈 배럴(123)과 회전 결합할 수 있다. 그러나, 이는 예시적인 것이며, 렌즈 홀더(124)와 렌즈 배럴(123)은 접착제를 통해 결합되거나, 렌즈 홀더(124)와 렌즈 배럴(123)이 일체형으로 형성될 수도 있다.The lens holder (124) is coupled with the lens barrel (123) to support the lens barrel (123) and can be coupled to a printed circuit board (126) on which a sensor (130) is mounted. Here, the sensor may correspond to the sensor unit (130) of FIG. 1. A space to which a filter (125) can be attached may be formed at the bottom of the lens barrel (123) by the lens holder (124). A spiral pattern may be formed on the inner surface of the lens holder (124), and similarly, the lens holder (124) may be rotationally coupled with the lens barrel (123) having a spiral pattern formed on the outer surface. However, this is exemplary, and the lens holder (124) and the lens barrel (123) may be coupled using an adhesive, or the lens holder (124) and the lens barrel (123) may be formed as an integral part.

렌즈 홀더(124)는 렌즈 배럴(123)과 결합되는 상부 홀더(124-1) 및 센서(130)가 탑재된 인쇄 회로 기판(126)과 결합되는 하부 홀더(124-2)로 구분될 수 있으며, 상부 홀더(124-1) 및 하부 홀더(124-2)는 일체형으로 형성되거나, 서로 분리된 구조로 형성된 후 체결 또는 결합되거나, 서로 분리되어 이격된 구조를 가질 수도 있다. 이때, 상부 홀더(124-1)의 직경은 하부 홀더(124-2)의 직경보다 작게 형성될 수 있다.The lens holder (124) can be divided into an upper holder (124-1) coupled with a lens barrel (123) and a lower holder (124-2) coupled with a printed circuit board (126) on which a sensor (130) is mounted. The upper holder (124-1) and the lower holder (124-2) may be formed as an integral body, or may be formed as separate structures and then fastened or coupled, or may have a structure in which they are separated and spaced apart from each other. In this case, the diameter of the upper holder (124-1) may be formed to be smaller than the diameter of the lower holder (124-2).

필터(125)는 렌즈 홀더(124)에 결합될 수 있다. 필터(125)는 렌즈 어셈블리(121)와 센서 사이에 배치될 수 있다. 필터(125)는 객체와 센서 사이의 광경로 상에 배치될 수 있다. 필터(125)는 소정 파장 범위를 갖는 광을 필터링할 수 있다. 필터(125)는 특정 파장의 광을 통과시킬 수 있다. 즉, 필터(125)는 특정 파장 외의 광을 반사 또는 흡수하여 차단할 수 있다. 필터(125)는 적외선을 통과시키고 적외선 이외의 파장의 광을 차단시킬 수 있다. 또는, 필터(125)는 가시광선을 통과시키고 가시광선 이외의 파장의 광을 차단시킬 수 있다. 필터(125)는 시프트할 수 있다. 필터(125)는 렌즈 홀더(124)와 일체로 시프트할 수 있다. 필터(125)는 틸트(tilt)될 수 있다. 필터(125)는 시프트되어 광경로를 조절할 수 있다. 필터(125)는 시프트를 통해 센서부(130)로 입사되는 광의 경로를 변경시킬 수 있다. 필터(125)는 입사되는 광의 FOV(Field of View) 각도 또는 FOV의 방향 등을 변경시킬 수 있다. The filter (125) can be coupled to the lens holder (124). The filter (125) can be positioned between the lens assembly (121) and the sensor. The filter (125) can be positioned on the optical path between the object and the sensor. The filter (125) can filter light having a predetermined wavelength range. The filter (125) can pass light of a specific wavelength. That is, the filter (125) can block light other than the specific wavelength by reflecting or absorbing it. The filter (125) can pass infrared rays and block light of wavelengths other than infrared rays. Alternatively, the filter (125) can pass visible light and block light of wavelengths other than visible light. The filter (125) can be shifted. The filter (125) can be shifted integrally with the lens holder (124). The filter (125) can be tilted. The filter (125) can be shifted to adjust the optical path. The filter (125) can change the path of light incident on the sensor unit (130) through shifting. The filter (125) can change the FOV (Field of View) angle of the incident light or the direction of the FOV.

도 3에 도시되지 않았으나, 영상 처리부(150) 등은 인쇄 회로 기판 내에서 구현될 수 있다. 그리고, 도 1의 발광부(110)는 인쇄 회로 기판(126) 상에서 센서(130)의 측면에 배치되거나, 카메라 모듈(100)의 외부, 예를 들어 카메라 모듈(100)의 측면에 배치될 수도 있다.Although not shown in FIG. 3, the image processing unit (150) and the like may be implemented within a printed circuit board. In addition, the light emitting unit (110) of FIG. 1 may be placed on the side of the sensor (130) on the printed circuit board (126), or may be placed outside the camera module (100), for example, on the side of the camera module (100).

상기의 예시는 일 실시예에 불과하며, 수광부(120)는 카메라 모듈(100)로 입사되는 광을 집광하여 센서에 전달할 수 있는 다른 구조로 구성될 수도 있다. The above example is only one embodiment, and the light receiving unit (120) may be configured with another structure capable of collecting light incident on the camera module (100) and transmitting it to the sensor.

도 4는 본 발명의 실시예에 따른 센서부를 설명하기 위한 도면이다. Figure 4 is a drawing for explaining a sensor unit according to an embodiment of the present invention.

도 4에 도시된 것처럼, 본 발명의 실시예에 따른 센서부(130)는 복수의 셀 영역(P1, P2, …)이 그리드 형태로 배열될 수 있다. 예를 들어, 도 4에서와 같이 320x240 해상도의 센서부(130)는 76,800개의 셀 영역이 그리드 형태로 배열될 수 있다. As illustrated in FIG. 4, the sensor unit (130) according to an embodiment of the present invention may have a plurality of cell areas (P1, P2, ...) arranged in a grid shape. For example, as illustrated in FIG. 4, a sensor unit (130) with a resolution of 320x240 may have 76,800 cell areas arranged in a grid shape.

그리고, 각 셀 영역 사이에는 일정한 간격(L)이 형성될 수 있으며, 해당 간격(L)에는 복수의 셀을 전기적으로 연결하기 위한 와이어 등이 배치될 수 있다. 이러한 간격(L)의 폭(dL)은 셀 영역의 폭에 비해 매우 작을 수 있다. And, a certain gap (L) can be formed between each cell area, and wires or the like for electrically connecting multiple cells can be placed in the gap (L). The width (dL) of this gap (L) can be very small compared to the width of the cell area.

셀 영역(P1, P2, …)은 입력광 신호를 전기 에너지로 변환하는 영역을 의미할 수 있다. 즉, 셀 영역(P1, P2, …)은 빛을 전기 에너지로 변환하는 포토 다이오드가 구비된 셀 영역을 의미하거나, 구비된 포토 다이오드가 동작하는 셀 영역을 의미할 수도 있다. The cell region (P1, P2, …) may refer to a region that converts an input light signal into electrical energy. That is, the cell region (P1, P2, …) may refer to a cell region equipped with a photodiode that converts light into electrical energy, or may refer to a cell region in which the equipped photodiode operates.

일 실시예에 따르면, 복수의 셀 영역(P1, P2, …)에는 2개의 포토 다이오드가 구비될 수 있다. 각 셀 영역(P1, P2, …)은 제1 포토 다이오드 및 제1 트랜지스터를 포함하는 제1 수광 유닛(132-1)과 제2 포토 다이오드 및 제2 트랜지스터를 포함하는 제2 수광 유닛(132-2)을 포함할 수 있다.According to one embodiment, a plurality of cell regions (P1, P2, …) may be provided with two photodiodes. Each cell region (P1, P2, …) may include a first light receiving unit (132-1) including a first photodiode and a first transistor, and a second light receiving unit (132-2) including a second photodiode and a second transistor.

제1 수광 유닛(132-1)과 제2 수광 유닛(132-2)은 서로 180도의 위상차를 가지고 광신호를 수광할 수 있다. 즉, 제1 포토 다이오드가 턴온(turn-on)되어 광신호를 흡수한 후 턴오프(turn-off)되면, 제2 포토 다이오드가 턴온되어 광신호를 흡수한 후 턴오프 될 수 있다. 제1 수광 유닛(132-1)은 In Phase 수신 유닛이라 할 수 있고, 제2 수광 유닛(132-2)은 Out Phase 수신 유닛이라 할 수 있다. 이와 같이, 제1 수광 유닛(132-1) 및 제2 수광 유닛(132-2)이 시간 차를 두고 활성화되면, 객체와의 거리에 따라 수신되는 광량에 차이가 발생하게 된다. 예를 들어, 객체가 카메라 모듈(100) 바로 앞에 있는 경우(즉, 거리=0인 경우)에는 발광부(110)로부터 광신호가 출력된 후 객체에서 반사되어 오는데 걸리는 시간이 0이므로, 광원의 점멸 주기는 그대로 광의 수신 주기가 된다. 이에 따라, 제1 수광 유닛(132-1)만이 빛을 수신하게 되고, 제2 수광 유닛(132-2)은 빛을 수신하지 못하게 된다. 다른 예로, 객체가 카메라 모듈(100)과 소정 거리 떨어져 위치하는 경우, 발광부(110)로부터 광이 출력된 후 객체에서 반사되어 오는데 시간이 걸리므로, 광원의 점멸 주기는 광의 수신 주기와 차이가 나게 된다. 이에 따라, 제1 수광 유닛(132-1)과 제2 수광 유닛(132-2)이 수신하는 빛의 양에 차이가 발생하게 된다. 즉, 제1 수광 유닛(132-1)과 제2 수광 유닛(132-2)에 입력된 광량의 차를 이용하여 객체의 거리가 연산될 수 있다.The first light receiving unit (132-1) and the second light receiving unit (132-2) can receive an optical signal with a phase difference of 180 degrees from each other. That is, when the first photodiode is turned on, absorbs an optical signal, and then turns off, the second photodiode can be turned on, absorbs an optical signal, and then turns off. The first light receiving unit (132-1) can be referred to as an In Phase receiving unit, and the second light receiving unit (132-2) can be referred to as an Out Phase receiving unit. In this way, when the first light receiving unit (132-1) and the second light receiving unit (132-2) are activated with a time difference, a difference occurs in the amount of light received depending on the distance from the object. For example, when an object is located directly in front of the camera module (100) (i.e., when the distance = 0), the time it takes for the light signal to be reflected from the object after being output from the light emitting unit (110) is 0, so the blinking cycle of the light source becomes the light reception cycle. Accordingly, only the first light receiving unit (132-1) receives light, and the second light receiving unit (132-2) does not receive light. As another example, when an object is located a predetermined distance away from the camera module (100), it takes time for the light to be reflected from the object after being output from the light emitting unit (110), so the blinking cycle of the light source becomes different from the light reception cycle. Accordingly, a difference occurs in the amount of light received by the first light receiving unit (132-1) and the second light receiving unit (132-2). That is, the distance to the object can be calculated using the difference in the amount of light input to the first light receiving unit (132-1) and the second light receiving unit (132-2).

도 5은 본 발명의 실시예에 따른 전기 신호 생성 과정을 설명하기 위한 도면이다. FIG. 5 is a drawing for explaining an electric signal generation process according to an embodiment of the present invention.

도 5에 나타난 바와 같이, 본 발명의 실시예에 따른 참조 신호, 즉 복조 신호는 4개(C1 내지 C4)일 수 있다. 각 복조 신호(C1 내지 C4)는 출력광(발광부(110)가 출력하는 광), 즉 객체의 입장에서 입사광과 동일한 주파수를 가지되, 서로 90도 위상차를 가질 수 있다. 4개의 복조 신호 중 하나(C1)는 출력광와 동일한 위상을 가질 수 있다. 입력광(수광부(120)가 입력받는 광), 즉 객체의 입장에서 반사광은 출력광이 객체에 입사된 후 반사되어 돌아오는 거리만큼 위상이 지연된다. 센서부(130)는 입력광과 각 복조 신호를 각각 믹싱(mixing)한다. 그러면, 센서부(130)는 도 3의 음영 부분에 대응하는 전기 신호를 각 복조 신호별로 생성할 수 있다. 복조 신호별로 생성된 전기 신호는 영상 신호로서 영상 처리부(150)에 전송되거나, 디지털 변환된 전기 신호가 영상 신호로서 영상 처리부(150)에 전송될 수 있다. As shown in FIG. 5, there may be four reference signals (C 1 to C 4 ), that is, demodulation signals, according to an embodiment of the present invention. Each demodulation signal (C 1 to C 4 ) may have the same frequency as the output light (the light output by the light-emitting unit (110)), that is, the incident light from the object's perspective, but may have a 90 degree phase difference with each other. One of the four demodulation signals (C 1 ) may have the same phase as the output light. The input light (the light input by the light-receiving unit (120)), that is, the reflected light from the object's perspective, is delayed in phase by the distance that the output light reflects back after being incident on the object. The sensor unit (130) mixes the input light and each demodulation signal. Then, the sensor unit (130) can generate an electric signal corresponding to the shaded portion of FIG. 3 for each demodulation signal. The electrical signal generated for each demodulation signal may be transmitted to the image processing unit (150) as an image signal, or the digitally converted electrical signal may be transmitted to the image processing unit (150) as an image signal.

다른 실시예로, 노출 시간 동안 복수의 주파수로 출력광이 생성된 경우, 센서는 복수의 주파수에 따른 입력광을 흡수한다. 예를 들어, 주파수 f1과 f2로 출력광이 생성되고, 복수의 복조 신호는 90도의 위상차를 가진다고 가정한다. 그러면, 입사광 역시 주파수 f1과 f2를 가지므로, 주파수가 f1인 입력광과 이에 대응하는 4개의 복조 신호를 통해 4개의 전기 신호가 생성될 수 있다. 그리고 주파수가 f2인 입력광과 이에 대응하는 4개의 복조 신호를 통해 4개의 전기 신호가 생성될 수 있다. 따라서, 전기 신호는 총 8개가 생성될 수 있다. In another embodiment, when output light is generated with multiple frequencies during the exposure time, the sensor absorbs input light according to the multiple frequencies. For example, assume that output light is generated with frequencies f 1 and f 2 , and multiple demodulation signals have a phase difference of 90 degrees. Then, since the incident light also has frequencies f 1 and f 2 , four electrical signals can be generated through the input light with frequency f 1 and the four demodulation signals corresponding thereto. In addition, four electrical signals can be generated through the input light with frequency f 2 and the four demodulation signals corresponding thereto. Therefore, a total of eight electrical signals can be generated.

도 6은 본 발명의 실시예에 따른 서브 프레임 영상을 설명하기 위한 도면이다. FIG. 6 is a drawing for explaining a sub-frame image according to an embodiment of the present invention.

앞서 살펴본 바와 같이, 전기 신호는 4개의 복조 신호 별 위상에 대응하여 생성될 수 있다. 따라서, 도 6에 도시된 것처럼, 영상 처리부(150)는 4개의 위상에 대응하는 서브 프레임 영상을 얻을 수 있다. 여기서, 4개의 위상은 0°, 90°, 180°, 270°일 수 있으며, 서브 프레임 영상은 위상 영상, 위상 IR 영상 등과 혼용될 수 있다. As previously discussed, electrical signals can be generated corresponding to the phases of the four demodulation signals. Therefore, as illustrated in FIG. 6, the image processing unit (150) can obtain sub-frame images corresponding to the four phases. Here, the four phases can be 0°, 90°, 180°, and 270°, and the sub-frame images can be used interchangeably with phase images, phase IR images, etc.

그리고, 영상 처리부(150)는 복수의 서브 프레임 영상에 기초하여 깊이 영상을 생성할 수 있다. Additionally, the image processing unit (150) can generate a depth image based on multiple sub-frame images.

도 7은 본 발명의 실시예에 따른 깊이 영상을 설명하기 위한 도면이다. FIG. 7 is a drawing for explaining a depth image according to an embodiment of the present invention.

도 7의 깊이 영상은 도 4의 서브 프레임 영상에 기초하여 생성된 영상을 나타낸다. 영상 처리부(150)는 복수의 서브 프레임 영상을 이용하여 깊이 영상을 생성할 수 있으며, 이는 아래의 수학식 1 및 수학식 2를 통해 구현될 수 있다. The depth image of Fig. 7 represents an image generated based on the sub-frame image of Fig. 4. The image processing unit (150) can generate a depth image using multiple sub-frame images, and this can be implemented through the following mathematical expressions 1 and 2.

여기서, Raq(x0)은 0도 위상에 대응하는 서브 프레임 영상을 의미한다. Raq(x90)은 90도 위상에 대응하는 서브 프레임 영상을 의미한다. Raq(x180)은 180도 위상에 대응하는 서브 프레임 영상을 의미한다. Raq(x270)은 270도 위상에 대응하는 서브 프레임 영상을 의미한다. Here, Raq(x 0 ) refers to a sub-frame image corresponding to a 0-degree phase. Raq(x 90 ) refers to a sub-frame image corresponding to a 90-degree phase. Raq(x 180 ) refers to a sub-frame image corresponding to a 180-degree phase. Raq(x 270 ) refers to a sub-frame image corresponding to a 270-degree phase.

즉, 영상 처리부(150)는 수학식 1을 통해 각 픽셀별로 발광부(110)가 출력하는 광신호와 수광부(120)가 입력받는 광신호 사이의 위상차를 산출할 수 있다. That is, the image processing unit (150) can calculate the phase difference between the light signal output by the light emitting unit (110) and the light signal input by the light receiving unit (120) for each pixel through mathematical expression 1.

여기서, f는 광신호의 주파수를 의미한다. c는 빛의 속도를 의미한다. Here, f represents the frequency of the optical signal. c represents the speed of light.

즉, 영상 처리부(150)는 수학식 2를 통해 각 픽셀별로 카메라 모듈(100)과 객체 사이의 거리를 산출할 수 있다. That is, the image processing unit (150) can calculate the distance between the camera module (100) and the object for each pixel through mathematical expression 2.

한편, 영상 처리부(150)는 복수의 서브 프레임 영상에 기초하여 ToF IR 영상을 생성할 수도 있다. Meanwhile, the image processing unit (150) may also generate a ToF IR image based on multiple sub-frame images.

도 8는 본 발명의 실시예에 따른 ToF IR 영상을 설명하기 위한 도면이다. FIG. 8 is a drawing for explaining a ToF IR image according to an embodiment of the present invention.

도 8는 도 4의 4개 서브 프레임 영상을 통해 생성된 ToF IR 영상의 일종인 앰플리튜드 영상(amplitude image)을 나타낸다. Figure 8 shows an amplitude image, which is a type of ToF IR image generated through the four sub-frame images of Figure 4.

도 8에서와 같은 앰플리튜드 영상을 생성하기 위하여, 영상 처리부(150)는 아래의 수학식 3을 이용할 수 있다. In order to generate an amplitude image as in Fig. 8, the image processing unit (150) can use the following mathematical expression 3.

다른 예로, 영상 처리부(150)는 아래의 수학식 4를 이용하여 ToF IR 영상의 일종인 인텐시티 영상(intensity image)을 생성할 수 있다. 인텐시티 영상은 컨피던스(confidence) 영상과 혼용될 수 있다.As another example, the image processing unit (150) can generate an intensity image, which is a type of ToF IR image, using the following mathematical expression 4. The intensity image can be used interchangeably with a confidence image.

앰플리튜드 영상이나 인텐시티 영상과 같은 ToF IR 영상은 그레이 영상일 수 있다. ToF IR images, such as amplitude images or intensity images, can be grayscale images.

도 9는 본 발명의 실시예에 따른 발광부의 광신호를 설명하기 위한 도면이다. Fig. 9 is a drawing for explaining an optical signal of a light emitting unit according to an embodiment of the present invention.

발광부(110)는 소정의 듀티비를 가지는 광신호를 출력할 수 있다. 본 발명의 실시예에 따른 발광부는 0%보다 크고 25%보다 작은 범위의 듀티비를 가지는 광신호를 출력할 수 있다. The light emitting unit (110) can output an optical signal having a predetermined duty ratio. The light emitting unit according to an embodiment of the present invention can output an optical signal having a duty ratio in a range greater than 0% and less than 25%.

도 9는 25%의 듀티비와 10%의 듀티비에 따른 광신호를 광 파워(light power)를 도시한다. 도 9에 도시된 것처럼, 듀티비가 작을수록 하나의 노출주기 동안 광이 출력되는 시간이 짧아진다. 듀티비가 작을수록 광이 출력되는 시간이 짧아지므로 전력 소모가 적어지는 장점이 있다. 하지만 광이 출력되는 시간이 짧아짐으로 인해 측정이 거리 측정이 불가능한 구간이 발생할 수 있다. Figure 9 illustrates the light power of an optical signal at duty ratios of 25% and 10%. As illustrated in Figure 9, the lower the duty ratio, the shorter the time for which light is output during one exposure cycle. A lower duty ratio has the advantage of reducing power consumption because the time for which light is output is shorter. However, the shorter time for which light is output may result in sections where distance measurement is impossible.

도 10은 본 발명의 실시예에 따른 발광부의 광신호에 따른 측정 가능한 위상 영역을 나타낸 도면이다. FIG. 10 is a diagram showing a measurable phase region according to an optical signal of a light emitting unit according to an embodiment of the present invention.

도 10의 (a)는 실제 위상에 대응하는 정규화된 신호값을 도시한 그래프이며, 도 10의 (b)는 도 10의 (a)를 아크탄젠트(tan-1) 연산하여 실제 위상에 대응하는 측정된 위상값을 도시하고 있다. 도 10의 (a) 및 (b)에 나타난 것처럼 광신호의 듀비티가 25% 이상인 경우(예를 들어, 이상적인 경우, 듀티비 50%인 경우, 듀티비 25%인 경우)에는 실제 위상과 측정 위상이 1대 1의 대응 관계를 가지므로 노출주기의 전체 위상 영역에서 객체에 대한 거리 측정이 가능함을 알 수 있다. Fig. 10 (a) is a graph showing a normalized signal value corresponding to the actual phase, and Fig. 10 (b) shows a measured phase value corresponding to the actual phase by calculating the arc tangent (tan -1 ) of Fig. 10 (a). As shown in Fig. 10 (a) and (b), when the duty ratio of the optical signal is 25% or more (e.g., in the ideal case, when the duty ratio is 50%, when the duty ratio is 25%), the actual phase and the measured phase have a 1:1 correspondence, so it can be seen that distance measurement to an object is possible in the entire phase region of the exposure cycle.

하지만, 듀티비가 25%보다 작은 경우(예를 들어, 듀티비 20%인 경우, 듀티비 10%인 경우)에는 실제 위상과 측정 위상이 1대 1의 대응 관계를 가지는 않는 구간이 발생할 수 있다. 즉, 노출주기의 전체 위상 영역 중 일부 위상 영역에서 객체에 대한 거리 측정이 불가능할 수 있다. However, when the duty ratio is less than 25% (e.g., when the duty ratio is 20%, when the duty ratio is 10%), there may be a period where the actual phase and the measured phase do not have a 1:1 correspondence. In other words, it may be impossible to measure the distance to an object in some phase regions among the entire phase region of the exposure cycle.

따라서, 광신호의 듀비티를 감소시킴과 동시에 객체에 대한 거리 측정 정확도를 향상시키기 위하여, 본 발명의 실시예에 따른 카메라 모듈(100)은 복수의 시퀀스에 따라 각 프레임 별로 발광부(110)가 출력하는 광신호의 출력 위상을 시프트시키거나 센서부(130)의 수신 위상을 시프트시켜 노출주기의 전체 위상 영역에 대해 객체에 대한 거리를 측정할 수 있도록 한다. Therefore, in order to reduce the duty cycle of the optical signal and at the same time improve the accuracy of measuring the distance to the object, the camera module (100) according to the embodiment of the present invention shifts the output phase of the optical signal output by the light emitting unit (110) for each frame according to a plurality of sequences or shifts the reception phase of the sensor unit (130) so that the distance to the object can be measured for the entire phase region of the exposure cycle.

도 11은 본 발명의 실시예에 따른 발광부의 출력 위상 시프트를 설명하기 위한 도면이다. Fig. 11 is a drawing for explaining the output phase shift of a light emitting unit according to an embodiment of the present invention.

도 11을 참조하면, 제어부(140)는 복수의 시퀀스에 따라 광신호의 출력 위상을 시프트시키도록 발광부(110)를 제어할 수 있다. 예를 들어, 제어부(140)는 제1 노출주기에서 제1 시퀀스에 따라 기준 위상의 광신호(도 11에서 실선으로 도시된 부분)를 생성하도록 발광부(110)를 제어할 수 있다. 그리고, 제어부(140)는 제2 노출주기에서 제2 시퀀스에 따라 기준 위상으로부터 소정의 위상이 시프트된 출력 위상의 광신호(도 11에서 점선으로 도시된 부분)를 생성하도록 발광부(110)를 제어할 수 있다. 이때, 제2 노출주기는 제1 노출주기 다음의 노출주기를 의미할 수 있다. 복수의 시퀀스가 제1 시퀀스와 제2 시퀀스를 포함하는 경우, 제어부(140)는 제2 시퀀스에 따라 발광부(110)를 제어한 후, 제3 노출주기에서는 제1 시퀀스에 따라 발광부(110)를 제어할 수 있다. 즉, 복수의 시퀀스는 순차적으로 반복될 수 있다. Referring to FIG. 11, the control unit (140) can control the light emitting unit (110) to shift the output phase of the optical signal according to a plurality of sequences. For example, the control unit (140) can control the light emitting unit (110) to generate an optical signal of a reference phase (a portion illustrated by a solid line in FIG. 11) according to a first sequence in a first exposure cycle. Then, the control unit (140) can control the light emitting unit (110) to generate an optical signal of an output phase (a portion illustrated by a dotted line in FIG. 11) whose phase is shifted by a predetermined phase from the reference phase according to a second sequence in a second exposure cycle. At this time, the second exposure cycle may mean an exposure cycle following the first exposure cycle. When the plurality of sequences include the first sequence and the second sequence, the control unit (140) can control the light emitting unit (110) according to the second sequence and then control the light emitting unit (110) according to the first sequence in a third exposure cycle. That is, multiple sequences can be repeated sequentially.

표 1은 복수의 시퀀스가 제1 내지 제2-2 시퀀스를 포함하고 있는 경우 광신호의 위상을 나타낸 표이다. Table 1 is a table showing the phase of an optical signal when multiple sequences include the first to second-2 sequences.

광신호의 위상Phase of optical signal 제1 시퀀스First sequence 00 제2-1 시퀀스Sequence 2-1 0.16π0.16π 제2-2 시퀀스Sequence 2-2 0.32π0.32π

표 1에 따르면, 제어부(140)는 제1 시퀀스에 따라 0의 위상(기준 위상)의 광신호를 생성하도록 발광부(110)를 제어한 후, 제2-1 시퀀스에 따라 0.16π만큼 위상이 시프트된 광신호를 생성하도록 발광부(110)를 제어할 수 있다. 그리고 제어부(140)는 제2-2 시퀀스에 따라 제2-1 시퀀스 대비 0.16π만큼 위상이 시프트되고 제1 시퀀스 대비 0.32π만큼 위상이 시프트된 광신호를 생성하도록 발광부(110)를 제어할 수 있다. According to Table 1, the control unit (140) can control the light emitting unit (110) to generate an optical signal of phase 0 (reference phase) according to the first sequence, and then control the light emitting unit (110) to generate an optical signal whose phase is shifted by 0.16π according to the 2-1 sequence. In addition, the control unit (140) can control the light emitting unit (110) to generate an optical signal whose phase is shifted by 0.16π compared to the 2-1 sequence and whose phase is shifted by 0.32π compared to the 1st sequence according to the 2-2 sequence.

도 12는 본 발명의 실시예에 따른 센서부의 수신 위상 시프트를 설명하기 위한 도면이다. Fig. 12 is a drawing for explaining the reception phase shift of the sensor unit according to an embodiment of the present invention.

도 12를 참조하면, 제어부(140)는 복수의 시퀀스에 따라 광신호에 대한 수신 위상, 즉 센서부(130)가 수신하는 광신호의 수신 위상을 시프트시키도록 센서부(130)를 제어할 수 있다. 위에서 살펴본 것처럼, 센서부(130)는 1개의 노출주기 동안 4개의 참조 신호, 즉 복조 신호를 통해 4개의 영상 신호를 생성할 수 있다. 4개의 참조 신호는 90도의 위상차를 가질 수 있다. 예를 들어, 제어부(140)는 제1 노출주기에서 제1 시퀀스에 따라 기준 위상의 참조신호를 생성하도록 센서부(130)를 제어할 수 있다. 즉, 제어부(140)는 제1 노출주기에서 제1 시퀀스에 따라 기준 위상에 대응하는 수신 위상에 따라 센서부(130)를 제어할 수 있다. 그리고, 제어부(140)는 제2 노출주기에서 제2 시퀀스에 따라 기준 위상으로부터 소정의 위상이 시프트된 참조신호를 생성하도록 센서부(130)를 제어할 수 있다. 즉, 제어부(140)는 제2 노출주기에서 제2 시퀀스에 따라 기준 위상으로부터 소정의 위상이 시프트된 위상에 대응하는 수신 위상에 따라 센서부(130)를 제어할 수 있다. 이때, 제2 노출주기는 제1 노출주기 다음의 노출주기를 의미할 수 있다. 복수의 시퀀스가 제1 시퀀스와 제2 시퀀스를 포함하는 경우, 제어부(140)는 제2 시퀀스에 따라 센서부(130)를 제어한 후, 제3 노출주기에서는 제1 시퀀스에 따라 센서부(130)를 제어할 수 있다. 즉, 복수의 시퀀스는 순차적으로 반복될 수 있다.Referring to FIG. 12, the control unit (140) can control the sensor unit (130) to shift the reception phase of the optical signal, i.e., the reception phase of the optical signal received by the sensor unit (130), according to a plurality of sequences. As described above, the sensor unit (130) can generate four image signals through four reference signals, i.e., demodulation signals, during one exposure period. The four reference signals can have a phase difference of 90 degrees. For example, the control unit (140) can control the sensor unit (130) to generate a reference signal of a reference phase according to a first sequence in a first exposure period. That is, the control unit (140) can control the sensor unit (130) according to the reception phase corresponding to the reference phase according to the first sequence in the first exposure period. In addition, the control unit (140) can control the sensor unit (130) to generate a reference signal whose phase is shifted by a predetermined phase from the reference phase according to a second sequence in a second exposure period. That is, the control unit (140) can control the sensor unit (130) according to the reception phase corresponding to the phase shifted by a predetermined phase from the reference phase according to the second sequence in the second exposure cycle. At this time, the second exposure cycle may mean the exposure cycle following the first exposure cycle. When the plurality of sequences include the first sequence and the second sequence, the control unit (140) can control the sensor unit (130) according to the second sequence and then control the sensor unit (130) according to the first sequence in the third exposure cycle. That is, the plurality of sequences can be sequentially repeated.

표 2는 복수의 시퀀스가 제1 내지 제3 시퀀스를 포함하고 있는 경우 복조 신호의 위상을 나타낸 표이다.Table 2 is a table showing the phase of a demodulated signal when multiple sequences include the first to third sequences.

제1 수신
위상
1st receiver
phase
제2 수신
위상
2nd receiver
phase
제3 수신
위상
Third Reception
phase
제4 수신
위상
4th receiver
phase
제1 시퀀스First sequence 00 π/2π/2 ππ 3π/23π/2 제2-1 시퀀스Sequence 2-1 0.16π0.16π π/2+0.16ππ/2+0.16π π+0.16ππ+0.16π 3π/2+0.16π3π/2+0.16π 제2-2 시퀀스Sequence 2-2 0.32π0.32π π/2+0.32ππ/2+0.32π π+0.32ππ+0.32π 3π/2+0.32π3π/2+0.32π

표 2에 따르면, 제어부(140)는 제1 시퀀스에 따라 0, π/2, π, 3π/2의 수신 위상에 따라 광신호를 수신하도록 센서부(130)를 제어한 후, 제2-1 시퀀스에 따라 0.16π, π/2+0.16π, π+0.16π, 3π/2+0.16π의 수신 위상에 따라 광신호를 수신하도록 센서부(130)를 제어할 수 있다. 제2-1 시퀀스에서 제1 내지 제4 수신 위상은 제1 시퀀스에서 제1 내지 제4 수신 위상보다 각각 위상이 0.16π만큼 시프트하였음을 알 수 있다. 그리고 제어부(140)는 제2-2 시퀀스에 따라 0.32π, π/2+0.32π, π+0.32π, 3π/2+0.32π의 수신 위상에 따라 센서부(130)를 제어할 수 있다. 제2-2 시퀀스에서 제1 내지 제4 수신 위상은 제1 시퀀스의 제1 내지 제4 수신 위상보다 각각 위상이 0.32π만큼 시프트하였고, 제2-1 시퀀스의 제1 내지 제4 수신 위상보다 각각 위상이 0.16π만큼 시프트하였음을 알 수 있다. According to Table 2, the control unit (140) can control the sensor unit (130) to receive an optical signal according to the reception phases of 0, π/2, π, and 3π/2 according to the first sequence, and then control the sensor unit (130) to receive an optical signal according to the reception phases of 0.16π, π/2+0.16π, π+0.16π, and 3π/2+0.16π according to the 2-1 sequence. It can be seen that in the 2-1 sequence, the first to fourth reception phases are each shifted by 0.16π in phase compared to the first to fourth reception phases in the 1st sequence. In addition, the control unit (140) can control the sensor unit (130) according to the reception phases of 0.32π, π/2+0.32π, π+0.32π, and 3π/2+0.32π according to the 2-2 sequence. It can be seen that the first to fourth receiving phases in the 2-2 sequence are shifted by 0.32π in phase compared to the first to fourth receiving phases in the 1st sequence, and are shifted by 0.16π in phase compared to the first to fourth receiving phases in the 2-1 sequence.

도 13은 본 발명의 실시예에 따른 위상별 측정 가능 영역을 설명하기 위한 도면이다.Fig. 13 is a drawing for explaining a phase-specific measurable area according to an embodiment of the present invention.

광신호의 듀티비가 10%인 경우, 0도 위상(기준 위상)에서 거리를 측정할 경우, 도 15의 (a)의 음영 부분에서만 거리가 측정되며, 이외의 부분에서는 거리가 측정되지 않을 수 있다. 하지만, 소정의 위상만큼 발광부(110)의 출력 위상이나 센서부(130)의 수신 위상을 시프트하게 되면, 도 15의 (b) 내지 (d)처럼 0도 위상에서 측정되지 않은 영역에 대한 거리가 측정될 수 있다. 따라서, 복수의 시퀀스 각각에 대응하여 생성된 영상 신호를 통해 하나의 깊이 영상을 생성할 경우, 전체 위상에 대응하는 거리 정보를 획득할 수 있다. When the duty ratio of the optical signal is 10%, when measuring the distance at 0 degree phase (reference phase), the distance is measured only in the shaded area of (a) of Fig. 15, and the distance may not be measured in other areas. However, when the output phase of the light emitting unit (110) or the reception phase of the sensor unit (130) is shifted by a predetermined phase, the distance for the area not measured at 0 degree phase can be measured, as in (b) to (d) of Fig. 15. Therefore, when generating one depth image through the image signals generated corresponding to each of a plurality of sequences, distance information corresponding to the entire phase can be obtained.

도 14는 본 발명의 실시예에 따른 제어부의 시프트 위상 설정의 일 실시예를 설명하기 위한 도면이다. FIG. 14 is a drawing for explaining one embodiment of shift phase setting of a control unit according to an embodiment of the present invention.

도 14는 듀티비가 10%인 경우를 나타낸 도면으로서, 도 14의 (a)는 실제 위상에 대한 정규화된 신호의 값을 복수의 시퀀스별로 도시한 그래프이고, 도 14의 (b)는 실제 위상에 대한 측정 위상을 복수의 시퀀스 별로 도시한 그래프이다. 도 14의 (b)에 도시된 각 음영은 각 시퀀스별로 깊이 정보를 획득할 수 있는 위상 영역을 의미한다. Fig. 14 is a diagram showing a case where the duty ratio is 10%. Fig. 14 (a) is a graph showing the values of normalized signals for actual phases for each of multiple sequences, and Fig. 14 (b) is a graph showing measured phases for actual phases for each of multiple sequences. Each shade shown in Fig. 14 (b) represents a phase region where depth information can be acquired for each sequence.

도 14에 도시된 것처럼, 듀티비 10%인 경우 기준 위상으로부터 2번의 위상 시프트를 하면, 노출주기의 전체 위상 영역에 대한 객체와의 거리 정보를 획득할 수 있다. 따라서, 듀티비 10%에서 최적의 시프트 위상은 0.16π이다. As illustrated in Fig. 14, when the duty ratio is 10%, by performing a phase shift of two times from the reference phase, distance information to the object can be obtained for the entire phase region of the exposure cycle. Therefore, the optimal shift phase at a duty ratio of 10% is 0.16π.

이와 같은 최적의 시프트 위상을 검출하여 객체와의 거리를 측정하기 위하여, 본 발명의 실시예에 따른 제어부(140)는 제1 시퀀스에 대응하여 생성된 영상 신호에 기초하여 시프트 위상을 설정할 수 있다. 구체적으로 제어부(140)는 제1 시퀀스에 대응하여 생성된 영상 신호를 통해 객체와의 거리 측정이 가능한 위상 영역을 산출하고, 산출된 위상 영역에 따라 시프트 위상을 설정할 수 있다. 제어부(140)는 시프트 위상에 따라 제2 시퀀스의 개수를 결정할 수 있다. 이때, 제1 시퀀스에 대응하는 노출주기는 제2 시퀀스에 대응하는 노출주기보다 작을 수 있다. 예를 들어, 제1 시퀀스에 대응하는 노출주기는 제2 시퀀스에 대응하는 노출주기의 50%일 수 있다. In order to detect the optimal shift phase and measure the distance to the object, the control unit (140) according to the embodiment of the present invention can set the shift phase based on the image signal generated corresponding to the first sequence. Specifically, the control unit (140) can calculate a phase region in which the distance to the object can be measured through the image signal generated corresponding to the first sequence, and set the shift phase according to the calculated phase region. The control unit (140) can determine the number of second sequences according to the shift phase. At this time, the exposure period corresponding to the first sequence may be smaller than the exposure period corresponding to the second sequence. For example, the exposure period corresponding to the first sequence may be 50% of the exposure period corresponding to the second sequence.

한편, ToF 카메라 모듈의 경우 일정 거리 이상의 물체에 대해서는 거리가 측정되지 않을 수 있다. 예를 들어, 특정 객체에 대한 거리 정보를 측정하는 경우, 객체의 배경이 되는 부분은 측정 거리를 초과할 수 있으므로 거리 정보를 획득할 수 없다. 이와 같이 거리가 너무 멀어 거리 정보를 획득할 수 없는 부분의 경우 짧은 듀티비로 인해 노출주기 중 측정되지 않는 영역을 위상 시프트를 통해 측정하더라도 거리 정보를 획득할 수 없다. 다른 예로, 객체 중 일부분이 카메라 모듈(100)과 매우 가까워 제1 시퀀스에 대응하여 생성된 영상 신호만으로 거리 정보의 획득이 가능할 수 있다. 이 경우 노출주기 중 측정되지 않는 영역을 위상 시프트를 통해 측정하더라도 획득된 거리 정보는 변동이 없다. 즉, 상황에 따라 각 픽셀별로 다양한 거리 정보를 생성하게 되므로 노출주기 중 측정되지 않는 영역을 위상 시프트를 통해 측정할 필요가 없는 경우가 발생할 수 있다. Meanwhile, in the case of the ToF camera module, the distance may not be measured for objects beyond a certain distance. For example, when measuring distance information for a specific object, the background of the object may exceed the measured distance, so distance information cannot be obtained. In such cases where the distance is too far to obtain distance information, even if the area not measured during the exposure cycle is measured through phase shift due to the short duty cycle, distance information cannot be obtained. In another example, a part of the object may be very close to the camera module (100), so distance information may be obtained only with the image signal generated in response to the first sequence. In this case, even if the area not measured during the exposure cycle is measured through phase shift, the acquired distance information does not change. In other words, since different distance information is generated for each pixel depending on the situation, there may be cases where it is not necessary to measure the area not measured during the exposure cycle through phase shift.

이러한 상황에서 최적의 구동을 위해, 본 발명의 실시예에 따른 제어부(140)는 센서부(130)의 각 픽셀 별로 광신호에 대한 복조 신호의 위상을 시프트시키도록 센서부(130)를 제어할 수 있다. 예를 들어, 제2 시퀀스에서, 1번 픽셀에 대한 복조 신호의 위상은 0.16π 시프트시키도록 센서부(130)를 제어하는 반면, 2번 픽셀에 대한 복조 신호의 위상은 0.24π 시프트시키도록 센서부(130)를 제어할 수 있다. 이때, 각 픽셀에 대한 복조 신호의 시프트 위상은 제1 시퀀스에 대응하여 생성된 영상 신호에 기초하여 설정될 수 있다.In order to operate optimally in this situation, the control unit (140) according to the embodiment of the present invention can control the sensor unit (130) to shift the phase of the demodulation signal for the optical signal for each pixel of the sensor unit (130). For example, in the second sequence, the sensor unit (130) can be controlled to shift the phase of the demodulation signal for pixel 1 by 0.16π, while the sensor unit (130) can be controlled to shift the phase of the demodulation signal for pixel 2 by 0.24π. At this time, the shift phase of the demodulation signal for each pixel can be set based on the image signal generated corresponding to the first sequence.

이상에서 실시예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다. Although the above description focuses on examples, these are merely examples and do not limit the present invention. Those skilled in the art will appreciate that various modifications and applications not exemplified above are possible without departing from the essential characteristics of the present invention. For example, each component specifically shown in the examples can be modified and implemented. In addition, differences related to such modifications and applications should be construed as being included within the scope of the present invention defined in the appended claims.

100 : 카메라 모듈
110 : 발광부
120 : 수광부
130 : 센서부
140 : 제어부
150 : 영상 처리부
160 : 틸트부
100: Camera module
110: Light-emitting part
120: Light receiving unit
130: Sensor section
140: Control unit
150: Image processing unit
160: Tilt section

Claims (9)

객체에 광신호를 출력하는 발광부;
상기 발광부로부터 출력되어 상기 객체에 반사된 광신호를 집광하는 수광부;
상기 수광부에 의해 집광된 광신호를 수신하는 센서부; 및
상기 발광부의 출력 위상 및 상기 센서부의 수신 위상 중 적어도 하나를 시프트 시키도록 상기 발광부 및 상기 센서부 중 적어도 하나를 제어하는 제어부; 및
필터 및 렌즈 중 적어도 하나를 통과한 상기 광신호의 광경로가 시프트하도록 상기 필터 및 상기 렌즈 중 적어도 하나를 틸트시키는 틸트부를 포함하고,
상기 센서부는 일정 간격 이격된 복수의 셀을 포함하고,
상기 틸트부는 상기 광신호의 광경로가 상기 센서부의 하나의 상기 셀보다 작은 단위만큼 시프트하도록 상기 필터 및 상기 렌즈 중 적어도 하나를 틸트시키는 카메라 모듈.
A light emitting unit that outputs a light signal to an object;
A light receiving unit that collects the light signal output from the light emitting unit and reflected on the object;
A sensor unit that receives an optical signal collected by the light receiving unit; and
A control unit that controls at least one of the light emitting unit and the sensor unit to shift at least one of the output phase of the light emitting unit and the reception phase of the sensor unit; and
A tilt unit is included that tilts at least one of the filter and the lens so that the optical path of the optical signal passing through at least one of the filter and the lens shifts.
The above sensor unit includes a plurality of cells spaced at a certain interval,
A camera module in which the tilt unit tilts at least one of the filter and the lens so that the optical path of the optical signal shifts by a unit smaller than one of the cells of the sensor unit.
제1항에 있어서,
상기 광신호의 듀티비는,
0%보다 크고 25%보다 작은 범위 내에서 설정되는 카메라 모듈.
In the first paragraph,
The duty ratio of the above optical signal is
Camera module set within a range greater than 0% and less than 25%.
제1항에 있어서,
상기 제어부는,
상기 발광부 또는 상기 센서부를 복수의 시퀀스에 따라 제어하고,
상기 복수의 시퀀스는,
기준 위상에 대응하는 제1 시퀀스 및 상기 기준 위상으로부터 소정의 위상만큼 시프트된 제2 시퀀스를 포함하는 카메라 모듈.
In the first paragraph,
The above control unit,
Controlling the above light emitting unit or the sensor unit according to a plurality of sequences,
The above multiple sequences are,
A camera module comprising a first sequence corresponding to a reference phase and a second sequence shifted by a predetermined phase from the reference phase.
제3항에 있어서,
상기 복수의 시퀀스 각각은,
서로 다른 위상에 대응하는 카메라 모듈.
In the third paragraph,
Each of the above plurality of sequences,
Camera modules corresponding to different phases.
제3항에 있어서,
상기 제1 시퀀스에 대응하는 광신호의 노출 주기는,
상기 제2 시퀀스에 대응하는 광신호의 노출 주기보다 작은 카메라 모듈.
In the third paragraph,
The exposure period of the optical signal corresponding to the above first sequence is,
A camera module having an exposure period smaller than that of the optical signal corresponding to the second sequence.
제3항에 있어서,
상기 제어부는,
상기 제1 시퀀스에 대응하여 생성된 영상 신호에 기초하여 상기 제2 시퀀스의 위상을 설정하는 카메라 모듈.
In the third paragraph,
The above control unit,
A camera module that sets the phase of the second sequence based on an image signal generated corresponding to the first sequence.
제3항에 있어서,
상기 제어부는,
상기 복수의 시퀀스 각각이 하나의 영상 프레임에 대응하는 노출주기 동안 수행되는 카메라 모듈.
In the third paragraph,
The above control unit,
A camera module in which each of the above plurality of sequences is performed during an exposure cycle corresponding to one image frame.
제3항에 있어서,
상기 제어부는,
상기 제1 시퀀스에 대응하여 생성된 영상 신호에 기초하여 상기 센서부의 각 픽셀 별로 상기 광신호에 대한 복조 신호의 위상을 시프트시키도록 상기 센서부를 제어하는 카메라 모듈.
In the third paragraph,
The above control unit,
A camera module that controls the sensor unit to shift the phase of the demodulation signal for the optical signal for each pixel of the sensor unit based on the image signal generated in response to the first sequence.
제1항에 있어서,
상기 복수의 시퀀스에 대응하는 복수의 영상 신호를 이용하여 깊이 영상을 생성하는 영상 처리부를 더 포함하는 카메라 모듈.
In the first paragraph,
A camera module further comprising an image processing unit that generates a depth image using a plurality of image signals corresponding to the plurality of sequences.
KR1020190116065A 2019-09-20 2019-09-20 Camera module Active KR102858186B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190116065A KR102858186B1 (en) 2019-09-20 2019-09-20 Camera module

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190116065A KR102858186B1 (en) 2019-09-20 2019-09-20 Camera module

Publications (2)

Publication Number Publication Date
KR20210034301A KR20210034301A (en) 2021-03-30
KR102858186B1 true KR102858186B1 (en) 2025-09-10

Family

ID=75264937

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190116065A Active KR102858186B1 (en) 2019-09-20 2019-09-20 Camera module

Country Status (1)

Country Link
KR (1) KR102858186B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4152045A1 (en) 2021-09-16 2023-03-22 Samsung Electronics Co., Ltd. Image sensor for measuring distance and camera module including the same
CN116600211B (en) * 2023-06-09 2024-01-02 苏州洞悉科技有限公司 Imaging system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017150246A1 (en) * 2016-02-29 2017-09-08 パナソニックIpマネジメント株式会社 Imaging device and solid-state imaging element used in same
WO2018101187A1 (en) * 2016-11-29 2018-06-07 パナソニックIpマネジメント株式会社 Distance measuring device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017150246A1 (en) * 2016-02-29 2017-09-08 パナソニックIpマネジメント株式会社 Imaging device and solid-state imaging element used in same
WO2018101187A1 (en) * 2016-11-29 2018-06-07 パナソニックIpマネジメント株式会社 Distance measuring device

Also Published As

Publication number Publication date
KR20210034301A (en) 2021-03-30

Similar Documents

Publication Publication Date Title
CN113273182B (en) Camera module
KR102858186B1 (en) Camera module
KR102771998B1 (en) Camera module
CN112585961B (en) Camera with camera body
US11997383B2 (en) Camera module extracting distance information based on a time-of-flight method
TWI829828B (en) Camera device
KR102523762B1 (en) Image sensor and camera module using the same
CN112771857B (en) camera device
KR102710469B1 (en) Camera module
KR102740170B1 (en) Camera module
US11917303B2 (en) Camera module
KR102801041B1 (en) Camera module
US11994378B2 (en) Camera module
KR102800705B1 (en) Camera module
KR102899735B1 (en) Camera device
KR102561532B1 (en) Camera module and depth map extraction method of the same
KR102736067B1 (en) Camera device
KR102772599B1 (en) Camera module
US11885884B2 (en) Camera module
KR102858066B1 (en) Camera module

Legal Events

Date Code Title Description
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

R18-X000 Changes to party contact information recorded

St.27 status event code: A-3-3-R10-R18-oth-X000

PN2301 Change of applicant

St.27 status event code: A-3-3-R10-R13-asn-PN2301

St.27 status event code: A-3-3-R10-R11-asn-PN2301

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

P22-X000 Classification modified

St.27 status event code: A-2-2-P10-P22-nap-X000

P22-X000 Classification modified

St.27 status event code: A-2-2-P10-P22-nap-X000

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

D14-X000 Search report completed

St.27 status event code: A-1-2-D10-D14-srh-X000

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

P22-X000 Classification modified

St.27 status event code: A-2-2-P10-P22-nap-X000

E90F Notification of reason for final refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

D22 Grant of ip right intended

Free format text: ST27 STATUS EVENT CODE: A-1-2-D10-D22-EXM-PE0701 (AS PROVIDED BY THE NATIONAL OFFICE)

PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

U11 Full renewal or maintenance fee paid

Free format text: ST27 STATUS EVENT CODE: A-2-2-U10-U11-OTH-PR1002 (AS PROVIDED BY THE NATIONAL OFFICE)

Year of fee payment: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

Q13 Ip right document published

Free format text: ST27 STATUS EVENT CODE: A-4-4-Q10-Q13-NAP-PG1601 (AS PROVIDED BY THE NATIONAL OFFICE)