[go: up one dir, main page]

KR20160038409A - Mobile terminal and method for controlling the same - Google Patents

Mobile terminal and method for controlling the same Download PDF

Info

Publication number
KR20160038409A
KR20160038409A KR1020140131460A KR20140131460A KR20160038409A KR 20160038409 A KR20160038409 A KR 20160038409A KR 1020140131460 A KR1020140131460 A KR 1020140131460A KR 20140131460 A KR20140131460 A KR 20140131460A KR 20160038409 A KR20160038409 A KR 20160038409A
Authority
KR
South Korea
Prior art keywords
light
unit
mobile terminal
reflected
touched
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
KR1020140131460A
Other languages
Korean (ko)
Inventor
이창성
주성범
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020140131460A priority Critical patent/KR20160038409A/en
Publication of KR20160038409A publication Critical patent/KR20160038409A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Landscapes

  • Studio Devices (AREA)

Abstract

본 발명은 오토 포커스 수행 속도 및 정확성을 향상시킨 이동 단말기 및 그 제어 방법을 개시한다. 이를 위한 이동 단말기는, 렌즈 및 이미지 센서를 포함하는 카메라; 빛을 발사하기 위한 발광부; 상기 발광부를 통해 발사된 빛이 반사되면, 반사된 빛을 수광하기 위한 수광부; 상기 렌즈를 통과한 빛의 적어도 일부를 수신하는 둘 이상의 AF(Auto Focus) 센서; 사진 촬영 전 상기 카메라를 통해 입력되는 프리뷰 영상을 디스플레이하기 위한 디스플레이부; 및 상기 프리뷰 영상 위 임의 위치가 터치되면, 상기 수광부가 상기 반사된 빛을 수광할때까지 소요된 시간을 기초로, 터치된 위치가 지시하는 피사체에 초점을 맞춘 초점 위치를 결정한 뒤, 상기 AF 센서들 사이의 위상차를 기초로, 상기 초점 위치에 대한 1차 보정을 수행하는 제어부를 포함할 수 있다.The present invention discloses a mobile terminal and a control method thereof that improve an autofocus execution speed and accuracy. A mobile terminal for this purpose includes a camera including a lens and an image sensor; A light emitting portion for emitting light; A light receiving unit for receiving reflected light when the light emitted through the light emitting unit is reflected; At least two AF (Auto Focus) sensors for receiving at least a portion of the light passing through the lens; A display unit for displaying a preview image input through the camera before photographing; And a controller for determining a focus position focused on a subject indicated by the touched position based on the time taken for the light receiving unit to receive the reflected light when the touched position on the preview image is touched, And a control unit for performing a first-order correction on the focal position based on a phase difference between the focus position and the focus position.

Description

이동 단말기 및 그 제어 방법{MOBILE TERMINAL AND METHOD FOR CONTROLLING THE SAME}[0001] MOBILE TERMINAL AND METHOD FOR CONTROLLING THE SAME [0002]

본 발명은 오토 포커스 수행 속도 및 정확성을 향상시킨 이동 단말기 및 그 제어 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention [0002] The present invention relates to a mobile terminal and a control method thereof that improve an autofocus execution speed and accuracy.

단말기는 이동 가능여부에 따라 이동 단말기(mobile/portable terminal) 및 고정 단말기(stationary terminal)로 나뉠 수 있다. 다시 이동 단말기는 사용자의 직접 휴대 가능 여부에 따라 휴대(형) 단말기(handheld terminal) 및 거치형 단말기(vehicle mounted terminal)로 나뉠 수 있다. A terminal can be divided into a mobile / portable terminal and a stationary terminal depending on whether the terminal is movable or not. The mobile terminal can be divided into a handheld terminal and a vehicle mounted terminal according to whether the user can directly carry the mobile terminal.

이동 단말기의 기능은 다양화 되고 있다. 예를 들면, 데이터와 음성통신, 카메라를 통한 사진촬영 및 비디오 촬영, 음성녹음, 스피커 시스템을 통한 음악파일 재생 그리고 디스플레이부에 이미지나 비디오를 출력하는 기능이 있다. 일부 단말기는 전자게임 플레이 기능이 추가되거나, 멀티미디어 플레이어 기능을 수행한다. 특히 최근의 이동 단말기는 방송과 비디오나 텔레비전 프로그램과 같은 시각적 컨텐츠를 제공하는 멀티캐스트 신호를 수신할 수 있다. The functions of mobile terminals are diversified. For example, there are data and voice communication, photographing and video shooting through a camera, voice recording, music file playback through a speaker system, and outputting an image or video on a display unit. Some terminals are equipped with an electronic game play function or a multimedia player function. In particular, modern mobile terminals can receive multicast signals that provide visual content such as broadcast and video or television programs.

이와 같은 단말기(terminal)는 기능이 다양화됨에 따라 예를 들어, 사진이나 동영상의 촬영, 음악이나 동영상 파일의 재생, 게임, 방송의 수신 등의 복합적인 기능들을 갖춘 멀티미디어 기기(Multimedia player) 형태로 구현되고 있다. Such a terminal has various functions, for example, in the form of a multimedia device having multiple functions such as photographing and photographing of a moving picture, reproduction of a music or video file, reception of a game and broadcasting, etc. .

이동 단말기를 통해 사용자는 기록으로 남기고 싶은 이미지(사진 또는 동영상)를 촬영할 수 있다. 이 경우, 촬영을 위하여 이동 단말기의 카메라가 활성화 되면, 이동 단말기는 디스플레이부를 통해 사용자가 촬영하고자 하는 대상에 대한 프리뷰 영상을 출력할 수 있다. 사용자는 프리뷰 영상을 통해 추후 촬영될 사진 또는 동영상을 예측할 수 있다. Through the mobile terminal, the user can take an image (photograph or video) to be recorded. In this case, when the camera of the mobile terminal is activated for photographing, the mobile terminal can output a preview image of the object to be photographed by the user through the display unit. The user can predict a photograph or a moving image to be photographed later on the preview image.

이때, 사용자가 프리뷰 영상의 임의 위치를 터치하게되면, 이동 단말기는 터치된 지점이 가리키는 피사체에 자동으로 초점을 맞출 수 있다. 특정 피사체를 포커싱하는 오토 포커스에는, 거리차 방식, 위상차 방식 및 대비차 방식이 사용될 수 있다. 다만, 이들 각각은 그 장단점이 뚜렷하기 때문에, 각 방식 중 어느 하나를 사용하게 되면, 포커싱 정확도가 떨어지거나, 포커싱 속도가 늦어진다는 단점이 발생할 수 있다. At this time, if the user touches an arbitrary position of the preview image, the mobile terminal can automatically focus on the object indicated by the touched point. For autofocus focusing on a specific subject, a distance difference method, a phase difference method and a contrast difference method can be used. However, since each of these advantages and disadvantages is distinct, if any one of them is used, there may be a disadvantage that the focusing accuracy is lowered or the focusing speed is slowed down.

이에 따라, 포커싱 정확도를 높이면서, 포커싱 속도 또한 증가시킨 새로운 오토 포커스 방식에 대한 개발이 요구되고 있다.Accordingly, there is a demand for development of a new autofocus method that increases the focusing speed while increasing the focusing accuracy.

본 발명은 사용자 편의를 증진시킨 이동 단말기 및 그 제어 방법을 제공하는 것을 목적으로 한다.It is an object of the present invention to provide a mobile terminal with improved user convenience and a control method thereof.

구체적으로, 본 발명은 오토 포커스 수행 속도 및 정확성을 증가시킨 이동 단말기를 제공하는 것을 목적으로 한다.In particular, it is an object of the present invention to provide a mobile terminal having increased autofocusing speed and accuracy.

본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are not restrictive of the invention, unless further departing from the spirit and scope of the invention as defined by the appended claims. It will be possible.

상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따른, 이동 단말기는, 렌즈 및 이미지 센서를 포함하는 카메라; 빛을 발사하기 위한 발광부; 상기 발광부를 통해 발사된 빛이 반사되면, 반사된 빛을 수광하기 위한 수광부; 상기 렌즈를 통과한 빛의 적어도 일부를 수신하는 둘 이상의 AF(Auto Focus) 센서; 사진 촬영 전 상기 카메라를 통해 입력되는 프리뷰 영상을 디스플레이하기 위한 디스플레이부; 및 상기 프리뷰 영상 위 임의 위치가 터치되면, 상기 수광부가 상기 반사된 빛을 수광할때까지 소요된 시간을 기초로, 터치된 위치가 지시하는 피사체에 초점을 맞춘 초점 위치를 결정한 뒤, 상기 AF 센서들 사이의 위상차를 기초로, 상기 초점 위치에 대한 1차 보정을 수행하는 제어부를 포함할 수 있다. According to an aspect of the present invention, there is provided a mobile terminal including: a camera including a lens and an image sensor; A light emitting portion for emitting light; A light receiving unit for receiving reflected light when the light emitted through the light emitting unit is reflected; At least two AF (Auto Focus) sensors for receiving at least a portion of the light passing through the lens; A display unit for displaying a preview image input through the camera before photographing; And a controller for determining a focus position focused on a subject indicated by the touched position based on the time taken for the light receiving unit to receive the reflected light when the touched position on the preview image is touched, And a control unit for performing a first-order correction on the focal position based on a phase difference between the focus position and the focus position.

또한, 본 발명의 다른 측면에 따른, 이동 단말기의 제어 방법은, 사진 촬영 전 카메라를 통해 입력되는 프리뷰 영상을 디스플레이하는 단계; 발광부를 통해 빛을 발사하는 단계; 상기 발광부를 통해 발사된 빛이 반사되면, 반사된 빛을 수광하는 단계; 상기 프리뷰 영상 위 임의 위치가 터치되면, 상기 수광부가 상기 반사된 빛을 수광할 때까지 소요된 시간을 기초로, 터치된 위치가 가리키는 피사체에 초점을 맞춘 초점 위치를 결정하는 단계; 및 AF 센서들 사이의 위상차를 기초로 상기 초점 위치에 대한 1차 보정을 수행하는 단계를 포함할 수 있다.According to another aspect of the present invention, a method of controlling a mobile terminal includes displaying a preview image input through a camera before photographing; Emitting light through a light emitting portion; Receiving the reflected light when the light emitted through the light emitting unit is reflected; Determining a focus position focused on a subject indicated by the touched position based on a time taken for the light receiving unit to receive the reflected light when a position on the preview image is touched; And performing a first-order correction on the focal position based on a phase difference between the AF sensors.

본 발명에서 이루고자 하는 기술적 과제들의 해결 수단은 이상에서 언급한 해결 수단들로 제한되지 않으며, 언급하지 않은 또 다른 해결 수단들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The present invention is not limited to the above-mentioned solving means, and other solving means which is not mentioned may be apparent from the following description to those skilled in the art to which the present invention belongs It can be understood.

본 발명에 따른 이동 단말기 및 그 제어 방법의 효과에 대해 설명하면 다음과 같다.Effects of the mobile terminal and the control method according to the present invention will be described as follows.

본 발명의 실시 예들 중 적어도 하나에 의하면, 사용자 편의를 증진시킨 이동 단말기를 제공할 수 있는 장점이 있다. According to at least one of the embodiments of the present invention, it is possible to provide a mobile terminal that improves user convenience.

구체적으로, 본 발명은 오토 포커스 수행 속도 및 정확성을 향상시킨 이동 단말기를 제공할 수 있는 장점이 있다.Specifically, the present invention is advantageous in that a mobile terminal having improved autofocus speed and accuracy can be provided.

본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are not restrictive of the invention, unless further departing from the spirit and scope of the invention as defined by the appended claims. It will be possible.

도 1a는 본 발명과 관련된 이동 단말기를 설명하기 위한 블록도이다.
도 1b 및 1c는 본 발명과 관련된 이동 단말기의 일 예를 서로 다른 방향에서 바라본 개념도이다.
도 2는 본 발명에 적용될 수 있는 거리 측정 방식의 오토 포커스를 설명하기 위한 도면이다.
도 3은 본 발명에 적용될 수 있는 거리 측정 방식의 오토 포커스를 설명하기 위한 다른 예를 도시한 도면이다.
도 4는 본 발명에 적용될 수 있는 위상차 방식의 오토 포커스를 설명하기 위한 도면이다.
도 5는 AF 센서가 삽입된 이미지 센서를 예시한 도면이다.
도 6은 본 발명에 적용될 수 있는 대비차 방식 오토 포커스를 설명하기 위한 도면이다.
도 7은 본 발명의 일예에 따른 이동 단말기의 동작 흐름도이다.
도 8은 수광부의 각 픽셀과, 프리뷰 영상 사이의 대응 관계를 설명하기 위한 도면이다.
1A is a block diagram illustrating a mobile terminal according to the present invention.
1B and 1C are conceptual diagrams illustrating an example of a mobile terminal according to the present invention in different directions.
2 is a view for explaining autofocus of a distance measuring method applicable to the present invention.
FIG. 3 is a view showing another example for explaining autofocus of a distance measurement method applicable to the present invention.
4 is a view for explaining a phase difference autofocus that can be applied to the present invention.
5 is a diagram illustrating an image sensor in which an AF sensor is inserted.
FIG. 6 is a view for explaining contrast-contrast autofocus that can be applied to the present invention.
7 is a flowchart illustrating an operation of a mobile terminal according to an exemplary embodiment of the present invention.
8 is a diagram for explaining a correspondence relationship between each pixel of the light-receiving unit and the preview image.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals are used to designate identical or similar elements, and redundant description thereof will be omitted. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role. In the following description of the embodiments of the present invention, a detailed description of related arts will be omitted when it is determined that the gist of the embodiments disclosed herein may be blurred. It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are intended to provide further explanation of the invention as claimed. , ≪ / RTI > equivalents, and alternatives.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinals, such as first, second, etc., may be used to describe various elements, but the elements are not limited to these terms. The terms are used only for the purpose of distinguishing one component from another.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The singular expressions include plural expressions unless the context clearly dictates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present application, the terms "comprises", "having", and the like are used to specify that a feature, a number, a step, an operation, an element, a component, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

본 명세서에서 설명되는 이동 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등이 포함될 수 있다. The mobile terminal described in this specification includes a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), a navigation device, a slate PC A tablet PC, an ultrabook, a wearable device such as a smartwatch, a smart glass, and a head mounted display (HMD). have.

그러나, 본 명세서에 기재된 실시 예에 따른 구성은 이동 단말기에만 적용 가능한 경우를 제외하면, 디지털 TV, 데스크탑 컴퓨터, 디지털 사이니지 등과 같은 고정 단말기에도 적용될 수도 있음을 본 기술분야의 당업자라면 쉽게 알 수 있을 것이다.However, it will be appreciated by those skilled in the art that the configuration according to the embodiments described herein may be applied to fixed terminals such as a digital TV, a desktop computer, a digital signage, and the like, will be.

도 1a 내지 도 1c를 참조하면, 도 1a는 본 발명과 관련된 이동 단말기를 설명하기 위한 블록도이고, 도 1b 및 1c는 본 발명과 관련된 이동 단말기의 일 예를 서로 다른 방향에서 바라본 개념도이다.1A to 1C are block diagrams for explaining a mobile terminal according to the present invention, and FIGS. 1B and 1C are conceptual diagrams showing an example of a mobile terminal according to the present invention in different directions.

상기 이동 단말기(100)는 무선 통신부(110), 입력부(120), 감지부(140), 출력부(150), 인터페이스부(160), 메모리(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1a에 도시된 구성요소들은 이동 단말기를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 이동 단말기는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다. The mobile terminal 100 includes a wireless communication unit 110, an input unit 120, a sensing unit 140, an output unit 150, an interface unit 160, a memory 170, a control unit 180, ), And the like. The components shown in FIG. 1A are not essential for implementing a mobile terminal, so that the mobile terminal described herein may have more or fewer components than the components listed above.

보다 구체적으로, 상기 구성요소들 중 무선 통신부(110)는, 이동 단말기(100)와 무선 통신 시스템 사이, 이동 단말기(100)와 다른 이동 단말기(100) 사이, 또는 이동 단말기(100)와 외부서버 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 상기 무선 통신부(110)는, 이동 단말기(100)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.The wireless communication unit 110 may be connected between the mobile terminal 100 and the wireless communication system or between the mobile terminal 100 and another mobile terminal 100 or between the mobile terminal 100 and the external server 100. [ Lt; RTI ID = 0.0 > wireless < / RTI > In addition, the wireless communication unit 110 may include one or more modules for connecting the mobile terminal 100 to one or more networks.

이러한 무선 통신부(110)는, 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114), 위치정보 모듈(115) 중 적어도 하나를 포함할 수 있다.The wireless communication unit 110 may include at least one of a broadcast receiving module 111, a mobile communication module 112, a wireless Internet module 113, a short distance communication module 114, and a location information module 115 .

입력부(120)는, 영상 신호 입력을 위한 카메라(121) 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone, 122), 또는 오디오 입력부, 사용자로부터 정보를 입력 받기 위한 사용자 입력부(123, 예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.The input unit 120 includes a camera 121 or an image input unit for inputting a video signal, a microphone 122 for inputting an audio signal, an audio input unit, a user input unit 123 for receiving information from a user A touch key, a mechanical key, and the like). The voice data or image data collected by the input unit 120 may be analyzed and processed by a user's control command.

센싱부(140)는 이동 단말기 내 정보, 이동 단말기를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(140)는 근접센서(141, proximity sensor), 조도 센서(142, illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라(121 참조)), 마이크로폰(microphone, 122 참조), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 이동 단말기는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.The sensing unit 140 may include at least one sensor for sensing at least one of information in the mobile terminal, surrounding environment information surrounding the mobile terminal, and user information. For example, the sensing unit 140 may include a proximity sensor 141, an illumination sensor 142, a touch sensor, an acceleration sensor, a magnetic sensor, A G-sensor, a gyroscope sensor, a motion sensor, an RGB sensor, an infrared sensor, a finger scan sensor, an ultrasonic sensor, A microphone 226, a battery gauge, an environmental sensor (for example, a barometer, a hygrometer, a thermometer, a radiation detection sensor, A thermal sensor, a gas sensor, etc.), a chemical sensor (e.g., an electronic nose, a healthcare sensor, a biometric sensor, etc.). Meanwhile, the mobile terminal disclosed in the present specification can combine and utilize information sensed by at least two of the sensors.

출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(151), 음향 출력부(152), 햅팁 모듈(153), 광 출력부(154) 중 적어도 하나를 포함할 수 있다. 디스플레이부(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 이동 단말기(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(123)로써 기능함과 동시에, 이동 단말기(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.The output unit 150 includes at least one of a display unit 151, an acoustic output unit 152, a haptic tip module 153, and a light output unit 154 to generate an output related to visual, auditory, can do. The display unit 151 may have a mutual layer structure with the touch sensor or may be integrally formed to realize a touch screen. The touch screen may function as a user input unit 123 that provides an input interface between the mobile terminal 100 and a user and may provide an output interface between the mobile terminal 100 and a user.

인터페이스부(160)는 이동 단말기(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 이러한 인터페이스부(160)는, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다. 이동 단말기(100)에서는, 상기 인터페이스부(160)에 외부 기기가 연결되는 것에 대응하여, 연결된 외부 기기와 관련된 적절할 제어를 수행할 수 있다.The interface unit 160 serves as a path to various types of external devices connected to the mobile terminal 100. The interface unit 160 is connected to a device having a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, And may include at least one of a port, an audio I / O port, a video I / O port, and an earphone port. In the mobile terminal 100, corresponding to the connection of the external device to the interface unit 160, it is possible to perform appropriate control related to the connected external device.

또한, 메모리(170)는 이동 단말기(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(170)는 이동 단말기(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 이동 단말기(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 이동 단말기(100)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 이동 단말기(100)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(170)에 저장되고, 이동 단말기(100) 상에 설치되어, 제어부(180)에 의하여 상기 이동 단말기의 동작(또는 기능)을 수행하도록 구동될 수 있다.In addition, the memory 170 stores data supporting various functions of the mobile terminal 100. The memory 170 may store a plurality of application programs or applications running on the mobile terminal 100, data for operation of the mobile terminal 100, and commands. At least some of these applications may be downloaded from an external server via wireless communication. Also, at least a part of these application programs may exist on the mobile terminal 100 from the time of shipment for the basic functions (e.g., telephone call receiving function, message receiving function, and calling function) of the mobile terminal 100. Meanwhile, the application program may be stored in the memory 170, installed on the mobile terminal 100, and may be operated by the control unit 180 to perform the operation (or function) of the mobile terminal.

제어부(180)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 이동 단말기(100)의 전반적인 동작을 제어한다. 제어부(180)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(170)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.In addition to the operations related to the application program, the control unit 180 typically controls the overall operation of the mobile terminal 100. The control unit 180 may process or process signals, data, information, and the like input or output through the above-mentioned components, or may drive an application program stored in the memory 170 to provide or process appropriate information or functions to the user.

또한, 제어부(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, 도 1a와 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(180)는 상기 응용 프로그램의 구동을 위하여, 이동 단말기(100)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.In addition, the controller 180 may control at least some of the components illustrated in FIG. 1A in order to drive an application program stored in the memory 170. FIG. In addition, the controller 180 may operate at least two of the components included in the mobile terminal 100 in combination with each other for driving the application program.

전원공급부(190)는 제어부(180)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 이동 단말기(100)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원공급부(190)는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체 가능한 형태의 배터리가 될 수 있다.The power supply unit 190 receives external power and internal power under the control of the controller 180 and supplies power to the components included in the mobile terminal 100. The power supply unit 190 includes a battery, which may be an internal battery or a replaceable battery.

상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 이동 단말기의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 이동 단말기의 동작, 제어, 또는 제어방법은 상기 메모리(170)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 이동 단말기 상에서 구현될 수 있다. At least some of the components may operate in cooperation with one another to implement a method of operation, control, or control of a mobile terminal according to various embodiments described below. In addition, the operation, control, or control method of the mobile terminal may be implemented on the mobile terminal by driving at least one application program stored in the memory 170. [

도 1b 및 1c를 참조하면, 개시된 이동 단말기(100)는 바 형태의 단말기 바디를 구비하고 있다. 다만, 본 발명은 여기에 한정되지 않고 와치 타입, 클립 타입, 글래스 타입 또는 2 이상의 바디들이 상대 이동 가능하게 결합되는 폴더 타입, 플립 타입, 슬라이드 타입, 스윙 타입, 스위블 타입 등 다양한 구조에 적용될 수 있다. 이동 단말기의 특정 유형에 관련될 것이나, 이동 단말기의 특정유형에 관한 설명은 다른 타입의 이동 단말기에 일반적으로 적용될 수 있다. Referring to FIGS. 1B and 1C, the disclosed mobile terminal 100 includes a bar-shaped terminal body. However, the present invention is not limited thereto and can be applied to various structures such as a folder type, a flip type, a slide type, a swing type, and a swivel type in which a watch type, a clip type, a glass type or two or more bodies are relatively movably coupled . A description of a particular type of mobile terminal, although relevant to a particular type of mobile terminal, is generally applicable to other types of mobile terminals.

여기에서, 단말기 바디는 이동 단말기(100)를 적어도 하나의 집합체로 보아 이를 지칭하는 개념으로 이해될 수 있다.Here, the terminal body can be understood as a concept of referring to the mobile terminal 100 as at least one aggregate.

이동 단말기(100)는 외관을 이루는 케이스(예를 들면, 프레임, 하우징, 커버 등)를 포함한다. 도시된 바와 같이, 이동 단말기(100)는 프론트 케이스(101)와 리어 케이스(102)를 포함할 수 있다. 프론트 케이스(101)와 리어 케이스(102)의 결합에 의해 형성되는 내부공간에는 각종 전자부품들이 배치된다. 프론트 케이스(101)와 리어 케이스(102) 사이에는 적어도 하나의 미들 케이스가 추가로 배치될 수 있다.The mobile terminal 100 includes a case (for example, a frame, a housing, a cover, and the like) that forms an appearance. As shown, the mobile terminal 100 may include a front case 101 and a rear case 102. Various electronic components are disposed in the inner space formed by the combination of the front case 101 and the rear case 102. At least one middle case may be additionally disposed between the front case 101 and the rear case 102.

단말기 바디의 전면에는 디스플레이부(151)가 배치되어 정보를 출력할 수 있다. 도시된 바와 같이, 디스플레이부(151)의 윈도우(151a)는 프론트 케이스(101)에 장착되어 프론트 케이스(101)와 함께 단말기 바디의 전면을 형성할 수 있다.A display unit 151 is disposed on a front surface of the terminal body to output information. The window 151a of the display unit 151 may be mounted on the front case 101 to form a front surface of the terminal body together with the front case 101. [

경우에 따라서, 리어 케이스(102)에도 전자부품이 장착될 수 있다. 리어 케이스(102)에 장착 가능한 전자부품은 착탈 가능한 배터리, 식별 모듈, 메모리 카드 등이 있다. 이 경우, 리어 케이스(102)에는 장착된 전자부품을 덮기 위한 후면커버(103)가 착탈 가능하게 결합될 수 있다. 따라서, 후면 커버(103)가 리어 케이스(102)로부터 분리되면, 리어 케이스(102)에 장착된 전자부품은 외부로 노출된다.In some cases, electronic components may also be mounted on the rear case 102. Electronic parts that can be mounted on the rear case 102 include detachable batteries, an identification module, a memory card, and the like. In this case, a rear cover 103 for covering the mounted electronic components can be detachably coupled to the rear case 102. Therefore, when the rear cover 103 is separated from the rear case 102, the electronic parts mounted on the rear case 102 are exposed to the outside.

도시된 바와 같이, 후면커버(103)가 리어 케이스(102)에 결합되면, 리어 케이스(102)의 측면 일부가 노출될 수 있다. 경우에 따라서, 상기 결합시 리어 케이스(102)는 후면커버(103)에 의해 완전히 가려질 수도 있다. 한편, 후면커버(103)에는 카메라(121b)나 음향 출력부(152b)를 외부로 노출시키기 위한 개구부가 구비될 수 있다.As shown, when the rear cover 103 is coupled to the rear case 102, a side portion of the rear case 102 can be exposed. In some cases, the rear case 102 may be completely covered by the rear cover 103 during the engagement. Meanwhile, the rear cover 103 may be provided with an opening for exposing the camera 121b and the sound output unit 152b to the outside.

이러한 케이스들(101, 102, 103)은 합성수지를 사출하여 형성되거나 금속, 예를 들어 스테인레스 스틸(STS), 알루미늄(Al), 티타늄(Ti) 등으로 형성될 수도 있다.These cases 101, 102, and 103 may be formed by injection molding of synthetic resin or may be formed of metal such as stainless steel (STS), aluminum (Al), titanium (Ti), or the like.

이동 단말기(100)는, 복수의 케이스가 각종 전자부품들을 수용하는 내부 공간을 마련하는 위의 예와 달리, 하나의 케이스가 상기 내부 공간을 마련하도록 구성될 수도 있다. 이 경우, 합성수지 또는 금속이 측면에서 후면으로 이어지는 유니 바디의 이동 단말기(100)가 구현될 수 있다.The mobile terminal 100 may be configured such that one case provides the internal space, unlike the above example in which a plurality of cases provide an internal space for accommodating various electronic components. In this case, a unibody mobile terminal 100 in which synthetic resin or metal is connected from the side to the rear side can be realized.

한편, 이동 단말기(100)는 단말기 바디 내부로 물이 스며들지 않도록 하는 방수부(미도시)를 구비할 수 있다. 예를 들어, 방수부는 윈도우(151a)와 프론트 케이스(101) 사이, 프론트 케이스(101)와 리어 케이스(102) 사이 또는 리어 케이스(102)와 후면 커버(103) 사이에 구비되어, 이들의 결합 시 내부 공간을 밀폐하는 방수부재를 포함할 수 있다.Meanwhile, the mobile terminal 100 may include a waterproof unit (not shown) for preventing water from penetrating into the terminal body. For example, the waterproof portion is provided between the window 151a and the front case 101, between the front case 101 and the rear case 102, or between the rear case 102 and the rear cover 103, And a waterproof member for sealing the inside space of the oven.

이동 단말기(100)에는 디스플레이부(151), 제1 및 제2 음향 출력부(152a, 152b), 근접 센서(141), 조도 센서(142), 광 출력부(154), 제1 및 제2 카메라(121a, 121b), 제1 및 제2 조작유닛(123a, 123b), 마이크로폰(122), 인터페이스부(160) 등이 구비될 수 있다.The mobile terminal 100 is provided with a display unit 151, first and second sound output units 152a and 152b, a proximity sensor 141, an illuminance sensor 142, a light output unit 154, Cameras 121a and 121b, first and second operation units 123a and 123b, a microphone 122, an interface unit 160, and the like.

이하에서는, 도 1b 및 도 1c에 도시된 바와 같이, 단말기 바디의 전면에 디스플레이부(151), 제1 음향 출력부(152a), 근접 센서(141), 조도 센서(142), 광 출력부(154), 제1 카메라(121a) 및 제1 조작유닛(123a)이 배치되고, 단말기 바디의 측면에 제2 조작유닛(123b), 마이크로폰(122) 및 인터페이스부(160)이 배치되며, 단말기 바디의 후면에 제2 음향 출력부(152b) 및 제2 카메라(121b)가 배치된 이동 단말기(100)를 일 예로 들어 설명한다.1B and 1C, a display unit 151, a first sound output unit 152a, a proximity sensor 141, an illuminance sensor 142, an optical output unit (not shown) A second operation unit 123b, a microphone 122 and an interface unit 160 are disposed on a side surface of the terminal body, And a mobile terminal 100 having a second sound output unit 152b and a second camera 121b disposed on a rear surface thereof.

다만, 이들 구성은 이러한 배치에 한정되는 것은 아니다. 이들 구성은 필요에 따라 제외 또는 대체되거나, 다른 면에 배치될 수 있다. 예를 들어, 단말기 바디의 전면에는 제1 조작유닛(123a)이 구비되지 않을 수 있으며, 제2 음향 출력부(152b)는 단말기 바디의 후면이 아닌 단말기 바디의 측면에 구비될 수 있다.However, these configurations are not limited to this arrangement. These configurations may be excluded or replaced as needed, or placed on different planes. For example, the first operation unit 123a may not be provided on the front surface of the terminal body, and the second sound output unit 152b may be provided on the side surface of the terminal body rather than the rear surface of the terminal body.

디스플레이부(151)는 이동 단말기(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 디스플레이부(151)는 이동 단말기(100)에서 구동되는 응용 프로그램의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다.The display unit 151 displays (outputs) information processed by the mobile terminal 100. For example, the display unit 151 may display execution screen information of an application program driven by the mobile terminal 100 or UI (User Interface) and GUI (Graphic User Interface) information according to the execution screen information .

디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.The display unit 151 may be a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), a flexible display display, a 3D display, and an e-ink display.

또한, 디스플레이부(151)는 이동 단말기(100)의 구현 형태에 따라 2개 이상 존재할 수 있다. 이 경우, 이동 단말기(100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다.In addition, the display unit 151 may exist in two or more depending on the embodiment of the mobile terminal 100. In this case, the mobile terminal 100 may be provided with a plurality of display portions spaced apart from each other or disposed integrally with one another, or may be disposed on different surfaces, respectively.

디스플레이부(151)는 터치 방식에 의하여 제어 명령을 입력 받을 수 있도록, 디스플레이부(151)에 대한 터치를 감지하는 터치센서를 포함할 수 있다. 이를 이용하여, 디스플레이부(151)에 대하여 터치가 이루어지면, 터치센서는 상기 터치를 감지하고, 제어부(180)는 이에 근거하여 상기 터치에 대응하는 제어명령을 발생시키도록 이루어질 수 있다. 터치 방식에 의하여 입력되는 내용은 문자 또는 숫자이거나, 각종 모드에서의 지시 또는 지정 가능한 메뉴항목 등일 수 있다.The display unit 151 may include a touch sensor that senses a touch with respect to the display unit 151 so that a control command can be received by a touch method. When a touch is made to the display unit 151, the touch sensor senses the touch, and the control unit 180 generates a control command corresponding to the touch based on the touch. The content input by the touch method may be a letter or a number, an instruction in various modes, a menu item which can be designated, and the like.

한편, 터치센서는, 터치패턴을 구비하는 필름 형태로 구성되어 윈도우(151a)와 윈도우(151a)의 배면 상의 디스플레이(미도시) 사이에 배치되거나, 윈도우(151a)의 배면에 직접 패터닝되는 메탈 와이어가 될 수도 있다. 또는, 터치센서는 디스플레이와 일체로 형성될 수 있다. 예를 들어, 터치센서는, 디스플레이의 기판 상에 배치되거나, 디스플레이의 내부에 구비될 수 있다.The touch sensor may be a film having a touch pattern and disposed between the window 151a and a display (not shown) on the rear surface of the window 151a, or may be a metal wire . Alternatively, the touch sensor may be formed integrally with the display. For example, the touch sensor may be disposed on a substrate of the display or inside the display.

이처럼, 디스플레이부(151)는 터치센서와 함께 터치 스크린을 형성할 수 있으며, 이 경우에 터치 스크린은 사용자 입력부(123, 도 1a 참조)로 기능할 수 있다. 경우에 따라, 터치 스크린은 제1조작유닛(123a)의 적어도 일부 기능을 대체할 수 있다.In this way, the display unit 151 can form a touch screen together with the touch sensor. In this case, the touch screen can function as a user input unit 123 (see FIG. 1A). In some cases, the touch screen may replace at least some functions of the first operation unit 123a.

제1 음향 출력부(152a)는 통화음을 사용자의 귀에 전달시키는 리시버(receiver)로 구현될 수 있으며, 제2 음향 출력부(152b)는 각종 알람음이나 멀티미디어의 재생음을 출력하는 라우드 스피커(loud speaker)의 형태로 구현될 수 있다.The first sound output unit 152a may be implemented as a receiver for transmitting a call sound to a user's ear and the second sound output unit 152b may be implemented as a loud speaker for outputting various alarm sounds or multimedia playback sounds. ). ≪ / RTI >

디스플레이부(151)의 윈도우(151a)에는 제1 음향 출력부(152a)로부터 발생되는 사운드의 방출을 위한 음향홀이 형성될 수 있다. 다만, 본 발명은 이에 한정되는 것은 아니고, 상기 사운드는 구조물 간의 조립틈(예를 들어, 윈도우(151a)와 프론트 케이스(101) 간의 틈)을 따라 방출되도록 구성될 수 있다. 이 경우, 외관상 음향 출력을 위하여 독립적으로 형성되는 홀이 보이지 않거나 숨겨져 이동 단말기(100)의 외관이 보다 심플해질 수 있다.The window 151a of the display unit 151 may be provided with an acoustic hole for emitting the sound generated from the first acoustic output unit 152a. However, the present invention is not limited to this, and the sound may be configured to be emitted along an assembly gap (for example, a gap between the window 151a and the front case 101) between the structures. In this case, the appearance of the mobile terminal 100 can be made more simple because the hole formed independently for the apparent acoustic output is hidden or hidden.

광 출력부(154)는 이벤트의 발생시 이를 알리기 위한 빛을 출력하도록 이루어진다. 상기 이벤트의 예로는 메시지 수신, 호 신호 수신, 부재중 전화, 알람, 일정 알림, 이메일 수신, 애플리케이션을 통한 정보 수신 등을 들 수 있다. 제어부(180)는 사용자의 이벤트 확인이 감지되면, 빛의 출력이 종료되도록 광 출력부(154)를 제어할 수 있다.The optical output unit 154 is configured to output light for notifying the occurrence of an event. Examples of the event include a message reception, a call signal reception, a missed call, an alarm, a schedule notification, an email reception, and reception of information through an application. The control unit 180 may control the light output unit 154 to terminate the light output when the event confirmation of the user is detected.

제1 카메라(121a)는 촬영 모드 또는 화상통화 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있으며, 메모리(170)에 저장될 수 있다.The first camera 121a processes an image frame of a still image or a moving image obtained by the image sensor in the photographing mode or the video communication mode. The processed image frame can be displayed on the display unit 151 and can be stored in the memory 170. [

제1 및 제2 조작유닛(123a, 123b)은 이동 단말기(100)의 동작을 제어하기 위한 명령을 입력 받기 위해 조작되는 사용자 입력부(123)의 일 예로서, 조작부(manipulating portion)로도 통칭될 수 있다. 제1 및 제2 조작유닛(123a, 123b)은 터치, 푸시, 스크롤 등 사용자가 촉각적인 느낌을 받으면서 조작하게 되는 방식(tactile manner)이라면 어떤 방식이든 채용될 수 있다. 또한, 제1 및 제2 조작유닛(123a, 123b)은 근접 터치(proximity touch), 호버링(hovering) 터치 등을 통해서 사용자의 촉각적인 느낌이 없이 조작하게 되는 방식으로도 채용될 수 있다.The first and second operation units 123a and 123b may be collectively referred to as a manipulating portion as an example of a user input unit 123 operated to receive a command for controlling the operation of the mobile terminal 100 have. The first and second operation units 123a and 123b can be employed in any manner as long as the user is in a tactile manner such as touch, push, scroll, or the like. In addition, the first and second operation units 123a and 123b may be employed in a manner that the user operates the apparatus without touching the user through a proximity touch, a hovering touch, or the like.

본 도면에서는 제1 조작유닛(123a)이 터치키(touch key)인 것으로 예시하나, 본 발명이 이에 한정되는 것은 아니다. 예를 들어, 제1 조작유닛(123a)은 푸시키(mechanical key)가 되거나, 터치키와 푸시키의 조합으로 구성될 수 있다.In this figure, the first operation unit 123a is a touch key, but the present invention is not limited thereto. For example, the first operation unit 123a may be a mechanical key or a combination of a touch key and a touch key.

제1 및 제2 조작유닛(123a, 123b)에 의하여 입력되는 내용은 다양하게 설정될 수 있다. 예를 들어, 제1 조작유닛(123a)은 메뉴, 홈키, 취소, 검색 등의 명령을 입력 받고, 제2 조작유닛(123b)은 제1 또는 제2 음향 출력부(152a, 152b)에서 출력되는 음향의 크기 조절, 디스플레이부(151)의 터치 인식 모드로의 전환 등의 명령을 입력 받을 수 있다.The contents input by the first and second operation units 123a and 123b can be variously set. For example, the first operation unit 123a receives a command such as a menu, a home key, a cancellation, a search, and the like, and the second operation unit 123b receives a command from the first or second sound output unit 152a or 152b The size of the sound, and the change of the display unit 151 to the touch recognition mode.

한편, 단말기 바디의 후면에는 사용자 입력부(123)의 다른 일 예로서, 후면 입력부(미도시)가 구비될 수 있다. 이러한 후면 입력부는 이동 단말기(100)의 동작을 제어하기 위한 명령을 입력 받기 위해 조작되는 것으로서, 입력되는 내용은 다양하게 설정될 수 있다. 예를 들어, 전원의 온/오프, 시작, 종료, 스크롤 등과 같은 명령, 제1 및 제2 음향 출력부(152a, 152b)에서 출력되는 음향의 크기 조절, 디스플레이부(151)의 터치 인식 모드로의 전환 등과 같은 명령을 입력 받을 수 있다. 후면 입력부는 터치입력, 푸시입력 또는 이들의 조합에 의한 입력이 가능한 형태로 구현될 수 있다.On the other hand, a rear input unit (not shown) may be provided on the rear surface of the terminal body as another example of the user input unit 123. The rear input unit is operated to receive a command for controlling the operation of the mobile terminal 100, and input contents may be variously set. For example, commands such as power on / off, start, end, scrolling, and the like, the size adjustment of the sound output from the first and second sound output units 152a and 152b, And the like can be inputted. The rear input unit may be implemented as a touch input, a push input, or a combination thereof.

후면 입력부는 단말기 바디의 두께방향으로 전면의 디스플레이부(151)와 중첩되게 배치될 수 있다. 일 예로, 사용자가 단말기 바디를 한 손으로 쥐었을 때 검지를 이용하여 용이하게 조작 가능하도록, 후면 입력부는 단말기 바디의 후면 상단부에 배치될 수 있다. 다만, 본 발명은 반드시 이에 한정되는 것은 아니며, 후면 입력부의 위치는 변경될 수 있다.The rear input unit may be disposed so as to overlap with the front display unit 151 in the thickness direction of the terminal body. For example, the rear input unit may be disposed at the rear upper end of the terminal body such that when the user holds the terminal body with one hand, the rear input unit can be easily operated using the index finger. However, the present invention is not limited thereto, and the position of the rear input unit may be changed.

이처럼 단말기 바디의 후면에 후면 입력부가 구비되는 경우, 이를 이용한 새로운 형태의 유저 인터페이스가 구현될 수 있다. 또한, 앞서 설명한 터치 스크린 또는 후면 입력부가 단말기 바디의 전면에 구비되는 제1 조작유닛(123a)의 적어도 일부 기능을 대체하여, 단말기 바디의 전면에 제1 조작유닛(123a)이 미배치되는 경우, 디스플레이부(151)가 보다 대화면(大畵面)으로 구성될 수 있다.When a rear input unit is provided on the rear surface of the terminal body, a new type of user interface using the rear input unit can be realized. When the first operation unit 123a is not disposed on the front surface of the terminal body in place of at least a part of the functions of the first operation unit 123a provided on the front surface of the terminal body, The display unit 151 may be configured as a larger screen.

한편, 이동 단말기(100)에는 사용자의 지문을 인식하는 지문인식센서가 구비될 수 있으며, 제어부(180)는 지문인식센서를 통하여 감지되는 지문정보를 인증수단으로 이용할 수 있다. 상기 지문인식센서는 디스플레이부(151) 또는 사용자 입력부(123)에 내장될 수 있다.Meanwhile, the mobile terminal 100 may be provided with a fingerprint recognition sensor for recognizing the fingerprint of the user, and the controller 180 may use the fingerprint information sensed through the fingerprint recognition sensor as authentication means. The fingerprint recognition sensor may be embedded in the display unit 151 or the user input unit 123.

마이크로폰(122)은 사용자의 음성, 기타 소리 등을 입력 받도록 이루어진다. 마이크로폰(122)은 복수의 개소에 구비되어 스테레오 음향을 입력 받도록 구성될 수 있다.The microphone 122 is configured to receive the user's voice, other sounds, and the like. The microphone 122 may be provided at a plurality of locations to receive stereophonic sound.

인터페이스부(160)는 이동 단말기(100)를 외부기기와 연결시킬 수 있는 통로가 된다. 예를 들어, 인터페이스부(160)는 다른 장치(예를 들어, 이어폰, 외장 스피커)와의 연결을 위한 접속단자, 근거리 통신을 위한 포트[예를 들어, 적외선 포트(IrDA Port), 블루투스 포트(Bluetooth Port), 무선 랜 포트(Wireless LAN Port) 등], 또는 이동 단말기(100)에 전원을 공급하기 위한 전원공급단자 중 적어도 하나일 수 있다. 이러한 인터페이스부(160)는 SIM(Subscriber Identification Module) 또는 UIM(User Identity Module), 정보 저장을 위한 메모리 카드 등의 외장형 카드를 수용하는 소켓의 형태로 구현될 수도 있다.The interface unit 160 is a path through which the mobile terminal 100 can be connected to an external device. For example, the interface unit 160 may include a connection terminal for connection with another device (for example, an earphone or an external speaker), a port for short-range communication (for example, an infrared port (IrDA Port), a Bluetooth port A wireless LAN port, or the like), or a power supply terminal for supplying power to the mobile terminal 100. The interface unit 160 may be implemented as a socket for receiving an external card such as a SIM (Subscriber Identification Module) or a UIM (User Identity Module) or a memory card for storing information.

단말기 바디의 후면에는 제2카메라(121b)가 배치될 수 있다. 이 경우, 제2카메라(121b)는 제1카메라(121a)와 실질적으로 반대되는 촬영 방향을 가지게 된다.And a second camera 121b may be disposed on a rear surface of the terminal body. In this case, the second camera 121b has a photographing direction which is substantially opposite to that of the first camera 121a.

제2카메라(121b)는 적어도 하나의 라인을 따라 배열되는 복수의 렌즈를 포함할 수 있다. 복수의 렌즈는 행렬(matrix) 형식으로 배열될 수도 있다. 이러한 카메라는, "어레이(array) 카메라"라고 명명될 수 있다. 제2카메라(121b)가 어레이 카메라로 구성되는 경우, 복수의 렌즈를 이용하여 다양한 방식으로 영상을 촬영할 수 있으며, 보다 나은 품질의 영상을 획득할 수 있다.The second camera 121b may include a plurality of lenses arranged along at least one line. The plurality of lenses may be arranged in a matrix form. Such a camera may be termed an "array camera ". When the second camera 121b is configured as an array camera, images can be taken in various ways using a plurality of lenses, and a better quality image can be obtained.

플래시(124)는 제2카메라(121b)에 인접하게 배치될 수 있다. 플래시(124)는 제2카메라(121b)로 피사체를 촬영하는 경우에 피사체를 향하여 빛을 비추게 된다.The flash 124 may be disposed adjacent to the second camera 121b. The flash 124 shines light toward the subject when the subject is photographed by the second camera 121b.

단말기 바디에는 제2 음향 출력부(152b)가 추가로 배치될 수 있다. 제2 음향 출력부(152b)는 제1 음향 출력부(152a)와 함께 스테레오 기능을 구현할 수 있으며, 통화시 스피커폰 모드의 구현을 위하여 사용될 수도 있다.And a second sound output unit 152b may be additionally disposed in the terminal body. The second sound output unit 152b may implement a stereo function together with the first sound output unit 152a and may be used for implementing a speakerphone mode in a call.

단말기 바디에는 무선 통신을 위한 적어도 하나의 안테나가 구비될 수 있다. 안테나는 단말기 바디에 내장되거나, 케이스에 형성될 수 있다. 예를 들어, 방송 수신 모듈(111, 도 1a 참조)의 일부를 이루는 안테나는 단말기 바디에서 인출 가능하게 구성될 수 있다. 또는, 안테나는 필름 타입으로 형성되어 후면 커버(103)의 내측면에 부착될 수도 있고, 도전성 재질을 포함하는 케이스가 안테나로서 기능하도록 구성될 수도 있다.The terminal body may be provided with at least one antenna for wireless communication. The antenna may be embedded in the terminal body or formed in the case. For example, an antenna constituting a part of the broadcast receiving module 111 (see FIG. 1A) may be configured to be able to be drawn out from the terminal body. Alternatively, the antenna may be formed in a film type and attached to the inner surface of the rear cover 103, or a case including a conductive material may be configured to function as an antenna.

단말기 바디에는 이동 단말기(100)에 전원을 공급하기 위한 전원 공급부(190, 도 1a 참조)가 구비된다. 전원 공급부(190)는 단말기 바디에 내장되거나, 단말기 바디의 외부에서 착탈 가능하게 구성되는 배터리(191)를 포함할 수 있다.The terminal body is provided with a power supply unit 190 (see FIG. 1A) for supplying power to the mobile terminal 100. The power supply unit 190 may include a battery 191 built in the terminal body or detachable from the outside of the terminal body.

배터리(191)는 인터페이스부(160)에 연결되는 전원 케이블을 통하여 전원을 공급받도록 구성될 수 있다. 또한, 배터리(191)는 무선충전기기를 통하여 무선충전 가능하도록 구성될 수도 있다. 상기 무선충전은 자기유도방식 또는 공진방식(자기공명방식)에 의하여 구현될 수 있다.The battery 191 may be configured to receive power through a power cable connected to the interface unit 160. In addition, the battery 191 may be configured to be wirelessly chargeable through a wireless charger. The wireless charging may be implemented by a magnetic induction method or a resonance method (magnetic resonance method).

한편, 본 도면에서는 후면 커버(103)가 배터리(191)를 덮도록 리어 케이스(102)에 결합되어 배터리(191)의 이탈을 제한하고, 배터리(191)를 외부 충격과 이물질로부터 보호하도록 구성된 것을 예시하고 있다. 배터리(191)가 단말기 바디에 착탈 가능하게 구성되는 경우, 후면 커버(103)는 리어 케이스(102)에 착탈 가능하게 결합될 수 있다.The rear cover 103 is configured to be coupled to the rear case 102 so as to cover the battery 191 to restrict the release of the battery 191 and to protect the battery 191 from external impact and foreign matter . When the battery 191 is detachably attached to the terminal body, the rear cover 103 may be detachably coupled to the rear case 102.

이동 단말기(100)에는 외관을 보호하거나, 이동 단말기(100)의 기능을 보조 또는 확장시키는 액세서리가 추가될 수 있다. 이러한 액세서리의 일 예로, 이동 단말기(100)의 적어도 일면을 덮거나 수용하는 커버 또는 파우치를 들 수 있다. 커버 또는 파우치는 디스플레이부(151)와 연동되어 이동 단말기(100)의 기능을 확장시키도록 구성될 수 있다. 액세서리의 다른 일 예로, 터치 스크린에 대한 터치입력을 보조 또는 확장하기 위한 터치펜을 들 수 있다.The mobile terminal 100 may be provided with an accessory that protects the appearance or supports or expands the function of the mobile terminal 100. [ One example of such an accessory is a cover or pouch that covers or accommodates at least one side of the mobile terminal 100. [ The cover or pouch may be configured to interlock with the display unit 151 to expand the function of the mobile terminal 100. Another example of an accessory is a touch pen for supplementing or extending a touch input to the touch screen.

본 발명에 따른 이동 단말기(100)는 도 1a 내지 도 1c에 도시된 구성요소 중 적어도 하나를 포함할 수 있다. 구체적으로, 본 발명에 따른 이동 단말기는 카메라(121), 디스플레이부(151), 메모리(160) 및 제어부(180)를 포함할 수 있다. 후술되는 도면들에서는 이동 단말기(100)의 일예로, 핸드폰을 예시할 것이나, 핸드폰 이외에 카메라(121)를 구비하고 있는 전자 기기(예컨대, 디지털 카메라, 미러리스 카메라, 태블릿 PC, PDA 등)에도 후술되는 실시예들이 적용될 수 있다 할 것이다.The mobile terminal 100 according to the present invention may include at least one of the components shown in Figs. 1A to 1C. In detail, the mobile terminal according to the present invention may include a camera 121, a display unit 151, a memory 160, and a controller 180. In the following drawings, for example, a mobile phone will be described as an example of the mobile terminal 100, but an electronic device (e.g., a digital camera, a mirrorless camera, a tablet PC, a PDA, etc.) May be applied.

이동 단말기(100)에 구비된 카메라(121)는, 렌즈 및 촬상소자를 포함할 수 있다. 렌즈는 빛을 모으거나 분산하기 위한 것이고, 이미지 센서는 렌즈를 통과한 빛을 결상하고, 결상된 영상을 전기 신호로 변환하는 역할을 수행한다. 렌즈와 이미지 센서 사이의 거리는 '초점 거리'라 호칭될 수 있다.The camera 121 provided in the mobile terminal 100 may include a lens and an imaging device. The lens is for collecting or dispersing the light, and the image sensor forms the light passing through the lens and converts the formed image into an electric signal. The distance between the lens and the image sensor may be referred to as the " focal length ".

제어부(180)는 사진 촬영 시, 피사체로 초점을 맞추기 위해, 렌즈와 이미지 센서 사이의 거리를 조절하는 오토 포커스를 실행할 수 있다.The control unit 180 can perform autofocus to adjust the distance between the lens and the image sensor in order to focus on the subject at the time of photographing.

이때, 본 발명에 따른 이동 단말기(100)는 거리 측정 방식을 기초로 초점 거리를 조절하되, 대비 방식 및 위상차 방식 중 적어도 하나 이상을 추가 이용하여, 초점 거리를 보정할 수도 있다. 먼저, 거리 측정 방식, 대비 방식 및 위상차 방식에 의한 오토 포커스에 대해 상세히 설명하기로 한다.At this time, the mobile terminal 100 according to the present invention may adjust the focal distance based on the distance measurement method, and may further correct at least one of the contrast method and the phase difference method to correct the focal distance. First, the autofocus by the distance measuring method, the contrast method, and the phase difference method will be described in detail.

도 2는 본 발명에 적용될 수 있는 거리 측정 방식의 오토 포커스를 설명하기 위한 도면이다. 거리 측정 방식의 오토 포커스를 이용하기 위해, 본 발명에 따른 이동 단말기(100)는, 발광부(210) 및 수광부(220)를 포함할 수 있다.2 is a view for explaining autofocus of a distance measuring method applicable to the present invention. The mobile terminal 100 according to the present invention may include a light emitting portion 210 and a light receiving portion 220 in order to utilize the distance measurement type autofocus.

발광부(210)는 빛을 발생하는 역할을 한다. 구체적으로, 발광부(210)를 통해서는 직진성이 강한 레이저 또는 적외선 등의 빛이 출력될 수 있다.The light emitting portion 210 serves to generate light. Specifically, light such as a laser or infrared ray having a strong directivity can be outputted through the light emitting portion 210.

수광부(220)는, 피사체에 의해 반사되는 빛을 수광하는 역할을 수행한다.The light receiving unit 220 serves to receive light reflected by the object.

발광부(210)를 통해 레이저 또는 적외선 등의 빛이 발사되면, 레이저 또는 적외선 등의 빛은 피사체에 부딪혀 반사되게 된다. 피사체에 의해 반사된 빛은 수광부(220)를 통해 수신될 수 있다. 이때, 제어부(180)는 발광부(210)를 통해 빛이 발사된 이후, 수광부(220)가 반사된 빛을 검출할 때까지 소요된 시간을 기초로, 카메라(121)와 피사체 사이의 거리를 산출할 수 있다. 카메라(121)와 피사체 사이의 거리가 산출되면, 제어부(180)는 카메라(121)와 피사체 사이의 거리에 맞춰 초점 거리를 조절할 수 있다. When light such as a laser or infrared rays is emitted through the light emitting unit 210, light such as a laser or infrared rays is reflected by being hitting a subject. Light reflected by the subject can be received through the light receiving unit 220. [ At this time, the control unit 180 calculates the distance between the camera 121 and the subject based on the time taken until the light-receiving unit 220 detects the reflected light after the light is emitted through the light-emitting unit 210 Can be calculated. When the distance between the camera 121 and the subject is calculated, the control unit 180 can adjust the focal distance according to the distance between the camera 121 and the subject.

다른 예로, 제어부(180)는 발광부를 통해 빛이 발사된 이후, 수광부가 반사된 빛을 검출할 때까지 소요된 시간을 기초로, 초점 거리를 조절할 수도 있다.As another example, the control unit 180 may adjust the focal distance based on the time taken for the light receiving unit to detect the reflected light after the light is emitted through the light emitting unit.

도 2에서는 카메라(121)와 피사체 사이의 거리에 따라, 초점 위치가 결정되는 룩업 테이블 및 빛을 발사한 뒤, 반사된 빛이 검출될 때까지 소요된 시간에 따라, 초점 위치가 결정되는 룩업 테이블이 도시되었다.2 shows a lookup table in which the focus position is determined according to the distance between the camera 121 and the subject and a lookup table in which the focus position is determined according to the time taken for the reflected light to be detected after the light is emitted. Was shown.

도 2에서는 빛을 발사한 뒤, 반사되는 빛이 검출될 때까지 소요되는 시간을 기초로, 오토 포커스가 행하여지는 것으로 예시하였다.In FIG. 2, autofocus is performed on the basis of the time taken for the reflected light to be detected after the light is emitted.

도시된 예와 달리, 빛 대신, 초음파를 이용하여, 거리 측정 방식의 오토 포커스가 행하여질 수도 있다.Unlike the example shown in the drawing, a distance measurement type autofocus may be performed using ultrasonic waves instead of light.

도 3은 본 발명에 적용될 수 있는 거리 측정 방식의 오토 포커스를 설명하기 위한 다른 예를 도시한 도면이다. 초음파를 이용한 거리 측정 방식의 오토 포커스를 이용하기 위해, 이동 단말기(100)는 초음파 발생부(310) 및 집음부(320)를 포함할 수 있다.FIG. 3 is a view showing another example for explaining autofocus of a distance measurement method applicable to the present invention. The mobile terminal 100 may include an ultrasound generating unit 310 and a sound collecting unit 320 in order to utilize the autofocus of the distance measurement system using the ultrasonic waves.

초음파 발생부(310)는 초음파를 발생시키는 역할을 한다.The ultrasonic wave generator 310 generates ultrasonic waves.

집음부(#20)는 울림(echo) 소리를 수신하는 역할을 수행한다.The sound collector (# 20) plays a role of receiving an echo sound.

초음파 발생부(310)를 통해 초음파가 발생되면, 초음파는 피사체에 부딪히게 되고, 이에 따라, 초음파의 울림(echo)이 발생할 수 있다. 이에 따라, 집음부(320)는 피사체에 부딪혀 발생하는 울림 소리를 수신할 수 있다. 제어부(180)는 초음파 발생부(310)를 통해 초음파가 발생된 이후, 집음부(320)가 울림 소리를 검출할 때까지 소요된 시간을 기초로, 카메라(121)와 피사체 사이의 거리를 산출할 수 있다. 카메라(121)와 피사체 사이의 거리가 산출되면, 제어부(180)는 카메라(121)와 피사체 사이의 거리에 맞춰 초점 거리를 조절할 수 있다.When the ultrasonic wave is generated through the ultrasonic wave generator 310, the ultrasonic wave is hit by the object, and thus an echo of the ultrasonic wave may occur. Accordingly, the sound collecting unit 320 can receive a sound that is generated when the object is hitting the object. The control unit 180 calculates the distance between the camera 121 and the subject based on the time taken for the sound collector 320 to detect a sound after the ultrasonic wave is generated through the ultrasonic generator 310 can do. When the distance between the camera 121 and the subject is calculated, the control unit 180 can adjust the focal distance according to the distance between the camera 121 and the subject.

다른 예로, 제어부(180)는 초음파 발생부(310)를 통해 초음파가 발사된 이후, 집음부(320)가 울림 소리를 검출할 때까지 소요된 시간을 기초로, 초점 거리를 조절할 수도 있다.Alternatively, the control unit 180 may adjust the focal distance based on the time taken for the sound collector 320 to detect the sound of ringing after the ultrasonic wave is emitted through the ultrasonic generator 310.

도 3에서는 카메라(121)와 피사체 사이의 거리에 따라, 초점 위치(즉, 피사체에 초점이 맞춰질 때의 초점 거리)가 결정되는 룩업 테이블 및 초음파를 발사한 뒤, 울림 소리가 검출될 때까지 소요된 시간에 따라, 초점 위치가 결정되는 룩업 테이블이 도시되었다.In FIG. 3, after a lookup table and an ultrasonic wave, which determine the focus position (that is, the focal distance when the subject is focused), are emitted according to the distance between the camera 121 and the subject, A look-up table is shown in which the focus position is determined according to the time that has elapsed.

도 2 및 도 3과 같은 거리 측정 방식의 오토 포커스는 빠르게 오토 포커스를 행할 수 있다는 이점이 있다. 아울러, 저조도에서도 무리 없이 오토 포커스를 수행할 수 있다는 이점이 있다.The autofocus of the distance measuring method as shown in Figs. 2 and 3 has an advantage that autofocus can be performed quickly. In addition, there is an advantage in that autofocus can be performed without difficulty even in low light.

다만, 피사체가 카메라(121)로부터 너무 멀리 떨어지는 경우, 정확성이 떨어진다는 단점이 있다. 아울러, 레이저 또는 적외선 등의 빛을 이용하는 경우, 태양광이 노출된 환경에서는 정확성이 떨어진다는 단점이 있다.However, when the subject is far away from the camera 121, there is a disadvantage that accuracy is degraded. In addition, when light such as a laser or an infrared ray is used, there is a disadvantage in that the accuracy is lowered in an environment in which sunlight is exposed.

도 4는 본 발명에 적용될 수 있는 위상차 방식의 오토 포커스를 설명하기 위한 도면이다. 도 4의 (a)에 도시된 예에서와 같이, 렌즈를 통과한 빛이 이미지 센서를 통과하기 전, 빛의 일부는 미러에 반사되어 2개의 AF 센서로 보내질 수 있다. 4 is a view for explaining a phase difference autofocus that can be applied to the present invention. As in the example shown in FIG. 4 (a), before the light passing through the lens passes through the image sensor, a part of the light may be reflected on the mirror and sent to two AF sensors.

그러면, 제어부(180)는 두 AF 센서 사이의 위상차를 측정하여, 초점 거리를 좁혀야 할 지 늘려야 할지를 결정할 수 있다. 구체적으로, 제어부(180)는 도 4의 (b)에 도시된 예에서와 같이, 양 AF 센서 사이 위상차가 없으면 피사체에 초점이 맞춰진 것으로 볼 수 있다. 이와 달리, 제어부(180)는, 제 1 AF 센서의 위상이 제 2 AF 센서의 위상보다 앞서면, 초점 거리를 줄이고, 제 1 AF 센서의 위상이 제 2 AF 센서의 위상보다 뒤지면, 초점 거리를 늘려, 초점 위치를 결정할 수 있다. Then, the control unit 180 can measure the phase difference between the two AF sensors to determine whether to increase or decrease the focal distance. Specifically, as in the example shown in Fig. 4 (b), the control unit 180 can be regarded as focused on the subject if there is no phase difference between the two AF sensors. Alternatively, when the phase of the first AF sensor is higher than the phase of the second AF sensor, the control unit 180 reduces the focal distance, and if the phase of the first AF sensor is lower than the phase of the second AF sensor, The focus position can be determined.

이미지 센서에 AF 센서를 삽입할 경우, 미러 없이(mirrorless) 위상차 방식의 오토 포커스를 수행할 수도 있다. 일예로, 도 5는 AF 센서가 삽입된 이미지 센서를 예시한 도면이다. 도 5에 도시된 예에서와 같이, 이미지 센서에 촬상 소자와 AF 센서를 동시에 매립할 경우, 이미지 센서에 매립된 AF 센서를 통해 위상차 방식의 오토 포커스를 수행할 수 있다.When inserting an AF sensor in the image sensor, it is possible to perform a mirrorless phase difference autofocus. For example, FIG. 5 illustrates an image sensor in which an AF sensor is inserted. As in the example shown in Fig. 5, when the image sensor and the AF sensor are simultaneously embedded in the image sensor, the phase difference type autofocus can be performed through the AF sensor embedded in the image sensor.

위상차 방식의 오토 포커스는 비교적 정확히 오토 포커스를 수행할 수 있는 이점이 있다. 다만, 빛의 양이 적은 저조도 환경에서는 오토 포커스 정확성이 떨어진다는 단점이 있다.The phase difference type autofocus has an advantage that autofocus can be relatively accurately performed. However, there is a disadvantage in that the autofocus accuracy is lowered in a low-light environment in which the amount of light is small.

위상차 방식의 오토 포커스 방식은 후술될 대비차 방식의 오토 포커스 방식과 달리, 초점 거리의 전 범위에 걸쳐 렌즈를 이동시킬 필요는 없다. 예컨대, 초점 거리가 10~50mm의 범위를 갖고 있을 때, 렌즈의 초점 거리를 10mm에서 20mm로 늘렸을 때에는 제 1 AF 센서의 위상이 제 2 AF 센서의 위상보다 앞서고, 렌즈의 초점 거리를 20mm에서 25mm로 늘렸을 ?에는 제 1 AF 센서의 위상이 제 2 AF 센서의 위상보다 뒤진다면, 25mm를 초과한 부분에 대해서는 렌즈를 이동시킬 필요가 없다. 즉, 제어부(180)는 총 10~50mm의 범위 중 10mm~25mm 범위 내에서만 렌즈를 이동 시킴으로써, 오토 포커스를 수행할 수 있다.The phase difference type autofocus system does not need to move the lens over the entire focal distance unlike the contrast difference type autofocus system which will be described later. For example, when the focal length is in the range of 10 to 50 mm, when the focal length of the lens is increased from 10 mm to 20 mm, the phase of the first AF sensor is higher than the phase of the second AF sensor, If the phase of the first AF sensor is lower than the phase of the second AF sensor, it is not necessary to move the lens for a portion exceeding 25 mm. That is, the controller 180 can perform autofocusing by moving the lens only within a range of 10 mm to 25 mm in the range of 10 to 50 mm in total.

다만, 렌즈의 초기 위치가 초점 위치와 멀리 떨어져 있다면, 위상차 방식의 오토 포커스도 장시간이 소요될 수 있다. However, if the initial position of the lens is far away from the focus position, autofocus of the phase difference system may take a long time.

도 6은 본 발명에 적용될 수 있는 대비차 방식 오토 포커스를 설명하기 위한 도면이다. 제어부(180)는 카메라(121)의 초점 거리를 조절해가며 이미지 분석을 수행할 수 있다. 예컨대, 초점 거리가 10~50mm의 범위를 갖는다면, 제어부(180)는 렌즈와 이미지 센서 사이의 초점 거리를 10~50mm 사이로 조절하면서, 이미지 분석을 수행할 수 있다.FIG. 6 is a view for explaining contrast-contrast autofocus that can be applied to the present invention. The control unit 180 may perform image analysis while adjusting the focal distance of the camera 121. [ For example, if the focal length has a range of 10 to 50 mm, the controller 180 can perform image analysis while adjusting the focal distance between the lens and the image sensor to 10 to 50 mm.

이후, 제어부(180)는, 이미지 분석 결과, 엣지(edge)를 경계로, 엣지의 안팎에서 명암 대비차가 가장 컸을 때의 초점 거리를 초점 위치로 결정할 수 있다. 여기서, 엣지란, 화상속 인물 또는 물체의 경계를 의미할 수 있다. 예컨대, 풍경 속 인물을 감지한 화상이 입력되는 경우라면, 인물과 배경의 경계가 엣지로 설정될 수 있다.Thereafter, the controller 180 can determine the focal length as the focal position when the contrast difference is greatest at the edge and the edge, as a result of the image analysis. Here, the edge may mean a boundary of an image or character or an object. For example, if an image sensing a person in the landscape is input, the boundary between the person and the background may be set as an edge.

대비차 방식의 오토 포커스는 정확히 오토 포커스를 수행할 수 있는 이점이 있다. 다만, 초점 거리 전 범위에 대해 이미지 분석을 수행하기 때문에, 속도가 느리고, 저조도에서 정확성이 떨어진다는 단점이 있다. 또한, 카메라(121)와 근접한 피사체에 대해서도 정확성이 떨어진다는 단점이 있다.The contrast-based autofocus has the advantage that autofocus can be performed accurately. However, since the image analysis is performed over the entire range of the focal length, there is a disadvantage that the speed is slow and the accuracy is low at low illumination. In addition, there is a disadvantage in that the accuracy of the subject near the camera 121 is low.

표 1은 상술한 각 오토 포커스 방식의 장단점을 정리한 도표이다.Table 1 summarizes the advantages and disadvantages of each of the above-described autofocus systems.

구분division 거리차 방식Distance-based method 위상차 방식Phase difference method 대비차 방식Contrast method 정확성accuracy 낮음lowness 높음height 높음height 속도speed 빠름speed 보통usually 느림Slow 저조도에서의 정확성Accuracy at low light levels 높음height 낮음lowness 낮음lowness 고조도에서의 정확성Accuracy at high level 낮음lowness 높음height 높음height

본 발명에서는, 상술한 거리차 방식의 오토 포커스, 위상차 방식의 오토 포커스 및 대비차 방식의 오토 포커스를 모두 적용하여, 정확성이 높고, 속도가 빠른 오토 포커스 수행 방법에 대해 개시하고자 한다. 후술되는 도면을 참조하여, 본 발명에 따른 이동 단말기(100)에 대해 상세히 설명하기로 한다.In the present invention, a method of performing autofocus with high accuracy and high speed by applying the above-described distance difference autofocus, phase difference autofocus and contrast difference autofocus will be disclosed. The mobile terminal 100 according to the present invention will be described in detail with reference to the following drawings.

도 7은 본 발명의 일예에 따른 이동 단말기(100)의 동작 흐름도이다.7 is a flowchart illustrating an operation of the mobile terminal 100 according to an embodiment of the present invention.

카메라(121)가 활성화 되어, 프리뷰 영상이 출력되고, 프리뷰 영상 속 소정 위치가 터치되면(S701), 제어부(180)는 피사체와의 거리를 측정할 수 있다(S702). 구체적으로, 제어부(180)는 레이저 또는 초음파를 통해 카메라(121)와 피사체 사이의 거리를 측정할 수 있다.When the camera 121 is activated, a preview image is output, and a predetermined position in the preview image is touched (S701), the controller 180 can measure the distance to the subject (S702). Specifically, the control unit 180 can measure the distance between the camera 121 and the object through a laser or an ultrasonic wave.

이때, 수광부는 픽셀 어레이로 구성될 수 있다. 제어부(180)는 빛이 발사된 이후, 각 픽셀별 반사되는 빛이 수신될 때까지의 소요 시간을 측정할 수 있다. 이에 따라, 각 픽셀별 피사체와의 거리가 측정될 수 있을 것이다. 이때, 수광부의 각 픽셀은 프리뷰 영상의 각 영역에 대응할 수 있다. 프리뷰 영상은 카메라(121)를 통해 사진 또는 동영상이 촬영되기 전 카메라(121)를 통해 입력된 영상을 의미하는 것일 수 있다.At this time, the light receiving unit may be composed of a pixel array. The control unit 180 can measure the time required until the light reflected by each pixel is received after the light is emitted. Thus, the distance between the subject and each pixel can be measured. At this time, each pixel of the light receiving unit may correspond to each region of the preview image. The preview image may be an image input through the camera 121 before the photograph or the moving image is captured through the camera 121. [

도 8은 수광부의 각 픽셀과, 프리뷰 영상 사이의 대응 관계를 설명하기 위한 도면이다.8 is a diagram for explaining a correspondence relationship between each pixel of the light-receiving unit and the preview image.

설명의 편의를 위해, 픽셀 어레이는 16개의 픽셀로 구성된 것으로 가정하고, 프리뷰 영상은 픽셀 어레이의 수만큼 16개의 영역으로 분할되는 것이라 가정한다.For convenience of explanation, it is assumed that the pixel array is composed of 16 pixels, and that the preview image is divided into 16 regions by the number of pixel arrays.

픽셀 어레이의 N 번째 픽셀은 디스플레이부(151)의 N 번째 영역에 대응할 수 있다. 예컨대, 1번 픽셀은 프리뷰 영상의 1번 영역에 대응할 수 있다. 이에 따라, N번 픽셀이 빛을 수신할 때까지 소요된 시간은 프리뷰 영상의 N번 영역에 위치한 피사체와의 거리를 측정하는데 이용될 수 있다. 이로써, 제어부(180)는 프리뷰 영상의 각 영역 별로, 각 영역 속 피사체와의 거리를 측정할 수 있다.The N-th pixel of the pixel array may correspond to the N-th area of the display unit 151. For example, the pixel # 1 may correspond to the area # 1 of the preview image. Accordingly, the time taken until the N-th pixel receives the light can be used to measure the distance to the object located in the area N of the preview image. Thus, the control unit 180 can measure the distance to the subject in each area for each area of the preview image.

피사체와의 거리 측정이 완료되면, 제어부(180)는 사용자의 터치 위치에 대응하는 영역 속 피사체와의 거리를 기초로 초점 위치를 설정할 수 있다(S703). 일예로, 도 8에 도시된 예에서, 사용자가 프리뷰 영역의 5번 영역을 터치한 경우라면, 제어부(180)는 5번 픽셀이 반사되는 빛을 수신할 때까지 소요된 시간을 기초로, 초점 위치를 결정할 수 있다.When the distance measurement with respect to the subject is completed, the control unit 180 can set the focus position based on the distance to the subject in the area corresponding to the touch position of the user (S703). For example, in the example shown in FIG. 8, if the user touches the fifth area of the preview area, the controller 180 determines whether the fifth pixel is in focus The position can be determined.

이후, 제어부(180)는 위상차 오토 포커스를 통한 초점 위치 보정을 수행할 수 있다(S704). 구체적으로, 제어부(180)는 초점 위치로 렌즈를 위치시켜 놓고, 2개의 AF 센서(또는 AF 센서가 매립된 이미지 센서) 사이의 위상차를 기초로, 초점 거리를 늘리거나 줄여, 초점 위치를 조절할 수 있다. 거리차 방식의 오토 포커스 수행으로 인해, 렌즈의 초기 위치가 절대적인 초점 위치가 가깝게 되므로, 위상차 오토 포커스를 통한 렌즈의 이동 거리가 단축될 수 있다.Thereafter, the control unit 180 can perform the focus position correction through the phase difference autofocus (S704). Specifically, the control unit 180 can position the lens at the focal position and adjust the focal position based on the phase difference between the two AF sensors (or the image sensor with the AF sensor embedded therein) have. Due to the distance difference type autofocusing, the initial position of the lens becomes close to the absolute focal position, so that the moving distance of the lens through the phase-difference autofocus can be shortened.

위상차 오토 포커스를 통한 초점 위치 보정이 완료되면, 제어부(180)는 대비차 오토 포커스를 통해 2차 초점 위치 보정을 수행할 수 있다(S705). 구체적으로, 제어부(180)는 위상차 오토 포커스를 통해 보정된 초점 위치로 렌즈를 위치 시켜 놓고, 보정된 초점 위치의 전후 소정 초점 거리 이내의 범위에서 이미지 분석을 수행함으로써 2차 보정을 수행할 수 있다. 예컨대, 10~50mm 초점 거리 중 위상차 오토 포커스에 의해 25mm의 초점 거리가 보정된 초점 위치로 결정되었다면, 제어부(180)는 25mm 초점 거리 전 2mm 및 후 2mm(즉, 23~27mm) 범위 내에서 렌즈를 이동 시켜 가며, 이미지 분석을 수행할 수 있다. 제어부(180)는 초점 거리 23~27mm 범위 내 엣지 부분에서 대비차가 가장 컸을 때의 위치를 2차 보정된 초점 위치로 결정할 수 있다. 위처럼, 이미지 분석을 수행할 초점 거리를 전체 초점 거리 중 일부로 제한함으로써, 대비차 오토 포커스의 수행 속도가 증가할 수 있다.When the focus position correction through the phase difference autofocus is completed, the controller 180 can perform the secondary focus position correction through the contrast auto focus (S705). Specifically, the control unit 180 can perform the secondary correction by positioning the lens at the corrected focal position through the phase-difference autofocus, and performing image analysis within a predetermined focal length before and after the corrected focal position . For example, if the focal length of 25 mm is determined to be the corrected focal position by the phase difference autofocus in the range of 10 to 50 mm, the control unit 180 controls the lens in the range of 2 mm before the 25 mm focal length and 2 mm after (i.e., 23 to 27 mm) So that image analysis can be performed. The controller 180 can determine the position at which the contrast difference is greatest at the edge portion within the range of the focal length of 23 to 27 mm as the secondary corrected focal position. As described above, by limiting the focal distance for performing image analysis to a part of the entire focal length, the execution speed of the contrast auto focus can be increased.

2차 보정된 초점 위치로 렌즈가 이동함에 따라, 오토 포커스의 수행이 종료될 수 있다.As the lens moves to the secondary corrected focal position, the autofocusing can be terminated.

도 7에 도시된 예에서, 카메라(121)와 피사체 사이의 거리를 측정하지 못한 경우(S702), 제어부(180)는 곧바로 위상차 오토 포커스를 통해 초점 위치를 결정할 수 있다(S704). 이 경우, 거리차 오토 포커스를 통해 초점 위치를 결정한 뒤, 위상차 오토 포커스를 통한 초점 위치 보정을 수행하는 것 보다, 렌즈의 이동 거리가 길어져, 위상차 오토 포커스 수행 시 소요 시간이 증가할 수도 있다. 위상차 오토 포커스를 통해 초점 위치가 결정되면, 앞서 도 7을 통해 설명한 바와 같이, 대비차 오토 포커스를 통한 초점 위치 보정이 수행될 수 있다.7, when the distance between the camera 121 and the subject is not measured (S702), the controller 180 can directly determine the focus position through the phase-difference autofocus (S704). In this case, the moving distance of the lens is longer than that of performing the focus position correction through the phase difference autofocus after determining the focus position through the distance difference autofocus, so that the time required for performing the phase difference autofocus may increase. When the focus position is determined through the phase difference autofocus, as described above with reference to FIG. 7, the focus position correction through contrast autofocus can be performed.

오토 포커스가 완료된 이후, 사용자가 프리뷰 영상의 임의의 지점이 터치되면, 제어부(180)는 다시, 거리차 오토 포커스를 수행할 수 있다. 이때, 제어부(180)는 발광부를 통해 새롭게 빛을 발사하여 피사체와의 거리를 측정할 수도 있고, 발광부가 직전에 발사한 빛에 대한 수광부의 수신 기록을 기초로 피사체와의 거리를 측정할 수도 있다.After the autofocus is completed, if the user touches an arbitrary point of the preview image, the controller 180 may again perform the distance difference autofocus. At this time, the control unit 180 may measure the distance to the subject by newly emitting light through the light emitting unit, or may measure the distance to the subject based on the reception record of the light receiving unit with respect to the light emitted immediately before the light emitting unit .

도 8을 예로 들어 설명하면, 프리뷰 영상의 5번 영역에 대해 초점이 맞춰진 상태에서, 프리뷰 영상의 7번 영역을 터치하는 사용자 입력이 수행되었다면, 제어부(180)는 발광부를 통해 새롭게 빛을 발사한 뒤, 수광부의 7번 픽셀이 빛을 수신하는 데까지 소요된 시간을 기초로 피사체와의 거리를 측정할 수 있다.8, if the user inputs a touch of the seventh area of the preview image in a state where the fifth area of the preview image is focused, the controller 180 newly emits light through the light emitting unit The distance from the subject can be measured on the basis of the time taken until the pixel 7 of the light receiving section receives light.

다른 예로, 제어부(180)는 발광부를 통해 빛을 발사하는 대신, 이전 발광부가 발사한 빛(즉, 7번 영역이 터치되기 앞서, 5번 영역이 터치되었을 때, 발광부에서 발사한 빛)에 대한 수광부의 7번 픽셀이 반사된 빛을 수신하는 데까지 소요된 시간을 기초로 피사체와의 거리를 측정할 수도 있다.Alternatively, instead of emitting light through the light emitting unit, the control unit 180 may control the light emitted by the previous light emitting unit (i.e., the light emitted from the light emitting unit when the fifth area is touched before the seventh area is touched) It is also possible to measure the distance from the subject based on the time taken to receive the reflected light of the pixel No. 7 of the light receiving unit.

제어부(180)는 빛이 발사된 이래 소정 시간 경과 후 프리뷰 영상의 임의 위치를 터치하는 사용자 입력이 수신되면, 발광부에서 새롭게 빛이 발사되도록 제어하는 한편, 소정 시간이 경과하기 전 프리뷰 영상의 임의 위치를 터치하는 사용자 입력이 수신되면, 직전 발광부에서 발사된 빛에 대한 수광부의 수신 기록을 이용하여 피사체와의 거리가 측정되도록 제어할 수 있다.The control unit 180 controls the light emitting unit to emit light when a user input for touching an arbitrary position of the preview image is received after a predetermined time has elapsed since the light was emitted, When a user input touching the position is received, the distance to the subject can be controlled using the received record of the light receiving unit with respect to the light emitted from the immediately preceding light emitting unit.

본 발명의 일실시예에 의하면, 전술한 방법(동작 흐름도)은, 프로그램이 기록된 매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.According to one embodiment of the present invention, the above-described method (operation flow diagram) can be implemented as a code that can be read by a processor on a medium on which the program is recorded. Examples of the medium that can be read by the processor include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, etc., and may be implemented in the form of a carrier wave (e.g., transmission over the Internet) .

상기와 같이 설명된 이동 단말기(100)는 상기 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The above-described mobile terminal 100 is not limited in the configuration and method of the above-described embodiments, but the embodiments may be modified such that all or some of the embodiments are selectively combined .

100 : 이동 단말기
121 : 카메라
151 : 디스플레이부
160 : 메모리
180 : 제어부
100: mobile terminal
121: camera
151:
160: Memory
180:

Claims (5)

렌즈 및 이미지 센서를 포함하는 카메라;
빛을 발사하기 위한 발광부;
상기 발광부를 통해 발사된 빛이 반사되면, 반사된 빛을 수광하기 위한 수광부;
상기 렌즈를 통과한 빛의 적어도 일부를 수신하는 둘 이상의 AF(Auto Focus) 센서;
사진 촬영 전 상기 카메라를 통해 입력되는 프리뷰 영상을 디스플레이하기 위한 디스플레이부; 및
상기 프리뷰 영상 위 임의 위치가 터치되면, 상기 수광부가 상기 반사된 빛을 수광할때까지 소요된 시간을 기초로, 터치된 위치가 지시하는 피사체에 초점을 맞춘 초점 위치를 결정한 뒤, 상기 AF 센서들 사이의 위상차를 기초로, 상기 초점 위치에 대한 1차 보정을 수행하는 제어부
를 포함하는 이동 단말기.
A camera including a lens and an image sensor;
A light emitting portion for emitting light;
A light receiving unit for receiving reflected light when the light emitted through the light emitting unit is reflected;
At least two AF (Auto Focus) sensors for receiving at least a portion of the light passing through the lens;
A display unit for displaying a preview image input through the camera before photographing; And
And a controller for determining a focus position focused on a subject indicated by the touched position based on the time taken for the light receiving unit to receive the reflected light when the touched position on the preview image is touched, Based on the phase difference between the focus position and the focus position,
.
제 1 항에 있어서,
상기 제어부는, 상기 렌즈와 상기 이미제 선서 사이의 초점 거리를 변경해 가며, 입력되는 영상 속 엣지를 경계로 한 대비차를 기초로, 상기 초점 위치에 대한 2차 보정을 수행하는 것을 특징으로 하는 이동 단말기.
The method according to claim 1,
Wherein the control unit changes the focal distance between the lens and the imager and performs a secondary correction on the focal position on the basis of a contrast difference based on an input image edge. terminal.
제 2 항에 있어서,
상기 제어부는 상기 1차 보정된 초점 위치 전후 소정 거리 이내의 범위 내에서 획득되는 영상을 대상으로 상기 대비차를 산출하는 것을 특징으로 하는 이동 단말기.
3. The method of claim 2,
Wherein the controller calculates the contrast difference with respect to an image obtained within a predetermined distance before and after the first corrected focal position.
제 1 항에 있어서,
상기 수광부는 복수의 픽셀로 구성되고,
상기 제어부는 상기 복수의 픽셀 각각이 상기 반사된 빛을 수신할 ? 까지 소요되는 시간을 측정하는 것을 특징으로 하는 이동 단말기.
The method according to claim 1,
Wherein the light receiving unit is composed of a plurality of pixels,
The control unit controls the plurality of pixels so that each of the plurality of pixels receives the reflected light. Of the mobile terminal is measured.
사진 촬영 전 카메라를 통해 입력되는 프리뷰 영상을 디스플레이하는 단계;
발광부를 통해 빛을 발사하는 단계;
상기 발광부를 통해 발사된 빛이 반사되면, 반사된 빛을 수광하는 단계;
상기 프리뷰 영상 위 임의 위치가 터치되면, 상기 수광부가 상기 반사된 빛을 수광할 때까지 소요된 시간을 기초로, 터치된 위치가 가리키는 피사체에 초점을 맞춘 초점 위치를 결정하는 단계; 및
AF 센서들 사이의 위상차를 기초로 상기 초점 위치에 대한 1차 보정을 수행하는 단계
를 포함하는 이동 단말기의 제어 방법.
Displaying a preview image input through a camera before photographing;
Emitting light through a light emitting portion;
Receiving the reflected light when the light emitted through the light emitting unit is reflected;
Determining a focus position focused on a subject indicated by the touched position based on a time taken for the light receiving unit to receive the reflected light when a position on the preview image is touched; And
Performing a first-order correction on the focal position based on a phase difference between the AF sensors
And transmitting the control information to the mobile terminal.
KR1020140131460A 2014-09-30 2014-09-30 Mobile terminal and method for controlling the same Withdrawn KR20160038409A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140131460A KR20160038409A (en) 2014-09-30 2014-09-30 Mobile terminal and method for controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140131460A KR20160038409A (en) 2014-09-30 2014-09-30 Mobile terminal and method for controlling the same

Publications (1)

Publication Number Publication Date
KR20160038409A true KR20160038409A (en) 2016-04-07

Family

ID=55789591

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140131460A Withdrawn KR20160038409A (en) 2014-09-30 2014-09-30 Mobile terminal and method for controlling the same

Country Status (1)

Country Link
KR (1) KR20160038409A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3163369A1 (en) * 2015-10-27 2017-05-03 BlackBerry Limited Auto-focus control in a camera to prevent oscillation
KR20180036430A (en) * 2016-09-30 2018-04-09 엘지이노텍 주식회사 Laser detection auto focusing and optical measuring system having thereof
WO2020042000A1 (en) * 2018-08-29 2020-03-05 深圳市大疆创新科技有限公司 Camera device and focusing method
CN111885295A (en) * 2018-03-26 2020-11-03 华为技术有限公司 Shooting method, device and equipment

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3163369A1 (en) * 2015-10-27 2017-05-03 BlackBerry Limited Auto-focus control in a camera to prevent oscillation
US9854150B2 (en) 2015-10-27 2017-12-26 Blackberry Limited Auto-focus control in a camera to prevent oscillation
KR20180036430A (en) * 2016-09-30 2018-04-09 엘지이노텍 주식회사 Laser detection auto focusing and optical measuring system having thereof
CN111885295A (en) * 2018-03-26 2020-11-03 华为技术有限公司 Shooting method, device and equipment
EP3713209A4 (en) * 2018-03-26 2021-03-03 Huawei Technologies Co., Ltd. Photographing method, device, and equipment
US11206352B2 (en) 2018-03-26 2021-12-21 Huawei Technologies Co., Ltd. Shooting method, apparatus, and device
WO2020042000A1 (en) * 2018-08-29 2020-03-05 深圳市大疆创新科技有限公司 Camera device and focusing method

Similar Documents

Publication Publication Date Title
KR101632008B1 (en) Mobile terminal and method for controlling the same
KR101785458B1 (en) Camera module and mobile terminal having the same
KR101645495B1 (en) Color sensor module and mobile terminal
KR20170139408A (en) Moving picture photographing apparatus having dual cameras
KR20170006559A (en) Mobile terminal and method for controlling the same
KR20170035237A (en) Mobile terminal and method for controlling the same
KR20160019280A (en) Mobile terminal
KR20160025856A (en) Mobile terminal and method for controlling the same
KR20160031886A (en) Mobile terminal and control method for the mobile terminal
KR101783773B1 (en) Dual camera module and mobile terminal comprising the camera
KR101612862B1 (en) Mobile terminal
KR20160019145A (en) Mobile terminal and method for controlling the same
KR20160149068A (en) Mobile terminal and method for controlling the same
KR20180040409A (en) Mobile terminal and method for controlling the same
KR20170020069A (en) Mobile terminal and image capturing method thereof
KR20170057058A (en) Mobile terminal and method for controlling the same
KR20160127606A (en) Mobile terminal and the control method thereof
KR20150114305A (en) Lens assembly
KR101717532B1 (en) Mobile terminal and method for controlling the same
KR20160036230A (en) Method for controlling mobile terminal and mobile terminal
KR20170023481A (en) Mobile terminal
KR20160017463A (en) Mobile terminal and method for controlling the same
KR20180105963A (en) Mobile terminal
KR20160038409A (en) Mobile terminal and method for controlling the same
KR20170016648A (en) Mobile terminal

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20140930

PG1501 Laying open of application
PC1203 Withdrawal of no request for examination
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid