[go: up one dir, main page]

KR20120000175A - Mobile terminal and its object information display method - Google Patents

Mobile terminal and its object information display method Download PDF

Info

Publication number
KR20120000175A
KR20120000175A KR1020100060364A KR20100060364A KR20120000175A KR 20120000175 A KR20120000175 A KR 20120000175A KR 1020100060364 A KR1020100060364 A KR 1020100060364A KR 20100060364 A KR20100060364 A KR 20100060364A KR 20120000175 A KR20120000175 A KR 20120000175A
Authority
KR
South Korea
Prior art keywords
information
object information
mobile terminal
search
display unit
Prior art date
Application number
KR1020100060364A
Other languages
Korean (ko)
Other versions
KR101667585B1 (en
Inventor
홍경아
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020100060364A priority Critical patent/KR101667585B1/en
Publication of KR20120000175A publication Critical patent/KR20120000175A/en
Application granted granted Critical
Publication of KR101667585B1 publication Critical patent/KR101667585B1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

본 발명은 검색 기준 정보를 입력받는 사용자 입력부, 외부로부터 영상을 입력받는 카메라 모듈, 단말기 위치 정보를 획득하는 위치 정보 모듈, 상기 입력된 영상을 디스플레이하는 디스플레이부, 및 상기 획득된 단말기 위치 정보를 기준으로 사용자 단말기로부터 일정 거리 이내에 위치한 복수의 객체에 대한 각각의 객체 정보를 획득하고, 상기 획득된 객체 정보 중 상기 입력된 검색 기준 정보를 충족하는 객체 정보를 검색하고, 상기 검색된 객체 정보에 해당하는 객체 및 상기 검색된 객체 정보 중 적어도 하나를 디스플레이하도록 상기 디스플레이부를 제어하는 제어부를 포함하는 이동 단말기가 제공된다.The present invention is based on a user input unit for receiving search reference information, a camera module for receiving an image from the outside, a location information module for obtaining terminal location information, a display unit for displaying the input image, and the obtained terminal location information. Obtain object information on a plurality of objects located within a predetermined distance from the user terminal, search for object information satisfying the input search criterion information among the obtained object information, and obtain an object corresponding to the searched object information. And a control unit which controls the display unit to display at least one of the retrieved object information.

Description

이동 단말기 및 이것의 객체 정보 디스플레이 방법{MOBILE TERMINAL AND OBJECT INFORMATION DISPLAY METHOD THEREOF} MOBILE TERMINAL AND OBJECT INFORMATION DISPLAY METHOD THEREOF}

본 발명은 외부 영상 내의 객체에 대한 객체 정보를 디스플레이하는 방법 및 이동 단말기에 관한 것이다.The present invention relates to a method and a mobile terminal for displaying object information on an object in an external image.

단말기는 이동 가능 여부에 따라 이동 단말기(mobile/portable terminal) 및 고정 단말기(stationary terminal)으로 나뉠 수 있다. 다시 이동 단말기는 사용자의 직접 휴대 가능 여부에 따라 휴대(형) 단말기(handheld terminal) 및 거치형 단말기(vehicle mount terminal)로 나뉠 수 있다. The terminal can move And can be divided into a mobile / portable terminal and a stationary terminal depending on whether the mobile terminal is a mobile terminal or a mobile terminal. The mobile terminal may be further classified into a handheld terminal and a vehicle mount terminal according to whether a user can directly carry it.

이와 같은 단말기(terminal)는 기능이 다양화됨에 따라 예를 들어, 사진이나 동영상의 촬영, 음악이나 동영상 파일의 재생, 게임, 방송의 수신 등의 복합적인 기능들을 갖춘 멀티미디어 기기(Multimedia player) 형태로 구현되고 있다. Such a terminal has various functions, for example, in the form of a multimedia device having multiple functions such as photographing and photographing of a moving picture, reproduction of a music or video file, reception of a game and broadcasting, etc. .

이러한 단말기의 기능 지지 및 증대를 위해, 단말기의 구조적인 부분 및/또는 소프트웨어적인 부분을 개량하는 것이 고려될 수 있다.In order to support and increase the function of such a terminal, it may be considered to improve the structural part and / or the software part of the terminal.

단말기는 카메라를 통하여 보이는 영상에 외부 또는 단말기에서 획득된 정보를 디스플레이할 수 있다. 하지만, 종래의 단말기는 디스플레이부에 너무 많은 정보가 디스플레이되어 효과적으로 정보를 획득할 수 없는 문제점이 존재한다.The terminal may display information acquired from the terminal or the outside in the image seen through the camera. However, a conventional terminal has a problem in that too much information is displayed on the display unit and thus information cannot be obtained effectively.

본 발명은 증강 현실 기능으로 제공되는 다양한 정보 중에 원하는 정보를 검색하여 원하는 정보만을 디스플레이할 수 있는 이동 단말기 및 이것의 디스플레이 방법에 관한 것이다.The present invention relates to a mobile terminal capable of searching for desired information among various information provided by an augmented reality function and displaying only desired information, and a display method thereof.

또한, 본 발명은 검색 기준을 충족하는 여러 정보 중에 최적의 정보를 디스플레이할 수 있는 이동 단말기 및 디스플레이 방법에 관한 것이다.The present invention also relates to a mobile terminal and a display method capable of displaying optimal information among various pieces of information satisfying a search criterion.

본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Technical problems to be achieved in the present invention are not limited to the above-mentioned technical problems, and other technical problems not mentioned above will be clearly understood by those skilled in the art from the following description. Could be.

상기한 과제를 실현하기 위한 본 발명의 일예와 관련된 이동 단말기는 검색 기준 정보를 입력받는 사용자 입력부, 외부로부터 영상을 입력받는 카메라 모듈, 단말기 위치 정보를 획득하는 위치 정보 모듈, 상기 입력된 영상을 디스플레이하는 디스플레이부, 및 상기 획득된 단말기 위치 정보를 기준으로 사용자 단말기로부터 일정 거리 이내에 위치한 복수의 객체에 대한 각각의 객체 정보를 획득하고, 상기 획득된 객체 정보 중 상기 입력된 검색 기준 정보를 충족하는 객체 정보를 검색하고, 상기 검색된 객체 정보에 해당하는 객체 및 상기 검색된 객체 정보 중 적어도 하나를 디스플레이하도록 상기 디스플레이부를 제어하는 제어부를 포함한다.A mobile terminal according to an embodiment of the present invention for realizing the above object is a user input unit for receiving search criteria information, a camera module for receiving an image from the outside, a location information module for obtaining terminal location information, and displays the input image. An object that obtains object information on a plurality of objects located within a predetermined distance from a user terminal based on the display unit and the acquired terminal location information, and satisfies the input search criteria information among the obtained object information; And a controller for searching for information and controlling the display to display at least one of an object corresponding to the searched object information and the searched object information.

상기 이동 단말기에서, 상기 제어부는 상기 영상 내에서 상기 검색된 객체 정보에 관련된 객체를 제외한 영역과 상기 객체 영역 또는 상기 검색된 객체 정보를 구별하여 디스플레이하도록 상기 디스플레이부를 제어할 수 있다.In the mobile terminal, the controller may control the display unit to distinguish and display an area excluding the object related to the searched object information and the object area or the searched object information in the image.

또한, 상기한 과제를 실현하기 위한 본 발명의 다른예와 관련된 객체 정보 디스플레이 방법은 검색 기준 정보를 입력받는 단계, 외부로부터 영상을 입력받는 단계, 단말기 위치 정보를 획득하는 단계, 상기 획득된 단말기 위치 정보를 기준으로 사용자 단말기로부터 일정 거리 이내에 위치한 복수의 객체에 대한 각각의 객체 정보를 획득하는 단계, 상기 획득된 객체 정보 중 상기 입력된 검색 기준 정보를 충족하는 객체 정보를 검색하는 단계, 및 상기 검색된 객체 정보에 해당되는 객체 및 상기 검색된 객체 정보 중 적어도 하나 및 상기 입력된 영상을 디스플레이하는 단계를 포함한다.In addition, the object information display method according to another embodiment of the present invention for realizing the above object is a step of receiving the search criteria information, receiving an image from the outside, obtaining terminal location information, the obtained terminal location Acquiring respective object information about a plurality of objects located within a predetermined distance from the user terminal based on the information, retrieving object information satisfying the input search criterion information among the obtained object information, and the retrieved information And displaying at least one of an object corresponding to object information and the retrieved object information and the input image.

상기와 같이 구성되는 본 발명의 적어도 하나의 실시예에 관련된 이동 단말기는 증강 현실 기능을 통해서 외부 영상 내의 다양한 객체에 대해서 객체에 대한 정보를 획득하고 여러 객체 정보 중에 사용자가 원하는 정보만을 디스플레이할 수 있다. 그에 따라서, 사용자는 원하는 정보만을 용이하게 획득할 수 있는 효과가 존재한다.The mobile terminal according to at least one embodiment of the present invention configured as described above may acquire information about an object with respect to various objects in an external image and display only information desired by a user among various object information through an augmented reality function. . Accordingly, there is an effect that the user can easily obtain only the desired information.

또한, 상기와 같이 구성되는 본 발명의 적어도 하나의 실시예에 관련된 이동 단말기는 사용자가 원하는 정보를 영상내의 다른 객체와 구별하여 디스플레이하도록 하여 원하는 객체 및 객체 정보를 효율적으로 파악할 수 있는 효과가 존재한다.In addition, the mobile terminal according to at least one embodiment of the present invention configured as described above has the effect of efficiently identifying the desired object and object information by displaying the desired information separately from other objects in the image. .

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned above may be clearly understood by those skilled in the art from the following description. will be.

도 1은 본 발명의 일 실시예와 관련된 이동 단말기의 블록 구성도(block diagram).
도 2a은 본 발명의 일 실시예에 관련된 이동 단말기의 전면 사시도.
도 2b는 본 발명의 일 실시예에 관련된 이동 단말기의 후면 사시도.
도 3a 및 3b는 본 발명과 관련된 이동 단말기의 일 작동 상태를 설명하기 위한 이동 단말기의 정면도들.
도 4는 본 발명과 관련하여 객체 정보 디스플레이 방법의 흐름을 나타낸 순서도.
도 5는 본 발명과 관련하여 검색 기준 정보에 대한 설정 및 검색 방식을 디스플레이하는 도면.
도 6은 본 발명과 관련하여 AR 기능을 이용하여 객체 정보를 디스플레이하는 도면.
도 7a 및 7b 는 본 발명과 관련하여 검색 기준 정보를 충족하는 객체 또는 객체 정보를 디스플레이하는 도면.
도 8a 및 8b 는 본 발명과 관련하여 획득된 둘 이상의 객체 정보 또는 객체를 디스플레이하는 도면.
도 9는 본 발명과 관련하여 객체 정보에 대한 선택을 디스플레이하는 도면.
도 10은 본 발명과 관련하여 객체 정보를 디스플레이하는 다른 방식을 도시한 도면.
1 is a block diagram of a mobile terminal according to an embodiment of the present invention.
Figure 2a is a front perspective view of a mobile terminal according to an embodiment of the present invention.
2b is a rear perspective view of a mobile terminal according to one embodiment of the present invention;
3A and 3B are front views of a mobile terminal for explaining an operation state of the mobile terminal according to the present invention.
4 is a flowchart illustrating a flow of a method for displaying object information in accordance with the present invention.
FIG. 5 is a diagram of a setting and a search method for search criteria information in connection with the present invention; FIG.
6 is a diagram for displaying object information using an AR function in accordance with the present invention.
7A and 7B show an object or object information that satisfies search criteria information in connection with the present invention;
8A and 8B show two or more object information or objects obtained in connection with the present invention.
9 displays a selection for object information in connection with the present invention.
10 illustrates another way of displaying object information in connection with the present invention.

이하, 본 발명과 관련된 이동 단말기에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. Hereinafter, a mobile terminal according to the present invention will be described in more detail with reference to the accompanying drawings. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role.

본 명세서에서 설명되는 이동 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등이 포함될 수 있다. 그러나, 본 명세서에 기재된 실시예에 따른 구성은 이동 단말기에만 적용 가능한 경우를 제외하면, 디지털 TV, 데스크탑 컴퓨터 등과 같은 고정 단말기에도 적용될 수도 있음을 본 기술분야의 당업자라면 쉽게 알 수 있을 것이다.The mobile terminal described herein may include a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), navigation, and the like. However, it will be readily apparent to those skilled in the art that the configuration according to the embodiments described herein may also be applied to fixed terminals such as digital TVs, desktop computers, etc., except when applicable only to mobile terminals.

도 1은 본 발명의 일 실시예와 관련된 이동 단말기의 블록 구성도(block diagram)이다.1 is a block diagram of a mobile terminal according to an embodiment of the present invention.

상기 이동 단말기(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 이동 단말기가 구현될 수도 있다.The mobile terminal 100 includes a wireless communication unit 110, an A / V input unit 120, a user input unit 130, a sensing unit 140, an output unit 150, a memory 160, and an interface. The unit 170, the controller 180, and the power supply unit 190 may be included. The components shown in FIG. 1 are not essential, so that a mobile terminal having more or fewer components may be implemented.

이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.

무선 통신부(110)는 이동 단말기(100)와 무선 통신 시스템 사이 또는 이동 단말기(100)와 이동 단말기(100)가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(110)는 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 등을 포함할 수 있다.The wireless communication unit 110 may include one or more modules that enable wireless communication between the mobile terminal 100 and the wireless communication system or between the mobile terminal 100 and a network in which the mobile terminal 100 is located. For example, the wireless communication unit 110 may include a broadcast receiving module 111, a mobile communication module 112, a wireless Internet module 113, a short range communication module 114, and a location information module 115 .

방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. The broadcast receiving module 111 receives a broadcast signal and / or broadcast related information from an external broadcast management server through a broadcast channel.

상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 단말기에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다. The broadcast channel may include a satellite channel and a terrestrial channel. The broadcast management server may mean a server that generates and transmits a broadcast signal and / or broadcast related information or a server that receives a previously generated broadcast signal and / or broadcast related information and transmits the same to a terminal. The broadcast signal may include not only a TV broadcast signal, a radio broadcast signal, and a data broadcast signal, but also a broadcast signal having a data broadcast signal combined with a TV broadcast signal or a radio broadcast signal.

방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(160)에 저장될 수 있다.The broadcast signal and / or broadcast related information received through the broadcast receiving module 111 may be stored in the memory 160.

이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The mobile communication module 112 transmits and receives a wireless signal with at least one of a base station, an external terminal, and a server on a mobile communication network. The wireless signal may include various types of data according to transmission and reception of a voice call signal, a video call call signal, or a text / multimedia message.

무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 이동 단말기(100)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. The wireless internet module 113 refers to a module for wireless internet access and may be embedded or external to the mobile terminal 100. Wireless Internet technologies may include Wireless LAN (Wi-Fi), Wireless Broadband (Wibro), World Interoperability for Microwave Access (Wimax), High Speed Downlink Packet Access (HSDPA), and the like.

근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short range communication module 114 refers to a module for short range communication. As a short range communication technology, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and the like may be used.

위치정보 모듈(115)은 이동 단말기의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈이 있다.The location information module 115 is a module for obtaining a location of a mobile terminal, and a representative example thereof is a GPS (Global Position System) module.

도 1을 참조하면, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. 카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.Referring to FIG. 1, the A / V input unit 120 is for inputting an audio signal or a video signal, and may include a camera 121 and a microphone 122. The camera 121 processes image frames such as still images or moving images obtained by the image sensor in the video call mode or the photographing mode. The processed image frame may be displayed on the display unit 151.

카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(121)는 사용 환경에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera 121 may be stored in the memory 160 or transmitted to the outside through the wireless communication unit 110. Two or more cameras 121 may be provided according to the use environment.

마이크(122)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)에는 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The microphone 122 receives an external sound signal by a microphone in a call mode, a recording mode, a voice recognition mode, etc., and processes the external sound signal into electrical voice data. The processed voice data can be converted into a form that can be transmitted to the mobile communication base station through the mobile communication module 112 when the voice data is in the call mode, and output. The microphone 122 may implement various noise removing algorithms for removing noise generated in the process of receiving an external sound signal.

사용자 입력부(130)는 사용자가 단말기의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. The user input unit 130 generates input data for the user to control the operation of the terminal. The user input unit 130 may include a key pad dome switch, a touch pad (static pressure / capacitance), a jog wheel, a jog switch, and the like.

센싱부(140)는 이동 단말기(100)의 개폐 상태, 이동 단말기(100)의 위치, 사용자 접촉 유무, 이동 단말기의 방위, 이동 단말기의 가속/감속 등과 같이 이동 단말기(100)의 현 상태를 감지하여 이동 단말기(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 예를 들어 이동 단말기(100)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한, 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등을 센싱할 수도 있다. 한편, 상기 센싱부(140)는 근접 센서(141)를 포함할 수 있다. The sensing unit 140 detects a current state of the mobile terminal 100 such as an open / closed state of the mobile terminal 100, a location of the mobile terminal 100, presence or absence of a user contact, orientation of the mobile terminal, acceleration / deceleration of the mobile terminal, and the like. To generate a sensing signal for controlling the operation of the mobile terminal 100. For example, when the mobile terminal 100 is in the form of a slide phone, it may sense whether the slide phone is opened or closed. In addition, whether the power supply unit 190 is supplied with power, whether the interface unit 170 is coupled to the external device may be sensed. The sensing unit 140 may include a proximity sensor 141.

출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 음향 출력 모듈(152), 알람부(153), 햅틱 모듈(154) 및 프로젝터 모듈(155) 등이 포함될 수 있다.The output unit 150 is used to generate an output related to visual, auditory or tactile senses, which includes a display unit 151, an audio output module 152, an alarm unit 153, a haptic module 154, and a projector module ( 155) may be included.

디스플레이부(151)는 이동 단말기(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 이동 단말기가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 이동 단말기(100)가 화상 통화 모드 또는 촬영 모드인 경우에는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다. The display unit 151 displays (outputs) information processed by the mobile terminal 100. For example, when the mobile terminal is in a call mode, the mobile terminal displays a user interface (UI) or a graphic user interface (GUI) related to the call. When the mobile terminal 100 is in a video call mode or a photographing mode, the mobile terminal 100 displays photographed and / or received images, a UI, and a GUI.

디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. The display unit 151 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display (flexible). and at least one of a 3D display.

이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 단말기 바디의 디스플레이부(151)가 차지하는 영역을 통해 단말기 바디의 후방에 위치한 사물을 볼 수 있다.Some of these displays can be configured to be transparent or light transmissive so that they can be seen from the outside. This may be referred to as a transparent display. A representative example of the transparent display is TOLED (Transparant OLED). The rear structure of the display unit 151 may also be configured as a light transmissive structure. With this structure, the user can see the object located behind the terminal body through the area occupied by the display unit 151 of the terminal body.

이동 단말기(100)의 구현 형태에 따라 디스플레이부(151)이 2개 이상 존재할 수 있다. 예를 들어, 이동 단말기(100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다. There may be two or more display units 151 according to the implementation form of the mobile terminal 100. For example, in the mobile terminal 100, a plurality of display portions may be spaced apart from one another, or may be disposed integrally with one another, and may be disposed on different surfaces, respectively.

디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.When the display unit 151 and a sensor for detecting a touch operation (hereinafter, referred to as a touch sensor) form a mutual layer structure (hereinafter referred to as a touch screen), the display unit 151 may be configured in addition to an output device. Can also be used as an input device. The touch sensor may have, for example, a form of a touch film, a touch sheet, a touch pad, or the like.

터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. The touch sensor may be configured to convert a change in pressure applied to a specific portion of the display unit 151 or capacitance generated in a specific portion of the display unit 151 into an electrical input signal. The touch sensor may be configured to detect not only the position and area of the touch but also the pressure at the touch.

터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.If there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller. The touch controller processes the signal (s) and then transmits the corresponding data to the controller 180. As a result, the controller 180 can know which area of the display unit 151 is touched.

상기 근접 센서(141)는 상기 터치스크린에 의해 감싸지는 이동 단말기의 내부 영역 또는 상기 터치 스크린의 근처에 배치될 수 있다. 상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다. The proximity sensor 141 may be disposed in an inner region of the mobile terminal surrounded by the touch screen or near the touch screen. The proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object present in the vicinity without using a mechanical contact by using an electromagnetic force or infrared rays. Proximity sensors have a longer life and higher utilization than touch sensors.

상기 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.Examples of the proximity sensor include a transmission photoelectric sensor, a direct reflection photoelectric sensor, a mirror reflection photoelectric sensor, a high frequency oscillation proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor. When the touch screen is capacitive, the touch screen is configured to detect the proximity of the pointer by the change of the electric field according to the proximity of the pointer. In this case, the touch screen (touch sensor) may be classified as a proximity sensor.

이하에서는 설명의 편의를 위해, 상기 터치스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 칭하고, 상기 터치스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 칭한다. 상기 터치스크린 상에서 포인터로 근접 터치가 되는 위치라 함은, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치스크린에 대해 수직으로 대응되는 위치를 의미한다.Hereinafter, for convenience of explanation, the act of allowing the pointer to be recognized without being in contact with the touch screen so that the pointer is located on the touch screen is referred to as a "proximity touch", and the touch The act of actually touching the pointer on the screen is called "contact touch." The position where the proximity touch is performed by the pointer on the touch screen refers to a position where the pointer is perpendicular to the touch screen when the pointer is in proximity proximity.

상기 근접센서는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다. The proximity sensor detects a proximity touch and a proximity touch pattern (for example, a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, and a proximity touch movement state). Information corresponding to the sensed proximity touch operation and proximity touch pattern may be output on the touch screen.

음향 출력 모듈(152)은 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력 모듈(152)은 이동 단말기(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The sound output module 152 may output audio data received from the wireless communication unit 110 or stored in the memory 160 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like. The sound output module 152 may also output a sound signal related to a function (eg, a call signal reception sound, a message reception sound, etc.) performed in the mobile terminal 100. The sound output module 152 may include a receiver, a speaker, a buzzer, and the like.

알람부(153)는 이동 단말기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 이동 단말기에서 발생 되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 터치 입력 등이 있다. 알람부(153)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 상기 비디오 신호나 오디오 신호는 디스플레이부(151)나 음성 출력 모듈(152)을 통해서도 출력될 수 있어서, 그들(151,152)은 알람부(153)의 일부로 분류될 수도 있다.The alarm unit 153 outputs a signal for notifying occurrence of an event of the mobile terminal 100. Examples of events occurring in the mobile terminal include call signal reception, message reception, key signal input, and touch input. The alarm unit 153 may output a signal for notifying occurrence of an event in a form other than a video signal or an audio signal, for example, vibration. The video signal or the audio signal may be output through the display unit 151 or the audio output module 152, so that they 151 and 152 may be classified as part of the alarm unit 153.

햅틱 모듈(haptic module)(154)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(154)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅틱 모듈(154)이 발생하는 진동의 세기와 패턴 등은 제어가능하다. 예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다. The haptic module 154 generates various tactile effects that the user can feel. Vibration is a representative example of the haptic effect generated by the haptic module 154. The intensity and pattern of the vibration generated by the haptic module 154 are controllable. For example, different vibrations may be synthesized and output or may be sequentially output.

프로젝터 모듈(155)은, 이동 단말기(100)를 이용하여 이미지 프로젝트(project) 기능을 수행하기 위한 구성요소로서, 제어부(180)의 제어 신호에 따라 디스플레이부(151)상에 디스플레이되는 영상과 동일하거나 적어도 일부가 다른 영상을 외부 스크린 또는 벽에 디스플레이할 수 있다.The projector module 155 is a component for performing an image project function using the mobile terminal 100 and is similar to the image displayed on the display unit 151 in accordance with a control signal of the controller 180 Or at least partly display another image on an external screen or wall.

메모리부(160)는 제어부(180)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 전화번호부, 메시지, 오디오, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다. 상기 메모리부(160)에는 상기 데이터들 각각에 대한 사용 빈도(예를 들면, 각 전화번호, 각 메시지, 각 멀티미디어에 대한 사용빈도)도 함께 저장될 수 있다. 또한, 상기 메모리부(160)에는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The memory unit 160 may store a program for processing and controlling the controller 180, and temporarily stores input / output data (for example, a phone book, a message, an audio, a still image, a video, etc.). It can also perform a function for. The memory unit 160 may also store the frequency of use of each of the data (for example, each telephone number, each message, and frequency of use for each multimedia). In addition, the memory unit 160 may store data regarding vibration and sound of various patterns output when a touch input on the touch screen is performed.

메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 이동 단말기(100)는 인터넷(internet)상에서 상기 메모리(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The memory 160 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), RAM (Random Access Memory, RAM), Static Random Access Memory (SRAM), Read-Only Memory (ROM), Electrically Erasable Programmable Read-Only Memory (EEPROM), Programmable Read-Only Memory (PROM), Magnetic Memory, Magnetic It may include a storage medium of at least one type of disk, optical disk. The mobile terminal 100 may operate in connection with a web storage that performs a storage function of the memory 160 on the Internet.

인터페이스부(170)는 이동 단말기(100)에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 이동 단말기(100) 내부의 각 구성 요소에 전달하거나, 이동 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다. The interface unit 170 serves as a path with all external devices connected to the mobile terminal 100. The interface unit 170 receives data from an external device, receives power, transfers the power to each component inside the mobile terminal 100, or transmits data inside the mobile terminal 100 to an external device. For example, a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, a port for connecting a device having an identification module, an audio I / O port, A video input / output (I / O) port, an earphone port, and the like may be included in the interface unit 170.

식별 모듈은 이동 단말기(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈(Subscriber Identify Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 단말기(100)와 연결될 수 있다. The identification module is a chip that stores various types of information for authenticating the usage rights of the mobile terminal 100, and includes a user identification module (UIM), a subscriber identify module (SIM), and a universal user authentication module ( Universal Subscriber Identity Module (USIM), and the like. Devices with identification modules (hereinafter referred to as "identification devices") can be manufactured in a smart card format. Accordingly, the identification device can be connected to the terminal 100 through the port.

상기 인터페이스부는 이동단말기(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 이동단말기(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동단말기로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동단말기가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.The interface unit may be a passage through which power from the cradle is supplied to the mobile terminal 100 when the mobile terminal 100 is connected to an external cradle, or various command signals input from the cradle by a user may be transferred. It may be a passage that is delivered to the terminal. Various command signals or power input from the cradle may be operated as signals for recognizing that the mobile terminal is correctly mounted on the cradle.

제어부(controller, 180)는 통상적으로 이동 단말기의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 제어부(180)는 멀티 미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 멀티미디어 모듈(181)은 제어부(180) 내에 구현될 수도 있고, 제어부(180)와 별도로 구현될 수도 있다.The controller 180 typically controls the overall operation of the mobile terminal. For example, perform related control and processing for voice calls, data communications, video calls, and the like. The controller 180 may include a multimedia module 181 for playing multimedia. The multimedia module 181 may be implemented in the controller 180 or may be implemented separately from the controller 180.

상기 제어부(180)는 상기 터치스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다. The controller 180 may perform a pattern recognition process for recognizing a writing input or a drawing input performed on the touch screen as text and an image, respectively.

전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 190 receives an external power source and an internal power source under the control of the controller 180 to supply power for operation of each component.

여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.Various embodiments described herein may be implemented in a recording medium readable by a computer or similar device using, for example, software, hardware or a combination thereof.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시예들이 제어부(180) 자체로 구현될 수 있다.According to a hardware implementation, the embodiments described herein include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), and the like. It may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing other functions. The described embodiments may be implemented by the controller 180 itself.

소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.According to the software implementation, embodiments such as the procedures and functions described herein may be implemented as separate software modules. Each of the software modules may perform one or more functions and operations described herein. Software code can be implemented in a software application written in a suitable programming language. The software code may be stored in the memory 160 and executed by the controller 180.

도 2a는 본 발명과 관련된 이동 단말기 또는 휴대 단말기의 일 예를 전면에서 바라본 사시도이다.2A is a front perspective view of an example of a mobile terminal or a portable terminal according to the present invention.

개시된 휴대 단말기(100)는 바 형태의 단말기 바디를 구비하고 있다. 다만, 본 발명은 여기에 한정되지 않고, 2 이상의 바디들이 상대 이동 가능하게 결합되는 슬라이드 타입, 폴더 타입, 스윙 타입, 스위블 타입 등 다양한 구조에 적용이 가능하다. The disclosed portable terminal 100 has a terminal body in the form of a bar. However, the present invention is not limited thereto and may be applied to various structures such as a slide type, a folder type, a swing type, a swivel type, and two or more bodies are coupled to be relatively movable.

바디는 외관을 이루는 케이스(케이싱, 하우징, 커버 등)를 포함한다. 본 실시예에서, 케이스는 프론트 케이스(101)와 리어 케이스(102)로 구분될 수 있다. 프론트 케이스(101)와 리어 케이스(102)의 사이에 형성된 공간에는 각종 전자부품들이 내장된다. 프론트 케이스(101)와 리어 케이스(102) 사이에는 적어도 하나의 중간 케이스가 추가로 배치될 수도 있다.The body includes a casing (casing, housing, cover, etc.) that forms an exterior. In this embodiment, the case may be divided into a front case 101 and a rear case 102. Various electronic components are built in the space formed between the front case 101 and the rear case 102. At least one intermediate case may be further disposed between the front case 101 and the rear case 102.

케이스들은 합성수지를 사출하여 형성되거나 금속 재질, 예를 들어 스테인레스 스틸(STS) 또는 티타늄(Ti) 등과 같은 금속 재질을 갖도록 형성될 수도 있다.The cases may be formed by injecting synthetic resin or may be formed of a metal material, for example, a metal material such as stainless steel (STS) or titanium (Ti).

단말기 바디, 주로 프론트 케이스(101)에는 디스플레이부(151), 음향출력부(152), 카메라(121), 사용자 입력부(130/131,132), 마이크(122), 인터페이스(170) 등이 배치될 수 있다.The display unit 151, the audio output unit 152, the camera 121, the user input units 130/131 and 132, the microphone 122, and the interface 170 may be disposed in the terminal body, mainly the front case 101. have.

디스플레이부(151)는 프론트 케이스(101)의 주면의 대부분을 차지한다. 디스플레이부(151)의 양단부 중 일 단부에 인접한 영역에는 음향출력부(151)와 카메라(121)가 배치되고, 다른 단부에 인접한 영역에는 사용자 입력부(131)와 마이크(122)가 배치된다. 사용자 입력부(132)와 인터페이스(170) 등은 프론트 케이스(101) 및 리어 케이스(102)의 측면들에 배치될 수 있다.The display unit 151 occupies most of the main surface of the front case 101. A sound output unit 151 and a camera 121 are disposed in an area adjacent to one end of both ends of the display unit 151 and a user input unit 131 and a microphone 122 are disposed in an area adjacent to the other end. The user input unit 132 and the interface 170 may be disposed on side surfaces of the front case 101 and the rear case 102.

사용자 입력부(130)는 휴대 단말기(100)의 동작을 제어하기 위한 명령을 입력받기 위해 조작되는 것으로서, 복수의 조작 유닛들(131,132)을 포함할 수 있다. 조작 유닛들(131,132)은 조작부(manipulating portion)로도 통칭 될 수 있으며, 사용자가 촉각 적인 느낌을 가면서 조작하게 되는 방식(tactile manner)이라면 어떤 방식이든 채용될 수 있다.The user input unit 130 is manipulated to receive a command for controlling the operation of the portable terminal 100 and may include a plurality of operation units 131 and 132. The manipulation units 131 and 132 may also be collectively referred to as manipulating portions, and may be employed in any manner as long as the user operates the tactile manner with a tactile feeling.

제1 또는 제2조작 유닛들(131, 132)에 의하여 입력되는 내용은 다양하게 설정될 수 있다. 예를 들어, 제1 조작 유닛(131)은 시작, 종료, 스크롤 등과 같은 명령을 입력받고, 제2 조작 유닛(132)은 음향출력부(152)에서 출력되는 음향의 크기 조절 또는 디스플레이부(151)의 터치 인식 모드로의 전환 등과 같은 명령을 입력받을 수 있다.Content input by the first or second manipulation units 131 and 132 may be variously set. For example, the first operation unit 131 receives commands such as start, end, scroll, and the like, and the second operation unit 132 controls the size of the sound output from the sound output unit 152 or the size of the sound output from the display unit 151 To the touch recognition mode of the touch screen.

도 2b는 도 2a에 도시된 휴대 단말기의 후면 사시도이다. FIG. 2B is a rear perspective view of the portable terminal shown in FIG. 2A.

도 2b를 참조하면, 단말기 바디의 후면, 다시 말해서 리어 케이스(102)에는 카메라(121')가 추가로 장착될 수 있다. 카메라(121')는 카메라(121, 도 2a 참조)와 실질적으로 반대되는 촬영 방향을 가지며, 카메라(121)와 서로 다른 화소를 가지는 카메라일 수 있다. Referring to FIG. 2B, a camera 121 ′ may be additionally mounted on the rear of the terminal body, that is, the rear case 102. The camera 121 'may have a photographing direction substantially opposite to the camera 121 (see FIG. 2A), and may be a camera having different pixels from the camera 121.

예를 들어, 카메라(121)는 화상 통화 등의 경우에 사용자의 얼굴을 촬영하여 상대방에 전송함에 무리가 없도록 저 화소를 가지며, 카메라(121')는 일반적인 피사체를 촬영하고 바로 전송하지는 않는 경우가 많기에 고 화소를 가지는 것이 바람직하다. 카메라(121,121')는 회전 또는 팝업(pop-up) 가능하게 단말기 바디에 설치될 수도 있다.For example, the camera 121 has a low pixel so that the user's face is photographed and transmitted to the counterpart in case of a video call, and the camera 121 'photographs a general subject and does not transmit it immediately. It is desirable to have a high pixel because there are many. The cameras 121 and 121 'may be installed in the terminal body so as to be rotatable or pop-upable.

카메라(121')에 인접하게는 플래쉬(123)와 거울(124)이 추가로 배치된다. 플래쉬(123)는 카메라(121')로 피사체를 촬영하는 경우에 피사체를 향해 빛을 비추게 된다. 거울(124)은 사용자가 카메라(121')를 이용하여 자신을 촬영(셀프 촬영)하고자 하는 경우에, 사용자 자신의 얼굴 등을 비춰볼 수 있게 한다.A flash 123 and a mirror 124 are further disposed adjacent to the camera 121 '. The flash 123 shines light toward the subject when the subject is photographed by the camera 121 '. The mirror 124 allows the user to see his / her own face or the like when photographing (self-photographing) the user using the camera 121 '.

단말기 바디의 후면에는 음향 출력부(152')가 추가로 배치될 수도 있다. 음향 출력부(152')는 음향 출력부(152, 도 2a 참조)와 함께 스테레오 기능을 구현할 수 있으며, 통화시 스피커폰 모드의 구현을 위하여 사용될 수도 있다.The sound output unit 152 'may be further disposed on the rear surface of the terminal body. The sound output unit 152 ′ may implement a stereo function together with the sound output unit 152 (see FIG. 2A), and may be used to implement a speakerphone mode during a call.

단말기 바디의 측면에는 통화 등을 위한 안테나 외에 방송신호 수신용 안테나(116)가 추가로 배치될 수 있다. 방송수신모듈(111, 도 1 참조)의 일부를 이루는 안테나(116)는 단말기 바디에서 인출 가능하게 설치될 수 있다.In addition to the antenna for talking and the like, a broadcast signal receiving antenna 116 may be further disposed on the side of the terminal body. The antenna 116, which forms part of the broadcast receiving module 111 (see FIG. 1), can be installed to be able to be drawn out from the terminal body.

단말기 바디에는 휴대 단말기(100)에 전원을 공급하기 위한 전원공급부(190)가 장착된다. 전원공급부(190)는 단말기 바디에 내장되거나, 단말기 바디의 외부에서 직접 탈착될 수 있게 구성될 수 있다.A power supply unit 190 for supplying power to the portable terminal 100 is mounted on the terminal body. The power supply unit 190 may be embedded in the terminal body or may be directly detachable from the outside of the terminal body.

리어 케이스(102)에는 터치를 감지하기 위한 터치 패드(135)가 추가로 장착될 수 있다. 터치 패드(135) 또한 디스플레이부(151)와 마찬가지로 광 투과형으로 구성될 수 있다. 이 경우에, 디스플레이부(151)가 양면에서 시각 정보를 출력하도록 구성된다면, 터치 패드(135)를 통해서도 상기 시각 정보를 인지할 수 있게 된다. 상기 양면에 출력되는 정보는 상기 터치 패드(135)에 의해 모두 제어될 수도 있다. 이와 달리, 터치 패드(135)에는 디스플레이가 추가로 장착되어, 리어 케이스(102)에도 터치 스크린이 배치될 수도 있다.The rear case 102 may be further equipped with a touch pad 135 for sensing a touch. Like the display unit 151, the touch pad 135 may also be configured to have a light transmission type. In this case, if the display unit 151 is configured to output visual information from both sides, the visual information may be recognized through the touch pad 135. The information output on both surfaces may be controlled by the touch pad 135. Alternatively, a display may be additionally mounted on the touch pad 135, and a touch screen may be disposed on the rear case 102 as well.

이하, 도 3a 및 3b를 참조하여 디스플레이부(151)와 터치 패드(135)의 서로 연관된 작동 방식에 대하여 살펴본다.Hereinafter, the operation of the display unit 151 and the touch pad 135 will be described with reference to FIGS. 3A and 3B.

도 3a 및 3b는 본 발명과 관련된 휴대 단말기의 일 작동 상태를 설명하기 위한 휴대 단말기의 정면도들이다.3A and 3B are front views of a portable terminal for explaining an operation state of the portable terminal according to the present invention.

디스플레이부(151)에는 다양한 종류의 시각 정보들이 표시될 수 있다. 이들 정보들은 문자, 숫자, 기호, 그래픽, 또는 아이콘 등의 형태로 표시될 수 있다.Various types of time information can be displayed on the display unit 151. [ These pieces of information can be displayed in the form of letters, numbers, symbols, graphics, or icons.

이러한 정보의 입력을 위하여 상기 문자, 숫자, 기호, 그래픽 또는 아이콘 들 중 적어도 하나는 일정한 배열을 이루어 표시됨으로써 키패드의 형태로 구현될 수 있다. 이러한 키패드는 소위 '가상 키패드'(virtual keypad)라 불릴 수 있다. At least one of the letters, numbers, symbols, graphics, or icons may be displayed in a predetermined arrangement for inputting such information, thereby being implemented as a keypad. Such a keypad may be referred to as a so-called " virtual keypad ".

도 3a는 단말기 바디의 전면을 통해 가상 키패드에 가해진 터치를 입력받는 것을 나타내고 있다. 3A illustrates receiving a touch applied to the virtual keypad through the front of the terminal body.

디스플레이부(151)는 전체 영역으로 작동되거나, 복수의 영역들로 나뉘어져 작동될 수 있다. 후자의 경우, 상기 복수의 영역들은 서로 연관되게 작동되도록 구성될 수 있다.The display unit 151 may operate in an entire area or may be operated in a divided manner. In the latter case, the plurality of areas can be configured to operate in association with each other.

예를 들어, 디스플레이부(151)의 상부와 하부에는 출력창(151a)과 입력창(151b)이 각각 표시된다. 출력창(151a)과 입력창(151b)은 각각 정보의 출력 또는 입력을 위해 할당되는 영역이다. 입력창(151b)에는 전화 번호 등의 입력을 위한 숫자가 표시된 가상 키패드(151c)가 출력된다. 가상 키패드(151c)가 터치되면, 터치된 가상 키패드에 대응되는 숫자 등이 출력창(151a)에 표시된다. 제1조작 유닛(131)이 조작되면 출력창(151a)에 표시된 전화번호에 대한 호 연결이 시도된다.For example, an output window 151a and an input window 151b are displayed on the upper and lower portions of the display unit 151, respectively. The output window 151a and the input window 151b are areas allocated for outputting or inputting information, respectively. In the input window 151b, a virtual keypad 151c is displayed in which a number for inputting a telephone number or the like is displayed. When the virtual keypad 151c is touched, numbers and the like corresponding to the touched virtual keypad are displayed on the output window 151a. When the first operation unit 131 is operated, call connection to the telephone number displayed on the output window 151a is attempted.

도 3b는 단말기 바디의 후면을 통하여 가상 키패드에 가해진 터치를 입력받는 것을 나타낸다. 도 3a가 단말기 바디를 세로로 배치시킨 경우(portrait)라면, 도 3b는 단말기 바디를 가로로 배치시킨 경우(landscape)를 나타낸다. 디스플레이부(151)는 단말기 바디의 배치 방향에 따라 출력 화면이 변환되도록 구성될 수 있다.3B illustrates receiving a touch applied to the virtual keypad through the rear of the terminal body. If FIG. 3A is a portrait in which the terminal body is arranged vertically, FIG. 3B illustrates a landscape in which the terminal body is arranged horizontally. The display unit 151 may be configured to convert the output screen according to the arrangement direction of the terminal body.

도 3b는 휴대 단말기에서 텍스트 입력 모드가 작동되는 것을 나타낸다. 디스플레이부(151)에는 출력창(151a')과 입력창(151b')이 표시된다. 입력창(151b')에는 문자, 기호, 숫자들 중 적어도 하나가 표시된 가상 키패드(151c')들이 복수로 배열될 수 있다. 가상 키패드(151c')들은 쿼티(QWERTY)키의 형태로 배열될 수 있다.3B shows that the text input mode is activated in the mobile terminal. The display unit 151 displays an output window 151a 'and an input window 151b'. A plurality of virtual keypads 151c 'displaying at least one of letters, symbols, and numbers may be arranged in the input window 151b'. The virtual keypads 151c 'may be arranged in the form of a QWERTY key.

터치 패드(135, 도 2b 참조)를 통하여 가상 키패드(151c')들이 터치 되면, 터치된 가상 키패드에 대응되는 문자, 숫자, 기호 등이 출력창(151a')에 표시되게 된다. 이와 같이, 터치 패드(135)를 통한 터치 입력은 디스플레이부(151)을 통한 터치 입력에 비하여 터치시 가상 키패드(151c')가 손가락에 의해 가려지는 것을 방지할 수 있는 이점이 있다. 디스플레이부(151)와 터치 패드(135)가 투명하게 형성되는 경우에는, 단말기 바디의 후면에 위치한 손가락들을 육안으로 확인할 수 있으므로, 보다 정확한 터치 입력이 가능하다.When the virtual keypads 151c 'are touched through the touch pad 135 (refer to FIG. 2B), letters, numbers, and symbols corresponding to the touched virtual keypads are displayed on the output window 151a'. As described above, the touch input through the touch pad 135 has an advantage of preventing the virtual keypad 151c 'from being covered by the finger when touched, as compared with the touch input through the display unit 151. When the display unit 151 and the touch pad 135 are transparent, the fingers located at the rear of the terminal body can be visually checked, and thus more accurate touch input is possible.

이상의 실시예들에 개시된 입력 방식뿐만 아니라, 디스플레이부(151) 또는 터치 패드(135)는 스크롤(scroll)에 의해 터치 입력받도록 구성될 수 있다. 사용자는 디스플레이부(151) 또는 터치 패드(135)를 스크롤 함으로써 디스플레이부(151)에 표시된 개체, 예를 들어 아이콘 등에 위치한 커서 또는 포인터를 이동시킬 수 있다. 나아가, 손가락을 디스플레이부(151) 또는 터치 패드(135) 상에서 이동시키는 경우, 손가락이 움직이는 경로가 디스플레이부(151)에 시각적으로 표시될 수도 있다. 이는 디스플레이부(151)에 표시되는 이미지를 편집함에 유용할 것이다.The display unit 151 or the touch pad 135 may be configured to receive a touch input by scrolling, as well as the input method described in the above embodiments. The user can move a cursor or a pointer located on an object displayed on the display unit 151, for example, an icon or the like, by scrolling the display unit 151 or the touch pad 135. [ Further, when the finger is moved on the display portion 151 or the touch pad 135, the path along which the finger moves may be visually displayed on the display portion 151. [ This may be useful for editing an image displayed on the display unit 151.

디스플레이부(151)(터치 스크린) 및 터치 패드(135)가 일정 시간 범위 내에서 함께 터치되는 경우에 대응하여, 단말기의 일 기능이 실행될 수도 있다. 함께 터치되는 경우로는, 사용자가 엄지 및 검지를 이용하여 단말기 바디를 집는(clamping) 경우가 있을 수 있다. 상기 일 기능은, 예를 들어, 디스플레이부(151) 또는 터치 패드(135)에 대한 활성화 또는 비활성화 등이 있을 수 있다.One function of the terminal may be executed in response to a case where the display unit 151 (touch screen) and the touch pad 135 are touched together within a predetermined time range. In the case of being touched together, there may be a case where the user clamps the terminal body using the thumb and index finger. The one function may be activation or deactivation of the display unit 151 or the touch pad 135, for example.

설명의 편의를 위하여, 이하에서 언급되는 이동 단말기는 도 1에 도시된 구성요소들 중 적어도 하나를 포함한다고 가정한다. For convenience of description, it is assumed that the mobile terminal mentioned below includes at least one of the components shown in FIG. 1.

도 4는 본 발명과 관련하여 객체 정보 디스플레이 방법의 흐름을 나타낸 순서도이다.4 is a flowchart illustrating a flow of a method for displaying object information in accordance with the present invention.

도 4 와 관련하여, 객체 정보 디스플레이 방법을 설명하면 다음과 같다.Referring to FIG. 4, the object information display method will be described below.

사용자 입력부 (130) 는 사용자로부터 검색 기준 정보를 입력받는다 (S410). 카메라 (121) 는 외부로부터 영상을 입력받는다 (S420). 위치 정보 모듈 (115) 은 단말기 위치 정보를 획득한다 (S430). 제어부 (180) 는 복수의 객체 정보를 획득한다 (S440). 제어부 (180) 는 상기 검색 기준 정보를 충족하는 객체 정보를 검색한다 (S450). 디스플레이부 (151) 는 검색된 객체 정보 또는 객체를 디스플레이한다 (S460).The user input unit 130 receives search criterion information from the user (S410). The camera 121 receives an image from the outside (S420). The location information module 115 obtains terminal location information (S430). The controller 180 obtains a plurality of object information (S440). The controller 180 searches for object information satisfying the search criterion information (S450). The display unit 151 displays the retrieved object information or object (S460).

이하에서는, 도 4 의 순서도의 흐름에 따라 본 발명의 디스플레이 방법을 구체적으로 설명한다.Hereinafter, the display method of the present invention will be described in detail with the flow of the flowchart of FIG. 4.

먼저, 단말기 (100) 의 사용자 입력부 (130) 는 사용자로부터 검색 기준 정보를 입력받는다 (S410).First, the user input unit 130 of the terminal 100 receives search reference information from the user (S410).

본 명세서에서 사용되는 '검색 기준 정보' 는 외부로부터 입력되는 복수개의 객체에 대한 다양한 정보를 분류하는 기준 정보이다. As used herein, 'search criterion information' is criterion information for classifying various pieces of information about a plurality of objects input from the outside.

증강 현실 기능 (AR : Augmented Reality) 을 이용해서 너무 많은 객체 정보가 디스플레이부 (151) 에 디스플레이되는 경우에 사용자는 그 많은 정보 중에 원하는 객체 및 객체 정보를 찾을 수가 없게 된다. 또한, 카메라 (121) 를 통해서 보여지는 모든 객체에 대해서 객체 정보를 디스플레이하는 것은 단말기 (100) 의 성능 속도를 늦추는 결과가 된다. When too much object information is displayed on the display unit 151 using Augmented Reality (AR), the user cannot find the desired object and object information among the many information. In addition, displaying the object information for all objects viewed through the camera 121 results in slowing down the performance speed of the terminal 100.

이에 따라서, 본 발명은 사용자가 원하는 객체 및 객체에 대한 객체 정보만을 검색하여 디스플레이할 수 있도록 사용자가 검색 기준 정보를 입력하도록 설정될 수 있다.Accordingly, the present invention can be set so that the user inputs the search criteria information so that the user can search and display only the desired object and object information about the object.

도 5는 본 발명과 관련하여 검색 기준 정보에 대한 설정 및 검색 방식을 디스플레이하는 도면이다.FIG. 5 is a diagram illustrating a setting and a search method for search criterion information according to the present invention.

도 5 의 (a) 는 검색 기준 정보 설정 화면을 디스플레이하는 도면이다.5A is a diagram for displaying a search criterion information setting screen.

사용자가 원하는 객체는 다양한 형태, 다양한 종류일 수 있다. 예를 들어, 사용자가 단말기 (100) 를 통하여 획득하고자 하는 객체는 사람일 수도 있고, 특정 건물일 수도 있고, 타 단말기일 수도 있고, 특정 동물일 수도 있다. 사용자가 원하는 객체는 특정 형태에 국한되지 않기 때문에, 검색 기준 정보의 설정은 다양한 형식을 취할 수 있다.The object desired by the user may be in various forms and various kinds. For example, the object that the user wants to acquire through the terminal 100 may be a person, a specific building, another terminal, or a specific animal. Since the object desired by the user is not limited to a specific form, the setting of the search criteria information may take various forms.

도 5 의 (a) 는 검색 기준 정보 설정에 일예로 검색 기준 정보 설정창 (510) 에 설정 기준을 디스플레이한다. 사용자가 원하는 객체를 자유롭게 검색할 수 있는 자유검색, 카테고리별로 사용자가 원하는 객체를 세분화하는 카테고리별 검색이 검색 기준 정보 설종창 (510) 에 검색 기준 정보 설정의 예로 디스플레이된다.5A illustrates setting criteria in the search criteria information setting window 510 as an example of setting the search criteria information. A free search that allows the user to freely search for an object that the user wants, and a category-specific search that subdivides the object that the user wants by category are displayed as an example of setting the search criterion information in the search criteria information sublingual window 510.

도 5 의 (b) 는 검색 기준 정보의 검색을 자유 검색으로 검색하는 것을 도시하는 도면이다. 사용자는 원하는 정보를 직접 사용자 입력부 (520) 를 통하여 입력할 수 있다. 도면에서는 디스플레이부 (151) 와 사용자 입력부 (520) 가 결합된 터치 스크린에 사용자의 터치 동작을 통하여 검색 기준 정보를 입력한다. 사용자가 원하는 객체 및 객체에 대한 정보를 정확하게 인지하고 있는 경우에 자유검색을 통하여 해당 정보를 정확하게 획득할 수 있다.FIG. 5B is a diagram showing a search for search of the search criteria information by free search. The user may directly input desired information through the user input unit 520. In the drawing, search reference information is input to a touch screen in which the display unit 151 and the user input unit 520 are coupled through a user's touch operation. When the user knows exactly the desired object and information about the object, the user can accurately obtain the information through free search.

도 5 의 (c) 는 검색 기준 정보를 전화 번호 검색으로 검색하는 것을 도시하는 도면이다. AR 기능을 통해서 검색되는 다양한 객체 정보는 사람에 대한 것일 수도 있고 건물에 대한 것일 수도 있다. 많은 경우에 객체 정보는 객체와 관련된 전화번호를 포함하고 있기 때문에, 검색 기준 정보로 전화 번호를 이용하는 것은 보다 용이하게 원하는 객체 정보를 획득하는 하나의 방법이 될 수 있다.FIG. 5C is a diagram illustrating a search for search criterion information by telephone number search. Various object information retrieved through the AR function may be about a person or a building. In many cases, since the object information includes a phone number associated with the object, using the phone number as the search criterion information may be one method of obtaining desired object information more easily.

도 5 의 (d) 는 검색 기준 정보를 종류별 검색으로 검색하는 것을 도시한 도면이다. 사용자가 원하는 객체가 종류는 특정되어 있으나 정확한 명칭은 알 수 없는 경우에 종류별 검색 기능을 이용할 수 있다. 디스플레이부 (151) 는 종류별 검색창 (540) 을 통하여 다양한 종류를 디스플레이할 수 있다. 그를 통하여 검색되는 다양한 객체 정보를 종류별로 분류하여 원하는 객체 정보를 획득할 수 있다.FIG. 5D is a diagram showing searching for search criteria information by type. If the type of object desired by the user is specified but the exact name is not known, the search function by type can be used. The display unit 151 may display various types through the type search window 540. Various object information searched through it may be classified by type to obtain desired object information.

사용자가 찾기를 원하는 객체를 정확히 알지 못하는 경우에 종류별 검색은 효과가 있다. 예를 들어, 사용자가 주변의 식당을 찾고자 하는 경우에 단말기 (100) 가 위치한 주변의 음식점에 대한 정확한 명칭 또는 전화 번호를 알 수 없을 수 있다. 이러한 경우에 종류별 검색 기능을 이용하여 해당 음식점을 검색 기준 정보로 선택한 경우에 영상 내의 객체 중 음식점에 대한 객체 정보를 용이하게 획득할 수 있다.Searching by type is effective when the user does not know exactly which object they want to find. For example, if the user wants to find a nearby restaurant, the exact name or telephone number of the nearby restaurant where the terminal 100 is located may not be known. In this case, when the corresponding restaurant is selected as the search reference information by using the search function by type, the object information on the restaurant among the objects in the image can be easily obtained.

다음 단계로, 이동 단말기 (100) 의 카메라 (121) 는 외부로부터 영상을 입력받는다 (S420). In a next step, the camera 121 of the mobile terminal 100 receives an image from the outside (S420).

이동 단말기(100)는, 카메라 촬영 모드에 진입하거나 증강 현실 작동 모드에 진입한 경우에, 카메라(121)를 활성화하여 외부 영상을 입력받는다. 이때, 카메라 촬영 모드 또는 증강 현실 구동 모드는, 해당 메뉴 항목 또는 해당 키(또는 키 영역)가 선택된 경우에 진입될 수 있다. 더 나아가, 카메라 촬영 모드에서 카메라(121)를 이용하여 입력되는 프리뷰 영상을 디스플레이한 상태에서 증강 현실 구동 모드에 중복 진입할 수도 있다.When the mobile terminal 100 enters a camera photographing mode or enters an augmented reality operation mode, the mobile terminal 100 receives an external image by activating the camera 121. In this case, the camera photographing mode or the augmented reality driving mode may be entered when a corresponding menu item or a corresponding key (or key area) is selected. Furthermore, the camera may enter the augmented reality driving mode in a state in which the preview image input using the camera 121 is displayed in the camera photographing mode.

본 명세서에서 사용되는 용어 증강 현실(Augmented Reality)은, 가상 현실의 한 분야로 실제 환경에 가상 사물을 합성하여 원래의 환경에 존재하는 사물처럼 보이도록 하는 컴퓨터 그래픽 기법이다. 따라서, 이동 단말기(100)는, 증강 현실 구동 모드에서 카메라(121)를 통하여 입력된 실제 환경을 나타내는 영상 위에 가상 사물 또는 가상 이미지를 합성하여 디스플레이할 수 있다.As used herein, the term augmented reality is a field of virtual reality, and is a computer graphics technique of synthesizing virtual objects in a real environment and making them look like objects existing in the original environment. Therefore, the mobile terminal 100 may display a virtual object or a virtual image on the image representing the real environment input through the camera 121 in the augmented reality driving mode.

또한, 상기 입력되는 영상은, 사용자 설정에 따라 줌인(zoom-in) 또는 줌아웃(zoom-out) 될 수도 있다.In addition, the input image may be zoomed in or zoomed out according to a user setting.

이동 단말기(100)는, 위치 정보 모듈(115)을 이용하여 이동 단말기(100)의 위치 정보를 획득한다(S430).The mobile terminal 100 obtains location information of the mobile terminal 100 using the location information module 115 (S430).

이동 단말기(100)는, GPS(Global Positioning System)을 이용하여 위성으로부터 자신의 현재 위치 정보를 획득할 수 있다. 예를 들어, 위치 정보에는, 이동 단말기(100)가 현재 위치한 지점의 경도, 위도, 좌표 값 등이 포함될 수 있다.The mobile terminal 100 may obtain its current location information from the satellite using a global positioning system (GPS). For example, the location information may include the longitude, latitude, coordinate values, etc. of the point where the mobile terminal 100 is currently located.

더 나아가, 이동 단말기(100)의 위치 정보에는, 현재 이동 단말기(100)가 위치한 지점에서 이동 단말기(100)의 카메라(121)가 향해 있는 방향이 더 포함될 수 있다. 이동 단말기(100)는, 움직임 감지 센서(미도시)를 포함하고, 움직임 감지 센서를 이용하여 카메라(121)가 향해 있는 방향을 감지할 수 있다. Furthermore, the location information of the mobile terminal 100 may further include a direction in which the camera 121 of the mobile terminal 100 faces at a point where the mobile terminal 100 is currently located. The mobile terminal 100 may include a motion sensor (not shown), and may sense a direction in which the camera 121 faces by using the motion sensor.

다음 단계로, 이동 단말기(100)는, 제어부(180)의 제어에 따라, 상기 획득된 위치 정보를 기준으로 이동 단말기(100)로부터 일정 거리 이내에 위치한 복수의 객체 각각의 객체 정보를 획득한다(S440).In a next step, the mobile terminal 100 obtains object information of each of a plurality of objects located within a predetermined distance from the mobile terminal 100 based on the obtained position information under the control of the controller 180 (S440). ).

여기에서, 객체는, 이동 단말기(100)로부터 일정 거리 이내에 위치한 건물, 상가, 점포 등 그것의 주소 정보(또는 위치 정보)를 갖는 사물을 포함할 수 있다. 또한, 객체 정보는, 객체에 대한 식별 정보로서, 객체에 관련된 모든 정보를 포함할 수 있다. 객체 정보는 객체의 명칭{예를 들어, POI(Point of Interest)} 또는 객체의 대표 아이콘, 객체와 단말기 (100) 와의 거리 등을 포함할 수 있다. 또한, 이동 단말기 (100) 로부터 일정 거리 이내에 위치한 모든 객체들 중 일부 객체에 대해서만 객체 정보가 존재할 수도 있다.Here, the object may include a thing having address information (or location information) thereof, such as a building, a shopping mall, and a store, located within a certain distance from the mobile terminal 100. In addition, the object information may include all information related to the object as identification information on the object. The object information may include a name of the object {eg, a point of interest (POI)} or a representative icon of the object, a distance between the object and the terminal 100, and the like. In addition, object information may exist only for some of all objects located within a certain distance from the mobile terminal 100.

더욱 구체적으로, 제어부(180)는, 상기 획득된 위치 정보 중 좌표 정보를 이용하여 이동 단말기(100)가 현재 위치한 지점을 인식할 수 있고, 상기 획득된 위치 정보 중 카메라(121)가 향해 있는 방향을 이용하여 현재 위치한 지점에서 이동 단말기(100)의 전방을 인식할 수 있다. 따라서, 제어부(180)는, 이동 단말기(100)로부터 전방 일정 거리 이내에 위치한 복수의 객체 각각의 객체 정보를 획득할 수 있다.More specifically, the controller 180 may recognize a location at which the mobile terminal 100 is currently located by using coordinate information among the obtained location information, and the direction in which the camera 121 is facing among the obtained location information. The front of the mobile terminal 100 can be recognized using the current location. Therefore, the controller 180 may obtain object information of each of the plurality of objects located within a predetermined distance from the mobile terminal 100.

상기 객체 정보의 획득 단계(S440)에 대해서 이하에서 더욱 상세히 설명하도록 한다.The obtaining step (S440) of the object information will be described in more detail below.

먼저, 이동 단말기(100)는, 객체별 객체 정보를 메모리(160)에 기 저장하고, 제어부(180)의 제어에 따라 메모리(160)에 기 저장된 객체별 객체 정보로부터 상기 복수의 객체 각각의 객체 정보를 검색할 수 있다. 이때, 메모리(160)는, 해당 객체 정보를 갖는 객체의 위치 정보를 해당 객체 정보와 함께 저장할 수 있다.First, the mobile terminal 100 pre-stores object information for each object in the memory 160, and under the control of the controller 180, the object of each of the plurality of objects from the object information for each object previously stored in the memory 160. You can search for information. In this case, the memory 160 may store location information of the object having the object information together with the object information.

더욱 구체적으로, 제어부(180)는, 이동 단말기(100)로부터 전방 일정 거리 이내에 속하는 위치 정보를 갖는 복수의 객체 및 복수의 객체 각각에 지정된 객체 정보를 메모리(160)로부터 검색할 수 있다. 따라서, 제어부(180)는, 메모리(160)에 저장된 객체별 객체 정보를 검색함에 따라, 이동 단말기(100)로부터 전방 일정 거리 이내에 복수의 객체 각각의 객체 정보를 획득할 수 있다.More specifically, the controller 180 may search the memory 160 for a plurality of objects having location information within a predetermined distance from the mobile terminal 100 and object information designated for each of the plurality of objects. Accordingly, the controller 180 may obtain object information of each of the plurality of objects within a predetermined distance from the mobile terminal 100 by searching for object information for each object stored in the memory 160.

더 나아가, 메모리(160)에 기 저장된 객체별 객체 정보 및 위치 정보는, 외부 서버로부터 수신되거나 단말기 생산시 제조사에 의해서 디폴트로 저장된 것일 수도 있다. 또한, 메모리(160)에 기 저장된 객체별 객체 정보 및 위치 정보는, 주기적으로 또는 임의 시점에 갱신될 수 있다.Furthermore, object information and location information for each object previously stored in the memory 160 may be received from an external server or stored by default by a manufacturer when producing a terminal. In addition, object information and location information for each object previously stored in the memory 160 may be updated periodically or at any time.

다음으로, 이동 단말기(100)는, 이동 단말기(100)로부터 전방 일정 거리 이내에 위치한 복수의 객체 각각의 객체 정보를 무선 통신부(110)를 통하여 외부 서버로부터 수신할 수 있다.Next, the mobile terminal 100 may receive object information of each of a plurality of objects located within a predetermined distance from the mobile terminal 100 from an external server through the wireless communication unit 110.

더욱 구체적으로, 이동 단말기(100)는, 이동 단말기(100)로부터 전방 일정 거리 이내에 위치한 복수의 객체 각각의 객체 정보를 요청하는 신호를 외부 서버에 송신함에 따라, 이동 단말기(100)로부터 전방 일정 거리 이내에 위치한 복수의 객체 각각의 객체 정보를 수신할 수 있다. More specifically, the mobile terminal 100 transmits a signal for requesting object information of each of a plurality of objects located within a predetermined distance from the mobile terminal 100 to the external server, and thus, the front predetermined distance from the mobile terminal 100. The object information of each of a plurality of objects located within can be received.

이때, 요청 신호에는, 복수의 객체 각각의 위치 정보가 포함되거나, 이동 단말기(100)의 위치 정보 및 객체 정보를 디스플레이하고자 하는 일정 거리를 포함할 수 있다.In this case, the request signal may include location information of each of the plurality of objects, or may include a predetermined distance for displaying the location information and the object information of the mobile terminal 100.

전자의 경우, 이동 단말기(100)는, 요청 신호에 포함된 위치 정보에 해당하는 객체 정보를 외부 서버로부터 수신할 수 있다. 또한, 후자의 경우, 이동 단말기(100)는, 이동 단말기(100)의 현재 위치로부터 전방 일정 거리 이내에 위치하는 복수의 객체 각각의 객체 정보를 외부 서버로부터 수신할 수 있다.In the former case, the mobile terminal 100 may receive object information corresponding to the location information included in the request signal from an external server. In the latter case, the mobile terminal 100 may receive object information of each of a plurality of objects located within a predetermined distance from the current position of the mobile terminal 100 from an external server.

객체 정보는, 상기 입력된 영상 내에서 해당 객체에 해당하는 객체 이미지와 연계되어 디스플레이될 수 있다. The object information may be displayed in association with an object image corresponding to the corresponding object in the input image.

상기 입력된 영상 내에 객체 정보에 해당하는 객체 이미지가 존재하지 않는 경우라도, 객체 정보는 상기 입력된 영상 내에서 해당 객체 이미지가 존재할 것으로 예측되는 위치에서 디스플레이될 수 있다.Even when the object image corresponding to the object information does not exist in the input image, the object information may be displayed at a position where the corresponding object image is predicted to exist in the input image.

객체 정보 획득 단계(S440)에 관련하여, 도 6을 참조하여 설명한다. The object information acquisition step S440 will be described with reference to FIG. 6.

도 6은 본 발명과 관련하여 AR 기능을 이용하여 객체 정보를 디스플레이하는 도면이다.6 is a diagram for displaying object information using an AR function according to the present invention.

도 6의 (a) 는 카메라 (121) 를 통해서 입력되는 외부 영상을 디스플레이하는 도면이다. AR 기능이 실행되지 않은 디스플레이부 (151) 를 도시하는 것으로 영상 내의 복수의 객체들이 디스플레이되지만 객체에 대한 객체 정보는 디스플레이되지 않는다.FIG. 6A is a diagram of displaying an external image input through the camera 121. As shown in the display unit 151 in which the AR function is not executed, a plurality of objects in the image are displayed, but object information on the object is not displayed.

도 6의 (b) 는 복수의 객체 및 AR 기능을 통하여 획득된 객체 정보를 디스플레이하는 도면이다. 단말기 (100) 의 위치 정보를 이용하여 입력된 영상 내에 복수의 객체들에 대한 객체 정보들을 디스플레이하는 도면이다. 상기 설명한 바와 같이, 객체 정보는 객체에 대한 다양한 정보를 포함할 수 있다. 도면에서, 영상 내의 객체는 건물, 버스, 택시등이 도시되고 있으며, 객체 정보는 단말기 (100) 와의 거리, 버스 번호등이 디스플레이된다.FIG. 6B is a diagram of displaying a plurality of objects and object information obtained through an AR function. FIG. 1 is a diagram illustrating object information of a plurality of objects in an input image using location information of the terminal 100. As described above, the object information may include various information about the object. In the figure, the objects in the image are shown buildings, buses, taxis, etc., and object information is displayed with the distance to the terminal 100, the bus number, and the like.

도 6의 (b) 에서는 단계 (S410) 에서 입력된 검색 기준 정보가 적용되지 않은 것으로 다양한 객체 정보가 디스플레이된다. 즉, 제어부 (180) 가 획득한 모든 객체 및 객체 정보가 디스플레이되는 것을 도시한다.In FIG. 6B, various object information is displayed as the search criterion information input in step S410 is not applied. That is, it shows that all the objects and object information obtained by the controller 180 is displayed.

다음 단계로, 제어부 (180) 는 상기 검색 기준 정보를 충족하는 객체 정보를 검색한다 (S450). In a next step, the controller 180 searches for object information meeting the search criteria information (S450).

단계 (S450) 에서 제어부 (180) 는 다양한 객체 정보를 획득한다. 이러한 객체 정보들 중에서, 단계 (S410) 에서 입력된 검색 기준 정보를 이용하여 검색 기준 정보를 충족하는 객체 정보를 검색한다.In operation S450, the controller 180 obtains various object information. Among the object information, the object information satisfying the search criterion information is searched using the search criterion information input in step S410.

제어부 (180) 는 객체 또는 객체에 대한 객체 정보와 검색 기준 정보를 비교하여 충족하는지 여부를 판단하고 충족하는 객체 정보를 검색한다. 제어부 (180) 는 우선적으로 영상 내의 객체에 대한 모든 객체 정보를 분석한다. 분석된 결과를 바탕으로 사용자가 입력한 검색 기준 정보를 비교하여 일정 수준 이상의 충족 정도를 보이는 경우에 제어부 (180) 는 해당 객체를 검색 기준 정보를 충족하는 객체로 판단한다. 제어부 (180) 는 이러한 과정을 반복하여 복수의 객체들이 검색 기준 정보를 충족하는지 여부를 검색한다.The controller 180 compares the object information about the object or the object with the search criterion information, determines whether the object is satisfied, and searches for the object information. The controller 180 first analyzes all object information about objects in the image. When the search criterion information input by the user is compared based on the analyzed result and the degree of satisfaction of the predetermined level or more is displayed, the controller 180 determines that the object is an object that satisfies the search criterion information. The controller 180 repeats this process and searches whether the plurality of objects satisfy the search criterion information.

검색 기준 정보를 충족하는 정도는 다양하게 존재할 수 있다. 예를 들어, 검색 기준 정보를 단말기 (100) 와 근접도로 설정한 경우에 단말기 (100) 와 근접하게 위치한 다양한 객체들이 검색될 것이다. 하지만, 다양한 객체들 사이에서도 단말기 (100) 과의 근접도 면에서 차이가 존재하며 그에 따라서 검색 기준 정보인 근접도를 충족하는 정도는 다양하게 존재할 것이다.The degree of satisfying the search criterion information may vary. For example, when the search criterion information is set in proximity to the terminal 100, various objects located near the terminal 100 will be searched. However, there is a difference in proximity to the terminal 100 among various objects, and accordingly, there will be various degrees of satisfying the proximity, which is search criterion information.

다음 단계로, 디스플레이부 (151) 는 검색된 객체 정보 또는 객체를 디스플레이한다 (S460).In a next step, the display unit 151 displays the retrieved object information or object (S460).

검색 기준 정보를 충족하는 객체를 디스플레이하는 방식은 다양하게 존재한다. 객체 디스플레이 방식은 검색 기준 정보를 충족하는 객체는 정상적으로 디스플레이하고 해당 객체를 제외한 영역을 다른 색상으로 처리하는 방식, 검색 기준 정보를 충족하는 객체만을 디스플레이하고 해당 객체를 제외한 영역은 디스플레이하지 않는 방식, 검색 기준 정보를 충족하는 객체만을 두드러지게 디스플레이하는 방식, 검색 기준 정보를 충족하는 객체를 3D 형식으로 디스플레이하는 방식등을 포함할 수 있다. 이러한 방식은 예시적인 것이며, 검색 기준 정보를 충족하는 객체와 다른 객체 및 다른 영역을 구별지어 디스플레이하는 방식이면 그 형식에 국한되지 않고 본 발명의 범주에 포함된다.There are various ways of displaying an object that satisfies the search criteria information. The object display method is to display an object that satisfies the search criterion information normally and to process an area except the object in a different color, to display only an object that satisfies the search criterion information, and not to display an area except the object. A method of prominently displaying only objects satisfying the reference information, a method of displaying objects satisfying the search criterion information in 3D format, and the like. This method is exemplary, and a method of distinguishing and displaying an object satisfying the search criterion information from another object and another area is not limited to the format and is included in the scope of the present invention.

디스플레이부 (151) 에 디스플레이되는 대상은 검색 기준 정보를 충족하는 객체일 수도 있지만, 해당 객체에 대한 객체 정보일 수도 있다. 또한, 객체 및 객체 정보 모두를 디스플레이부 (151) 에 디스플레이할 수도 있다.The object displayed on the display unit 151 may be an object that satisfies the search criteria information, or may be object information about the object. In addition, both the object and the object information may be displayed on the display unit 151.

단말기 (100) 의 디스플레이부 (151) 는 검색 기준 정보를 충족하는 객체를 영상 내의 다른 객체와 구별하여 디스플레이한다. 검색 기준 정보를 충족하는 객체를 사용자에게 명확하게 디스플레이하기 위한 것이기 때문에, 해당 객체를 디스플레이하는 방식은 특정 방식에 국한되지는 않는다. The display unit 151 of the terminal 100 distinguishes and displays an object satisfying the search criterion information from other objects in the image. Since the object that satisfies the search criteria information is clearly displayed to the user, the manner of displaying the object is not limited to a specific manner.

도 7a 는 본 발명과 관련하여 검색 기준 정보를 충족하는 객체 또는 객체 정보를 디스플레이하는 도면이다.FIG. 7A is a diagram for displaying an object or object information that satisfies search criterion information according to the present invention. FIG.

도 7a 의 (a) 는 검색 기준 정보를 충족하는 객체만을 디스플레이하는 도면이다.(A) of FIG. 7A is a diagram for displaying only objects that satisfy the search criterion information.

도면에서, 검색 기준 정보를 충족하는 건물인 객체 (710) 는 해당 객체 (710) 는 다른 영역과 구별되게 정상적으로 디스플레이된다. 하지만, 객체 (710) 를 제외한 영역은 음영으로 처리되어 디스플레이된다. 그에 따라서, 사용자는 검색 기준 정보를 충족하는 객체가 건물 (710) 이라는 것을 명확하게 파악할 수 있다.In the figure, an object 710 that is a building that satisfies the search criteria information is normally displayed to distinguish the object 710 from other areas. However, areas other than the object 710 are shaded and displayed. Accordingly, the user can clearly see that the object that satisfies the search criteria information is the building 710.

도 7a 의 (b) 는 검색 기준 정보를 충족하는 객체 및 객체 정보 모두를 디스플레이하는 도면이다.FIG. 7A (b) is a diagram displaying both an object and object information that satisfy the search criterion information.

도면에서, 검색 기준 정보를 충족하는 객체 (710) 및 객체 정보 (720) 가 디스플레이부 (151) 에 디스플레이된다. 객체 (710) 및 객체 정보 (720) 를 제외한 영역은 음영으로 처리되도록 디스플레이된다. 이런 방식으로 디스플레이되는 경우, 사용자는 검색 기준 정보를 충족하는 객체 (710) 와 그에 해당하는 객체에 대한 객체 정보 (720) 를 명확하게 파악할 수 있다.In the drawing, the object 710 and the object information 720 meeting the search criteria information are displayed on the display unit 151. Areas other than object 710 and object information 720 are displayed to be shaded. When displayed in this manner, the user can clearly grasp the object 710 meeting the search criteria information and the object information 720 for the corresponding object.

도 7b 는 검색 기준 정보를 충족하는 객체 또는 객체 정보를 디스플레이하는 다른 예를 도시한 도면들이다.7B is a diagram illustrating another example of displaying an object or object information that satisfies search criteria information.

도 7b 의 (a) 는 검색 기준 정보를 충족하는 객체 또는 객체 정보만을 디스플레이하는 도면이다. 사용자가 원하는 객체를 보다 명확하게 디스플레이할 수 있도록 디스플레이부 (151) 는 검색 기준 정보를 충족하는 객체만을 디스플레이할 수 있다. 검색 기준 정보를 충족하는 객체 이외의 영상은 디스플레이하지 않도록 하여 검색 기준 정보를 충족하는 객체를 명확하게 확인할 수 있도록 할 수 있다.FIG. 7B (a) is a diagram illustrating only an object or object information satisfying search criteria information. The display unit 151 may display only an object that satisfies the search criterion information so that the user can display the desired object more clearly. Images other than objects satisfying the search criterion information may not be displayed so that objects satisfying the search criterion information may be clearly identified.

도 7b 의 (b) 는 검색 기준 정보를 충족하는 객체를 화살표로 표시하는 방식을 도시하는 도면이다. 객체 정보에는 객체에 대한 다양한 정보를 포함할 수 있기 때문에, 한정된 디스플레이 영역에 객체 정보를 모두 디스플레이하는 경우에 카메라 (121) 로부터 입력된 영상을 모두 가릴 수 있다. 그에 따라서, 검색 기준 정보를 충족하는 객체를 화살표로 표시하고 해당 객체에 대한 객체 정보는 별도의 객체 정보창 (730) 을 통하여 디스플레이할 수 있다.FIG. 7B (b) is a diagram illustrating a method of displaying an object that satisfies the search criterion information with an arrow. Since the object information may include various information about the object, when displaying all the object information in the limited display area, all of the images input from the camera 121 may be covered. Accordingly, an object satisfying the search criterion information may be displayed by an arrow, and object information on the corresponding object may be displayed through a separate object information window 730.

도 7b 의 (c) 는 검색 기준 정보를 충족하는 객체를 번호를 매기는 방식으로 도시하는 도면이다. 도 7b 의 (b) 의 경우와 유사하게, 객체 정보로 인해서 외부 영상을 가리는 것을 방지하기 위해서, 해당 객체를 지칭하는 번호를 이용하여 객체를 표시할 수 있다. 해당 번호와 관련하여 디스플레이부 (151) 의 하단 영역에 해당 객체에 해당하는 객체 정보를 디스플레이할 수 있다.FIG. 7B (c) is a diagram illustrating an object that satisfies the search criterion information in a numbered manner. Similar to the case of (b) of FIG. 7B, in order to prevent the external image from being blocked due to the object information, the object may be displayed using a number indicating the object. In relation to the number, object information corresponding to the object may be displayed in the lower area of the display unit 151.

사용자가 입력한 검색 기준 정보를 충족하는 객체가 복수개 존재할 수도 있다. 이러한 경우에 검색 기준 정보의 설정에 따라서 검색 기준 정보를 충족하는 모든 객체를 디스플레이할 수도 있고 검색 기준 정보에 대한 충족의 정도가 가장 높은 객체만을 디스플레이할 수도 있다. There may be a plurality of objects that satisfy the search criterion information input by the user. In this case, all objects satisfying the search criterion information may be displayed or only objects having the highest degree of satisfaction of the search criterion information may be displayed according to the setting of the search criterion information.

검색 기준 정보에 대한 충족의 정도는 다양한 방식으로 판단될 수 있다. 예를 들어, 검색 기준 정보를 '화장실'로 설정하여 검색하는 경우 영상내에 화장실에 해당하는 객체가 모두 검색될 수 있다. 하지만, 검색 기준 정보를 '가장 가까운 화장실' 로 설정하여 검색하는 경우 영상내에 복수개의 화장실이 존재하더라도 단말기 (100) 와 가장 가까운 위치에 존재하는 화장실이 검색 기준 정보를 충족하는 정도가 가장 높은 것으로 판단될 수 있다.The degree of satisfaction with the search criterion information may be determined in various ways. For example, when searching by setting the search criteria information as 'toilet', all objects corresponding to the toilet in the image may be searched. However, in the case of searching by setting the search criterion information as 'closest restroom', it is determined that the toilet that exists closest to the terminal 100 satisfies the search criterion information even if a plurality of restrooms exist in the image. Can be.

도 8a 및 8b 는 본 발명과 관련하여 획득된 둘 이상의 객체 정보 또는 객체를 디스플레이하는 도면이다.8A and 8B show two or more object information or objects obtained in connection with the present invention.

도 8a 의 (a) 는 검색 기준 정보를 '음식점' 으로 설정하여 검색한 경우를 도시한 도면이다. 검색 기준 정보를 '음식점' 으로 설정하여 검색하는 경우에 제어부 (180) 는 단말기 (100) 의 위치 정보를 이용하여 주변의 객체를 파악하고 해당 객체 정보를 획득한다. 제어부 (180) 는 해당 객체의 객체 정보를 이용하여 '음식점' 에 해당하는 객체 정보를 검색한다. 검색 결과, 음식점에 속하는 객체들이 존재하는 경우에 디스플레이부 (151) 는 해당 객체들 및 객체 정보들을 디스플레이한다. 도면에서, 음식점에 해당하는 중국집, 스파게티가게, 빵집이 검색 기준 정보인 '음식점' 을 충족하여 디스플레이된다.FIG. 8A (a) is a diagram illustrating a case where a search is performed by setting the search criteria information to 'restaurant'. In the case of searching by setting the search criterion information as 'restaurant', the controller 180 determines the surrounding objects by using the location information of the terminal 100 and obtains the corresponding object information. The controller 180 searches for object information corresponding to 'restaurant' using the object information of the corresponding object. As a result of the search, when there are objects belonging to the restaurant, the display unit 151 displays the corresponding objects and object information. In the drawing, a Chinese restaurant, a spaghetti shop, and a bakery corresponding to a restaurant are displayed by satisfying a 'restaurant' which is search criteria information.

도 8a 의 (b) 는 검색 기준 정보를 음식점이 아닌 '중국집' 으로 설정하여 검색한 경우를 도시한 도면이다. 음식점에 비해서 중국집은 조금 더 세분화된 검색 기준 정보이기 때문에, 도 8a 의 (a) 에 비해서, 검색 기준 정보를 충족하는 객체의 갯수가 줄어드는 것으로 디스플레이된다. 따라서, 검색 기준 정보를 충족하는 객체인 (812), (818) 만이 디스플레이부 (151) 에 디스플레된다.FIG. 8A (b) is a diagram illustrating a case where a search is performed by setting the search criterion information as 'Chinese House' rather than a restaurant. Since the Chinese restaurant is a more detailed search criterion information than a restaurant, it is displayed that the number of objects satisfying the search criterion information is reduced as compared with FIG. 8A (a). Therefore, only the objects 812 and 818 that satisfy the search criterion information are displayed on the display unit 151.

도 8a 의 (c) 는 검색 기준 정보를 더 세분화하여 '가장 저렴한 중국집'으로 설정하여 검색한 경우를 도시한 도면이다. 도 8a 의 (b) 의 경우의 검색 기준 정보를 더 세분화하여 중국집이 아니라 가장 저렴한 중국집으로 설정한 경우이다. 그에 따라서, 도 8a 의 (b) 에서, 중국집으로 판단된 객체 (812) 및 (818) 중에 가격면에 저렴한 객체인 (812) 가 검색 기준 정보에 대한 충족의 정도가 가장 높은 것으로 제어부 (180) 가 판단하여 이를 디스플레이부 (151) 에 디스플레이한다.FIG. 8A (c) is a diagram illustrating a case in which the search criteria information is further subdivided and set as the 'cheapest Chinese house' to search. This is a case where the search criteria information in the case of FIG. 8A (b) is further subdivided and set as the cheapest Chinese house instead of the Chinese house. Accordingly, in (b) of FIG. 8A, the controller 180 indicates that among the objects 812 and 818, which are determined to be Chinese restaurants, the most inexpensive object 812 satisfies the search criterion information. Judges and displays it on the display unit 151.

도 8b 의 (a) 는 검색 기준 정보를 충족하는 객체를 디스플레이하는 다른 방식을 도시하는 도면이다. FIG. 8B is a diagram illustrating another manner of displaying an object that satisfies the search criteria information.

도 8b 의 (a) 는 검색 기준 정보를 '버스' 로 설정하여 검색한 경우를 도시한 도면이다. 검색 기준 정보를 '버스' 로 설정하여 검색하는 경우에 제어부 (180) 는 단말기 (100) 의 위치 정보를 이용하여 주변의 객체 중 버스를 파악한다. 검색 결과, 버스로 검색된 객체들이 존재하는 경우에 디스플레이부 (151) 는 해당 객체들 및 객체 정보들을 디스플레이한다. 도면에서, 버스에 해당하는 401번 버스 (822), 1000번 버스 (824), 501번 버스 (826) 가 디스플레이부 (151) 에 디스플레이된다.FIG. 8B (a) illustrates a case where the search is performed by setting the search criterion information to 'bus'. In the case of searching by setting the search criterion information to 'bus', the controller 180 determines a bus among neighboring objects by using the location information of the terminal 100. As a result of the search, when there are objects searched by the bus, the display unit 151 displays the corresponding objects and object information. In the drawing, bus 401, bus 822, bus 1000, 824, and bus 501 826 corresponding to the bus are displayed on the display unit 151.

도 8b 의 (b) 는 검색 기준 정보를 '우이동행 버스' 로 설정하여 검색한 경우를 도시한 도면이다. 버스로 검색 기준 정보를 설정하는 대신에 우이동행 버스로 한정하여 검색 기준 정보를 설정하는 경우이다. 버스보다는 우이동행 버스가 조금 더 세분화된 검색 기준 정보이기 때문에, 도 8b 의 (a) 에 비해서, 검색 기준 정보를 충족하는 객체의 갯수가 줄어드는 것으로 디스플레이된다. 따라서, 검색 기준 정보를 충족하는 객체인 버스 (822), (826) 만이 디스플레이부 (151) 에 디스플레된다.FIG. 8B (b) is a diagram illustrating a case where the search is performed by setting the search criterion information to 'right traveling bus'. This is the case where the search criteria information is set only by the bus for the right-hand movement instead of setting the search criteria information by the bus. Since the right-bound bus is more refined search criterion information than the bus, it is displayed that the number of objects satisfying the search criterion information is reduced as compared with FIG. 8B (a). Therefore, only buses 822 and 826 which are objects that satisfy the search criterion information are displayed on the display unit 151.

또한, 객체 정보는 사용자에게 보다 명확한 정보를 제공할 수도 있다. 도면에서와 같이, 우이동행 버스라도 우이동까지 예상 소요 시간을 객체 정보로 표시하는 경우 사용자는 보다 용이하게 자신이 원하는 버스를 디스플레이부 (151) 를 통해서 확인할 수 있다.In addition, the object information may provide more clear information to the user. As shown in the figure, even when the bus to the right to travel to display the expected time to move to the right as a user information, the user can more easily check the desired bus through the display unit 151.

도 8b 의 (c) 는 검색 기준 정보를 더 세분화하여 '가장 빠른 우이동행 버스'로 설정하여 검색한 경우를 도시한 도면이다. 도 8b 의 (b) 의 경우의 검색 기준 정보를 더 세분화하여 우이동행 버스가 아니라 가장 빠른 우이동행 버스로 설정한 경우이다. 그에 따라서, 도 8b 의 (b) 에서, 버스로 판단된 객체 (822) 및 (826) 중에 가장 빠른 버스인 객체 (822) 가 검색 기준 정보에 대한 충족의 정도가 가장 높은 것으로 제어부 (180) 가 판단하여 이를 디스플레이부 (151) 에 디스플레이된다.FIG. 8B (c) is a diagram illustrating a case where the search criterion information is further subdivided and set as a 'fastest moving bus'. In the case of (b) of FIG. 8B, the search criteria information is further subdivided to set the fastest right-movement bus instead of the right-movement bus. Accordingly, in (b) of FIG. 8B, the controller 180 determines that the object 822 which is the fastest bus among the objects 822 and 826 determined as the bus has the highest degree of satisfaction for the search criterion information. It is determined and displayed on the display unit 151.

도면에는 도시되지 않지만, 검색 기준 정보를 충족하는 객체가 복수개가 존재하는 경우에 객체 정보에는 더 상세한 정보가 포함될 수도 있다. 예를 들어, 중국집으로 검색 기준 정보를 설정한 경우에는 디스플레이되는 객체 정보에는 각 중국집의 대표 음식, 가격, 유명인의 방문록등이 포함될 수 있다. 또한, 우이동행 버스로 검색 기준 정보를 설정한 경우에는 디스플레이되는 객체 정보에는 우이동까지 교통상황을 고려한 소요시간, 버스내 탑승인원등이 포함될 수 있다.Although not illustrated in the drawing, in the case where a plurality of objects satisfying the search criteria information exist, the object information may include more detailed information. For example, when the search criteria information is set as a Chinese house, the displayed object information may include representative foods of each Chinese house, prices, and visit records of celebrities. In addition, when the search criteria information is set to the bus for the right-side bus, the displayed object information may include the time required in consideration of traffic conditions until the right-side bus, the number of passengers in the bus, and the like.

도면에는 도시되지 않았지만, 검색 기준 정보를 충족하는 복수의 객체에 대해서 검색 기준 정보를 충족하는 정도를 숫자 또는 도형으로 표시하여 디스플레이할 수도 있다. 그에 따라서 사용자가 검색 기준 정보를 충족하는 복수의 객체 중에 사용자가 선택하도록 할 수 있다.Although not shown in the drawing, the degree of satisfying the search criterion information may be displayed by numbers or figures for a plurality of objects satisfying the search criterion information. Accordingly, the user can select the user from among a plurality of objects satisfying the search criteria information.

도 9는 본 발명과 관련하여 객체 정보에 대한 선택을 디스플레이하는 도면이다.9 is a diagram for displaying a selection for object information in connection with the present invention.

본 발명을 통하여 디스플레이되는 여러 객체 또는 객체 정보의 경우 해당 객체 또는 객체 정보에 대한 선택 동작이 있는 경우 해당 정보를 보다 상세하게 디스플레이할 수 있다. 카메라 (121) 를 통해서 입력되는 외부 영상내에 객체와 객체 정보를 모두 디스플레이하면 해당 객체 정보가 한정적으로 디스플레이할 수 밖에 없다. 따라서, 해당 객체와 객체 정보를 선택하는 경우에 보다 상세하게 객체 및 객체 정보를 디스플레이하도록 제어부 (180) 가 디스플레이부 (151) 를 제어한다.In the case of various objects or object information displayed through the present invention, when there is a selection operation for the corresponding object or object information, the corresponding information may be displayed in more detail. If both the object and the object information is displayed in the external image input through the camera 121, the corresponding object information is inevitably limited. Therefore, when selecting the corresponding object and the object information, the controller 180 controls the display unit 151 to display the object and the object information in more detail.

도 9 의 (a) 는 디스플레이부 (151) 에 객체들 (912 내지 918) 이 디스플레이되고 그 중 특정 객체 (912) 를 선택하는 것을 도시하는 도면이다.FIG. 9A is a diagram illustrating objects 912 to 918 displayed on the display unit 151 and selecting a specific object 912 among them.

도 9 의 (b) 는 특정 객체를 선택하는 사용자 동작에 응답하여 특정 객체에 대한 객체 정보를 디스플레이하는 것을 도시한 도면이다.FIG. 9B is a diagram illustrating displaying object information on a specific object in response to a user's action of selecting the specific object.

도면에서, 선택된 특정 객체 (912) 는 중국집인 경우이다. 해당 중국집에 대한 객체 정보는 중국집의 전화번호, 대표 음식, 중국집의 상호, 음식의 가격등이 포함될 수 있다. In the figure, the selected specific object 912 is a Chinese house. The object information about the Chinese restaurant may include a telephone number of a Chinese restaurant, a representative food, a trade name of a Chinese restaurant, and a price of food.

본 발명은 하나의 예로, 백화점 매장에서 사용자가 원하는 옷을 검색하고 선택하는 상황에서 유용하게 사용될 수도 있다. 예를 들어, 사용자가 검색 기준 정보로 백화점 매장에서 '자켓'을 입력한 경우에 해당 옷을 용이하게 파악할 수 있다. 백화점 매장 내에 있는 다양한 객체 정보를 제어부 (180) 가 획득하고 획득된 여러 정보 중에 검색 기준 정보인 '자켓'을 판단하고 해당 객체만을 다른 객체들과 구분지어 디스플레이할 수 있다. 자켓이 디스플레이되는 경우 해당 자켓을 터치 동작을 통하여 선택하는 경우에 해당 자켓에 대한 다양한 객체 정보가 디스플레이될 수 있다. 예를 들어, 해당 자켓의 다른 모습, 가격, 제조 회사등이 디스플레이될 수 있다. 또한, 인터넷 쇼핑몰에 연결되어 해당 자켓을 직접 구매하도록 설정될 수도 있다.As an example, the present invention may be usefully used in a situation of searching for and selecting clothes desired by a user in a department store. For example, when a user inputs a 'jacket' at a department store store as search criterion information, the corresponding clothes can be easily identified. The controller 180 may acquire various object information in a department store and determine a 'jacket', which is search criteria information, among various pieces of information obtained, and display only the corresponding object separately from other objects. When the Jacket is Displayed When a corresponding jacket is selected through a touch operation, various object information about the jacket may be displayed. For example, other appearances, prices, manufacturers, etc. of the jacket may be displayed. In addition, it may be set to directly connect to the Internet shopping mall to purchase the jacket.

도 10은 검색 기준 정보를 충족하는 객체가 영상내에 보이지는 않는 경우를 디스플레이하는 도면이다.FIG. 10 is a diagram illustrating a case in which an object satisfying search criteria information is not visible in an image.

검색 기준 정보로 '커피숍'을 설정한 경우에 카메라 (121) 를 통해서 보이는 영상에 검색 기준 정보를 충족하는 객체가 존재하지 않는 경우를 의미한다. 충족하는 객체가 영상내에 디스플레이되는 경우에는 상기 설명한 바와 같이 구별되게 디스플레이할 수 있다. 하지만, 도면과 같이 객체가 존재하지 않는 경우에는 이를 디스플레이하지 못할 수 있다. 그에 따라서, 직접적으로 객체를 디스플레이할 수 없으므로, 해당 객체의 객체 정보를 화살표등의 형식으로 디스플레이할 수 있다. 도면에서는 검색 기준 정보를 충족하는 객체인 '스타복스'에 대한 객체 정보 (1010) 를 화살표를 이용하여 디스플레이할 수 있다. When the coffee shop is set as the search criterion information, this means that an object satisfying the search criterion information does not exist in the image viewed through the camera 121. When a satisfying object is displayed in the image, the object may be distinguished as described above. However, if an object does not exist as shown in the drawing, it may not be displayed. Accordingly, since the object cannot be directly displayed, the object information of the object can be displayed in the form of an arrow or the like. In the drawing, the object information 1010 for 'StarVox', which is an object that satisfies the search criterion information, may be displayed using an arrow.

또한, 본 발명의 일 실시예에 의하면, 전술한 객체 정보 디스플레이 방법은 프로그램이 기록된 매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.In addition, according to an embodiment of the present invention, the above-described method for displaying object information may be embodied as processor readable codes on a medium in which a program is recorded. Examples of processor-readable media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like, and may be implemented in the form of a carrier wave (for example, transmission over the Internet). Include.

상기와 같이 설명된 이동 단말기는 상기 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The mobile terminal described above can be applied to not only the configuration and method of the embodiments described above but also all or some of the embodiments may be selectively combined so that various modifications may be made to the embodiments It is possible.

100 이동 단말기 110 무선 통신부
115 위치 정보 모듈 130 사용자 입력부
151 디스플레이부 180 제어부
100 mobile terminal 110 wireless communication unit
115 Location Information Module 130 User Input
151 Display unit 180 Control unit

Claims (5)

검색 기준 정보를 입력받는 사용자 입력부;
외부로부터 영상을 입력받는 카메라 모듈;
단말기 위치 정보를 획득하는 위치 정보 모듈;
상기 입력된 영상을 디스플레이하는 디스플레이부; 및
상기 획득된 단말기 위치 정보를 기준으로 사용자 단말기로부터 일정 거리 이내에 위치한 복수의 객체에 대한 각각의 객체 정보를 획득하고, 상기 획득된 객체 정보 중 상기 입력된 검색 기준 정보를 충족하는 객체 정보를 검색하고, 상기 검색된 객체 정보에 해당하는 객체 및 상기 검색된 객체 정보 중 적어도 하나를 디스플레이하도록 상기 디스플레이부를 제어하는 제어부를 포함하는, 이동 단말기.
A user input unit configured to receive search criterion information;
A camera module for receiving an image from the outside;
A location information module for obtaining terminal location information;
A display unit which displays the input image; And
Obtaining respective object information about a plurality of objects located within a predetermined distance from a user terminal based on the obtained terminal location information, searching for object information satisfying the input search criterion information among the obtained object information, And a controller configured to control the display unit to display at least one of an object corresponding to the retrieved object information and the retrieved object information.
제 1 항에 있어서,
상기 제어부는,
상기 영상 내에서 상기 검색된 객체 정보에 관련된 객체 및 상기 검색된 객체 정보 중 적어도 하나를 포함하는 표시 영역과 상기 표시 영역을 제외한 영역을 구별하여 디스플레이하도록 상기 디스플레이부를 제어하는, 이동 단말기.
The method of claim 1,
The control unit,
And controlling the display unit to display a display area including at least one of an object related to the searched object information and the searched object information and an area excluding the display area in the image.
제 1 항에 있어서,
상기 검색 기준 정보는 상기 객체의 명칭, 상기 객체의 종류, 상기 객체의 주소 중 적어도 하나를 포함하는, 이동 단말기.
The method of claim 1,
The search criterion information includes at least one of a name of the object, a type of the object, and an address of the object.
제 1 항에 있어서,
상기 검색 기준 정보를 충족하는 적어도 둘 이상의 객체 정보가 검색된 경우,
상기 제어부는,
상기 검색 기준 정보에 대한 충족 정도에 따라서 상기 적어도 둘 이상의 객체 정보를 구별하여 디스플레이하도록 상기 디스플레이부를 제어하는, 이동 단말기.
The method of claim 1,
When at least two or more object information that satisfies the search criteria information is found,
The control unit,
And controlling the display unit to distinguish and display the at least two object information according to a degree of satisfaction of the search criterion information.
검색 기준 정보를 입력받는 단계;
외부로부터 영상을 입력받는 단계;
단말기 위치 정보를 획득하는 단계;
상기 획득된 단말기 위치 정보를 기준으로 사용자 단말기로부터 일정 거리 이내에 위치한 복수의 객체에 대한 각각의 객체 정보를 획득하는 단계;
상기 획득된 객체 정보 중 상기 입력된 검색 기준 정보를 충족하는 객체 정보를 검색하는 단계; 및
상기 검색된 객체 정보에 해당되는 객체 및 상기 검색된 객체 정보 중 적어도 하나 및 상기 입력된 영상을 디스플레이하는 단계를 포함하는, 객체 정보 디스플레이 방법.
Receiving search criterion information;
Receiving an image from the outside;
Obtaining terminal location information;
Acquiring object information about each of a plurality of objects located within a predetermined distance from a user terminal based on the obtained terminal location information;
Searching for object information satisfying the input search criterion information among the obtained object information; And
And displaying at least one of the object corresponding to the searched object information and the searched object information and the input image.
KR1020100060364A 2010-06-25 2010-06-25 Mobile terminal and object information display method thereof Expired - Fee Related KR101667585B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100060364A KR101667585B1 (en) 2010-06-25 2010-06-25 Mobile terminal and object information display method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100060364A KR101667585B1 (en) 2010-06-25 2010-06-25 Mobile terminal and object information display method thereof

Publications (2)

Publication Number Publication Date
KR20120000175A true KR20120000175A (en) 2012-01-02
KR101667585B1 KR101667585B1 (en) 2016-10-19

Family

ID=45608094

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100060364A Expired - Fee Related KR101667585B1 (en) 2010-06-25 2010-06-25 Mobile terminal and object information display method thereof

Country Status (1)

Country Link
KR (1) KR101667585B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160023888A (en) * 2013-06-25 2016-03-03 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Indicating out-of-view augmented reality images
KR20230098357A (en) * 2016-09-23 2023-07-03 애플 인크. Systems and methods for relative representation of spatial objects and disambiguation in an interface
US11892624B2 (en) 2021-04-27 2024-02-06 Microsoft Technology Licensing, Llc Indicating an off-screen target

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070105642A (en) * 2006-04-27 2007-10-31 팅크웨어(주) Navigation system that provides industry search service and navigation
KR20080084859A (en) * 2006-01-09 2008-09-19 노키아 코포레이션 Display network objects on mobile devices based on geographic location
JP2009017540A (en) * 2007-05-31 2009-01-22 Panasonic Corp Image photographing apparatus, additional information providing server, and additional information filtering system
JP2010118019A (en) * 2008-11-14 2010-05-27 Sharp Corp Terminal device, distribution device, control method of terminal device, control method of distribution device, control program, and recording medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080084859A (en) * 2006-01-09 2008-09-19 노키아 코포레이션 Display network objects on mobile devices based on geographic location
KR20070105642A (en) * 2006-04-27 2007-10-31 팅크웨어(주) Navigation system that provides industry search service and navigation
JP2009017540A (en) * 2007-05-31 2009-01-22 Panasonic Corp Image photographing apparatus, additional information providing server, and additional information filtering system
JP2010118019A (en) * 2008-11-14 2010-05-27 Sharp Corp Terminal device, distribution device, control method of terminal device, control method of distribution device, control program, and recording medium

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160023888A (en) * 2013-06-25 2016-03-03 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Indicating out-of-view augmented reality images
KR20220028131A (en) * 2013-06-25 2022-03-08 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Indicating out-of-view augmented reality images
KR20220165840A (en) * 2013-06-25 2022-12-15 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Indicating out-of-view augmented reality images
KR20230098357A (en) * 2016-09-23 2023-07-03 애플 인크. Systems and methods for relative representation of spatial objects and disambiguation in an interface
US12147034B2 (en) 2016-09-23 2024-11-19 Apple Inc. Systems and methods for relative representation of spatial objects and disambiguation in an interface
US11892624B2 (en) 2021-04-27 2024-02-06 Microsoft Technology Licensing, Llc Indicating an off-screen target

Also Published As

Publication number Publication date
KR101667585B1 (en) 2016-10-19

Similar Documents

Publication Publication Date Title
EP2568374B1 (en) Mobile terminal and method for providing user interface thereof
KR101531193B1 (en) Map control method and mobile terminal using the method
KR101886753B1 (en) Mobile terminal and control method thereof
KR101853057B1 (en) Mobile Terminal And Method Of Controlling The Same
KR101625884B1 (en) Mobile terminal and operation control method thereof
KR101952177B1 (en) Mobile terminal and control method thereof
KR20160018001A (en) Mobile terminal and method for controlling the same
KR20140001711A (en) Mobile terminal and method for recognizing voice thereof
KR20160006341A (en) Mobile terminal and method for controlling the same
KR101893148B1 (en) Mobile terminal and method for controlling a vehicle using the same
KR20110013606A (en) Menu execution method in mobile communication terminal and mobile communication terminal applying same
US9383815B2 (en) Mobile terminal and method of controlling the mobile terminal
KR20150087024A (en) Mobile terminal and method for controlling the same
KR101977086B1 (en) Mobile terminal and control method thereof
KR101925327B1 (en) Mobile terminal and control method thereof
KR20110016167A (en) Electronic device and its control method
KR101977084B1 (en) Mobile terminal and control method thereof
KR20130059123A (en) Mobile terminal and control method thereof
KR101667585B1 (en) Mobile terminal and object information display method thereof
KR101476201B1 (en) Mobile terminal and display method thereof
KR20140003245A (en) Mobile terminal and control method for mobile terminal
KR101899977B1 (en) Mobile terminal and control method thereof
KR101786513B1 (en) METHOD FOR enhancing a screen of the mobile terminal
KR101721874B1 (en) Mobile terminal and image display method thereof
KR20100010206A (en) Terminal and method for cotrolling the same

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20100625

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20150304

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20100625

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20160113

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20160719

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20161013

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20161014

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PC1903 Unpaid annual fee

Termination category: Default of registration fee

Termination date: 20200724