[go: up one dir, main page]

KR20150074757A - Electronic device and control method thereof - Google Patents

Electronic device and control method thereof Download PDF

Info

Publication number
KR20150074757A
KR20150074757A KR1020130162832A KR20130162832A KR20150074757A KR 20150074757 A KR20150074757 A KR 20150074757A KR 1020130162832 A KR1020130162832 A KR 1020130162832A KR 20130162832 A KR20130162832 A KR 20130162832A KR 20150074757 A KR20150074757 A KR 20150074757A
Authority
KR
South Korea
Prior art keywords
electronic device
state
user
information
sensing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
KR1020130162832A
Other languages
Korean (ko)
Inventor
장유준
허정윤
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020130162832A priority Critical patent/KR20150074757A/en
Priority to US15/029,548 priority patent/US9958681B2/en
Priority to PCT/KR2014/009747 priority patent/WO2015064935A1/en
Publication of KR20150074757A publication Critical patent/KR20150074757A/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3129Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] scanning a light beam on the display screen
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

전자 디바이스 및 그 제어방법이 개시된다. 본 발명의 전자 디바이스 및 그 제어방법은, 디바이스가 사용자의 안면에 착용될 수 있도록, 상기 안면 중 적어도 일 지점에 결합되는 프레임; 및 상기 프레임에 내장되며, 상기 사용자의 착용상태를 직접적으로 감지하는 직접감지 장치로부터 획득한 제1 정보와, 사용자의 착용상태를 간접적으로 감지하는 간접감지 장치로부터 획득한 제2 정보 중 적어도 하나의 정보에 기초하여 상기 디바이스의 착용여부를 판단하는 제어부를 포함하는 것을 특징으로 한다. 본 발명에 의하면, 전자 디바이스의 현 상태를 효과적으로 감지할 수 있다.An electronic device and its control method are disclosed. An electronic device and a control method thereof according to the present invention include: a frame coupled to at least one point of the face so that the device can be worn on the face of the user; And at least one of the first information acquired from the direct sensing device directly sensing the wearing state of the user and the second information acquired from the indirect sensing device indirectly sensing the wearing state of the user, And a controller for determining whether the device is worn based on the information. According to the present invention, it is possible to effectively detect the current state of the electronic device.

Description

전자 디바이스 및 그 제어방법 {ELECTRONIC DEVICE AND CONTROL METHOD THEREOF}ELECTRONIC DEVICE AND CONTROL METHOD THEREOF FIELD OF THE INVENTION [0001]

본 발명은 전자 디바이스 및 그 제어방법에 관한 것으로서, 보다 구체적으로는 전자 디바이스의 현 상태를 효과적으로 감지할 수 있는 전자 디바이스 및 그 제어방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention [0002] The present invention relates to an electronic device and a control method thereof, and more particularly, to an electronic device and its control method capable of effectively sensing a current state of an electronic device.

최근에는 사용자가 직접 몸에 장착하여 이용할 수 있는 웨어러블 컴퓨팅 시스템(wearable computing system)에 대한 연구와 관심 그리고 상용화가 활발하게 진행되고 있다. 특히, 사용자가 안경과 같이 착용한 상태에서 글라스를 통하여 각종 데이터를 제공할 수 있고, 휴대 전화 기능, 카메라 기능 등을 제공하는 전자 디바이스에 대한 관심이 매우 높다.In recent years, research, interest, and commercialization of a wearable computing system (wearable computing system), which can be directly mounted on the body, has been actively conducted. Particularly, there is a great interest in an electronic device that can provide various data through a glass in a state in which the user wears it as glasses, and provides a cellular phone function, a camera function, and the like.

본 발명은 전자 디바이스의 현 상태를 효과적으로 감지할 수 있는 전자 디바이스 및 그 제어방법에 관한 것이다.The present invention relates to an electronic device capable of effectively sensing the current state of an electronic device and a control method thereof.

상기한 과제를 실현하기 위한 본 발명의 일 실시예에 따른 전자 디바이스는, 디바이스가 사용자의 안면에 착용될 수 있도록, 상기 안면 중 적어도 일 지점에 결합되는 프레임; 및 상기 프레임에 내장되며, 상기 사용자의 착용상태를 직접적으로 감지하는 직접감지 장치로부터 획득한 제1 정보와, 사용자의 착용상태를 간접적으로 감지하는 간접감지 장치로부터 획득한 제2 정보 중 적어도 하나의 정보에 기초하여 상기 디바이스의 착용여부를 판단하는 제어부를 포함할 수 있다.According to an aspect of the present invention, there is provided an electronic device including: a frame coupled to at least one point of a face of a user so that the device can be worn on a user's face; And at least one of the first information acquired from the direct sensing device directly sensing the wearing state of the user and the second information acquired from the indirect sensing device indirectly sensing the wearing state of the user, And a controller for determining whether the device is worn based on the information.

상기 제어부는, 상기 제1 정보와 상기 제2 정보 중 적어도 하나를 조합하여 상기 디바이스의 착용여부를 판단할 수 있다.The controller may determine whether the device is worn by combining at least one of the first information and the second information.

상기 제1 정보는, 상기 디바이스의 적어도 일 지점에 설치되어 상기 사용자 신체의 적어도 일 지점에 접촉되는 감지센서, 적어도 하나의 카메라, 상기 프레임의 상태를 감지하는 프레임센서, 상기 디바이스의 움직임을 감지하는 모션센서 중 적어도 하나를 통해 획득한 정보를 포함하는 상태정보일 수 있다.Wherein the first information comprises at least one sensor installed at least at one point of the device and contacting at least one point of the user's body, a frame sensor sensing the state of the frame, And status information including information acquired through at least one of the motion sensors.

상기 제2 정보는, 기 설정된 상기 디바이스의 착용 또는 미착용 시간범위, 상기 디바이스에 대한 충전 진행 여부 중 적어도 하나를 포함하는 상태정보일 수 있다.The second information may be status information including at least one of a time range of wearing or not wearing the device, and a charging progress for the device.

디스플레이 기능이 탑재된 적어도 하나의 글라스를 더 포함하며, 상기 제어부는, 상기 디바이스가 미착용 상태에 있을 때, 상기 적어도 하나의 글라스를 사용하여 상기 콘텐츠를 표시할 수 있다.Further comprising at least one glass equipped with a display function, wherein the control unit can display the content using the at least one glass when the device is in a non-use state.

적어도 하나의 프로젝터를 더 포함하며, 상기 제어부는, 상기 디바이스가 미착용 상태에 있을 때, 상기 적어도 하나의 프로젝터를 사용하여 투사면(projection surface)을 향해 상기 콘텐츠를 영사할 수 있다.The system of claim 1, further comprising at least one projector, wherein the controller can project the content toward a projection surface using the at least one projector when the device is in a non-use state.

상기 제어부는, 상기 디바이스 중 적어도 일 지점에 대한 사용자의 파지동작을 감지하면, 상기 제1,2 정보에 관계없이, 상기 디바이스가 착용 상태에 있는 것으로 판단할 수 있다.The controller may determine that the device is in a wear state regardless of the first and second information when it detects a user's gripping operation with respect to at least one point of the devices.

상기한 과제를 실현하기 위한 본 발명의 일 실시예에 따른 전자 디바이스의 제어방법은, 디바이스의 상태를 감지하는 단계; 및According to another aspect of the present invention, there is provided a method of controlling an electronic device, including: sensing a state of a device; And

사용자의 착용상태를 직접적으로 감지하는 직접감지 장치로부터 획득한 제1 정보와, 사용자의 착용상태를 간접적으로 감지하는 간접감지 장치로부터 획득한 제2 정보 중 적어도 하나의 정보에 기초하여 상기 디바이스의 착용여부를 판단하는 단계를 포함할 수 있다.Based on at least one of the first information obtained from the direct sensing device directly sensing the wearing state of the user and the second information acquired from the indirect sensing device indirectly sensing the wearing state of the user, And a step of judging whether or not it is possible.

상기 판단하는 단계는, 상기 제1 정보와 상기 제2 정보 중 적어도 하나를 조합하여 상기 디바이스의 착용여부를 판단하는 단계를 포함할 수 있다.The determining may include determining whether the device is worn by combining at least one of the first information and the second information.

상기 제1 정보는, 상기 디바이스의 적어도 일 지점에 설치되어 상기 사용자 신체의 적어도 일 지점에 접촉되는 감지센서, 적어도 하나의 카메라, 프레임의 상태를 감지하는 프레임센서, 상기 디바이스의 움직임을 감지하는 모션센서 중 적어도 하나를 통해 획득한 정보를 포함하는 상태정보일 수 있다.Wherein the first information comprises at least one of a sensor, a sensor, installed at at least one point of the device and contacting at least one point of the user's body, a frame sensor for sensing a state of the frame, And status information including information obtained through at least one of the sensors.

상기 제2 정보는, 기 설정된 상기 디바이스의 착용 또는 미착용 시간범위, 상기 디바이스에 대한 충전 진행 여부 중 적어도 하나를 포함하는 상태정보일 수 있다.The second information may be status information including at least one of a time range of wearing or not wearing the device, and a charging progress for the device.

상기 디바이스가 미착용 상태에 있을 때, 적어도 하나의 글라스를 사용하여 콘텐츠를 표시하는 단계를 더 포함할 수 있다.And displaying the content using at least one glass when the device is not in use.

상기 디바이스가 미착용 상태에 있을 때, 적어도 하나의 프로젝터를 사용하여 투사면을 향해 콘텐츠를 영사하는 단계를 포함할 수 있다.And projecting the content toward the projection surface using at least one projector when the device is not in use.

본 발명에 따른 전자 디바이스 및 그 제어방법은, 전자 디바이스의 현 상태를 효과적으로 감지할 수 있는 효과가 있다.The electronic device and its control method according to the present invention have the effect of effectively detecting the current state of the electronic device.

도 1은 본 발명의 일 실시예에 따른 전자 디바이스의 블록다이어그램(Block Diagram)이다.
도 2는 도 1 전자 디바이스의 사시도이다.
도 3은 도 1 전자 디바이스의 다른 실시예에 따른 사시도이다.
도 4는 도 1 전자 디바이스의 동작과정을 도시한 플로우챠트이다.
도 5는 도 1 전자 디바이스가 착용된 상태를 도시한 도면이다.
도 6은 도 4 플로우챠트의 제2 방식으로 표시하는 단계를 구체적으로 도시한 플로우챠트이다.
도 7은 도 1 전자 디바이스 표시상태의 일 실시예를 도시한 도면이다.
도 8 내지 도 10은 도 1 전자 디바이스 표시상태의 다른 실시예를 도시한 도면이다.
도 11은 도 1 전자 디바이스의 또 다른 실시예를 도시한 도면이다.
도 12 및 도 13은 도 1 전자 디바이스의 일 실시예에 따른 조작방법을 도시한 도면이다.
도 14 내지 도 18은 도 1 전자 디바이스의 다른 실시예에 따른 조작방법을 도시한 도면이다.
도 19는 도 4 전자 디바이스의 현 상태를 감지하는 과정을 구체적으로 도시한 플로우챠트이다.
도 20은 도 1 전자 디바이스의 현 상태를 감지하는 방법들을 나열한 도면이다.
도 21 및 도 22는 도 1 전자 디바이스의 센서를 사용한 감지 방법을 도시한 도면이다.
도 23은 도 1 전자 디바이스의 카메라를 사용한 감지 방법을 도시한 도면이다.
도 24는 도 1 전자 디바이스의 안경테의 상태에 따른 감지 방법을 도시한 도면이다.
도 25는 도 1 전자 디바이스의 시간에 따른 감지 방법을 도시한 도면이다.
도 26은 도 1 전자 디바이스의 충전에 따른 감지 방법을 도시한 도면이다.
1 is a block diagram of an electronic device according to an embodiment of the present invention.
Figure 2 is a perspective view of the electronic device of Figure 1;
Figure 3 is a perspective view in accordance with another embodiment of the electronic device of Figure 1;
FIG. 4 is a flow chart showing an operation process of the electronic device of FIG.
Fig. 5 is a view showing a state in which the electronic device of Fig. 1 is worn.
6 is a flow chart specifically showing the step of displaying in the second scheme of the flowchart of Fig.
FIG. 7 is a diagram showing an embodiment of the electronic device display state of FIG. 1;
Figs. 8 to 10 are views showing another embodiment of the electronic device display state of Fig.
Fig. 11 is a view showing another embodiment of the electronic device of Fig. 1; Fig.
Figs. 12 and 13 are diagrams showing an operation method according to an embodiment of the electronic device of Fig. 1;
Figs. 14 to 18 are diagrams showing an operation method according to another embodiment of the electronic device of Fig. 1;
FIG. 19 is a flow chart specifically illustrating a process of detecting the current state of the electronic device of FIG. 4;
Figure 20 is a diagram listing methods for sensing the current state of the electronic device of Figure 1;
FIGS. 21 and 22 are diagrams illustrating a sensing method using a sensor of the electronic device of FIG.
Fig. 23 is a diagram showing a detection method using the camera of Fig. 1 electronic device. Fig.
Fig. 24 is a diagram showing a sensing method according to the state of the spectacle frame of the electronic device of Fig. 1;
FIG. 25 is a diagram illustrating a time-based sensing method of the electronic device of FIG. 1;
FIG. 26 is a view showing a sensing method according to charging of the electronic device of FIG. 1;

본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통해 보다 분명해질 것이다. 다만, 본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예들을 가질 수 있는 바, 이하에서는 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 원칙적으로 동일한 구성요소들을 나타낸다. 또한, 본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다The above objects, features and advantages of the present invention will become more apparent from the following detailed description taken in conjunction with the accompanying drawings. It is to be understood, however, that the invention is not limited to the disclosed embodiments, but, on the contrary, is intended to cover various modifications and similarities. Like reference numerals designate like elements throughout the specification. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail. Further, numerals (e.g., first, second, etc.) used in the description process of this specification are only an identifier for distinguishing one component from another component

이하, 본 발명과 관련된 이동 단말기에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. Hereinafter, a mobile terminal related to the present invention will be described in detail with reference to the drawings. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role.

본 명세서에서 설명되는 이동 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등이 포함될 수 있다. 그러나, 본 명세서에 기재된 실시예에 따른 구성은 이동 단말기에만 적용 가능한 경우를 제외하면, 디지털 TV, 데스크탑 컴퓨터 등과 같은 고정 단말기에도 적용될 수도 있음을 본 기술분야의 당업자라면 쉽게 알 수 있을 것이다.The mobile terminal described in this specification may include a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a PDA (Personal Digital Assistants), a PMP (Portable Multimedia Player), and navigation. However, it will be understood by those skilled in the art that the configuration according to the embodiments described herein may be applied to a fixed terminal such as a digital TV, a desktop computer, and the like, unless the configuration is applicable only to a mobile terminal.

도 1은 본 발명의 일 실시예에 따른 전자 디바이스의 블록다이어그램(Block Diagram)이고, 도 2는 도 1 전자 디바이스의 사시도이다.FIG. 1 is a block diagram of an electronic device according to an embodiment of the present invention, and FIG. 2 is a perspective view of the electronic device of FIG. 1.

이들 도면에 도시한 바와 같이, 본 발명의 일 실시예에 따른 전자 디바이스(100)는, 제1 카메라(110), 제2 카메라(120), 글라스(130), 마이크(150), 음향 출력부(160), 터치 센서(170), 메모리(180), 무선 통신부(190), 전원부(200) 및 프로젝터(210)를 포함할 수 있다.As shown in these drawings, an electronic device 100 according to an embodiment of the present invention includes a first camera 110, a second camera 120, a glass 130, a microphone 150, A display unit 160, a touch sensor 170, a memory 180, a wireless communication unit 190, a power source unit 200, and a projector 210.

전자 디바이스(100)는, 사용자가 착용할 수 있는 형태의 디바이스일 수 있다. 예를 들어, 사용자가 안경과 같이 착용할 수 있는 디바이스일 수 있다.The electronic device 100 may be a device of a type that can be worn by the user. For example, the device may be a wearable device such as a pair of glasses.

제1 카메라(110)는 외부영상을 촬영하는데 이용될 수 있다. 제 1카메라(110)는 필요시 상하좌우로 일정 각도 회전될 수 있다. 제2 카메라(120)는 전자 디바이스(100)를 착용한 사용자의 눈의 영상을 촬영하는데 이용될 수 있다. 제2 카메라(120)는 필요시 상하좌우로 일정 각도 회전될 수 있다.The first camera 110 may be used to photograph an external image. The first camera 110 can be rotated up and down, left and right by a predetermined angle when necessary. The second camera 120 may be used to photograph an image of a user's eye wearing the electronic device 100. [ The second camera 120 can be rotated up and down and right and left by a predetermined angle when necessary.

제1 카메라(110)는 사용자의 시각을 넘어서는 범위의 외부영상을 촬영할 수 있다. 즉, 사용자 시각의 범위를 A라고 할때, 제1 카메라(110)를 통해 촬영할 수 있는 범위는 A+a 일 수 있음을 의미한다. 예를 들어, 제1 카메라(110)를 통해서 사용자를 중심으로 한 360도 범위의 영상을 촬영할 수 있다. The first camera 110 can take an external image in a range exceeding the time of the user. That is, when the range of the user's time is A, the range that can be photographed through the first camera 110 means A + a. For example, the first camera 110 can capture an image of a 360-degree range around the user.

제1 카메라(110)는 복수 개일 수 있다. 예를 들어, 전방, 측방, 후방을 촬영하기에 적절한 개수의 제1 카메라(110)가 전자 디바이스(100)의 각 위치에 자리할 수 있음을 의미한다. The first camera 110 may be plural. For example, it means that a suitable number of first cameras 110 for photographing the front, the side, and the rear can be located at each position of the electronic device 100.

제1 카메라(110)는 광각 카메라일 수 있다. 즉, 통상의 카메라 보다 큰 각의 영상을 촬영할 수 있는 카메라일 수 있음을 의미한다. 광각 카메라를 적용할 경우, 적은 개수의 제1 카메라(110)로도 사용자 주위의 외부영상을 폭넓게 획득할 수 있다.The first camera 110 may be a wide angle camera. That is, it means that the camera can photograph an image of a larger angle than a normal camera. When a wide-angle camera is applied, an external image around the user can be widely obtained even with a small number of first cameras 110.

글라스(130)는 일반적인 안경과 같이 실질적으로 투명할 수 있다. 사용자는 글라스(130)를 통해 주위를 관찰할 수 있다. 글라스(130)는 좌안과 우안에 각각 대응되도록 2개 마련되거나, 좌안과 우안 중 하나의 눈에 대응되도록 1개 마련될 수 있다.The glass 130 may be substantially transparent, such as ordinary glasses. The user can observe the surroundings through the glass 130. Two glasses 130 may be provided so as to correspond to the left and right eyes, respectively, or one glass 130 may be provided to correspond to one eye of the left and right eyes.

글라스(130)에는 정보 제공을 위한 투명 디스플레이 영역(131)이 위치할 수 있다. 제어부(140)는 투명 디스플레이 영역(131)을 통해 사용자에게 필요한 정보를 디스플레이할 수 있다. 투명 디스플레이 영역(141)은 좌안 및/또는 우안에 대응되도록 두 개 또는 한 개 가 마련될 수 있다.The glass 130 may be provided with a transparent display area 131 for providing information. The control unit 140 may display information necessary for the user through the transparent display area 131. [ The transparent display area 141 may be provided with two or one such that it corresponds to the left eye and / or the right eye.

제어부(140)는 전자 디바이스(100)의 동작을 전반적으로 제어할 수 있다. 즉, 제어부(140)는 전자 디바이스(100)의 구성 요소들을 전체적으로 제어할 수 있음을 의미한다. 제어부(140)는 제1 카메라(110) 및/또는 제2 카메라(120)를 통해 촬영한 영상에 대한 분석을 수행할 수 있다. 제어부(140)는 사용자가 시선을 주는 전방 객체에 대한 정보 획득 동작을 수행하고, 획득된 정보를 글라스(130)에 마련된 투명 디스플레이 영역(131)을 통하여 제공할 수 있다. 제어부(140)는 제2 카메라(120)에 의하여 촬영된 사용자의 눈의 영상을 분석하고, 분석 결과 인식되는 사용자의 아이 제스처(eye gesture)에 대응되는 특정 기능을 수행할 수 있다.The control unit 140 can control the operation of the electronic device 100 as a whole. That is, the control unit 140 means that the components of the electronic device 100 can be controlled as a whole. The control unit 140 may analyze the images photographed through the first camera 110 and / or the second camera 120. The control unit 140 may perform an information acquisition operation for a forward object to which a user gives a gaze and provide the obtained information through the transparent display area 131 provided in the glass 130. [ The control unit 140 may analyze the image of the user's eye photographed by the second camera 120 and may perform a specific function corresponding to the eye gesture of the user recognized as an analysis result.

마이크(150)는 통화 모드, 녹음 모드 및/또는 음성 인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리할 수 있다. 한편, 마이크(150)에 의하여 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The microphone 150 may receive an external sound signal by a microphone in a communication mode, a recording mode, and / or a voice recognition mode, and may process it as electrical voice data. Meanwhile, various noise reduction algorithms for eliminating noise generated in the process of receiving an external sound signal by the microphone 150 may be implemented.

음향 출력부(160)는 오디오 데이터를 출력할 수도 있다. 이러한 음향 출력부(160)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다. 음향 출력부(160)는 이어폰 잭(미도시)을 통해 음향을 출력할 수 있다. 사용자는 이어폰 잭에 이어폰을 연결하여 출력되는 음향을 들을 수 있다.The audio output unit 160 may output audio data. The sound output unit 160 may include a receiver, a speaker, a buzzer, and the like. The sound output unit 160 can output sound through an earphone jack (not shown). The user can connect the earphone to the earphone jack and hear the sound output.

터치 센서(170)는 특정 부위에 대한 터치에 의하여 가해진 압력 또는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. 터치 센서(170)는 근접 센서로 구현될 수도 있다. 터치 센서(170)를 통한 입력 데이터는 전자 디바이스(100)의 특정 기능을 수행하는데 이용될 수 있다.The touch sensor 170 may be configured to convert a change in pressure or capacitance applied by a touch on a specific portion into an electrical input signal. The touch sensor can be configured to detect not only the position and area to be touched but also the pressure at the time of touch. The touch sensor 170 may be implemented as a proximity sensor. Input data via the touch sensor 170 may be used to perform certain functions of the electronic device 100.

메모리(180)는 제어부(140)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)를 임시 및/또는 항구적으로 저장할 수 있다.The memory 180 may store a program for the operation of the control unit 140 and may temporarily and / or permanently store input / output data (e.g., phonebook, message, still image, moving picture, etc.).

저장부(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 전자 디바이스(100)는 인터넷(internet)상에서 메모리(180)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The storage unit 160 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory) (Random Access Memory), SRAM (Static Random Access Memory), ROM (Read Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM A disk, and / or an optical disk. The electronic device 100 may operate in association with a web storage that performs storage functions of the memory 180 on the Internet.

무선 통신부(190)는 전자 디바이스(100)와 무선 통신 시스템 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(190)는 방송 수신 모듈, 이동통신 모듈, 무선 인터넷 모듈, 근거리 통신 모듈 및 위치 정보 모듈 등을 포함할 수 있다. 다만, 무선 통신부(190)에 포함될 수 있는 무선 통신 관련 모듈의 범위가 이에 한정되는 것은 아니다.The wireless communication unit 190 may include one or more modules that enable wireless communication between the electronic device 100 and the wireless communication system. For example, the wireless communication unit 190 may include a broadcast receiving module, a mobile communication module, a wireless Internet module, a short distance communication module, and a location information module. However, the range of the wireless communication-related module that can be included in the wireless communication unit 190 is not limited thereto.

센싱부(195)는 전자 디바이스(100)의 상태를 감지할 수 있다. 예를 들어, 전자 디바이스(100)를 착용한 사용자가 바라보는 방위, 바라보는 높이, 회전 유무, 전진 또는 후진 유무 등을 감지할 수 있음을 의미한다. 센싱부(195)는 자세감지센서, 지자기센서, 가속도센서 중 적어도 하나의 센서를 포함할 수 있다. 제어부(140)는, 적어도 하나의 센서로부터 감지된 결과값을 통하여 전자 디바이스(100)의 상태 및/또는 전자 디바이스(100)를 착용한 사용자의 현 상태를 감지할 수 있다.The sensing unit 195 may sense the state of the electronic device 100. [ For example, it means that the user wearing the electronic device 100 can sense the orientation, the height, the rotation, the forward movement, the backward movement, and the like. The sensing unit 195 may include at least one of a position sensor, a geomagnetic sensor, and an acceleration sensor. The control unit 140 may sense the state of the electronic device 100 and / or the current state of the user wearing the electronic device 100 through the resultant value sensed by the at least one sensor.

전원부(200)는 제어부(140)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 200 receives external power and internal power under the control of the control unit 140 and supplies power necessary for operation of the respective components.

프로젝터(210)는, 이미지를 투사할 수 있다. 예를 들어, 특정 상황에서 콘텐츠를 외부의 투사면(projection surface)으로 프로젝팅(projecting)할 수 있음을 의미한다. 제어부(140)는, 프로젝터(210)와 투명 디스플레이 영역(131) 중 적어도 하나로 영상을 선택적으로 출력할 수 있다. 예를 들어, 전자 디바이스(100)의 착용 상태에서는 투명 디스플레이 영역(131)을 통해 영상을 출력하고, 전자 디바이스(100)의 미착용 상태에서는 프로젝터(210)를 통해 영상을 출력할 수 있음을 의미한다. The projector 210 can project an image. For example, it means that in certain situations the content can be projected onto an external projection surface. The control unit 140 may selectively output an image to at least one of the projector 210 and the transparent display area 131. [ For example, it means that an image is output through the transparent display area 131 when the electronic device 100 is worn, and an image can be output through the projector 210 when the electronic device 100 is not in use .

프로젝터(210)는, 제1 프로젝터(212)와 제2 프로젝터(도 7의 214)를 포함할 수 있다. 제1 프로젝터(212)와 제2 프로젝터(도 7의 214)는, 서로 다른 방향으로 이미지를 투사할 수 있다. 예를 들어, 제1 프로젝터(212)는 전자 디바이스(100)의 전면(前面)을 향해 이미지를 투사하고, 제2 프로젝터(도 7의 214)는 전자 디바이스(100)의 후면(後面)을 향해 이미지를 투사할 수 있음을 의미한다. 제1,2 프로젝터(212, 도 7의 214) 중 어느 프로젝터(210)를 사용하여 이미지를 투사할지 여부는, 전자 디바이스(100)의 제어부(140)의 제어신호에 의하여 결정될 수 있다. 예를 들어, 전자 디바이스(100)의 상태에 따라 결정될 수 있음을 의미한다. 프로젝터(210)의 동작에 대해서는, 해당하는 부분에서 구체적으로 설명하도록 한다.The projector 210 may include a first projector 212 and a second projector (214 in FIG. 7). The first projector 212 and the second projector (214 in Fig. 7) can project images in different directions. For example, the first projector 212 projects an image toward the front surface of the electronic device 100, and the second projector (214 of FIG. 7) projects an image toward the rear surface of the electronic device 100 It means that the image can be projected. Whether or not to project an image using the projector 210 among the first and second projectors 212 and 214 can be determined by the control signal of the control unit 140 of the electronic device 100. [ For example, depending on the state of the electronic device 100. The operation of the projector 210 will be specifically described in the corresponding portions.

전자 디바이스(100)는, 몸체(141, Body)와 안경테(161, Frame)로 구분될 수 있다.The electronic device 100 may be divided into a body 141 and a frame 161.

몸체(141)는, 전자 디바이스(100)의 전면(前面)을 구성하는 부분일 수 있다. 몸체(141)에는 카메라(110, 120)와, 글라스(130)와, 투명 디스플레이 영역(131)과, 제어부(140)가 포함될 수 있다.The body 141 may be a part constituting the front surface of the electronic device 100. [ The body 141 may include cameras 110 and 120, a glass 130, a transparent display area 131, and a controller 140.

투명 디스플레이 영역(131)은, 글라스(130) 각각 또는 일측에 위치할 수 있다. 예를 들어, 제1,2 투명 디스플레이 영역(131a, 131b)가 글라스(130)에 마련될 수 있음을 의미한다.The transparent display area 131 may be located on each or one side of the glass 130. For example, the first and second transparent display areas 131a and 131b may be provided in the glass 130.

안경테(161)는, 몸체(141)에 결합되어 있을 수 있다. 안경테(161)는 힌지(171)를 중심으로 회동할 수 있다. 즉, 힌지(171)를 중심으로 안경테(161)가 시계방향 내지 반시계방향으로 회동할 수 있음을 의미한다. 따라서 제1,2 안경테(161a, 161b) 중 적어도 하나는 반시계 방향으로 회전하여 몸체(141) 내측 방향으로 접히거나, 시계 방향으로 회전하여 몸체(141)의 외측 방향으로 접힐 수 있다.The spectacle frame 161 may be coupled to the body 141. The spectacle frame 161 can be rotated about the hinge 171. [ That is, the eyeglass frame 161 can be rotated clockwise or counterclockwise around the hinge 171. Therefore, at least one of the first and second eyeglass frames 161a and 161b may be rotated counterclockwise to be folded inward of the body 141 or clockwise to fold outwardly of the body 141.

도 3은 도 1 전자 디바이스의 다른 실시예에 따른 사시도이다.Figure 3 is a perspective view in accordance with another embodiment of the electronic device of Figure 1;

이에 도시한 바와 같이, 본 발명의 다른 실시예에 따른 전자 디바이스(100)는, 다른 형태로 구성될 수 있다.As shown therein, the electronic device 100 according to another embodiment of the present invention may be configured in another form.

전자 디바이스(100)는, 글라스(도 2의 130)를 포함하지 않을 수 있다. 예를 들어, 몸체(141)와 안경테(161)를 포함하여 안경형태이긴 하지만 몸체(141)에 글라스(도 2의 130)가 결합되지 않은 형태일 수 있음을 의미한다.The electronic device 100 may not include the glass (130 in Fig. 2). For example, the body 141 may include a body 141 and an eyeglass frame 161, but may be in the form of an eyeglass but not a body of the glass 141 (FIG. 2).

전자 디바이스(100)는, 프로젝터(210)를 통해 이미지를 사용자가 인식가능하도록 투영할 수 있다. 예를 들어, 전자 디바이스(100)가 착용된 상태에서 프로젝터(210)가 직접 사용자의 안구로 영상을 투사할 수 있음을 의미한다. 따라서 글라스(도 2의 130) 내지 투명 디스플레이 영역(도 2의 131)이 필요하지 않을 수 있다. 글라스(도 2의 130)가 존재하지 않음으로 인하여, 전자 디바이스(100)를 보다 자연스럽게 착용할 수 있다.The electronic device 100 can project an image through the projector 210 so that the image can be recognized by a user. For example, when the electronic device 100 is worn, it means that the projector 210 can project an image directly to the user's eye. Therefore, the glass (130 in FIG. 2) to the transparent display area (131 in FIG. 2) may not be necessary. Since the glass (130 in FIG. 2) is not present, the electronic device 100 can be worn more naturally.

도 4는 도 1 전자 디바이스의 동작과정을 도시한 플로우챠트이다.FIG. 4 is a flow chart showing an operation process of the electronic device of FIG.

이에 도시한 바와 같이, 본 발명의 일 실시예에 따른 전자 디바이스(100)의 제어부(140)는, 전자 디바이스(100)의 현 상태를 감지하는 단계(S10)를 진행할 수 있다.As shown, the controller 140 of the electronic device 100 according to the embodiment of the present invention can perform the step of detecting the current state of the electronic device 100 (S10).

전자 디바이스(100)는 다양한 상태에 있을 수 있다. 다양한 전자 디바이스(100)의 상태 중에서, 전자 디바이스(100)가 착용된 상태를 제1 상태, 전자 디바이스(100)가 착용되지 않은 상태를 제2 상태로 정의할 수 있다.The electronic device 100 may be in various states. Among the states of the various electronic devices 100, a state in which the electronic device 100 is worn can be defined as a first state, and a state in which the electronic device 100 is not worn can be defined as a second state.

전자 디바이스(100)의 현 상태는, 센서부(170)를 통해 감지될 수 있다. 예를 들어, 전자 디바이스(100)와 사용자의 코가 접촉되는 지점의 감지센서, 전자 디바이스(100)의 안경테(161)와 사용자의 머리가 접촉되는 지점의 감지센서 등을 통해 전자 디바이스(100)의 착용여부가 감지될 수 있음을 의미한다.The current state of the electronic device 100 can be sensed through the sensor unit 170. [ For example, the electronic device 100 may be connected to the electronic device 100 through a sensing sensor at a point where the electronic device 100 contacts the user's nose, a spectacle frame 161 of the electronic device 100, Which means that it can be detected whether or not it is worn.

전자 디바이스(100)의 현 상태는, 동작센서를 통해 감지될 수 있다. 예를 들어, 전자 디바이스(100)가 착용된 경우라면, 가속도센서 및/또는 지자기센서를 통해서 전자 디바이스(100)가 움직이고 있다는 점이 감지될 수 있음을 의미한다.The current state of the electronic device 100 may be sensed through the motion sensor. For example, if the electronic device 100 is worn, it can be sensed that the electronic device 100 is moving through the acceleration sensor and / or the geomagnetic sensor.

전자 디바이스(100)의 현 상태에 대한 감지는, 안경테(161)의 상태에 대한 감지를 포함할 수 있다. 예를 들어, 제1,2 안경테(161a, 161b) 중 적어도 하나가 펼쳐져 있거나 접혀져 있는 상태를 감지할 수 있음을 의미한다. 안경테(161)의 상태는, 안경테(161)와 몸체(141) 사이에 위치한 힌지에 위치한 위치감지 센서를 통해 감지될 수 있다.Detection of the current state of the electronic device 100 may include detection of the state of the eyeglass frame 161. For example, it means that at least one of the first and second eyeglass frames 161a and 161b can be opened or folded. The state of the spectacle frame 161 can be sensed through a position sensor positioned on a hinge located between the spectacle frame 161 and the body 141. [

전자 디바이스(100)의 현 상태는, 제1,2 카메라(110, 120) 중 적어도 하나를 통해 감지될 수 있다. 예를 들어, 촬영된 영상을 분석하여, 사용자의 착용여부를 판단할 수 있음을 의미한다. The current state of the electronic device 100 may be sensed through at least one of the first and second cameras 110 and 120. For example, it means that the captured image can be analyzed to determine whether the user wears it.

제어부(140)는 전자 디바이스(100)가 착용 중인가 여부를 판단(S20)하여, 착용 중인 경우라면 콘텐츠를 제1 방식으로 표시하는 단계(S30)를 진행할 수 있다.The controller 140 determines whether the electronic device 100 is worn (S20), and if it is worn, the controller 140 may display the content in the first mode (S30).

제1 방식의 표시는, 착용된 상태에 최적화된 형태의 표시 방법일 수 있다. 예를 들어, 글라스(130)의 제1,2 투명 디스플레이 영역(131a, 131b)을 통해 콘텐츠를 표시하거나 프로젝터(210)를 통해 사용자의 안구로 직접 콘텐츠를 투사하는 방식의 표시를 의미한다.The display of the first scheme may be a display scheme of a form optimized for the worn state. For example, display of contents through the first and second transparent display areas 131a and 131b of the glass 130 or projection of the contents directly to the user's eye through the projector 210. [

제어부(140)는 전자 디바이스(100)가 착용 중인가 여부를 판단(S20)하여, 착용 중인 아닌 경우라면 콘텐츠를 제2 방식으로 표시하는 단계(S40)를 진행할 수 있다.The control unit 140 determines whether the electronic device 100 is worn or not (S20), and if it is not being worn, the control unit 140 may display the content in the second mode (S40).

제2 방식의 표시는, 미착용 상태에 최적화된 형태의 표시 방법일 수 있다. 즉, 콘텐츠를 글라스(130)에 표시하거나 사용자 안구로 직접 표시하는 방식이 아닌 경우를 의미할 수 있다. The display of the second scheme may be a display method of a form optimized for the non-application state. That is, it may mean that the content is not displayed on the glass 130 or displayed directly on the user's eye.

전자 디바이스(100)를 착용하지 않은 상태라면, 통상적으로 전자 디바이스(100)는 바닥면에 내려져 있을 수 있다. 바닥면에 내려져있는 경우라면, 콘텐츠를 글라스(130)에 표시하더라도 사용자가 표시된 콘텐츠를 식별하기 곤란할 수 있다. 따라서 제어부(140)는, 제2 상태에서는 사용자가 식별하기 편리하도록 콘텐츠의 표시방식을 변경할 수 있다.If the electronic device 100 is not worn, the electronic device 100 may typically be on the floor. Even if the content is displayed on the glass 130, it may be difficult for the user to identify the displayed content. Therefore, the control unit 140 can change the display mode of the content so that it is easy for the user to identify in the second state.

도 5는 도 1 전자 디바이스가 착용된 상태를 도시한 도면이다.Fig. 5 is a view showing a state in which the electronic device of Fig. 1 is worn.

이에 도시한 바와 같이, 본 발명의 일 실시예에 따른 전자 디바이스(100)는, 사용자(U)의 얼굴에 착용될 수 있다. 사용자(U)의 얼굴에 착용되면, 몸체(141)는 사용자(U)의 코에 의하여 지지되고, 제1,2 안경테(161a, 161b)는 사용자의 양쪽 귀에 의하여 지지될 수 있다. As shown, the electronic device 100 according to the embodiment of the present invention can be worn on the face of the user U. When worn on the face of the user U, the body 141 is supported by the nose of the user U, and the first and second frames 161a and 161b can be supported by both ears of the user.

사용자(U)는, 글라스(130) 및 투명 디스플레이 영역(131)을 통해 외부를 관찰할 수 있다. 예를 들어, 글라스(130)를 통해 바라보는 외부 사물에 투명 디스플레이 영역(131)을 통해 표시되는 정보가 증강현실(Augment Reality) 형식으로 표시될 수 있음을 의미한다.The user U can observe the outside through the glass 130 and the transparent display area 131. [ For example, the information displayed through the transparent display area 131 on an external object viewed through the glass 130 can be displayed in an augmented reality format.

도 6은 도 4 플로우챠트의 제2 방식으로 표시하는 단계를 구체적으로 도시한 플로우챠트이다.6 is a flow chart specifically showing the step of displaying in the second scheme of the flowchart of Fig.

이에 도시한 바와 같이, 본 발명의 일 실시예에 따른 전자 디바이스(100)의 제어부(140)는, 다양한 조건을 고려하여 콘텐츠를 제2 방식으로 표시할 수 있다. 본 발명의 일 실시예에 따른 전자 디바이스(100)는, 전자 디바이스(100)가 착용되지 않은 상태에서는 프로젝터(210)를 사용하여 콘텐츠를 투사하는 방식으로 표시할 수 있다. 즉, 사용자가 식별하기 좋도록 콘텐츠를 바닥면 등에 투사할 수 있음을 의미한다. 바닥면 등의 상황을 반영하여 영상을 조절함으로 인하여, 투사된 영상이 사용자에게 적절히 전달될 수 있다.As shown, the controller 140 of the electronic device 100 according to an exemplary embodiment of the present invention can display the content in a second method in consideration of various conditions. The electronic device 100 according to the embodiment of the present invention can display the content by projecting using the projector 210 when the electronic device 100 is not worn. That is, it means that the content can be projected on a floor surface or the like so that the user can identify it. The projected image can be appropriately delivered to the user due to the adjustment of the image reflecting the situation such as the floor surface.

제어부(140)는, 전자 디바이스(100)가 놓여진 장소에 따라 콘텐츠를 표시(S42)할 수 있다.The control unit 140 can display the content according to the place where the electronic device 100 is placed (S42).

전자 디바이스(100)가 놓여진 장소는 다양할 수 있다. 예를 들어, 놓여진 장소의 재질, 색상 등이 다앙할 수 있음을 의미한다. The location of the electronic device 100 may vary. For example, it means that the material, color, etc. of the place where it is placed may be different.

바닥면의 상태는, 센서부(170) 및/또는 카메라(110, 120)를 통해 감지될 수 있다. 예를 들어, 카메라(110, 120)를 통해 촬영한 바닥면의 영상을 분석하여, 바닥면의 상태를 감지할 수 있음을 의미한다.The state of the bottom surface can be sensed through the sensor unit 170 and / or the cameras 110 and 120. For example, it means that the image of the bottom surface photographed through the cameras 110 and 120 is analyzed to detect the state of the bottom surface.

제어부(140)는, 바닥면의 재질이 거친 경우보다 미끈하여 투사된 영상의 식별이 용이한 경우에는, 좀더 많은 정보를 표시할 수 있다. 예를 들어, 제어부(140)는, 바닥면이 재질이 영상의 투사에 적절한 경우에는 좀 더 작은 폰트의 사용이 가능할 수 있다. 제어부(140)는, 바닥면의 재질이 영상의 투사에 적절한 경우에는 좀 더 다양한 색상을 사용할 수 있다.The control unit 140 can display more information when the projected image is easy to identify because the floor surface is smoother than when the material is rough. For example, the control unit 140 may be able to use smaller fonts when the bottom surface is suitable for projection of the image. The control unit 140 can use more various colors when the material of the bottom surface is suitable for projection of an image.

제어부(140)는, 바닥면의 색상이 밝은 경우에는 영상을 좀더 밝게 투사할 수 있다. 제어부(140)는, 바닥면의 색상이 어두운 경우에는 영상을 상대적으로 어둡게 투사할 수 있다.If the color of the bottom surface is bright, the control unit 140 can project the image more brighter. When the color of the bottom surface is dark, the control unit 140 can project the image relatively dark.

제어부(140)는, 전자 디바이스(100)가 놓여진 방향에 따라 콘텐츠를 표시(S44)할 수 있다.The control unit 140 can display the content according to the direction in which the electronic device 100 is placed (S44).

전자 디바이스(100)는, 전면(前面) 또는 후면(後面)이 사용자를 향하도록 놓여질 수 있다. 또는, 전자 디바이스(100)는, 하측면이 바닥면에 접하거나 상측면이 바닥면에 접하도록 놓여질 수 있다. 제어부(140)는, 센서부(170) 및/또는 카메라(110, 120)에서 감지한 결과에 기초하여 전자 디바이스(100)가 놓여진 방향을 판단할 수 있다. 제어부(140)는, 놓여진 방향에 따라 최적화된 영상이 표시되도록 할 수 있다.The electronic device 100 may be laid so that the front surface or the rear surface faces the user. Alternatively, the electronic device 100 may be laid such that the bottom surface is in contact with the bottom surface or the top surface is in contact with the bottom surface. The control unit 140 can determine the direction in which the electronic device 100 is placed based on the results detected by the sensor unit 170 and / or the cameras 110 and 120. The control unit 140 can display an optimized image according to the direction in which it is placed.

제어부(140)는, 전자 디바이스(100)에 대한 제스쳐에 따라 콘텐츠를 표시(S46)할 수 있다.The control unit 140 can display the content according to the gesture with respect to the electronic device 100 (S46).

사용자는, 전자 디바이스(100)의 카메라(110, 120) 앞에서 특정 제스쳐를 취하거나 전자 디바이스(100)의 특정 부위에 직접 접촉하는 특정 제스쳐를 취할 수 있다. 제어부(140)는, 전자 디바이스(100)에 대한 직/간접적인 제스쳐에 대응하여 콘텐츠를 표시하는 방식 등을 변경할 수 있다.A user may take a specific gesture in front of the cameras 110, 120 of the electronic device 100 or take a specific gesture that makes direct contact with a particular portion of the electronic device 100. [ The control unit 140 can change the manner of displaying the content corresponding to the direct / indirect gesture with respect to the electronic device 100, and the like.

제어부(140)는, 전자 디바이스(100)가 표시할 콘텐츠의 종류에 따라 콘텐츠를 다르게 표시(S48)할 수 있다.The control unit 140 can display the content differently according to the type of the content to be displayed by the electronic device 100 (S48).

전자 디바이스(100)를 통해 표시될 콘텐츠는 다양할 수 있다. 예를 들어, 전자 디바이스(100)를 통하여 수신한 메시지, 수신한 콜(call), 각종 텍스트, 각종 동영상 등을 다양하게 표시할 수 있다. 전자 디바이스(100)를 통해 표시될 콘텐츠는, 그 콘텐츠의 속성 등에 따라 다른 방식으로 표시될 수 있다. 즉, 특정 콘텐츠에 최적화된 방식으로 콘텐츠를 표시할 수 있음을 의미한다.The content to be displayed through the electronic device 100 may vary. For example, a message received through the electronic device 100, a received call, various texts, various moving pictures, and the like can be variously displayed. The content to be displayed through the electronic device 100 may be displayed in a different manner depending on the attribute of the content or the like. In other words, it means that content can be displayed in a manner optimized for specific contents.

도 7은 도 1 전자 디바이스 표시상태의 일 실시예를 도시한 도면이다.FIG. 7 is a diagram showing an embodiment of the electronic device display state of FIG. 1;

이에 도시한 바와 같이, 본 발명의 일 실시예에 따른 전자 디바이스(100)는, 전자 디바이스(100)가 놓여진 방향에 따라 다른 방식으로 콘텐츠(DF)를 표시할 수 있다.As shown, the electronic device 100 according to an embodiment of the present invention can display the content DF in a different manner depending on the direction in which the electronic device 100 is placed.

도 7의 (a)에 도시한 바와 같이, 전자 디바이스(100)는, 전자 디바이스(100)가 착용되지 않은 제2 상태에서 전자 디바이스(100)의 몸체 하측부(172) 및/또는 안경테 하측부(174)가 바닥면에 접촉된 상태일 수 있다.7A, the electronic device 100 is mounted on the lower body portion 172 of the electronic device 100 and / or the lower portion of the frame side of the electronic device 100 in a second state in which the electronic device 100 is not worn. (174) may be in contact with the floor surface.

전자 디바이스(100)에는 위치센서 및/또는 지자기센서가 마련되어 있을 수 있다. 전자 디바이스(100)의 제어부(140)는, 위치센서 및/또는 지자기센서를 통하여 전자 디바이스(100)가 놓여진 상태를 감지할 수 있다.The electronic device 100 may be provided with a position sensor and / or a geomagnetic sensor. The control unit 140 of the electronic device 100 can sense the state in which the electronic device 100 is placed through the position sensor and / or the geomagnetic sensor.

전자 디바이스(100)의 몸체 하측부(172) 및/또는 안경테 하측부(174)에는 압력센서가 위치할 수 있다. 즉, 압력센서를 통하여 전자 디바이스(100)의 몸체 하측부(172) 및/또는 안경테 하측부(174)가 바닥면에 접촉된 상태임을 감지할 수 있다.A pressure sensor may be located on the lower body portion 172 of the electronic device 100 and / or the frame lower side 174. That is, it is possible to detect that the lower body portion 172 of the electronic device 100 and / or the lower frame side portion 174 of the electronic device 100 are in contact with the floor surface through the pressure sensor.

제어부(140)는, 사용자의 방향에 대응되도록 콘텐츠(DF)를 표시할 수 있다. 예를 들어, 사용자의 위치는 카메라(110, 120)를 통하여 촬영한 영상에 대한 분석 등을 통하여 감지할 수 있다. 사용자의 위치가 감지되면, 제어부(140)는 프로젝터(210)를 사용하여 투사면(DA)에 콘텐츠(DF)를 프로젝팅할 수 있다. 예를 들어, 사용자가 위치한 방향에 대응된 제2 프로젝터(214)를 사용하여 콘텐츠(DF)를 표시할 수 있음을 의미한다.The control unit 140 can display the content DF so as to correspond to the direction of the user. For example, the location of the user can be detected by analyzing images taken through the cameras 110 and 120. [ When the position of the user is detected, the control unit 140 can project the content DF to the projection plane DA using the projector 210. [ For example, it means that the content (DF) can be displayed using the second projector 214 corresponding to the direction in which the user is located.

도 7의 (b)에 도시한 바와 같이, 전자 디바이스(100)는, 전자 디바이스(100)가 착용되지 않은 제2 상태에서 전자 디바이스(100)의 몸체 상측부(178) 및/또는 안경테 상측부(176)가 바닥면에 접촉된 상태일 수 있다.7 (b), the electronic device 100 is mounted on the upper body side portion 178 of the electronic device 100 and / or the upper side portion of the eyeglass frame side portion 174 of the electronic device 100 in a second state in which the electronic device 100 is not worn. (176) may be in contact with the floor surface.

제어부(140)는, 콘텐츠(DF)를 표시할 방향을 결정할 수 있다. 예를 들어, 카메라(110, 120) 등을 사용하여 전자 디바이스(100)의 전면(前面) 방향과 후면(後面) 방향 중 콘텐츠(DF)를 표시하기에 적절한 방향을 결정할 수 있음을 의미한다. The control unit 140 can determine the direction in which the content DF is to be displayed. It is possible to determine an appropriate direction to display the content DF among the front surface direction and the rear surface direction of the electronic device 100 using the cameras 110 and 120 and the like.

제어부(140)는, 방향을 결정하면 사용자가 바라보는 방향에서 콘텐츠(DF)가 바르게 표시되도록 할 수 있다. 즉, 사용자가 바라보는 방향과 콘텐츠(DF)의 상하방향이 상호 얼라인(align)되도록 콘텐츠(DF)를 표시할 수 있음을 의미한다. 따라서 전자 디바이스(100)가 놓여진 방향에 관계없이, 사용자가 바라보는 콘텐츠의 지향방향(orientation)은 동일할 수 있다. 즉, 제어부(140)는, 전자 디바이스(100)가 놓여진 방향에 관계없이 사용자의 시선방향에 대하여 콘텐츠의 지향방향이 일정하도록 콘텐츠를 영사할 수 있음을 의미한다.When the direction is determined, the control unit 140 can display the content DF correctly in the direction in which the user looks. That is, it means that the content DF can be displayed so that the direction in which the user views and the vertical direction of the content DF are aligned with each other. Therefore, regardless of the direction in which the electronic device 100 is placed, the orientation of the content viewed by the user can be the same. That is, the control unit 140 means that the content can be projected so that the orientation of the content is constant with respect to the direction of the user's gaze regardless of the direction in which the electronic device 100 is placed.

도 8 내지 도 10은 도 1 전자디바이스 표시상태의 다른 실시예를 도시한 도면이다.Figs. 8 to 10 are views showing another embodiment of the electronic device display state of Fig.

이들 도면에 도시한 바와 같이, 본 발명의 다른 실시예에 따른 전자 디바이스(100)의 제어부(140)는, 바닥면(G)의 색상 및/또는 재질 등 상태에 따라 콘텐츠(DF)의 표시상태를 변경할 수 있다.As shown in these drawings, the controller 140 of the electronic device 100 according to another embodiment of the present invention displays the display state of the contents DF according to the state of the color G and / or the material of the floor G, Can be changed.

도 8의 (a)에 도시한 바와 같이, 전자 디바이스(100)가 놓여진 바닥면(G)의 색상이 다양한 상태일 수 있다. 따라서 다양한 바닥면(G)의 색상을 고려하지 않는 경우에는 콘텐츠(DF)의 특정 부위는 식별이 용이하지만 다른 부위는 식별이 쉽지 않은 상황이 발생할 수 있다.As shown in Fig. 8 (a), the color of the floor G on which the electronic device 100 is placed may be in various states. Therefore, in a case where the color of the various floor surfaces G is not considered, there may occur a situation in which a specific region of the content DF is easy to identify but other regions are not easily identified.

도 8의 (b)에 도시한 바와 같이, 제어부(140)는 바닥면(G)의 상태에 따라 콘텐츠(DF)를 표시하는 방식을 변경할 수 있다. 예를 들어, 바닥면(G) 색상이 다양한 경우라면 어두운 색 또는 밝은 색을 기준으로 콘텐츠(DF)의 밝기 및/또는 색상을 보정하여 표시할 수 있음을 의미한다. 색상을 보정하는 경우, 표시된 콘텐츠(DF)에 대한 식별력이 높아질 수 있다.The control unit 140 can change the manner of displaying the contents DF according to the state of the floor G as shown in Fig. 8 (b). For example, if the color of the bottom surface G is variable, it means that the brightness and / or color of the content DF can be corrected and displayed based on the dark color or the light color. When the color is corrected, the discrimination power for the displayed content DF can be enhanced.

도 9의 (a)에 도시한 바와 같이, 바닥면(G)이 영상을 투사하기에 적절한 상태일 수 있다. 예를 들어, 바닥면(G)이 매끈한 재질이어서 투사된 영상의 식별이 용이한 상태일 수 있음을 의미한다. 영상의 식별이 용이한 바닥면(G)의 상태인 경우에 제어부(140)는, 콘텐츠(DF)를 자세히 표시할 수 있다.As shown in Fig. 9A, the bottom surface G may be in a state suitable for projecting an image. For example, the bottom surface G is a smooth material, which means that the projected image can be easily identified. The control unit 140 can display the contents DF in detail when the state of the floor G is easy to identify the image.

도 9의 (b)에 도시한 바와 같이, 바닥면(G)이 영상을 투사하기에 적절하지 못한 상태일 수 있다. 바닥면이 고르지 않는 등 바닥면(G)에 콘텐츠(DF)를 표시하기 적당하지 않은 경우에, 제어부(140)는 콘텐츠(DF)의 표시상태를 변경할 수 있다. 예를 들어, 콘텐츠(DF)의 폰트를 크게 하는 동작, 콘텐츠 중 중요도가 낮은 정보는 삭제하여 정보의 양 및/또는 종류를 조절하는 동작, 배색을 단순화 하는 동작 중 적어도 하나의 동작을 수행할 수 있음을 의미한다. 동일한 정보의 경우에도 바닥면(G)의 상태에 따라서 다르게 콘텐츠(DF)를 표시함으로써, 콘텐츠(DF)에 대한 사용자의 식별력을 높일 수 있다.As shown in Fig. 9 (b), the bottom surface G may not be suitable for projecting an image. The control unit 140 can change the display state of the content DF in the case where the content DF is not suitable to display on the bottom surface G such as the bottom surface is uneven. For example, it is possible to perform at least one of an operation of increasing the font of the content DF, an operation of adjusting the amount and / or type of information, and an operation of simplifying the color scheme by deleting low importance information . Even in the case of the same information, it is possible to increase the discrimination power of the user with respect to the contents DF by displaying the contents DF differently depending on the state of the floor surface G. [

도 10에 도시한 바와 같이, 제어부(140)는 바닥면(G)의 밝기에 따라 적절한 방식으로 콘텐츠(DF)를 표시할 수 있다.10, the control unit 140 can display the content DF in an appropriate manner according to the brightness of the floor surface G. As shown in Fig.

도 10의 (a)에 도시한 바와 같이, 바닥면(G)은 밝은 색상일 수 있다. 바닥면(G)이 밝은 색상인 경우에, 제어부(140)는 다양한 명암 및/또는 색상을 사용하여 콘텐츠(DF)를 표시할 수 있다.As shown in Fig. 10 (a), the bottom surface G may be a bright color. When the bottom surface G is a light color, the control unit 140 can display the contents DF using various shades and / or colors.

도 10의 (b)에 도시한 바와 같이, 바닥면(G)이 어두운 색상일 수 있다. 바닥면(G)이 어두운 색상인 경우에, 제어부(140)는 간단한 명암 및/또는 색상을 사용하여 콘텐츠(DF)를 표시할 수 있다. 따라서 콘텐츠(DF)에 대한 사용자의 식별력이 높아질 수 있다.As shown in Fig. 10 (b), the bottom surface G may be dark in color. When the bottom surface G is dark color, the control unit 140 can display the content DF using simple contrast and / or color. Therefore, the user's discrimination power with respect to the content DF can be enhanced.

도 11은 도 1 전자디바이스의 또 다른 실시예를 도시한 도면이다.Fig. 11 is a view showing another embodiment of the electronic device of Fig. 1; Fig.

도 11은 도 1 전자 디바이스의 일 실시예에 따른 동작을 도시한 도면이다.FIG. 11 is a diagram illustrating an operation according to an embodiment of the electronic device of FIG. 1;

이에 도시한 바와 같이, 본 발명의 일 실시예에 따른 전자 디바이스(100)는, 안경테(161)의 상태에 따라서 글래스(130)의 표시를 변경할 수 있다.The electronic device 100 according to the embodiment of the present invention can change the display of the glass 130 in accordance with the state of the spectacle frame 161. [

도 11의 (a)에 도시한 바와 같이, 안경테(161)는 펼쳐진 상태에 있을 수 있다. 즉, 제1,2 안경테(161a, 161b)가 모두 몸체(141)에 대해 약 90도 방향으로 위치하고 있음을 의미한다. 제1,2 안경테(161a, 161b)가 모두 펼쳐진 상태에 있을 때, 제어부(140)는 사용자가 글래스(130)를 사용하고 있다고 판단할 수 있다. 따라서 제어부(140)는, 글래스(130)를 활성화 할 수 있다. 예를 들어, 투명 디스플레이 영역(131)을 통해 영상을 표시할 수 있음을 의미한다.As shown in Fig. 11 (a), the eyeglass frame 161 may be in an unfolded state. That is, all of the first and second frames 161a and 161b are positioned at about 90 degrees with respect to the body 141. When all of the first and second eyeglass frames 161a and 161b are in the unfolded state, the controller 140 may determine that the user is using the glass 130. [ Accordingly, the control unit 140 can activate the glass 130. [ For example, it means that an image can be displayed through the transparent display area 131. [

도 11의 (b)에 도시한 바와 같이, 안경테(161) 중 하나가 접혀진 상태에 있을 수 있다. 예를 들어, 제1 안경테(161a)가 몸체(141)의 방향으로 접혀있는 상태에 있고, 제2 안경테(161b)는 몸체(141)에 대해 약 90 방향으로 펼쳐진 상태에 있을 수 있음을 의미한다. 제1 안경테(161a)가 접혀있다는 점을 고려하여, 제어부(140)는 제1 안경테(161a)에 대응된 글래스(130)를 비활성화할 수 있다. 예를 들어, 제1 안경테(161a) 쪽의 제1 투명 디스플레이 영역(131a)을 비활성화할 수 있음을 의미한다.As shown in Fig. 11 (b), one of the spectacle frames 161 may be in a folded state. For example, it means that the first eyeglass frame 161a is folded in the direction of the body 141 and the second eyeglass frame 161b is in a state of being stretched in about 90 directions with respect to the body 141 . Considering that the first eyeglass frame 161a is folded, the control unit 140 can deactivate the glass 130 corresponding to the first eyeglass frame 161a. For example, it means that the first transparent display region 131a on the first eyeglass frame 161a side can be deactivated.

도 11의 (c)에 도시한 바와 같이, 제2 안경테(161b)가 접혀진 상태가 되면, 제어부(140)는 그에 대응된 제2 안경테(161b)를 비활성화 할 수 있다.As shown in Fig. 11 (c), when the second eyeglass frame 161b is folded, the controller 140 can deactivate the second eyeglass frame 161b corresponding thereto.

도 11의 (d)에 도시한 바와 같이, 제1,2 안경테(161a, 161b)가 모두 접혀진 상태에 있으면, 제어부(140)는 글래스(130) 전체를 비활성화 할 수 있다. 즉, 안경테(161)가 모두 접혀지면, 제어부(140)는 사용자가 더 이상 전자 디바이스(100)를 사용할 의사가 없는 것으로 판단할 수 있다. 따라서 안경테(161)가 모두 접혀진 순간 또는 안경테(161)가 접혀지고 일정 시간이 경과한 순간부터 글래스(130)를 비활성화 할 수 있다. 예를 들어, 투면 디스플레이 영역(131)을 통한 영상의 표시를 중단할 수 있음을 의미한다.As shown in FIG. 11 (d), when all of the first and second eyeglass frames 161a and 161b are folded, the control unit 140 can deactivate the entire glass 130. FIG. That is, if all of the eyeglass frames 161 are folded, the control unit 140 can determine that the user is no longer willing to use the electronic device 100. Therefore, the glasses 130 can be inactivated at the moment when the spectacle frames 161 are all folded or at the moment when the frames 161 are folded and a predetermined time elapses. For example, it means that the display of the image through the transparent display area 131 can be stopped.

도 12 및 도 13은 도 1 전자디바이스의 일 실시예에 따른 조작방법을 도시한 도면이다.Figs. 12 and 13 are diagrams showing an operation method according to an embodiment of the electronic device of Fig. 1;

이들 도면에 도시한 바와 같이, 본 발명의 일 실시예에 따른 전자 디바이스(100)는 사용자의 제스쳐에 대응하여 표시영역(DA)을 조절할 수 있다.As shown in these drawings, the electronic device 100 according to the embodiment of the present invention can adjust the display area DA in accordance with the gesture of the user.

도 12의 (a)에 도시한 바와 같이, 표시영역(DA)은 단일한 영역일 수 있다. 콘텐츠는, 단일한 표시영역(DA) 전체에 걸쳐 표시될 수 있다.As shown in Fig. 12 (a), the display area DA may be a single area. The content can be displayed over a single display area DA.

제어부(140)는, 사용자로부터 특정한 제스쳐를 입력받을 수 있다. 예를 들어, 특정 글래스(130)인 제2 글래스(130b)를 터치하거나 터치한 상태에서 일정한 방향으로 이동하는 제스쳐 동작을 입력받을 수 있음을 의미한다.The control unit 140 can receive a specific gesture from the user. For example, it means that a gesture operation that moves in a certain direction in a state where a second glass 130b, which is a specific glass 130, is touched or touched can be inputted.

도 12의 (b)에 도시한 바와 같이, 사용자로부터 특정한 제스쳐를 입력받으면, 제어부(140)는 표시영역(DA)을 분할할 수 있다. 예를 들어, 제1 글라스(130a) 측에 대응된 제1 표시영역(DA1)과 제2 글라스(130b) 측에 대응된 제2 표시영역(DA2)으로 분할할 수 있음을 의미한다. 즉, 제어부(140)는, 콘텐츠의 속성 및/또는 사용자 입력에 따라 콘텐츠가 표시될 표시영역(DA)의 넓이 및/또는 개수를 변경할 수 있음을 의미한다.As shown in FIG. 12 (b), when a specific gesture is input from the user, the control unit 140 can divide the display area DA. For example, it can be divided into a first display area DA1 corresponding to the first glass 130a side and a second display area DA2 corresponding to the second glass 130b side. That is, the controller 140 can change the width and / or the number of the display area DA in which the content is displayed according to the attribute of the content and / or the user's input.

도 13의 (a)에 도시한 바와 같이, 제어부(140)는 사용자로부터 또 다른 제스쳐를 입력받을 수 있다. 예를 들어, 제1 글래스(130a)를 터치하거나 터치한 상태에서 일정한 방향으로 이동하는 제스쳐 동작을 입력받을 수 있음을 의미한다.13 (a), the control unit 140 can receive another gesture from the user. For example, it means that the first glass 130a can be touched or touched and moved in a certain direction.

도 13의 (b)에 도시한 바와 같이, 제어부(140)는 사용자의 터치입력에 대응하여 분할되었던 표시영역(DA)을 하나로 병합할 수 있다.As shown in FIG. 13 (b), the controller 140 can merge the divided display areas DA corresponding to the user's touch input.

도 14 내지 도 18은 도 1 전자디바이스의 다른 실시예에 따른 조작방법을 도시한 도면이다.Figs. 14 to 18 are diagrams showing an operation method according to another embodiment of the electronic device of Fig. 1;

이들 도면에 도시한 바와 같이, 본 발명의 일 실시예에 따른 전자 디바이스(100)는, 다양한 상황에서 효과적으로 콘텐츠를 투사영역에 표시할 수 있다.As shown in these figures, the electronic device 100 according to the embodiment of the present invention can effectively display the contents in the projection area in various situations.

도 14의 (a)에 도시한 바와 같이, 전자 디바이스(100)가 착용되지 않은 제2 상태에서 새로운 메시지가 수신되는 상황이 발생할 수 있다. 제어부(140)는, 전자 디바이스(100)가 제2 상태에 있다는 점을 감지하면, 메시지가 수신되었다는 사실을 표시영역(DA)에 디스플레이할 수 있다. 즉, 사용자가 전자 디바이스(100)로부터 일정 거리 이격된 상태에 있을 것을 예상하여, 글라스(130)가 아닌 바닥면에 표시함으로써 식별력을 높일 수 있음을 의미한다. A situation may occur in which a new message is received in a second state in which the electronic device 100 is not worn, as shown in Fig. 14 (a). When the control unit 140 detects that the electronic device 100 is in the second state, it can display the fact that the message has been received in the display area DA. That is, it means that the user is expected to be in a state of being distanced from the electronic device 100 by a certain distance, and that the discrimination power can be increased by displaying on the bottom surface instead of the glass 130.

제어부(140)는 메시지가 수신되었다는 사실을, 문자 및/또는 문자아이콘(I1)으로 표시할 수 있다. 제어부(140)는, 사용자로부터 별도의 조작이 없으면 문자가 수신된 시각부터 일정 시간 문자 및/또는 문자아이콘(I1)을 표시한 후 표시영역(DA)의 디스플레이를 중단할 수 있다.The control unit 140 can display the fact that the message has been received by the character and / or character icon I1. The controller 140 may stop the display of the display area DA after displaying the character and / or character icon I1 for a certain period of time from the time when the character is received, unless otherwise manipulated by the user.

도 14의 (b)에 도시한 바와 같이, 제2 상태에서 콜(call)이 추가로 수신될 수 있다. 제어부(140)는 콜이 수신되었다는 사실을, 문자 및/또는 콜아이콘(I2)으로 표시할 수 있다.As shown in FIG. 14 (b), a call can be additionally received in the second state. The control unit 140 can display the fact that the call has been received by the character and / or call icon I2.

도 15의 (a)에 도시한 바와 같이, 사용자는 손가락(F) 등으로 전자 디바이스(100)에 일정한 제스쳐 동작을 수행할 수 있다. 예를 들어, 전자 디바이스(100)의 글라스(130)를 터치하는 제스쳐 동작을 수행할 수 있음을 의미한다. As shown in Fig. 15 (a), the user can perform a constant gesture operation on the electronic device 100 with the finger F or the like. For example, a gesture operation that touches the glass 130 of the electronic device 100 can be performed.

제어부(140)는, 사용자의 제스쳐 동작이 수행되면 비활성화되었던 표시영역(DA)을 다시 활성화할 수 있다. 즉, 프로젝터(210)를 사용한 영상의 투사를 다시 개시할 수 있음을 의미한다.The control unit 140 can activate the display area DA that was inactivated when the user's gesture operation is performed. That is, the projection of the image using the projector 210 can be restarted.

도 15의 (b)에 도시한 바와 같이, 사용자로부터 특정 제스쳐 입력을 받으면, 제어부(140)는 수신되었으나 사용자가 확인하지 않은 이벤트를 순차적으로 표시할 수 있다. 예를 들어, 분할된 표시영역(DA) 중 일 영역에 확인하지 못한 콜이 있음을 콜아이콘(I2) 등으로 표시할 수 있음을 의미한다.As shown in (b) of FIG. 15, when receiving a specific gesture input from the user, the controller 140 can sequentially display events received but not confirmed by the user. For example, it means that the call icon (I2) or the like can indicate that there is a call that can not be confirmed in one of the divided display areas (DA).

도 16의 (a)에 도시한 바와 같이, 사용자는 손가락(F) 등으로 전자 디바이스(100)에 일정한 제스쳐를 수행할 수 있다. 예를 들어, 전자 디바이스(100)의 안경테 부분을 터치하는 동작을 수행할 수 있음을 의미한다.As shown in Fig. 16A, the user can perform a constant gesture on the electronic device 100 with the finger F or the like. For example, it means that an operation of touching the eyeglass part of the electronic device 100 can be performed.

도 16의 (b)에 도시한 바와 같이, 사용자의 터치동작에 대응하여 제어부(140)는, 사용자가 확인하지 못한 다른 이벤트에 대한 내용을 표시할 수 있다. 예를 들어, 메시지아이콘(I1) 및/또는 문자를 표시할 수 있음을 의미한다.As shown in FIG. 16B, in response to the user's touch operation, the control unit 140 can display contents of other events that the user has not confirmed. For example, message icons (I1) and / or characters.

도 17의 (a)에 도시한 바와 같이, 전자 디바이스(100)가 제2 상태에 있을 때 메시지가 수신될 수 있다. 제어부(140)는, 메시지 수신 이벤트가 발생하였음을 메시지아이콘(I1) 등으로 표시할 수 있다. As shown in Fig. 17 (a), a message can be received when the electronic device 100 is in the second state. The control unit 140 may display a message icon I1 indicating that a message reception event has occurred.

도 17의 (b)에 도시한 바와 같이, 메시지아이콘(I1)의 수신 등 특정 이벤트가 발생한 경우에, 사용자는 전자 디바이스(100)를 착용한 후 이후의 동작을 수행하고자 할 수 있다. 이와 같은 경우에, 사용자는 안경테(161)를 잡아 착용할 수 있다. 예를 들어, 제1,2 터치지점(TP1, TP2)을 파지하여 전자 디바이스(100)를 착용할 수 있음을 의미한다. As shown in FIG. 17 (b), when a specific event such as reception of the message icon I1 occurs, the user may want to perform the subsequent operation after wearing the electronic device 100. [ In such a case, the user can hold the spectacle frame 161 and wear it. For example, it means that the electronic device 100 can be worn by gripping the first and second touch points TP1 and TP2.

제1,2 터치지점(TP1, TP2) 중 적어도 한 부분을 파지하여 전자 디바이스(100)를 착용한 제1 상태가 되면, 제어부(140)는 글래스(130)에 관련 내용을 표시할 수 있다. 즉, 콘텐츠를 제2 상태와 다른 방식으로 표시할 수 있음을 의미한다. 사용자가 제1,2 터치지점(TP1, TP2) 중 적어도 한 부분을 터치하거나 제1 상태로 전환이 완료되면, 제어부(140)는 프로젝터(210)를 사용한 콘텐츠의 표시를 중단할 수 있다.The controller 140 can display the contents of the glass 130 in the first state when the electronic device 100 is worn by gripping at least one of the first and second touch points TP1 and TP2. That is, it means that the content can be displayed in a manner different from the second state. When the user touches at least one of the first and second touch points TP1 and TP2 or the transition to the first state is completed, the control unit 140 can stop displaying the content using the projector 210. [

제어부(180)는, 제1,2 터치지점(TP1, TP2) 중 적어도 한 부분에 대한 터치가 있으면, 전자 디바이스(100)의 상태가 변경된 것으로 판단할 수 있다. 예를 들어, 전자 디바이스(100)를 착용하지 않은 상태였으나, 제1,2 터치치점(TP1, TP2) 중 적어도 한 부분이 터치되면 착용한 제1 상태로 변경되었다고 판단할 수 있음을 의미한다. 터치지점은, 도시한 제1,2 터치지점(TP1, TP2) 외의 부분일 수도 있다. 예를 들어, 전자 디바이스(100)의 전면 측 내지는 후면 측에 대한 터치입력을 획득할 수 있음을 의미한다. The control unit 180 can determine that the state of the electronic device 100 has been changed if there is a touch on at least one of the first and second touch points TP1 and TP2. For example, it means that the electronic device 100 is not worn but it can be determined that at least one of the first and second touch points TP1 and TP2 is changed to the first state worn when the touch is touched. The touch point may be a part other than the first and second touch points TP1 and TP2 shown in the figure. For example, the touch input to the front side or the back side of the electronic device 100 can be obtained.

제어부(180)는, 획득한 다른 신호와 터치신호를 결합하여 전자 디바이스(100)의 상태를 판단할 수 있다. 예를 들어, 제1,2 터치지점(TP1, TP2) 중 적어도 한 부분에 대한 터치가 이루어진 후 전자 디바이스(100)를 들어올리는 동작이 모션센서에 의하여 감지되면, 전자 디바이스(100)의 상태가 변경된 것으로 판단할 수 있음을 의미한다. The control unit 180 can determine the state of the electronic device 100 by combining the acquired other signal with the touch signal. For example, when the motion sensor senses the operation of lifting the electronic device 100 after touching at least one of the first and second touch points TP1 and TP2, the state of the electronic device 100 is It means that it can be judged as changed.

제어부(180)는, 터치된 지점에 따라서 다른 동작을 수행할 수 있다. 예를 들어, 제1 터치지점(TP1)이 터치되면 제 1 터치지점(TP1)에 가까운 디스플레이에 이미지를 표시하고, 제2 터치지점(TP2)이 터치되면 제2 터치지점(TP2)에 가까운 디스플레이에 이미지를 표시할 수 있음을 의미한다. 터치 위치에 대응된 동작은, 전자 디바이스(100)가 착용된 것으로 판단된 경우에도 유사하게 적용될 수 있다. The control unit 180 can perform another operation according to the touched point. For example, when the first touch point TP1 is touched, an image is displayed on a display close to the first touch point TP1. When the second touch point TP2 is touched, a display close to the second touch point TP2 Quot; image " The operation corresponding to the touch position can be similarly applied even when it is determined that the electronic device 100 is worn.

도 18의 (a)에 도시한 바와 같이, 전자 디바이스(100)에는 사용자가 확인하지 않은 복수의 이벤트가 대기 중일 수 있다. 예를 들어, 미확인 메시지 이벤트와 미수신 콜 이벤트가 존재할 수 있음을 의미한다. 복수의 이벤트가 존재함은, 메시지아이콘(I1)과 콜아이콘(I2) 등으로 표시될 수 있다.As shown in Fig. 18 (a), the electronic device 100 may have a plurality of events that are not confirmed by the user. For example, there may be an unacknowledged message event and an unreceived call event. The presence of a plurality of events may be indicated by a message icon I1, a call icon I2, or the like.

도 18의 (b)에 도시한 바와 같이, 사용자는 확인하고 싶은 이벤트에 따라서 제1,2 터치지점(TP1, TP2) 중 어느 한쪽을 터치할 수 있다. 예를 들어, 제1 터치지점(TP1)을 터치하면, 제어부(140)는 제1 터치지점(TP1) 측의 콜아이콘(I2)과 관련된 내용을 표시할 수 있다. 제2 터치지점(TP2)를 터치하면, 제어부(140)는 제2 터치지점(TP2) 측의 메시지아이콘(I1)과 관련된 내용을 표시할 수 있다. 즉, 전자 디바이스(100)에 대한 사용자의 터치 동작을 감지하면, 그 터치 동작에 대응된 콘텐츠와 관련된 내용을 표시할 수 있음을 의미한다.As shown in FIG. 18 (b), the user can touch any one of the first and second touch points TP1 and TP2 in accordance with an event to be confirmed. For example, when the first touch point TP1 is touched, the control unit 140 can display contents related to the call icon I2 on the first touch point TP1 side. When the second touch point TP2 is touched, the control unit 140 can display contents related to the message icon I1 on the second touch point TP2 side. That is, when the touch operation of the user with respect to the electronic device 100 is sensed, it means that contents related to the content corresponding to the touch operation can be displayed.

사용자가 직관적으로 인식할 수 있는 제스쳐 입력에 대응한 동작을 수행함으로써, 전자 디바이스(100)를 보다 편리하게 사용할 수 있다.The electronic device 100 can be more conveniently used by performing an operation corresponding to a gesture input that the user can intuitively recognize.

도 19는 도 4 전자 디바이스의 현 상태를 감지하는 과정을 구체적으로 도시한 플로우챠트이고, 도 20은 도 1 전자 디바이스의 현 상태를 감지하는 방법들을 나열한 도면이다.FIG. 19 is a flow chart specifically illustrating a process of detecting the current state of the electronic device of FIG. 4, and FIG. 20 is a diagram illustrating methods of detecting the current state of the electronic device of FIG.

이에 도시한 바와 같이, 전자 디바이스(100)의 현 상태는, 직접 및/또는 간접적으로 획득한 전자 디바이스(100)의 상태정보에 기초하여 판단할 수 있다. As shown, the current state of the electronic device 100 can be determined based on the state information of the electronic device 100 acquired directly and / or indirectly.

제어부(180)는, 직접 및/또는 간접적인 수단을 통해 상태를 감지하는 단계(S12)를 진행할 수 있다.The control unit 180 may proceed to step S12 to detect the state through direct and / or indirect means.

전자 디바이스(100)는, 다양한 상태에 있을 수 있다. 예를 들어, 사용자가 전자 디바이스(100)를 착용한 상태와, 전자 디바이스(100)를 착용하지 않은 상태 중 어느 하나에 있을 수 있다. 본 발명의 일 실시예에 따른 전자 디바이스(100)는, 안경과 같이 사용자의 얼굴에 착용하는 장치일 수 있다. 따라서 전자 디바이스(100)를 착용한 상태라 함은, 전자 디바이스(100)를 구성하는 프레임인 안경테(161)를 펼쳐 사용자의 얼굴 부분에 결합된 상태일 수 있다. 전자 디바이스(100)를 착용하지 않은 상태라 함은, 사용자의 얼굴이 아닌 바닥면 내지는 사용자의 손에 파지된 상태 등을 포함할 수 있다.The electronic device 100 may be in various states. For example, the user may be in one of a state in which the user wears the electronic device 100 and a state in which the user does not wear the electronic device 100. The electronic device 100 according to an embodiment of the present invention may be a device that worn on the user's face like a pair of glasses. Therefore, the state in which the electronic device 100 is worn may be a state in which the eyeglass frame 161, which is a frame constituting the electronic device 100, is unfolded and joined to the face portion of the user. The state in which the electronic device 100 is not worn may include a floor, not a face of the user, or a state gripped by a user's hand.

전자 디바이스(100)의 상태는, 직접 및/또는 간접적인 방법을 통해 감지될 수 있다. 전자 디바이스(100)의 상태를 감지할 수 있는 직접 및/또는 간접적인 방법은, 도 20에 도시한 바와 같다.The state of the electronic device 100 may be sensed through a direct and / or indirect method. A direct and / or indirect method of detecting the state of the electronic device 100 is as shown in Fig.

직접적인 방법은, 센서를 통하여 상태를 감지하는 방법일 수 있다. 예를 들어, 착용센서, 카메라, 안경테의 상태 등을 통해 사용자의 착용상태를 직접적으로 감지할 수 있음을 의미한다. 직접감지 장치로부터 획득한 정보는 제1 정보일 수 있다. 직접적인 방법은 상대적으로 정확한 방법일 수 있으나, 센서류의 부착에 따라 상대적으로 비용의 상승이 발생할 수 있다.The direct method may be a method of detecting the condition through the sensor. For example, it means that the wearing state of the user can be directly detected through the state of the wearing sensor, the camera, and the spectacle frame. The information obtained from the direct sensing device may be the first information. The direct method can be a relatively accurate method, but the increase in the cost may be caused by the attachment of the sensor.

간접적인 방법은, 센서로 상태를 직접 감지하는 것 이외의 방법일 수 있다. 예를 들어, 사용자가 미리 설정한 시각, 충전의 진행 여부 등 사용자의 착용상태를 간접적으로 추정할 수 있음을 의미한다. 간접감지 장치로부터 획득한 정보는 제2 정보일 수 있다. 직접적인 방법 및 간접적인 방법의 구체적인 내용은, 해당하는 부분에서 설명하도록 한다.An indirect method may be a method other than directly sensing the state with a sensor. For example, it implies that the wearing state of the user, such as the time preset by the user and progress of charging, can be indirectly estimated. The information obtained from the indirect sensing device may be the second information. Specific details of the direct method and the indirect method are explained in the corresponding part.

제어부(180)는, 감지한 정보의 조합을 통해 현 상태를 감지하는 단계(S14)를 진행할 수 있다.The control unit 180 may proceed to step S14 to detect the current state through the combination of the sensed information.

감지한 정보는, 적어도 하나일 수 있다. 예를 들어, 카메라를 통해 획득한 제1 정보 외에, 충전의 진행을 통해 획득한 제2 정보가 존재할 수 있음을 의미한다.The sensed information may be at least one. For example, in addition to the first information acquired through the camera, the second information acquired through the progress of the charging may exist.

제어부(180)는, 제1 정보와 제2 정보 중 적어도 하나의 정보에 기초하여 전자 디바이스(100)의 착용여부를 판단할 수 있다. 정보를 조합하면, 전자 디바이스(100)의 현 상태를 보다 정확하게 판단하는 근거가 될 수 있다. 즉, 하나의 정보에 기초한 정보보다는 복수의 정보에 기초한 정보가 보다 정확할 수 있음을 의미한다.The control unit 180 can determine whether the electronic device 100 is worn based on at least one of the first information and the second information. Information can be used as a basis for judging the current state of the electronic device 100 more accurately. That is, information based on a plurality of information can be more accurate than information based on one information.

정보를 조합하면, 상대적으로 저렴한 비용으로 전자 디바이스(100)의 현 상태를 감지할 수 있다. 예를 들어, 설치에 따라 비용이 증가는 센서류를 통해 획득한 정보가 아니라, 전자 디바이스(100)에 설치되어 있던 기존 장치를 통해 획득한 정보를 조합하여 판단함으로써, 판단의 신뢰성을 높이는 동시에 제작비용의 증가를 최소화 할 수 있음을 의미한다.By combining the information, the current state of the electronic device 100 can be detected at a relatively low cost. For example, it is possible to increase the reliability of judgment by combining the information acquired through the existing device installed in the electronic device 100, rather than the information acquired through the sensor, which increases in cost depending on the installation, Can be minimized.

도 21 및 도 22는 도 1 전자 디바이스의 센서를 사용한 감지 방법을 도시한 도면이다.FIGS. 21 and 22 are diagrams illustrating a sensing method using a sensor of the electronic device of FIG.

이들 도면에 도시한 바와 같이, 본 발명의 일 실시예에 따른 전자 디바이스(100)는, 전자 디바이스(100)에 설치된 착용센서(210)를 통해 착용여부를 직접적으로 감지할 수 있다.As shown in these drawings, the electronic device 100 according to an embodiment of the present invention can directly detect whether or not the electronic device 100 is worn through the wear sensor 210 provided on the electronic device 100. [

도 21에 도시한 바와 같이, 착용센서(210)는, 전자 디바이스(100)의 착용과 함께 사용자의 신체에 접촉되는 부위에 위치할 수 있다. 예를 들어, 사용자의 머리에 직접적으로 접촉하는 다안경테(161)의 다리 끝 부분에 제1 감지센서(212) 및/또는 사용자의 코에 접촉하는 부분에 제2 감지센서(214)가 위치될 수 있다.As shown in Fig. 21, the wear sensor 210 may be positioned at a position where the electronic device 100 is brought into contact with the wearer's body as the wearer wears it. For example, the first sensing sensor 212 and / or the second sensing sensor 214 may be positioned at a portion of the legs of the multi-eyeglass frame 161 that directly contacts the user's head, .

제1,2 감지센서(212, 214)는, 착용시 가해지는 압력의 감지 및/또는 사용자 신처에 접촉되는 경우에 발생하는 전자기장 변화의 감지 등의 방법을 통해 착용여부를 직접적으로 감지할 수 있다.The first and second sensing sensors 212 and 214 can directly detect whether or not they are worn through a method of detecting a pressure applied at the time of wearing and / or a change in an electromagnetic field occurring when the user touches a new place .

도 22에 도시한 바와 같이, 전자 디바이스(100)에는, 사용자의 움직임을 감지할 수 있는 모션센서로부터 정보를 획득할 수 있다.As shown in Fig. 22, the electronic device 100 can acquire information from a motion sensor capable of sensing the motion of the user.

모센센서는, 가속도센서 등을 포함할 수 있다. 따라서 사용자의 움직임으로 인해 발생하는 운동량을 감지할 수 있다. 제어부(180)는, 운동량이 0이 되는 t1 내지 t2, t3 내지 t4 사이에서는 전자 디바이스(100)가 착용되지 않고 있는 것으로 판단할 수 있다.The Moessen sensor may include an acceleration sensor or the like. Therefore, it is possible to detect the amount of exercise caused by the movement of the user. The control unit 180 can determine that the electronic device 100 is not worn between t1 and t2 and t3 to t4 when the momentum becomes zero.

도 23은 도 1 전자 디바이스의 카메라를 사용한 감지 방법을 도시한 도면이다.Fig. 23 is a diagram showing a detection method using the camera of Fig. 1 electronic device. Fig.

이에 도시한 바와 같이, 본 발명의 일 실시예에 따른 전자 디바이스(100)는, 카메라(110)를 통해 전자 디바이스(100)의 착용 상태를 감지할 수 있다.As shown in the figure, the electronic device 100 according to an embodiment of the present invention can sense the wearing state of the electronic device 100 through the camera 110. [

카메라(110)는, 전자 디바이스(100)의 착용 상태를 감지할 수 있는 직접감지 장치 중 하나일 수 있다. 즉, 착용여부에 따라 달라지는 영상에 대한 분석을 통해, 착용여부를 판단할 수 있는 제1 정보를 생산하는 장치일 수 있음을 의미한다.The camera 110 may be one of the direct sensing devices capable of sensing the wearing state of the electronic device 100. [ That is, it means that the apparatus can be a device for producing first information that can determine whether or not the image is worn by analyzing the image depending on whether the image is worn or not.

사용자가 착용한 경우에 카메라(110)를 통해 촬영된 제1 영상(VA1)과, 전자 디바이스(100)가 바닥면에 놓여진 경우에 카메라(110)를 통해 촬영된 제2 영상(VA2)은 서로 다를 수 있다. 예를 들어, 제2 영상(VA2)는, 일정 시간 이상 동일한 오브젝트가 촬영될 수 있음을 의미한다. 제어부(180)는, 촬영된 영상의 차이에 기초하여 전자 디바이스(100)의 착용여부를 판단할 수 있다.The first image VA1 photographed through the camera 110 when the user wears the first image VA2 and the second image VA2 photographed through the camera 110 when the electronic device 100 is placed on the bottom surface can be different. For example, the second image VA2 means that the same object can be photographed for a predetermined time or more. The control unit 180 can determine whether or not the electronic device 100 is worn based on the difference between the photographed images.

제어부(180)는, 다른 정보에 기초한 판단에 따라 카메라(110)로 정보의 정확성을 판단할 수 있다. 예를 들어, 모션센서를 통해 획득한 정보에 따를 때 일정 시간 이상 전자 디바이스(100)의 움직임이 감지되지 않는 경우에, 카메라(110)를 통한 영상의 촬영을 시도할 수 있다. 카메라(110)를 통해 촬영한 영상의 결과 역시 촬영된 오브젝트의 변화가 없다면, 제어부(180)는 전자 디바이스(100)가 미착용 상태에 있다고 판단할 수 있다.The control unit 180 can determine the accuracy of the information with the camera 110 in accordance with the determination based on the other information. For example, when the movement of the electronic device 100 is not detected for a predetermined time or more according to the information acquired through the motion sensor, the user may attempt to shoot an image through the camera 110. If there is no change in the photographed object as a result of the image photographed through the camera 110, the controller 180 can determine that the electronic device 100 is in the non-attaching state.

도 24는 도 1 전자 디바이스의 안경테의 상태에 따른 감지 방법을 도시한 도면이다.Fig. 24 is a diagram showing a sensing method according to the state of the spectacle frame of the electronic device of Fig. 1;

이에 도시한 바와 같이, 본 발명의 일 실시예에 따른 전자 디바이스(100)의 제어부(180)는, 안경테(161)의 상태에 기초하여 착용여부를 판단할 수 있다.As shown, the controller 180 of the electronic device 100 according to an embodiment of the present invention can determine whether or not the eyeglass frame 161 is worn based on the state of the eyeglass frame 161.

도 24의 (a)에 도시한 바와 같이, 전자 디바이스(100)의 안경테(161)는 펼쳐진 상태에 있을 수 있다. 또는, 도 24의 (b) 내지 (d)에 도시한 바와 같이, 전자 디바이스(100)의 안경테(161)는 적어도 하나가 접혀진 상태에 있을 수 있다.As shown in Fig. 24 (a), the spectacle frame 161 of the electronic device 100 may be in an unfolded state. Alternatively, as shown in Figs. 24 (b) to 24 (d), at least one of the spectacle frames 161 of the electronic device 100 may be in a folded state.

제어부(180)는, 안경테(161)의 상태를 감지할 수 있다. 예를 들어, 프레임센서를 통해, 안경테(161)가 펼쳐져 있는지, 접혀져 있는지 여부를 감지할 수 있음을 의미한다.The control unit 180 can detect the state of the spectacle frame 161. For example, it means that, through the frame sensor, it is possible to detect whether the spectacle frame 161 is unfolded or folded.

제어부(180)는, 안경테(161)의 접여짐 여부에 기초하여 전자 디바이스(100)의 상태를 감지할 수 있다. 예를 들어, 안경테(161) 중 적어도 하나가 접혀진 상태에 있는 경우라면, 제어부(180)는 전자 디바이스(100)가 미착용 상태에 있는 것으로 판단할 수 있다. 그러나 안경테(161)가 모두 펼쳐져 있다는 전자 디바이스(100)가 착용 상태에 있는 것으로 판단할 수 있다.The control unit 180 can detect the state of the electronic device 100 based on whether or not the eyeglass frame 161 is tangled. For example, if at least one of the eyeglass frames 161 is in a folded state, the control unit 180 may determine that the electronic device 100 is in a non-attaching state. However, it can be determined that the electronic device 100, in which all of the spectacle frames 161 are unfolded, is in a wear state.

도 25는 도 1 전자 디바이스의 시간에 따른 감지 방법을 도시한 도면이다.FIG. 25 is a diagram illustrating a time-based sensing method of the electronic device of FIG. 1;

이에 도시한 바와 같이, 본 발명의 일 실시예에 따른 전자 디바이스(100)는, 사용자 및/또는 제어부(180)의 설정에 따른 시간에 따라서 착용 및 미착용 여부를 판단할 수 있다.As shown in the figure, the electronic device 100 according to an embodiment of the present invention can determine whether to wear or not to use according to the time set by the user and / or the controller 180.

제어부(180)는, 설정된 시각에 따라서 착용 또는 미착용 여부를 판단할 수 있다. 예를 들어, 사용자가 미착용 시간으로 설정한 시간범위 내에서는 전자 디바이스(100)가 착용되지 않는 것으로 추정하고, 사용자가 착용 시간으로 설정한 시간범위 내에서는 전자 디바이스(100)가 착용된 것으로 추정할 수 있음을 의미한다.The control unit 180 can determine whether to wear or not to use according to the set time. For example, it is assumed that the electronic device 100 is not worn within the time range set by the user as the non-wearing time, and the electronic device 100 is estimated to be worn within the time range set by the wearer .

착용 시간 내지 미착용 시간은, 사용자의 설정에 의하여 적용될 수 있다. 즉, 특정 시각에는 전자 디바이스(100)를 착용하지 않는 경향이 있는 사용자라면, 이를 사전에 설정함으로서 전자 디바이스(100)의 배터리를 효율적으로 사용할 수 있다.The wearing time or non-wearing time can be applied by the setting of the user. That is, if the user tends not to wear the electronic device 100 at a specific time, it is possible to use the battery of the electronic device 100 efficiently by setting it in advance.

착용 시간 내지 미착용 시간은, 제어부(180)에 의하여 설정될 수 있다. 예를 들어, 제어부(180)는, 모션 센서 등을 통하여 전자 디바이스(100)가 사용되는 시간을 감지할 수 있다. 전자 디바이스(100)가 사용되는 시간을 감지한 제어부(180)는, 그에 대응되도록 전자 디바이스(100)의 착용 시간을 스케쥴링할 수 있다. 제어부(180)는, 스케쥴링 된 시간에 따라서 그 시간 범위 내에서는 착용 또는 미착용을 추정할 수 있다.The wearing time or non-wearing time may be set by the control unit 180. [ For example, the controller 180 may sense the time when the electronic device 100 is used through a motion sensor or the like. The controller 180, which senses the time when the electronic device 100 is used, may schedule the wear time of the electronic device 100 to correspond to the time. The control unit 180 can estimate the wearing or not wearing within the time range according to the scheduled time.

도 26은 도 1 전자 디바이스의 충전에 따른 감지 방법을 도시한 도면이다.FIG. 26 is a view showing a sensing method according to charging of the electronic device of FIG. 1;

이에 도시한 바와 같이, 본 발명의 일 실시예에 따른 전자 디바이스(100)의 제어부(180)는, 전자 디바이스(100)의 충전 진행 여부에 기초하여 충전 여부를 결정할 수 있다.As shown in the figure, the controller 180 of the electronic device 100 according to an embodiment of the present invention can determine whether to charge the electronic device 100 based on whether the electronic device 100 is being charged or not.

전자 디바이스(100)는, 사용 정도에 따라 일정한 주기로 재충전이 필요할 수 있다. 전자 디바이스(100)에 대한 충전은, 별도의 충전장치(300)를 통해 이루어질 수 있다. 예를 들어, 충전장치(300)에서 연장된 충전라인을 전자 디바이스(100)에 연결하는 방식으로 충전이 진행될 수 있음을 의미한다.The electronic device 100 may need to be recharged at regular intervals depending on the degree of use. Charging to the electronic device 100 may be accomplished through a separate charging device 300. For example, it means that the charging can proceed in such a way that the charging line extending from the charging device 300 is connected to the electronic device 100.

제어부(180)는, 전자 디바이스(100)에 대한 충전이 진행되는 경우에는 전자 디바이스(100)가 착용되지 않은 상태에 있는 것으로 판단할 수 있다. 이와 같은 점은, 전자 디바이스(100)에 대한 사용자의 통상적인 사용태양에 대한 조사에 기초할 수 있다.The control unit 180 can determine that the electronic device 100 is not worn when the electronic device 100 is being charged. This can be based on a survey of the user's normal use of the electronic device 100.

본 발명은 기재된 실시예들에 한정되는 것이 아니고, 본 발명의 사상 및 범위를 벗어나지 않고 다양하게 수정 및 변형할 수 있음은 이 기술의 분야에서 통상의 지식을 가진 자에게 자명하다. 따라서, 그러한 수정예 또는 변형예들은 본 발명의 특허청구범위에 속한다 하여야 할 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit and scope of the invention. Accordingly, such modifications or variations are intended to fall within the scope of the appended claims.

100 : 전자 디바이스 110 : 무선 통신부
140 : 센싱부 151 : 디스플레이부
180 : 제어부
100: electronic device 110: wireless communication unit
140: sensing unit 151: display unit
180:

Claims (13)

디바이스가 사용자의 안면에 착용될 수 있도록, 상기 안면 중 적어도 일 지점에 결합되는 프레임; 및
상기 프레임에 내장되며, 상기 사용자의 착용상태를 직접적으로 감지하는 직접감지 장치로부터 획득한 제1 정보와, 사용자의 착용상태를 간접적으로 감지하는 간접감지 장치로부터 획득한 제2 정보 중 적어도 하나의 정보에 기초하여 상기 디바이스의 착용여부를 판단하는 제어부를 포함하는 것을 특징으로 하는 전자 디바이스.
A frame coupled to at least one of the face so that the device can be worn on the user's face; And
At least one of the first information acquired from the direct sensing device directly sensing the wearing state of the user and the second information acquired from the indirect sensing device indirectly sensing the wearing state of the user, And a controller for determining whether the device is worn or not based on the determination result.
제1 항에 있어서,
상기 제어부는,
상기 제1 정보와 상기 제2 정보 중 적어도 하나를 조합하여 상기 디바이스의 착용여부를 판단하는 것을 특징으로 하는 전자 디바이스.
The method according to claim 1,
Wherein,
Wherein the electronic device determines whether the device is worn by combining at least one of the first information and the second information.
제1 항에 있어서,
상기 제1 정보는,
상기 디바이스의 적어도 일 지점에 설치되어 상기 사용자 신체의 적어도 일 지점에 접촉되는 감지센서, 적어도 하나의 카메라, 상기 프레임의 상태를 감지하는 프레임센서, 상기 디바이스의 움직임을 감지하는 모션센서 중 적어도 하나를 통해 획득한 정보를 포함하는 상태정보인 것을 특징으로 하는 전자 디바이스.
The method according to claim 1,
Wherein the first information comprises:
At least one of a sensing sensor installed at at least one point of the device and contacting at least one point of the user's body, a frame sensor sensing the state of the frame, and a motion sensor sensing motion of the device, Lt; RTI ID = 0.0 > 1, < / RTI >
제1 항에 있어서,
상기 제2 정보는,
기 설정된 상기 디바이스의 착용 또는 미착용 시간범위, 상기 디바이스에 대한 충전 진행 여부 중 적어도 하나를 포함하는 상태정보인 것을 특징으로 하는 전자 디바이스.
The method according to claim 1,
Wherein the second information comprises:
Wherein the status information includes at least one of a time range for wearing or not wearing the device, and a charging progress for the device.
제1 항에 있어서,
디스플레이 기능이 탑재된 적어도 하나의 글라스를 더 포함하며,
상기 제어부는,
상기 디바이스가 미착용 상태에 있을 때, 상기 적어도 하나의 글라스를 사용하여 상기 콘텐츠를 표시하는 것을 특징으로 하는 전자 디바이스.
The method according to claim 1,
Further comprising at least one glass equipped with a display function,
Wherein,
And when the device is in the non-use state, displays the content using the at least one glass.
제1 항에 있어서,
적어도 하나의 프로젝터를 더 포함하며,
상기 제어부는,
상기 디바이스가 미착용 상태에 있을 때, 상기 적어도 하나의 프로젝터를 사용하여 투사면(projection surface)을 향해 상기 콘텐츠를 영사(projection)하는 것을 특징으로 하는 전자 디바이스.
The method according to claim 1,
Further comprising at least one projector,
Wherein,
Wherein the at least one projector is used to project the content toward a projection surface when the device is in the non-use state.
제1 항에 있어서,
상기 제어부는,
상기 디바이스 중 적어도 일 지점에 대한 사용자의 파지동작을 감지하면,
상기 제1,2 정보에 관계없이, 상기 디바이스가 착용 상태에 있는 것으로 판단하는 것을 특징으로 하는 전자 디바이스.
The method according to claim 1,
Wherein,
Detecting a user's gripping operation on at least one of the devices,
Wherein the electronic device determines that the device is in a wear state regardless of the first and second information.
디바이스의 상태를 감지하는 단계; 및
사용자의 착용상태를 직접적으로 감지하는 직접감지 장치로부터 획득한 제1 정보와, 사용자의 착용상태를 간접적으로 감지하는 간접감지 장치로부터 획득한 제2 정보 중 적어도 하나의 정보에 기초하여 상기 디바이스의 착용여부를 판단하는 단계를 포함하는 전자 디바이스의 제어방법.
Sensing a state of the device; And
Based on at least one of the first information obtained from the direct sensing device directly sensing the wearing state of the user and the second information acquired from the indirect sensing device indirectly sensing the wearing state of the user, And judging whether or not the electronic device is connected to the electronic device.
제8 항에 있어서,
상기 판단하는 단계는,
상기 제1 정보와 상기 제2 정보 중 적어도 하나를 조합하여 상기 디바이스의 착용여부를 판단하는 단계를 포함하는 전자 디바이스의 제어방법.
9. The method of claim 8,
Wherein the determining step comprises:
And determining whether the device is worn by combining at least one of the first information and the second information.
제8 항에 있어서,
상기 제1 정보는,
상기 디바이스의 적어도 일 지점에 설치되어 상기 사용자 신체의 적어도 일 지점에 접촉되는 감지센서, 적어도 하나의 카메라, 프레임의 상태를 감지하는 프레임센서, 상기 디바이스의 움직임을 감지하는 모션센서 중 적어도 하나를 통해 획득한 정보를 포함하는 상태정보인 것을 특징으로 하는 전자 디바이스의 제어방법.
9. The method of claim 8,
Wherein the first information comprises:
At least one camera installed at least one point of the device and contacting at least one point of the user's body, a frame sensor detecting the state of the frame, and a motion sensor detecting motion of the device And the state information including the acquired information.
제8 항에 있어서,
상기 제2 정보는,
기 설정된 상기 디바이스의 착용 또는 미착용 시간범위, 상기 디바이스에 대한 충전 진행 여부 중 적어도 하나를 포함하는 상태정보인 것을 특징으로 하는 전자 디바이스의 제어방법.
9. The method of claim 8,
Wherein the second information comprises:
Wherein the state information includes at least one of a time range for wearing or not attaching the device, and a charging progress for the device.
제8 항에 있어서,
상기 디바이스가 미착용 상태에 있을 때, 적어도 하나의 글라스를 사용하여 콘텐츠를 표시하는 단계를 더 포함하는 전자 디바이스의 제어방법.
9. The method of claim 8,
And displaying the content using at least one glass when the device is in the non-use state.
제8 항에 있어서,
상기 디바이스가 미착용 상태에 있을 때, 적어도 하나의 프로젝터를 사용하여 투사면을 향해 콘텐츠를 영사하는 단계를 포함하는 전자 디바이스의 제어방법.
9. The method of claim 8,
And projecting the content toward the projection surface using at least one projector when the device is in the non-application state.
KR1020130162832A 2013-10-28 2013-12-24 Electronic device and control method thereof Ceased KR20150074757A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020130162832A KR20150074757A (en) 2013-12-24 2013-12-24 Electronic device and control method thereof
US15/029,548 US9958681B2 (en) 2013-10-28 2014-10-16 Electronic device and control method thereof
PCT/KR2014/009747 WO2015064935A1 (en) 2013-10-28 2014-10-16 Electronic device and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130162832A KR20150074757A (en) 2013-12-24 2013-12-24 Electronic device and control method thereof

Publications (1)

Publication Number Publication Date
KR20150074757A true KR20150074757A (en) 2015-07-02

Family

ID=53787813

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130162832A Ceased KR20150074757A (en) 2013-10-28 2013-12-24 Electronic device and control method thereof

Country Status (1)

Country Link
KR (1) KR20150074757A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024076058A1 (en) * 2022-10-07 2024-04-11 삼성전자 주식회사 Wearable electronic device comprising sensor and operation method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024076058A1 (en) * 2022-10-07 2024-04-11 삼성전자 주식회사 Wearable electronic device comprising sensor and operation method thereof

Similar Documents

Publication Publication Date Title
KR102782870B1 (en) Neural network system for gesture, wearing, activity or carrying detection on wearable or mobile devices
KR102121592B1 (en) Method and apparatus for protecting eyesight
US9288388B2 (en) Method and portable terminal for correcting gaze direction of user in image
US9106821B1 (en) Cues for capturing images
KR102361025B1 (en) Wearable glasses and method for displaying image therethrough
EP2813922A1 (en) Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
EP2393042A1 (en) Selecting view orientation in portable device via image analysis
CN105319718A (en) Wearable glasses and method of displaying image via wearable glasses
KR20150003591A (en) Smart glass
US12267585B2 (en) Ultra low power camera pipeline for CV in AR systems
CN110933452B (en) Method and device for displaying lovely face gift and storage medium
CN112202962B (en) Screen brightness adjusting method and device and storage medium
US9958681B2 (en) Electronic device and control method thereof
WO2015136952A1 (en) Gesture recognition device, head-mounted display, and portable terminal
KR20210068853A (en) A foldable electronic device comprising a camera
CN108848405B (en) Image processing method and device
US20120320500A1 (en) Portable electronic device and method for using the same
KR101495790B1 (en) Mobile terminal and method for controlling screen display thereof
KR20150074757A (en) Electronic device and control method thereof
CN111176601A (en) Processing method and device
KR20150048576A (en) Electronic device and control method thereof
KR20160005862A (en) Mobile terminal and method for controlling the same
KR20160003522A (en) Mobile terminal
KR20120040320A (en) Apparatus and method for display of terminal
CN110728275B (en) License plate recognition method, license plate recognition device and storage medium

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20131224

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20181103

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20131224

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20191120

Patent event code: PE09021S01D

E601 Decision to refuse application
PE0601 Decision on rejection of patent

Patent event date: 20200304

Comment text: Decision to Refuse Application

Patent event code: PE06012S01D

Patent event date: 20191120

Comment text: Notification of reason for refusal

Patent event code: PE06011S01I