KR20150074757A - Electronic device and control method thereof - Google Patents
Electronic device and control method thereof Download PDFInfo
- Publication number
- KR20150074757A KR20150074757A KR1020130162832A KR20130162832A KR20150074757A KR 20150074757 A KR20150074757 A KR 20150074757A KR 1020130162832 A KR1020130162832 A KR 1020130162832A KR 20130162832 A KR20130162832 A KR 20130162832A KR 20150074757 A KR20150074757 A KR 20150074757A
- Authority
- KR
- South Korea
- Prior art keywords
- electronic device
- state
- user
- information
- sensing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
- 238000000034 method Methods 0.000 title claims abstract description 53
- 239000011521 glass Substances 0.000 claims description 44
- 238000010586 diagram Methods 0.000 description 19
- 238000004891 communication Methods 0.000 description 10
- 230000008859 change Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 239000000463 material Substances 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 239000003086 colorant Substances 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005672 electromagnetic field Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3129—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] scanning a light beam on the display screen
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Computer Hardware Design (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
전자 디바이스 및 그 제어방법이 개시된다. 본 발명의 전자 디바이스 및 그 제어방법은, 디바이스가 사용자의 안면에 착용될 수 있도록, 상기 안면 중 적어도 일 지점에 결합되는 프레임; 및 상기 프레임에 내장되며, 상기 사용자의 착용상태를 직접적으로 감지하는 직접감지 장치로부터 획득한 제1 정보와, 사용자의 착용상태를 간접적으로 감지하는 간접감지 장치로부터 획득한 제2 정보 중 적어도 하나의 정보에 기초하여 상기 디바이스의 착용여부를 판단하는 제어부를 포함하는 것을 특징으로 한다. 본 발명에 의하면, 전자 디바이스의 현 상태를 효과적으로 감지할 수 있다.An electronic device and its control method are disclosed. An electronic device and a control method thereof according to the present invention include: a frame coupled to at least one point of the face so that the device can be worn on the face of the user; And at least one of the first information acquired from the direct sensing device directly sensing the wearing state of the user and the second information acquired from the indirect sensing device indirectly sensing the wearing state of the user, And a controller for determining whether the device is worn based on the information. According to the present invention, it is possible to effectively detect the current state of the electronic device.
Description
본 발명은 전자 디바이스 및 그 제어방법에 관한 것으로서, 보다 구체적으로는 전자 디바이스의 현 상태를 효과적으로 감지할 수 있는 전자 디바이스 및 그 제어방법에 관한 것이다.BACKGROUND OF THE
최근에는 사용자가 직접 몸에 장착하여 이용할 수 있는 웨어러블 컴퓨팅 시스템(wearable computing system)에 대한 연구와 관심 그리고 상용화가 활발하게 진행되고 있다. 특히, 사용자가 안경과 같이 착용한 상태에서 글라스를 통하여 각종 데이터를 제공할 수 있고, 휴대 전화 기능, 카메라 기능 등을 제공하는 전자 디바이스에 대한 관심이 매우 높다.In recent years, research, interest, and commercialization of a wearable computing system (wearable computing system), which can be directly mounted on the body, has been actively conducted. Particularly, there is a great interest in an electronic device that can provide various data through a glass in a state in which the user wears it as glasses, and provides a cellular phone function, a camera function, and the like.
본 발명은 전자 디바이스의 현 상태를 효과적으로 감지할 수 있는 전자 디바이스 및 그 제어방법에 관한 것이다.The present invention relates to an electronic device capable of effectively sensing the current state of an electronic device and a control method thereof.
상기한 과제를 실현하기 위한 본 발명의 일 실시예에 따른 전자 디바이스는, 디바이스가 사용자의 안면에 착용될 수 있도록, 상기 안면 중 적어도 일 지점에 결합되는 프레임; 및 상기 프레임에 내장되며, 상기 사용자의 착용상태를 직접적으로 감지하는 직접감지 장치로부터 획득한 제1 정보와, 사용자의 착용상태를 간접적으로 감지하는 간접감지 장치로부터 획득한 제2 정보 중 적어도 하나의 정보에 기초하여 상기 디바이스의 착용여부를 판단하는 제어부를 포함할 수 있다.According to an aspect of the present invention, there is provided an electronic device including: a frame coupled to at least one point of a face of a user so that the device can be worn on a user's face; And at least one of the first information acquired from the direct sensing device directly sensing the wearing state of the user and the second information acquired from the indirect sensing device indirectly sensing the wearing state of the user, And a controller for determining whether the device is worn based on the information.
상기 제어부는, 상기 제1 정보와 상기 제2 정보 중 적어도 하나를 조합하여 상기 디바이스의 착용여부를 판단할 수 있다.The controller may determine whether the device is worn by combining at least one of the first information and the second information.
상기 제1 정보는, 상기 디바이스의 적어도 일 지점에 설치되어 상기 사용자 신체의 적어도 일 지점에 접촉되는 감지센서, 적어도 하나의 카메라, 상기 프레임의 상태를 감지하는 프레임센서, 상기 디바이스의 움직임을 감지하는 모션센서 중 적어도 하나를 통해 획득한 정보를 포함하는 상태정보일 수 있다.Wherein the first information comprises at least one sensor installed at least at one point of the device and contacting at least one point of the user's body, a frame sensor sensing the state of the frame, And status information including information acquired through at least one of the motion sensors.
상기 제2 정보는, 기 설정된 상기 디바이스의 착용 또는 미착용 시간범위, 상기 디바이스에 대한 충전 진행 여부 중 적어도 하나를 포함하는 상태정보일 수 있다.The second information may be status information including at least one of a time range of wearing or not wearing the device, and a charging progress for the device.
디스플레이 기능이 탑재된 적어도 하나의 글라스를 더 포함하며, 상기 제어부는, 상기 디바이스가 미착용 상태에 있을 때, 상기 적어도 하나의 글라스를 사용하여 상기 콘텐츠를 표시할 수 있다.Further comprising at least one glass equipped with a display function, wherein the control unit can display the content using the at least one glass when the device is in a non-use state.
적어도 하나의 프로젝터를 더 포함하며, 상기 제어부는, 상기 디바이스가 미착용 상태에 있을 때, 상기 적어도 하나의 프로젝터를 사용하여 투사면(projection surface)을 향해 상기 콘텐츠를 영사할 수 있다.The system of
상기 제어부는, 상기 디바이스 중 적어도 일 지점에 대한 사용자의 파지동작을 감지하면, 상기 제1,2 정보에 관계없이, 상기 디바이스가 착용 상태에 있는 것으로 판단할 수 있다.The controller may determine that the device is in a wear state regardless of the first and second information when it detects a user's gripping operation with respect to at least one point of the devices.
상기한 과제를 실현하기 위한 본 발명의 일 실시예에 따른 전자 디바이스의 제어방법은, 디바이스의 상태를 감지하는 단계; 및According to another aspect of the present invention, there is provided a method of controlling an electronic device, including: sensing a state of a device; And
사용자의 착용상태를 직접적으로 감지하는 직접감지 장치로부터 획득한 제1 정보와, 사용자의 착용상태를 간접적으로 감지하는 간접감지 장치로부터 획득한 제2 정보 중 적어도 하나의 정보에 기초하여 상기 디바이스의 착용여부를 판단하는 단계를 포함할 수 있다.Based on at least one of the first information obtained from the direct sensing device directly sensing the wearing state of the user and the second information acquired from the indirect sensing device indirectly sensing the wearing state of the user, And a step of judging whether or not it is possible.
상기 판단하는 단계는, 상기 제1 정보와 상기 제2 정보 중 적어도 하나를 조합하여 상기 디바이스의 착용여부를 판단하는 단계를 포함할 수 있다.The determining may include determining whether the device is worn by combining at least one of the first information and the second information.
상기 제1 정보는, 상기 디바이스의 적어도 일 지점에 설치되어 상기 사용자 신체의 적어도 일 지점에 접촉되는 감지센서, 적어도 하나의 카메라, 프레임의 상태를 감지하는 프레임센서, 상기 디바이스의 움직임을 감지하는 모션센서 중 적어도 하나를 통해 획득한 정보를 포함하는 상태정보일 수 있다.Wherein the first information comprises at least one of a sensor, a sensor, installed at at least one point of the device and contacting at least one point of the user's body, a frame sensor for sensing a state of the frame, And status information including information obtained through at least one of the sensors.
상기 제2 정보는, 기 설정된 상기 디바이스의 착용 또는 미착용 시간범위, 상기 디바이스에 대한 충전 진행 여부 중 적어도 하나를 포함하는 상태정보일 수 있다.The second information may be status information including at least one of a time range of wearing or not wearing the device, and a charging progress for the device.
상기 디바이스가 미착용 상태에 있을 때, 적어도 하나의 글라스를 사용하여 콘텐츠를 표시하는 단계를 더 포함할 수 있다.And displaying the content using at least one glass when the device is not in use.
상기 디바이스가 미착용 상태에 있을 때, 적어도 하나의 프로젝터를 사용하여 투사면을 향해 콘텐츠를 영사하는 단계를 포함할 수 있다.And projecting the content toward the projection surface using at least one projector when the device is not in use.
본 발명에 따른 전자 디바이스 및 그 제어방법은, 전자 디바이스의 현 상태를 효과적으로 감지할 수 있는 효과가 있다.The electronic device and its control method according to the present invention have the effect of effectively detecting the current state of the electronic device.
도 1은 본 발명의 일 실시예에 따른 전자 디바이스의 블록다이어그램(Block Diagram)이다.
도 2는 도 1 전자 디바이스의 사시도이다.
도 3은 도 1 전자 디바이스의 다른 실시예에 따른 사시도이다.
도 4는 도 1 전자 디바이스의 동작과정을 도시한 플로우챠트이다.
도 5는 도 1 전자 디바이스가 착용된 상태를 도시한 도면이다.
도 6은 도 4 플로우챠트의 제2 방식으로 표시하는 단계를 구체적으로 도시한 플로우챠트이다.
도 7은 도 1 전자 디바이스 표시상태의 일 실시예를 도시한 도면이다.
도 8 내지 도 10은 도 1 전자 디바이스 표시상태의 다른 실시예를 도시한 도면이다.
도 11은 도 1 전자 디바이스의 또 다른 실시예를 도시한 도면이다.
도 12 및 도 13은 도 1 전자 디바이스의 일 실시예에 따른 조작방법을 도시한 도면이다.
도 14 내지 도 18은 도 1 전자 디바이스의 다른 실시예에 따른 조작방법을 도시한 도면이다.
도 19는 도 4 전자 디바이스의 현 상태를 감지하는 과정을 구체적으로 도시한 플로우챠트이다.
도 20은 도 1 전자 디바이스의 현 상태를 감지하는 방법들을 나열한 도면이다.
도 21 및 도 22는 도 1 전자 디바이스의 센서를 사용한 감지 방법을 도시한 도면이다.
도 23은 도 1 전자 디바이스의 카메라를 사용한 감지 방법을 도시한 도면이다.
도 24는 도 1 전자 디바이스의 안경테의 상태에 따른 감지 방법을 도시한 도면이다.
도 25는 도 1 전자 디바이스의 시간에 따른 감지 방법을 도시한 도면이다.
도 26은 도 1 전자 디바이스의 충전에 따른 감지 방법을 도시한 도면이다.1 is a block diagram of an electronic device according to an embodiment of the present invention.
Figure 2 is a perspective view of the electronic device of Figure 1;
Figure 3 is a perspective view in accordance with another embodiment of the electronic device of Figure 1;
FIG. 4 is a flow chart showing an operation process of the electronic device of FIG.
Fig. 5 is a view showing a state in which the electronic device of Fig. 1 is worn.
6 is a flow chart specifically showing the step of displaying in the second scheme of the flowchart of Fig.
FIG. 7 is a diagram showing an embodiment of the electronic device display state of FIG. 1;
Figs. 8 to 10 are views showing another embodiment of the electronic device display state of Fig.
Fig. 11 is a view showing another embodiment of the electronic device of Fig. 1; Fig.
Figs. 12 and 13 are diagrams showing an operation method according to an embodiment of the electronic device of Fig. 1;
Figs. 14 to 18 are diagrams showing an operation method according to another embodiment of the electronic device of Fig. 1;
FIG. 19 is a flow chart specifically illustrating a process of detecting the current state of the electronic device of FIG. 4;
Figure 20 is a diagram listing methods for sensing the current state of the electronic device of Figure 1;
FIGS. 21 and 22 are diagrams illustrating a sensing method using a sensor of the electronic device of FIG.
Fig. 23 is a diagram showing a detection method using the camera of Fig. 1 electronic device. Fig.
Fig. 24 is a diagram showing a sensing method according to the state of the spectacle frame of the electronic device of Fig. 1;
FIG. 25 is a diagram illustrating a time-based sensing method of the electronic device of FIG. 1;
FIG. 26 is a view showing a sensing method according to charging of the electronic device of FIG. 1;
본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통해 보다 분명해질 것이다. 다만, 본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예들을 가질 수 있는 바, 이하에서는 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 원칙적으로 동일한 구성요소들을 나타낸다. 또한, 본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다The above objects, features and advantages of the present invention will become more apparent from the following detailed description taken in conjunction with the accompanying drawings. It is to be understood, however, that the invention is not limited to the disclosed embodiments, but, on the contrary, is intended to cover various modifications and similarities. Like reference numerals designate like elements throughout the specification. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail. Further, numerals (e.g., first, second, etc.) used in the description process of this specification are only an identifier for distinguishing one component from another component
이하, 본 발명과 관련된 이동 단말기에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. Hereinafter, a mobile terminal related to the present invention will be described in detail with reference to the drawings. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role.
본 명세서에서 설명되는 이동 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등이 포함될 수 있다. 그러나, 본 명세서에 기재된 실시예에 따른 구성은 이동 단말기에만 적용 가능한 경우를 제외하면, 디지털 TV, 데스크탑 컴퓨터 등과 같은 고정 단말기에도 적용될 수도 있음을 본 기술분야의 당업자라면 쉽게 알 수 있을 것이다.The mobile terminal described in this specification may include a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a PDA (Personal Digital Assistants), a PMP (Portable Multimedia Player), and navigation. However, it will be understood by those skilled in the art that the configuration according to the embodiments described herein may be applied to a fixed terminal such as a digital TV, a desktop computer, and the like, unless the configuration is applicable only to a mobile terminal.
도 1은 본 발명의 일 실시예에 따른 전자 디바이스의 블록다이어그램(Block Diagram)이고, 도 2는 도 1 전자 디바이스의 사시도이다.FIG. 1 is a block diagram of an electronic device according to an embodiment of the present invention, and FIG. 2 is a perspective view of the electronic device of FIG. 1.
이들 도면에 도시한 바와 같이, 본 발명의 일 실시예에 따른 전자 디바이스(100)는, 제1 카메라(110), 제2 카메라(120), 글라스(130), 마이크(150), 음향 출력부(160), 터치 센서(170), 메모리(180), 무선 통신부(190), 전원부(200) 및 프로젝터(210)를 포함할 수 있다.As shown in these drawings, an
전자 디바이스(100)는, 사용자가 착용할 수 있는 형태의 디바이스일 수 있다. 예를 들어, 사용자가 안경과 같이 착용할 수 있는 디바이스일 수 있다.The
제1 카메라(110)는 외부영상을 촬영하는데 이용될 수 있다. 제 1카메라(110)는 필요시 상하좌우로 일정 각도 회전될 수 있다. 제2 카메라(120)는 전자 디바이스(100)를 착용한 사용자의 눈의 영상을 촬영하는데 이용될 수 있다. 제2 카메라(120)는 필요시 상하좌우로 일정 각도 회전될 수 있다.The
제1 카메라(110)는 사용자의 시각을 넘어서는 범위의 외부영상을 촬영할 수 있다. 즉, 사용자 시각의 범위를 A라고 할때, 제1 카메라(110)를 통해 촬영할 수 있는 범위는 A+a 일 수 있음을 의미한다. 예를 들어, 제1 카메라(110)를 통해서 사용자를 중심으로 한 360도 범위의 영상을 촬영할 수 있다. The
제1 카메라(110)는 복수 개일 수 있다. 예를 들어, 전방, 측방, 후방을 촬영하기에 적절한 개수의 제1 카메라(110)가 전자 디바이스(100)의 각 위치에 자리할 수 있음을 의미한다. The
제1 카메라(110)는 광각 카메라일 수 있다. 즉, 통상의 카메라 보다 큰 각의 영상을 촬영할 수 있는 카메라일 수 있음을 의미한다. 광각 카메라를 적용할 경우, 적은 개수의 제1 카메라(110)로도 사용자 주위의 외부영상을 폭넓게 획득할 수 있다.The
글라스(130)는 일반적인 안경과 같이 실질적으로 투명할 수 있다. 사용자는 글라스(130)를 통해 주위를 관찰할 수 있다. 글라스(130)는 좌안과 우안에 각각 대응되도록 2개 마련되거나, 좌안과 우안 중 하나의 눈에 대응되도록 1개 마련될 수 있다.The
글라스(130)에는 정보 제공을 위한 투명 디스플레이 영역(131)이 위치할 수 있다. 제어부(140)는 투명 디스플레이 영역(131)을 통해 사용자에게 필요한 정보를 디스플레이할 수 있다. 투명 디스플레이 영역(141)은 좌안 및/또는 우안에 대응되도록 두 개 또는 한 개 가 마련될 수 있다.The
제어부(140)는 전자 디바이스(100)의 동작을 전반적으로 제어할 수 있다. 즉, 제어부(140)는 전자 디바이스(100)의 구성 요소들을 전체적으로 제어할 수 있음을 의미한다. 제어부(140)는 제1 카메라(110) 및/또는 제2 카메라(120)를 통해 촬영한 영상에 대한 분석을 수행할 수 있다. 제어부(140)는 사용자가 시선을 주는 전방 객체에 대한 정보 획득 동작을 수행하고, 획득된 정보를 글라스(130)에 마련된 투명 디스플레이 영역(131)을 통하여 제공할 수 있다. 제어부(140)는 제2 카메라(120)에 의하여 촬영된 사용자의 눈의 영상을 분석하고, 분석 결과 인식되는 사용자의 아이 제스처(eye gesture)에 대응되는 특정 기능을 수행할 수 있다.The
마이크(150)는 통화 모드, 녹음 모드 및/또는 음성 인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리할 수 있다. 한편, 마이크(150)에 의하여 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The
음향 출력부(160)는 오디오 데이터를 출력할 수도 있다. 이러한 음향 출력부(160)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다. 음향 출력부(160)는 이어폰 잭(미도시)을 통해 음향을 출력할 수 있다. 사용자는 이어폰 잭에 이어폰을 연결하여 출력되는 음향을 들을 수 있다.The
터치 센서(170)는 특정 부위에 대한 터치에 의하여 가해진 압력 또는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. 터치 센서(170)는 근접 센서로 구현될 수도 있다. 터치 센서(170)를 통한 입력 데이터는 전자 디바이스(100)의 특정 기능을 수행하는데 이용될 수 있다.The
메모리(180)는 제어부(140)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)를 임시 및/또는 항구적으로 저장할 수 있다.The
저장부(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 전자 디바이스(100)는 인터넷(internet)상에서 메모리(180)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The
무선 통신부(190)는 전자 디바이스(100)와 무선 통신 시스템 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(190)는 방송 수신 모듈, 이동통신 모듈, 무선 인터넷 모듈, 근거리 통신 모듈 및 위치 정보 모듈 등을 포함할 수 있다. 다만, 무선 통신부(190)에 포함될 수 있는 무선 통신 관련 모듈의 범위가 이에 한정되는 것은 아니다.The
센싱부(195)는 전자 디바이스(100)의 상태를 감지할 수 있다. 예를 들어, 전자 디바이스(100)를 착용한 사용자가 바라보는 방위, 바라보는 높이, 회전 유무, 전진 또는 후진 유무 등을 감지할 수 있음을 의미한다. 센싱부(195)는 자세감지센서, 지자기센서, 가속도센서 중 적어도 하나의 센서를 포함할 수 있다. 제어부(140)는, 적어도 하나의 센서로부터 감지된 결과값을 통하여 전자 디바이스(100)의 상태 및/또는 전자 디바이스(100)를 착용한 사용자의 현 상태를 감지할 수 있다.The sensing unit 195 may sense the state of the
전원부(200)는 제어부(140)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The
프로젝터(210)는, 이미지를 투사할 수 있다. 예를 들어, 특정 상황에서 콘텐츠를 외부의 투사면(projection surface)으로 프로젝팅(projecting)할 수 있음을 의미한다. 제어부(140)는, 프로젝터(210)와 투명 디스플레이 영역(131) 중 적어도 하나로 영상을 선택적으로 출력할 수 있다. 예를 들어, 전자 디바이스(100)의 착용 상태에서는 투명 디스플레이 영역(131)을 통해 영상을 출력하고, 전자 디바이스(100)의 미착용 상태에서는 프로젝터(210)를 통해 영상을 출력할 수 있음을 의미한다. The
프로젝터(210)는, 제1 프로젝터(212)와 제2 프로젝터(도 7의 214)를 포함할 수 있다. 제1 프로젝터(212)와 제2 프로젝터(도 7의 214)는, 서로 다른 방향으로 이미지를 투사할 수 있다. 예를 들어, 제1 프로젝터(212)는 전자 디바이스(100)의 전면(前面)을 향해 이미지를 투사하고, 제2 프로젝터(도 7의 214)는 전자 디바이스(100)의 후면(後面)을 향해 이미지를 투사할 수 있음을 의미한다. 제1,2 프로젝터(212, 도 7의 214) 중 어느 프로젝터(210)를 사용하여 이미지를 투사할지 여부는, 전자 디바이스(100)의 제어부(140)의 제어신호에 의하여 결정될 수 있다. 예를 들어, 전자 디바이스(100)의 상태에 따라 결정될 수 있음을 의미한다. 프로젝터(210)의 동작에 대해서는, 해당하는 부분에서 구체적으로 설명하도록 한다.The
전자 디바이스(100)는, 몸체(141, Body)와 안경테(161, Frame)로 구분될 수 있다.The
몸체(141)는, 전자 디바이스(100)의 전면(前面)을 구성하는 부분일 수 있다. 몸체(141)에는 카메라(110, 120)와, 글라스(130)와, 투명 디스플레이 영역(131)과, 제어부(140)가 포함될 수 있다.The
투명 디스플레이 영역(131)은, 글라스(130) 각각 또는 일측에 위치할 수 있다. 예를 들어, 제1,2 투명 디스플레이 영역(131a, 131b)가 글라스(130)에 마련될 수 있음을 의미한다.The
안경테(161)는, 몸체(141)에 결합되어 있을 수 있다. 안경테(161)는 힌지(171)를 중심으로 회동할 수 있다. 즉, 힌지(171)를 중심으로 안경테(161)가 시계방향 내지 반시계방향으로 회동할 수 있음을 의미한다. 따라서 제1,2 안경테(161a, 161b) 중 적어도 하나는 반시계 방향으로 회전하여 몸체(141) 내측 방향으로 접히거나, 시계 방향으로 회전하여 몸체(141)의 외측 방향으로 접힐 수 있다.The
도 3은 도 1 전자 디바이스의 다른 실시예에 따른 사시도이다.Figure 3 is a perspective view in accordance with another embodiment of the electronic device of Figure 1;
이에 도시한 바와 같이, 본 발명의 다른 실시예에 따른 전자 디바이스(100)는, 다른 형태로 구성될 수 있다.As shown therein, the
전자 디바이스(100)는, 글라스(도 2의 130)를 포함하지 않을 수 있다. 예를 들어, 몸체(141)와 안경테(161)를 포함하여 안경형태이긴 하지만 몸체(141)에 글라스(도 2의 130)가 결합되지 않은 형태일 수 있음을 의미한다.The
전자 디바이스(100)는, 프로젝터(210)를 통해 이미지를 사용자가 인식가능하도록 투영할 수 있다. 예를 들어, 전자 디바이스(100)가 착용된 상태에서 프로젝터(210)가 직접 사용자의 안구로 영상을 투사할 수 있음을 의미한다. 따라서 글라스(도 2의 130) 내지 투명 디스플레이 영역(도 2의 131)이 필요하지 않을 수 있다. 글라스(도 2의 130)가 존재하지 않음으로 인하여, 전자 디바이스(100)를 보다 자연스럽게 착용할 수 있다.The
도 4는 도 1 전자 디바이스의 동작과정을 도시한 플로우챠트이다.FIG. 4 is a flow chart showing an operation process of the electronic device of FIG.
이에 도시한 바와 같이, 본 발명의 일 실시예에 따른 전자 디바이스(100)의 제어부(140)는, 전자 디바이스(100)의 현 상태를 감지하는 단계(S10)를 진행할 수 있다.As shown, the
전자 디바이스(100)는 다양한 상태에 있을 수 있다. 다양한 전자 디바이스(100)의 상태 중에서, 전자 디바이스(100)가 착용된 상태를 제1 상태, 전자 디바이스(100)가 착용되지 않은 상태를 제2 상태로 정의할 수 있다.The
전자 디바이스(100)의 현 상태는, 센서부(170)를 통해 감지될 수 있다. 예를 들어, 전자 디바이스(100)와 사용자의 코가 접촉되는 지점의 감지센서, 전자 디바이스(100)의 안경테(161)와 사용자의 머리가 접촉되는 지점의 감지센서 등을 통해 전자 디바이스(100)의 착용여부가 감지될 수 있음을 의미한다.The current state of the
전자 디바이스(100)의 현 상태는, 동작센서를 통해 감지될 수 있다. 예를 들어, 전자 디바이스(100)가 착용된 경우라면, 가속도센서 및/또는 지자기센서를 통해서 전자 디바이스(100)가 움직이고 있다는 점이 감지될 수 있음을 의미한다.The current state of the
전자 디바이스(100)의 현 상태에 대한 감지는, 안경테(161)의 상태에 대한 감지를 포함할 수 있다. 예를 들어, 제1,2 안경테(161a, 161b) 중 적어도 하나가 펼쳐져 있거나 접혀져 있는 상태를 감지할 수 있음을 의미한다. 안경테(161)의 상태는, 안경테(161)와 몸체(141) 사이에 위치한 힌지에 위치한 위치감지 센서를 통해 감지될 수 있다.Detection of the current state of the
전자 디바이스(100)의 현 상태는, 제1,2 카메라(110, 120) 중 적어도 하나를 통해 감지될 수 있다. 예를 들어, 촬영된 영상을 분석하여, 사용자의 착용여부를 판단할 수 있음을 의미한다. The current state of the
제어부(140)는 전자 디바이스(100)가 착용 중인가 여부를 판단(S20)하여, 착용 중인 경우라면 콘텐츠를 제1 방식으로 표시하는 단계(S30)를 진행할 수 있다.The
제1 방식의 표시는, 착용된 상태에 최적화된 형태의 표시 방법일 수 있다. 예를 들어, 글라스(130)의 제1,2 투명 디스플레이 영역(131a, 131b)을 통해 콘텐츠를 표시하거나 프로젝터(210)를 통해 사용자의 안구로 직접 콘텐츠를 투사하는 방식의 표시를 의미한다.The display of the first scheme may be a display scheme of a form optimized for the worn state. For example, display of contents through the first and second
제어부(140)는 전자 디바이스(100)가 착용 중인가 여부를 판단(S20)하여, 착용 중인 아닌 경우라면 콘텐츠를 제2 방식으로 표시하는 단계(S40)를 진행할 수 있다.The
제2 방식의 표시는, 미착용 상태에 최적화된 형태의 표시 방법일 수 있다. 즉, 콘텐츠를 글라스(130)에 표시하거나 사용자 안구로 직접 표시하는 방식이 아닌 경우를 의미할 수 있다. The display of the second scheme may be a display method of a form optimized for the non-application state. That is, it may mean that the content is not displayed on the
전자 디바이스(100)를 착용하지 않은 상태라면, 통상적으로 전자 디바이스(100)는 바닥면에 내려져 있을 수 있다. 바닥면에 내려져있는 경우라면, 콘텐츠를 글라스(130)에 표시하더라도 사용자가 표시된 콘텐츠를 식별하기 곤란할 수 있다. 따라서 제어부(140)는, 제2 상태에서는 사용자가 식별하기 편리하도록 콘텐츠의 표시방식을 변경할 수 있다.If the
도 5는 도 1 전자 디바이스가 착용된 상태를 도시한 도면이다.Fig. 5 is a view showing a state in which the electronic device of Fig. 1 is worn.
이에 도시한 바와 같이, 본 발명의 일 실시예에 따른 전자 디바이스(100)는, 사용자(U)의 얼굴에 착용될 수 있다. 사용자(U)의 얼굴에 착용되면, 몸체(141)는 사용자(U)의 코에 의하여 지지되고, 제1,2 안경테(161a, 161b)는 사용자의 양쪽 귀에 의하여 지지될 수 있다. As shown, the
사용자(U)는, 글라스(130) 및 투명 디스플레이 영역(131)을 통해 외부를 관찰할 수 있다. 예를 들어, 글라스(130)를 통해 바라보는 외부 사물에 투명 디스플레이 영역(131)을 통해 표시되는 정보가 증강현실(Augment Reality) 형식으로 표시될 수 있음을 의미한다.The user U can observe the outside through the
도 6은 도 4 플로우챠트의 제2 방식으로 표시하는 단계를 구체적으로 도시한 플로우챠트이다.6 is a flow chart specifically showing the step of displaying in the second scheme of the flowchart of Fig.
이에 도시한 바와 같이, 본 발명의 일 실시예에 따른 전자 디바이스(100)의 제어부(140)는, 다양한 조건을 고려하여 콘텐츠를 제2 방식으로 표시할 수 있다. 본 발명의 일 실시예에 따른 전자 디바이스(100)는, 전자 디바이스(100)가 착용되지 않은 상태에서는 프로젝터(210)를 사용하여 콘텐츠를 투사하는 방식으로 표시할 수 있다. 즉, 사용자가 식별하기 좋도록 콘텐츠를 바닥면 등에 투사할 수 있음을 의미한다. 바닥면 등의 상황을 반영하여 영상을 조절함으로 인하여, 투사된 영상이 사용자에게 적절히 전달될 수 있다.As shown, the
제어부(140)는, 전자 디바이스(100)가 놓여진 장소에 따라 콘텐츠를 표시(S42)할 수 있다.The
전자 디바이스(100)가 놓여진 장소는 다양할 수 있다. 예를 들어, 놓여진 장소의 재질, 색상 등이 다앙할 수 있음을 의미한다. The location of the
바닥면의 상태는, 센서부(170) 및/또는 카메라(110, 120)를 통해 감지될 수 있다. 예를 들어, 카메라(110, 120)를 통해 촬영한 바닥면의 영상을 분석하여, 바닥면의 상태를 감지할 수 있음을 의미한다.The state of the bottom surface can be sensed through the
제어부(140)는, 바닥면의 재질이 거친 경우보다 미끈하여 투사된 영상의 식별이 용이한 경우에는, 좀더 많은 정보를 표시할 수 있다. 예를 들어, 제어부(140)는, 바닥면이 재질이 영상의 투사에 적절한 경우에는 좀 더 작은 폰트의 사용이 가능할 수 있다. 제어부(140)는, 바닥면의 재질이 영상의 투사에 적절한 경우에는 좀 더 다양한 색상을 사용할 수 있다.The
제어부(140)는, 바닥면의 색상이 밝은 경우에는 영상을 좀더 밝게 투사할 수 있다. 제어부(140)는, 바닥면의 색상이 어두운 경우에는 영상을 상대적으로 어둡게 투사할 수 있다.If the color of the bottom surface is bright, the
제어부(140)는, 전자 디바이스(100)가 놓여진 방향에 따라 콘텐츠를 표시(S44)할 수 있다.The
전자 디바이스(100)는, 전면(前面) 또는 후면(後面)이 사용자를 향하도록 놓여질 수 있다. 또는, 전자 디바이스(100)는, 하측면이 바닥면에 접하거나 상측면이 바닥면에 접하도록 놓여질 수 있다. 제어부(140)는, 센서부(170) 및/또는 카메라(110, 120)에서 감지한 결과에 기초하여 전자 디바이스(100)가 놓여진 방향을 판단할 수 있다. 제어부(140)는, 놓여진 방향에 따라 최적화된 영상이 표시되도록 할 수 있다.The
제어부(140)는, 전자 디바이스(100)에 대한 제스쳐에 따라 콘텐츠를 표시(S46)할 수 있다.The
사용자는, 전자 디바이스(100)의 카메라(110, 120) 앞에서 특정 제스쳐를 취하거나 전자 디바이스(100)의 특정 부위에 직접 접촉하는 특정 제스쳐를 취할 수 있다. 제어부(140)는, 전자 디바이스(100)에 대한 직/간접적인 제스쳐에 대응하여 콘텐츠를 표시하는 방식 등을 변경할 수 있다.A user may take a specific gesture in front of the
제어부(140)는, 전자 디바이스(100)가 표시할 콘텐츠의 종류에 따라 콘텐츠를 다르게 표시(S48)할 수 있다.The
전자 디바이스(100)를 통해 표시될 콘텐츠는 다양할 수 있다. 예를 들어, 전자 디바이스(100)를 통하여 수신한 메시지, 수신한 콜(call), 각종 텍스트, 각종 동영상 등을 다양하게 표시할 수 있다. 전자 디바이스(100)를 통해 표시될 콘텐츠는, 그 콘텐츠의 속성 등에 따라 다른 방식으로 표시될 수 있다. 즉, 특정 콘텐츠에 최적화된 방식으로 콘텐츠를 표시할 수 있음을 의미한다.The content to be displayed through the
도 7은 도 1 전자 디바이스 표시상태의 일 실시예를 도시한 도면이다.FIG. 7 is a diagram showing an embodiment of the electronic device display state of FIG. 1;
이에 도시한 바와 같이, 본 발명의 일 실시예에 따른 전자 디바이스(100)는, 전자 디바이스(100)가 놓여진 방향에 따라 다른 방식으로 콘텐츠(DF)를 표시할 수 있다.As shown, the
도 7의 (a)에 도시한 바와 같이, 전자 디바이스(100)는, 전자 디바이스(100)가 착용되지 않은 제2 상태에서 전자 디바이스(100)의 몸체 하측부(172) 및/또는 안경테 하측부(174)가 바닥면에 접촉된 상태일 수 있다.7A, the
전자 디바이스(100)에는 위치센서 및/또는 지자기센서가 마련되어 있을 수 있다. 전자 디바이스(100)의 제어부(140)는, 위치센서 및/또는 지자기센서를 통하여 전자 디바이스(100)가 놓여진 상태를 감지할 수 있다.The
전자 디바이스(100)의 몸체 하측부(172) 및/또는 안경테 하측부(174)에는 압력센서가 위치할 수 있다. 즉, 압력센서를 통하여 전자 디바이스(100)의 몸체 하측부(172) 및/또는 안경테 하측부(174)가 바닥면에 접촉된 상태임을 감지할 수 있다.A pressure sensor may be located on the
제어부(140)는, 사용자의 방향에 대응되도록 콘텐츠(DF)를 표시할 수 있다. 예를 들어, 사용자의 위치는 카메라(110, 120)를 통하여 촬영한 영상에 대한 분석 등을 통하여 감지할 수 있다. 사용자의 위치가 감지되면, 제어부(140)는 프로젝터(210)를 사용하여 투사면(DA)에 콘텐츠(DF)를 프로젝팅할 수 있다. 예를 들어, 사용자가 위치한 방향에 대응된 제2 프로젝터(214)를 사용하여 콘텐츠(DF)를 표시할 수 있음을 의미한다.The
도 7의 (b)에 도시한 바와 같이, 전자 디바이스(100)는, 전자 디바이스(100)가 착용되지 않은 제2 상태에서 전자 디바이스(100)의 몸체 상측부(178) 및/또는 안경테 상측부(176)가 바닥면에 접촉된 상태일 수 있다.7 (b), the
제어부(140)는, 콘텐츠(DF)를 표시할 방향을 결정할 수 있다. 예를 들어, 카메라(110, 120) 등을 사용하여 전자 디바이스(100)의 전면(前面) 방향과 후면(後面) 방향 중 콘텐츠(DF)를 표시하기에 적절한 방향을 결정할 수 있음을 의미한다. The
제어부(140)는, 방향을 결정하면 사용자가 바라보는 방향에서 콘텐츠(DF)가 바르게 표시되도록 할 수 있다. 즉, 사용자가 바라보는 방향과 콘텐츠(DF)의 상하방향이 상호 얼라인(align)되도록 콘텐츠(DF)를 표시할 수 있음을 의미한다. 따라서 전자 디바이스(100)가 놓여진 방향에 관계없이, 사용자가 바라보는 콘텐츠의 지향방향(orientation)은 동일할 수 있다. 즉, 제어부(140)는, 전자 디바이스(100)가 놓여진 방향에 관계없이 사용자의 시선방향에 대하여 콘텐츠의 지향방향이 일정하도록 콘텐츠를 영사할 수 있음을 의미한다.When the direction is determined, the
도 8 내지 도 10은 도 1 전자디바이스 표시상태의 다른 실시예를 도시한 도면이다.Figs. 8 to 10 are views showing another embodiment of the electronic device display state of Fig.
이들 도면에 도시한 바와 같이, 본 발명의 다른 실시예에 따른 전자 디바이스(100)의 제어부(140)는, 바닥면(G)의 색상 및/또는 재질 등 상태에 따라 콘텐츠(DF)의 표시상태를 변경할 수 있다.As shown in these drawings, the
도 8의 (a)에 도시한 바와 같이, 전자 디바이스(100)가 놓여진 바닥면(G)의 색상이 다양한 상태일 수 있다. 따라서 다양한 바닥면(G)의 색상을 고려하지 않는 경우에는 콘텐츠(DF)의 특정 부위는 식별이 용이하지만 다른 부위는 식별이 쉽지 않은 상황이 발생할 수 있다.As shown in Fig. 8 (a), the color of the floor G on which the
도 8의 (b)에 도시한 바와 같이, 제어부(140)는 바닥면(G)의 상태에 따라 콘텐츠(DF)를 표시하는 방식을 변경할 수 있다. 예를 들어, 바닥면(G) 색상이 다양한 경우라면 어두운 색 또는 밝은 색을 기준으로 콘텐츠(DF)의 밝기 및/또는 색상을 보정하여 표시할 수 있음을 의미한다. 색상을 보정하는 경우, 표시된 콘텐츠(DF)에 대한 식별력이 높아질 수 있다.The
도 9의 (a)에 도시한 바와 같이, 바닥면(G)이 영상을 투사하기에 적절한 상태일 수 있다. 예를 들어, 바닥면(G)이 매끈한 재질이어서 투사된 영상의 식별이 용이한 상태일 수 있음을 의미한다. 영상의 식별이 용이한 바닥면(G)의 상태인 경우에 제어부(140)는, 콘텐츠(DF)를 자세히 표시할 수 있다.As shown in Fig. 9A, the bottom surface G may be in a state suitable for projecting an image. For example, the bottom surface G is a smooth material, which means that the projected image can be easily identified. The
도 9의 (b)에 도시한 바와 같이, 바닥면(G)이 영상을 투사하기에 적절하지 못한 상태일 수 있다. 바닥면이 고르지 않는 등 바닥면(G)에 콘텐츠(DF)를 표시하기 적당하지 않은 경우에, 제어부(140)는 콘텐츠(DF)의 표시상태를 변경할 수 있다. 예를 들어, 콘텐츠(DF)의 폰트를 크게 하는 동작, 콘텐츠 중 중요도가 낮은 정보는 삭제하여 정보의 양 및/또는 종류를 조절하는 동작, 배색을 단순화 하는 동작 중 적어도 하나의 동작을 수행할 수 있음을 의미한다. 동일한 정보의 경우에도 바닥면(G)의 상태에 따라서 다르게 콘텐츠(DF)를 표시함으로써, 콘텐츠(DF)에 대한 사용자의 식별력을 높일 수 있다.As shown in Fig. 9 (b), the bottom surface G may not be suitable for projecting an image. The
도 10에 도시한 바와 같이, 제어부(140)는 바닥면(G)의 밝기에 따라 적절한 방식으로 콘텐츠(DF)를 표시할 수 있다.10, the
도 10의 (a)에 도시한 바와 같이, 바닥면(G)은 밝은 색상일 수 있다. 바닥면(G)이 밝은 색상인 경우에, 제어부(140)는 다양한 명암 및/또는 색상을 사용하여 콘텐츠(DF)를 표시할 수 있다.As shown in Fig. 10 (a), the bottom surface G may be a bright color. When the bottom surface G is a light color, the
도 10의 (b)에 도시한 바와 같이, 바닥면(G)이 어두운 색상일 수 있다. 바닥면(G)이 어두운 색상인 경우에, 제어부(140)는 간단한 명암 및/또는 색상을 사용하여 콘텐츠(DF)를 표시할 수 있다. 따라서 콘텐츠(DF)에 대한 사용자의 식별력이 높아질 수 있다.As shown in Fig. 10 (b), the bottom surface G may be dark in color. When the bottom surface G is dark color, the
도 11은 도 1 전자디바이스의 또 다른 실시예를 도시한 도면이다.Fig. 11 is a view showing another embodiment of the electronic device of Fig. 1; Fig.
도 11은 도 1 전자 디바이스의 일 실시예에 따른 동작을 도시한 도면이다.FIG. 11 is a diagram illustrating an operation according to an embodiment of the electronic device of FIG. 1;
이에 도시한 바와 같이, 본 발명의 일 실시예에 따른 전자 디바이스(100)는, 안경테(161)의 상태에 따라서 글래스(130)의 표시를 변경할 수 있다.The
도 11의 (a)에 도시한 바와 같이, 안경테(161)는 펼쳐진 상태에 있을 수 있다. 즉, 제1,2 안경테(161a, 161b)가 모두 몸체(141)에 대해 약 90도 방향으로 위치하고 있음을 의미한다. 제1,2 안경테(161a, 161b)가 모두 펼쳐진 상태에 있을 때, 제어부(140)는 사용자가 글래스(130)를 사용하고 있다고 판단할 수 있다. 따라서 제어부(140)는, 글래스(130)를 활성화 할 수 있다. 예를 들어, 투명 디스플레이 영역(131)을 통해 영상을 표시할 수 있음을 의미한다.As shown in Fig. 11 (a), the
도 11의 (b)에 도시한 바와 같이, 안경테(161) 중 하나가 접혀진 상태에 있을 수 있다. 예를 들어, 제1 안경테(161a)가 몸체(141)의 방향으로 접혀있는 상태에 있고, 제2 안경테(161b)는 몸체(141)에 대해 약 90 방향으로 펼쳐진 상태에 있을 수 있음을 의미한다. 제1 안경테(161a)가 접혀있다는 점을 고려하여, 제어부(140)는 제1 안경테(161a)에 대응된 글래스(130)를 비활성화할 수 있다. 예를 들어, 제1 안경테(161a) 쪽의 제1 투명 디스플레이 영역(131a)을 비활성화할 수 있음을 의미한다.As shown in Fig. 11 (b), one of the spectacle frames 161 may be in a folded state. For example, it means that the
도 11의 (c)에 도시한 바와 같이, 제2 안경테(161b)가 접혀진 상태가 되면, 제어부(140)는 그에 대응된 제2 안경테(161b)를 비활성화 할 수 있다.As shown in Fig. 11 (c), when the
도 11의 (d)에 도시한 바와 같이, 제1,2 안경테(161a, 161b)가 모두 접혀진 상태에 있으면, 제어부(140)는 글래스(130) 전체를 비활성화 할 수 있다. 즉, 안경테(161)가 모두 접혀지면, 제어부(140)는 사용자가 더 이상 전자 디바이스(100)를 사용할 의사가 없는 것으로 판단할 수 있다. 따라서 안경테(161)가 모두 접혀진 순간 또는 안경테(161)가 접혀지고 일정 시간이 경과한 순간부터 글래스(130)를 비활성화 할 수 있다. 예를 들어, 투면 디스플레이 영역(131)을 통한 영상의 표시를 중단할 수 있음을 의미한다.As shown in FIG. 11 (d), when all of the first and second eyeglass frames 161a and 161b are folded, the
도 12 및 도 13은 도 1 전자디바이스의 일 실시예에 따른 조작방법을 도시한 도면이다.Figs. 12 and 13 are diagrams showing an operation method according to an embodiment of the electronic device of Fig. 1;
이들 도면에 도시한 바와 같이, 본 발명의 일 실시예에 따른 전자 디바이스(100)는 사용자의 제스쳐에 대응하여 표시영역(DA)을 조절할 수 있다.As shown in these drawings, the
도 12의 (a)에 도시한 바와 같이, 표시영역(DA)은 단일한 영역일 수 있다. 콘텐츠는, 단일한 표시영역(DA) 전체에 걸쳐 표시될 수 있다.As shown in Fig. 12 (a), the display area DA may be a single area. The content can be displayed over a single display area DA.
제어부(140)는, 사용자로부터 특정한 제스쳐를 입력받을 수 있다. 예를 들어, 특정 글래스(130)인 제2 글래스(130b)를 터치하거나 터치한 상태에서 일정한 방향으로 이동하는 제스쳐 동작을 입력받을 수 있음을 의미한다.The
도 12의 (b)에 도시한 바와 같이, 사용자로부터 특정한 제스쳐를 입력받으면, 제어부(140)는 표시영역(DA)을 분할할 수 있다. 예를 들어, 제1 글라스(130a) 측에 대응된 제1 표시영역(DA1)과 제2 글라스(130b) 측에 대응된 제2 표시영역(DA2)으로 분할할 수 있음을 의미한다. 즉, 제어부(140)는, 콘텐츠의 속성 및/또는 사용자 입력에 따라 콘텐츠가 표시될 표시영역(DA)의 넓이 및/또는 개수를 변경할 수 있음을 의미한다.As shown in FIG. 12 (b), when a specific gesture is input from the user, the
도 13의 (a)에 도시한 바와 같이, 제어부(140)는 사용자로부터 또 다른 제스쳐를 입력받을 수 있다. 예를 들어, 제1 글래스(130a)를 터치하거나 터치한 상태에서 일정한 방향으로 이동하는 제스쳐 동작을 입력받을 수 있음을 의미한다.13 (a), the
도 13의 (b)에 도시한 바와 같이, 제어부(140)는 사용자의 터치입력에 대응하여 분할되었던 표시영역(DA)을 하나로 병합할 수 있다.As shown in FIG. 13 (b), the
도 14 내지 도 18은 도 1 전자디바이스의 다른 실시예에 따른 조작방법을 도시한 도면이다.Figs. 14 to 18 are diagrams showing an operation method according to another embodiment of the electronic device of Fig. 1;
이들 도면에 도시한 바와 같이, 본 발명의 일 실시예에 따른 전자 디바이스(100)는, 다양한 상황에서 효과적으로 콘텐츠를 투사영역에 표시할 수 있다.As shown in these figures, the
도 14의 (a)에 도시한 바와 같이, 전자 디바이스(100)가 착용되지 않은 제2 상태에서 새로운 메시지가 수신되는 상황이 발생할 수 있다. 제어부(140)는, 전자 디바이스(100)가 제2 상태에 있다는 점을 감지하면, 메시지가 수신되었다는 사실을 표시영역(DA)에 디스플레이할 수 있다. 즉, 사용자가 전자 디바이스(100)로부터 일정 거리 이격된 상태에 있을 것을 예상하여, 글라스(130)가 아닌 바닥면에 표시함으로써 식별력을 높일 수 있음을 의미한다. A situation may occur in which a new message is received in a second state in which the
제어부(140)는 메시지가 수신되었다는 사실을, 문자 및/또는 문자아이콘(I1)으로 표시할 수 있다. 제어부(140)는, 사용자로부터 별도의 조작이 없으면 문자가 수신된 시각부터 일정 시간 문자 및/또는 문자아이콘(I1)을 표시한 후 표시영역(DA)의 디스플레이를 중단할 수 있다.The
도 14의 (b)에 도시한 바와 같이, 제2 상태에서 콜(call)이 추가로 수신될 수 있다. 제어부(140)는 콜이 수신되었다는 사실을, 문자 및/또는 콜아이콘(I2)으로 표시할 수 있다.As shown in FIG. 14 (b), a call can be additionally received in the second state. The
도 15의 (a)에 도시한 바와 같이, 사용자는 손가락(F) 등으로 전자 디바이스(100)에 일정한 제스쳐 동작을 수행할 수 있다. 예를 들어, 전자 디바이스(100)의 글라스(130)를 터치하는 제스쳐 동작을 수행할 수 있음을 의미한다. As shown in Fig. 15 (a), the user can perform a constant gesture operation on the
제어부(140)는, 사용자의 제스쳐 동작이 수행되면 비활성화되었던 표시영역(DA)을 다시 활성화할 수 있다. 즉, 프로젝터(210)를 사용한 영상의 투사를 다시 개시할 수 있음을 의미한다.The
도 15의 (b)에 도시한 바와 같이, 사용자로부터 특정 제스쳐 입력을 받으면, 제어부(140)는 수신되었으나 사용자가 확인하지 않은 이벤트를 순차적으로 표시할 수 있다. 예를 들어, 분할된 표시영역(DA) 중 일 영역에 확인하지 못한 콜이 있음을 콜아이콘(I2) 등으로 표시할 수 있음을 의미한다.As shown in (b) of FIG. 15, when receiving a specific gesture input from the user, the
도 16의 (a)에 도시한 바와 같이, 사용자는 손가락(F) 등으로 전자 디바이스(100)에 일정한 제스쳐를 수행할 수 있다. 예를 들어, 전자 디바이스(100)의 안경테 부분을 터치하는 동작을 수행할 수 있음을 의미한다.As shown in Fig. 16A, the user can perform a constant gesture on the
도 16의 (b)에 도시한 바와 같이, 사용자의 터치동작에 대응하여 제어부(140)는, 사용자가 확인하지 못한 다른 이벤트에 대한 내용을 표시할 수 있다. 예를 들어, 메시지아이콘(I1) 및/또는 문자를 표시할 수 있음을 의미한다.As shown in FIG. 16B, in response to the user's touch operation, the
도 17의 (a)에 도시한 바와 같이, 전자 디바이스(100)가 제2 상태에 있을 때 메시지가 수신될 수 있다. 제어부(140)는, 메시지 수신 이벤트가 발생하였음을 메시지아이콘(I1) 등으로 표시할 수 있다. As shown in Fig. 17 (a), a message can be received when the
도 17의 (b)에 도시한 바와 같이, 메시지아이콘(I1)의 수신 등 특정 이벤트가 발생한 경우에, 사용자는 전자 디바이스(100)를 착용한 후 이후의 동작을 수행하고자 할 수 있다. 이와 같은 경우에, 사용자는 안경테(161)를 잡아 착용할 수 있다. 예를 들어, 제1,2 터치지점(TP1, TP2)을 파지하여 전자 디바이스(100)를 착용할 수 있음을 의미한다. As shown in FIG. 17 (b), when a specific event such as reception of the message icon I1 occurs, the user may want to perform the subsequent operation after wearing the
제1,2 터치지점(TP1, TP2) 중 적어도 한 부분을 파지하여 전자 디바이스(100)를 착용한 제1 상태가 되면, 제어부(140)는 글래스(130)에 관련 내용을 표시할 수 있다. 즉, 콘텐츠를 제2 상태와 다른 방식으로 표시할 수 있음을 의미한다. 사용자가 제1,2 터치지점(TP1, TP2) 중 적어도 한 부분을 터치하거나 제1 상태로 전환이 완료되면, 제어부(140)는 프로젝터(210)를 사용한 콘텐츠의 표시를 중단할 수 있다.The
제어부(180)는, 제1,2 터치지점(TP1, TP2) 중 적어도 한 부분에 대한 터치가 있으면, 전자 디바이스(100)의 상태가 변경된 것으로 판단할 수 있다. 예를 들어, 전자 디바이스(100)를 착용하지 않은 상태였으나, 제1,2 터치치점(TP1, TP2) 중 적어도 한 부분이 터치되면 착용한 제1 상태로 변경되었다고 판단할 수 있음을 의미한다. 터치지점은, 도시한 제1,2 터치지점(TP1, TP2) 외의 부분일 수도 있다. 예를 들어, 전자 디바이스(100)의 전면 측 내지는 후면 측에 대한 터치입력을 획득할 수 있음을 의미한다. The
제어부(180)는, 획득한 다른 신호와 터치신호를 결합하여 전자 디바이스(100)의 상태를 판단할 수 있다. 예를 들어, 제1,2 터치지점(TP1, TP2) 중 적어도 한 부분에 대한 터치가 이루어진 후 전자 디바이스(100)를 들어올리는 동작이 모션센서에 의하여 감지되면, 전자 디바이스(100)의 상태가 변경된 것으로 판단할 수 있음을 의미한다. The
제어부(180)는, 터치된 지점에 따라서 다른 동작을 수행할 수 있다. 예를 들어, 제1 터치지점(TP1)이 터치되면 제 1 터치지점(TP1)에 가까운 디스플레이에 이미지를 표시하고, 제2 터치지점(TP2)이 터치되면 제2 터치지점(TP2)에 가까운 디스플레이에 이미지를 표시할 수 있음을 의미한다. 터치 위치에 대응된 동작은, 전자 디바이스(100)가 착용된 것으로 판단된 경우에도 유사하게 적용될 수 있다. The
도 18의 (a)에 도시한 바와 같이, 전자 디바이스(100)에는 사용자가 확인하지 않은 복수의 이벤트가 대기 중일 수 있다. 예를 들어, 미확인 메시지 이벤트와 미수신 콜 이벤트가 존재할 수 있음을 의미한다. 복수의 이벤트가 존재함은, 메시지아이콘(I1)과 콜아이콘(I2) 등으로 표시될 수 있다.As shown in Fig. 18 (a), the
도 18의 (b)에 도시한 바와 같이, 사용자는 확인하고 싶은 이벤트에 따라서 제1,2 터치지점(TP1, TP2) 중 어느 한쪽을 터치할 수 있다. 예를 들어, 제1 터치지점(TP1)을 터치하면, 제어부(140)는 제1 터치지점(TP1) 측의 콜아이콘(I2)과 관련된 내용을 표시할 수 있다. 제2 터치지점(TP2)를 터치하면, 제어부(140)는 제2 터치지점(TP2) 측의 메시지아이콘(I1)과 관련된 내용을 표시할 수 있다. 즉, 전자 디바이스(100)에 대한 사용자의 터치 동작을 감지하면, 그 터치 동작에 대응된 콘텐츠와 관련된 내용을 표시할 수 있음을 의미한다.As shown in FIG. 18 (b), the user can touch any one of the first and second touch points TP1 and TP2 in accordance with an event to be confirmed. For example, when the first touch point TP1 is touched, the
사용자가 직관적으로 인식할 수 있는 제스쳐 입력에 대응한 동작을 수행함으로써, 전자 디바이스(100)를 보다 편리하게 사용할 수 있다.The
도 19는 도 4 전자 디바이스의 현 상태를 감지하는 과정을 구체적으로 도시한 플로우챠트이고, 도 20은 도 1 전자 디바이스의 현 상태를 감지하는 방법들을 나열한 도면이다.FIG. 19 is a flow chart specifically illustrating a process of detecting the current state of the electronic device of FIG. 4, and FIG. 20 is a diagram illustrating methods of detecting the current state of the electronic device of FIG.
이에 도시한 바와 같이, 전자 디바이스(100)의 현 상태는, 직접 및/또는 간접적으로 획득한 전자 디바이스(100)의 상태정보에 기초하여 판단할 수 있다. As shown, the current state of the
제어부(180)는, 직접 및/또는 간접적인 수단을 통해 상태를 감지하는 단계(S12)를 진행할 수 있다.The
전자 디바이스(100)는, 다양한 상태에 있을 수 있다. 예를 들어, 사용자가 전자 디바이스(100)를 착용한 상태와, 전자 디바이스(100)를 착용하지 않은 상태 중 어느 하나에 있을 수 있다. 본 발명의 일 실시예에 따른 전자 디바이스(100)는, 안경과 같이 사용자의 얼굴에 착용하는 장치일 수 있다. 따라서 전자 디바이스(100)를 착용한 상태라 함은, 전자 디바이스(100)를 구성하는 프레임인 안경테(161)를 펼쳐 사용자의 얼굴 부분에 결합된 상태일 수 있다. 전자 디바이스(100)를 착용하지 않은 상태라 함은, 사용자의 얼굴이 아닌 바닥면 내지는 사용자의 손에 파지된 상태 등을 포함할 수 있다.The
전자 디바이스(100)의 상태는, 직접 및/또는 간접적인 방법을 통해 감지될 수 있다. 전자 디바이스(100)의 상태를 감지할 수 있는 직접 및/또는 간접적인 방법은, 도 20에 도시한 바와 같다.The state of the
직접적인 방법은, 센서를 통하여 상태를 감지하는 방법일 수 있다. 예를 들어, 착용센서, 카메라, 안경테의 상태 등을 통해 사용자의 착용상태를 직접적으로 감지할 수 있음을 의미한다. 직접감지 장치로부터 획득한 정보는 제1 정보일 수 있다. 직접적인 방법은 상대적으로 정확한 방법일 수 있으나, 센서류의 부착에 따라 상대적으로 비용의 상승이 발생할 수 있다.The direct method may be a method of detecting the condition through the sensor. For example, it means that the wearing state of the user can be directly detected through the state of the wearing sensor, the camera, and the spectacle frame. The information obtained from the direct sensing device may be the first information. The direct method can be a relatively accurate method, but the increase in the cost may be caused by the attachment of the sensor.
간접적인 방법은, 센서로 상태를 직접 감지하는 것 이외의 방법일 수 있다. 예를 들어, 사용자가 미리 설정한 시각, 충전의 진행 여부 등 사용자의 착용상태를 간접적으로 추정할 수 있음을 의미한다. 간접감지 장치로부터 획득한 정보는 제2 정보일 수 있다. 직접적인 방법 및 간접적인 방법의 구체적인 내용은, 해당하는 부분에서 설명하도록 한다.An indirect method may be a method other than directly sensing the state with a sensor. For example, it implies that the wearing state of the user, such as the time preset by the user and progress of charging, can be indirectly estimated. The information obtained from the indirect sensing device may be the second information. Specific details of the direct method and the indirect method are explained in the corresponding part.
제어부(180)는, 감지한 정보의 조합을 통해 현 상태를 감지하는 단계(S14)를 진행할 수 있다.The
감지한 정보는, 적어도 하나일 수 있다. 예를 들어, 카메라를 통해 획득한 제1 정보 외에, 충전의 진행을 통해 획득한 제2 정보가 존재할 수 있음을 의미한다.The sensed information may be at least one. For example, in addition to the first information acquired through the camera, the second information acquired through the progress of the charging may exist.
제어부(180)는, 제1 정보와 제2 정보 중 적어도 하나의 정보에 기초하여 전자 디바이스(100)의 착용여부를 판단할 수 있다. 정보를 조합하면, 전자 디바이스(100)의 현 상태를 보다 정확하게 판단하는 근거가 될 수 있다. 즉, 하나의 정보에 기초한 정보보다는 복수의 정보에 기초한 정보가 보다 정확할 수 있음을 의미한다.The
정보를 조합하면, 상대적으로 저렴한 비용으로 전자 디바이스(100)의 현 상태를 감지할 수 있다. 예를 들어, 설치에 따라 비용이 증가는 센서류를 통해 획득한 정보가 아니라, 전자 디바이스(100)에 설치되어 있던 기존 장치를 통해 획득한 정보를 조합하여 판단함으로써, 판단의 신뢰성을 높이는 동시에 제작비용의 증가를 최소화 할 수 있음을 의미한다.By combining the information, the current state of the
도 21 및 도 22는 도 1 전자 디바이스의 센서를 사용한 감지 방법을 도시한 도면이다.FIGS. 21 and 22 are diagrams illustrating a sensing method using a sensor of the electronic device of FIG.
이들 도면에 도시한 바와 같이, 본 발명의 일 실시예에 따른 전자 디바이스(100)는, 전자 디바이스(100)에 설치된 착용센서(210)를 통해 착용여부를 직접적으로 감지할 수 있다.As shown in these drawings, the
도 21에 도시한 바와 같이, 착용센서(210)는, 전자 디바이스(100)의 착용과 함께 사용자의 신체에 접촉되는 부위에 위치할 수 있다. 예를 들어, 사용자의 머리에 직접적으로 접촉하는 다안경테(161)의 다리 끝 부분에 제1 감지센서(212) 및/또는 사용자의 코에 접촉하는 부분에 제2 감지센서(214)가 위치될 수 있다.As shown in Fig. 21, the
제1,2 감지센서(212, 214)는, 착용시 가해지는 압력의 감지 및/또는 사용자 신처에 접촉되는 경우에 발생하는 전자기장 변화의 감지 등의 방법을 통해 착용여부를 직접적으로 감지할 수 있다.The first and
도 22에 도시한 바와 같이, 전자 디바이스(100)에는, 사용자의 움직임을 감지할 수 있는 모션센서로부터 정보를 획득할 수 있다.As shown in Fig. 22, the
모센센서는, 가속도센서 등을 포함할 수 있다. 따라서 사용자의 움직임으로 인해 발생하는 운동량을 감지할 수 있다. 제어부(180)는, 운동량이 0이 되는 t1 내지 t2, t3 내지 t4 사이에서는 전자 디바이스(100)가 착용되지 않고 있는 것으로 판단할 수 있다.The Moessen sensor may include an acceleration sensor or the like. Therefore, it is possible to detect the amount of exercise caused by the movement of the user. The
도 23은 도 1 전자 디바이스의 카메라를 사용한 감지 방법을 도시한 도면이다.Fig. 23 is a diagram showing a detection method using the camera of Fig. 1 electronic device. Fig.
이에 도시한 바와 같이, 본 발명의 일 실시예에 따른 전자 디바이스(100)는, 카메라(110)를 통해 전자 디바이스(100)의 착용 상태를 감지할 수 있다.As shown in the figure, the
카메라(110)는, 전자 디바이스(100)의 착용 상태를 감지할 수 있는 직접감지 장치 중 하나일 수 있다. 즉, 착용여부에 따라 달라지는 영상에 대한 분석을 통해, 착용여부를 판단할 수 있는 제1 정보를 생산하는 장치일 수 있음을 의미한다.The
사용자가 착용한 경우에 카메라(110)를 통해 촬영된 제1 영상(VA1)과, 전자 디바이스(100)가 바닥면에 놓여진 경우에 카메라(110)를 통해 촬영된 제2 영상(VA2)은 서로 다를 수 있다. 예를 들어, 제2 영상(VA2)는, 일정 시간 이상 동일한 오브젝트가 촬영될 수 있음을 의미한다. 제어부(180)는, 촬영된 영상의 차이에 기초하여 전자 디바이스(100)의 착용여부를 판단할 수 있다.The first image VA1 photographed through the
제어부(180)는, 다른 정보에 기초한 판단에 따라 카메라(110)로 정보의 정확성을 판단할 수 있다. 예를 들어, 모션센서를 통해 획득한 정보에 따를 때 일정 시간 이상 전자 디바이스(100)의 움직임이 감지되지 않는 경우에, 카메라(110)를 통한 영상의 촬영을 시도할 수 있다. 카메라(110)를 통해 촬영한 영상의 결과 역시 촬영된 오브젝트의 변화가 없다면, 제어부(180)는 전자 디바이스(100)가 미착용 상태에 있다고 판단할 수 있다.The
도 24는 도 1 전자 디바이스의 안경테의 상태에 따른 감지 방법을 도시한 도면이다.Fig. 24 is a diagram showing a sensing method according to the state of the spectacle frame of the electronic device of Fig. 1;
이에 도시한 바와 같이, 본 발명의 일 실시예에 따른 전자 디바이스(100)의 제어부(180)는, 안경테(161)의 상태에 기초하여 착용여부를 판단할 수 있다.As shown, the
도 24의 (a)에 도시한 바와 같이, 전자 디바이스(100)의 안경테(161)는 펼쳐진 상태에 있을 수 있다. 또는, 도 24의 (b) 내지 (d)에 도시한 바와 같이, 전자 디바이스(100)의 안경테(161)는 적어도 하나가 접혀진 상태에 있을 수 있다.As shown in Fig. 24 (a), the
제어부(180)는, 안경테(161)의 상태를 감지할 수 있다. 예를 들어, 프레임센서를 통해, 안경테(161)가 펼쳐져 있는지, 접혀져 있는지 여부를 감지할 수 있음을 의미한다.The
제어부(180)는, 안경테(161)의 접여짐 여부에 기초하여 전자 디바이스(100)의 상태를 감지할 수 있다. 예를 들어, 안경테(161) 중 적어도 하나가 접혀진 상태에 있는 경우라면, 제어부(180)는 전자 디바이스(100)가 미착용 상태에 있는 것으로 판단할 수 있다. 그러나 안경테(161)가 모두 펼쳐져 있다는 전자 디바이스(100)가 착용 상태에 있는 것으로 판단할 수 있다.The
도 25는 도 1 전자 디바이스의 시간에 따른 감지 방법을 도시한 도면이다.FIG. 25 is a diagram illustrating a time-based sensing method of the electronic device of FIG. 1;
이에 도시한 바와 같이, 본 발명의 일 실시예에 따른 전자 디바이스(100)는, 사용자 및/또는 제어부(180)의 설정에 따른 시간에 따라서 착용 및 미착용 여부를 판단할 수 있다.As shown in the figure, the
제어부(180)는, 설정된 시각에 따라서 착용 또는 미착용 여부를 판단할 수 있다. 예를 들어, 사용자가 미착용 시간으로 설정한 시간범위 내에서는 전자 디바이스(100)가 착용되지 않는 것으로 추정하고, 사용자가 착용 시간으로 설정한 시간범위 내에서는 전자 디바이스(100)가 착용된 것으로 추정할 수 있음을 의미한다.The
착용 시간 내지 미착용 시간은, 사용자의 설정에 의하여 적용될 수 있다. 즉, 특정 시각에는 전자 디바이스(100)를 착용하지 않는 경향이 있는 사용자라면, 이를 사전에 설정함으로서 전자 디바이스(100)의 배터리를 효율적으로 사용할 수 있다.The wearing time or non-wearing time can be applied by the setting of the user. That is, if the user tends not to wear the
착용 시간 내지 미착용 시간은, 제어부(180)에 의하여 설정될 수 있다. 예를 들어, 제어부(180)는, 모션 센서 등을 통하여 전자 디바이스(100)가 사용되는 시간을 감지할 수 있다. 전자 디바이스(100)가 사용되는 시간을 감지한 제어부(180)는, 그에 대응되도록 전자 디바이스(100)의 착용 시간을 스케쥴링할 수 있다. 제어부(180)는, 스케쥴링 된 시간에 따라서 그 시간 범위 내에서는 착용 또는 미착용을 추정할 수 있다.The wearing time or non-wearing time may be set by the
도 26은 도 1 전자 디바이스의 충전에 따른 감지 방법을 도시한 도면이다.FIG. 26 is a view showing a sensing method according to charging of the electronic device of FIG. 1;
이에 도시한 바와 같이, 본 발명의 일 실시예에 따른 전자 디바이스(100)의 제어부(180)는, 전자 디바이스(100)의 충전 진행 여부에 기초하여 충전 여부를 결정할 수 있다.As shown in the figure, the
전자 디바이스(100)는, 사용 정도에 따라 일정한 주기로 재충전이 필요할 수 있다. 전자 디바이스(100)에 대한 충전은, 별도의 충전장치(300)를 통해 이루어질 수 있다. 예를 들어, 충전장치(300)에서 연장된 충전라인을 전자 디바이스(100)에 연결하는 방식으로 충전이 진행될 수 있음을 의미한다.The
제어부(180)는, 전자 디바이스(100)에 대한 충전이 진행되는 경우에는 전자 디바이스(100)가 착용되지 않은 상태에 있는 것으로 판단할 수 있다. 이와 같은 점은, 전자 디바이스(100)에 대한 사용자의 통상적인 사용태양에 대한 조사에 기초할 수 있다.The
본 발명은 기재된 실시예들에 한정되는 것이 아니고, 본 발명의 사상 및 범위를 벗어나지 않고 다양하게 수정 및 변형할 수 있음은 이 기술의 분야에서 통상의 지식을 가진 자에게 자명하다. 따라서, 그러한 수정예 또는 변형예들은 본 발명의 특허청구범위에 속한다 하여야 할 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit and scope of the invention. Accordingly, such modifications or variations are intended to fall within the scope of the appended claims.
100 : 전자 디바이스
110 : 무선 통신부
140 : 센싱부
151 : 디스플레이부
180 : 제어부100: electronic device 110: wireless communication unit
140: sensing unit 151: display unit
180:
Claims (13)
상기 프레임에 내장되며, 상기 사용자의 착용상태를 직접적으로 감지하는 직접감지 장치로부터 획득한 제1 정보와, 사용자의 착용상태를 간접적으로 감지하는 간접감지 장치로부터 획득한 제2 정보 중 적어도 하나의 정보에 기초하여 상기 디바이스의 착용여부를 판단하는 제어부를 포함하는 것을 특징으로 하는 전자 디바이스. A frame coupled to at least one of the face so that the device can be worn on the user's face; And
At least one of the first information acquired from the direct sensing device directly sensing the wearing state of the user and the second information acquired from the indirect sensing device indirectly sensing the wearing state of the user, And a controller for determining whether the device is worn or not based on the determination result.
상기 제어부는,
상기 제1 정보와 상기 제2 정보 중 적어도 하나를 조합하여 상기 디바이스의 착용여부를 판단하는 것을 특징으로 하는 전자 디바이스.The method according to claim 1,
Wherein,
Wherein the electronic device determines whether the device is worn by combining at least one of the first information and the second information.
상기 제1 정보는,
상기 디바이스의 적어도 일 지점에 설치되어 상기 사용자 신체의 적어도 일 지점에 접촉되는 감지센서, 적어도 하나의 카메라, 상기 프레임의 상태를 감지하는 프레임센서, 상기 디바이스의 움직임을 감지하는 모션센서 중 적어도 하나를 통해 획득한 정보를 포함하는 상태정보인 것을 특징으로 하는 전자 디바이스.The method according to claim 1,
Wherein the first information comprises:
At least one of a sensing sensor installed at at least one point of the device and contacting at least one point of the user's body, a frame sensor sensing the state of the frame, and a motion sensor sensing motion of the device, Lt; RTI ID = 0.0 > 1, < / RTI >
상기 제2 정보는,
기 설정된 상기 디바이스의 착용 또는 미착용 시간범위, 상기 디바이스에 대한 충전 진행 여부 중 적어도 하나를 포함하는 상태정보인 것을 특징으로 하는 전자 디바이스.The method according to claim 1,
Wherein the second information comprises:
Wherein the status information includes at least one of a time range for wearing or not wearing the device, and a charging progress for the device.
디스플레이 기능이 탑재된 적어도 하나의 글라스를 더 포함하며,
상기 제어부는,
상기 디바이스가 미착용 상태에 있을 때, 상기 적어도 하나의 글라스를 사용하여 상기 콘텐츠를 표시하는 것을 특징으로 하는 전자 디바이스.The method according to claim 1,
Further comprising at least one glass equipped with a display function,
Wherein,
And when the device is in the non-use state, displays the content using the at least one glass.
적어도 하나의 프로젝터를 더 포함하며,
상기 제어부는,
상기 디바이스가 미착용 상태에 있을 때, 상기 적어도 하나의 프로젝터를 사용하여 투사면(projection surface)을 향해 상기 콘텐츠를 영사(projection)하는 것을 특징으로 하는 전자 디바이스.The method according to claim 1,
Further comprising at least one projector,
Wherein,
Wherein the at least one projector is used to project the content toward a projection surface when the device is in the non-use state.
상기 제어부는,
상기 디바이스 중 적어도 일 지점에 대한 사용자의 파지동작을 감지하면,
상기 제1,2 정보에 관계없이, 상기 디바이스가 착용 상태에 있는 것으로 판단하는 것을 특징으로 하는 전자 디바이스.The method according to claim 1,
Wherein,
Detecting a user's gripping operation on at least one of the devices,
Wherein the electronic device determines that the device is in a wear state regardless of the first and second information.
사용자의 착용상태를 직접적으로 감지하는 직접감지 장치로부터 획득한 제1 정보와, 사용자의 착용상태를 간접적으로 감지하는 간접감지 장치로부터 획득한 제2 정보 중 적어도 하나의 정보에 기초하여 상기 디바이스의 착용여부를 판단하는 단계를 포함하는 전자 디바이스의 제어방법.Sensing a state of the device; And
Based on at least one of the first information obtained from the direct sensing device directly sensing the wearing state of the user and the second information acquired from the indirect sensing device indirectly sensing the wearing state of the user, And judging whether or not the electronic device is connected to the electronic device.
상기 판단하는 단계는,
상기 제1 정보와 상기 제2 정보 중 적어도 하나를 조합하여 상기 디바이스의 착용여부를 판단하는 단계를 포함하는 전자 디바이스의 제어방법.9. The method of claim 8,
Wherein the determining step comprises:
And determining whether the device is worn by combining at least one of the first information and the second information.
상기 제1 정보는,
상기 디바이스의 적어도 일 지점에 설치되어 상기 사용자 신체의 적어도 일 지점에 접촉되는 감지센서, 적어도 하나의 카메라, 프레임의 상태를 감지하는 프레임센서, 상기 디바이스의 움직임을 감지하는 모션센서 중 적어도 하나를 통해 획득한 정보를 포함하는 상태정보인 것을 특징으로 하는 전자 디바이스의 제어방법.9. The method of claim 8,
Wherein the first information comprises:
At least one camera installed at least one point of the device and contacting at least one point of the user's body, a frame sensor detecting the state of the frame, and a motion sensor detecting motion of the device And the state information including the acquired information.
상기 제2 정보는,
기 설정된 상기 디바이스의 착용 또는 미착용 시간범위, 상기 디바이스에 대한 충전 진행 여부 중 적어도 하나를 포함하는 상태정보인 것을 특징으로 하는 전자 디바이스의 제어방법.9. The method of claim 8,
Wherein the second information comprises:
Wherein the state information includes at least one of a time range for wearing or not attaching the device, and a charging progress for the device.
상기 디바이스가 미착용 상태에 있을 때, 적어도 하나의 글라스를 사용하여 콘텐츠를 표시하는 단계를 더 포함하는 전자 디바이스의 제어방법.9. The method of claim 8,
And displaying the content using at least one glass when the device is in the non-use state.
상기 디바이스가 미착용 상태에 있을 때, 적어도 하나의 프로젝터를 사용하여 투사면을 향해 콘텐츠를 영사하는 단계를 포함하는 전자 디바이스의 제어방법.9. The method of claim 8,
And projecting the content toward the projection surface using at least one projector when the device is in the non-application state.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130162832A KR20150074757A (en) | 2013-12-24 | 2013-12-24 | Electronic device and control method thereof |
US15/029,548 US9958681B2 (en) | 2013-10-28 | 2014-10-16 | Electronic device and control method thereof |
PCT/KR2014/009747 WO2015064935A1 (en) | 2013-10-28 | 2014-10-16 | Electronic device and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130162832A KR20150074757A (en) | 2013-12-24 | 2013-12-24 | Electronic device and control method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20150074757A true KR20150074757A (en) | 2015-07-02 |
Family
ID=53787813
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130162832A Ceased KR20150074757A (en) | 2013-10-28 | 2013-12-24 | Electronic device and control method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20150074757A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024076058A1 (en) * | 2022-10-07 | 2024-04-11 | 삼성전자 주식회사 | Wearable electronic device comprising sensor and operation method thereof |
-
2013
- 2013-12-24 KR KR1020130162832A patent/KR20150074757A/en not_active Ceased
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024076058A1 (en) * | 2022-10-07 | 2024-04-11 | 삼성전자 주식회사 | Wearable electronic device comprising sensor and operation method thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102782870B1 (en) | Neural network system for gesture, wearing, activity or carrying detection on wearable or mobile devices | |
KR102121592B1 (en) | Method and apparatus for protecting eyesight | |
US9288388B2 (en) | Method and portable terminal for correcting gaze direction of user in image | |
US9106821B1 (en) | Cues for capturing images | |
KR102361025B1 (en) | Wearable glasses and method for displaying image therethrough | |
EP2813922A1 (en) | Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device | |
EP2393042A1 (en) | Selecting view orientation in portable device via image analysis | |
CN105319718A (en) | Wearable glasses and method of displaying image via wearable glasses | |
KR20150003591A (en) | Smart glass | |
US12267585B2 (en) | Ultra low power camera pipeline for CV in AR systems | |
CN110933452B (en) | Method and device for displaying lovely face gift and storage medium | |
CN112202962B (en) | Screen brightness adjusting method and device and storage medium | |
US9958681B2 (en) | Electronic device and control method thereof | |
WO2015136952A1 (en) | Gesture recognition device, head-mounted display, and portable terminal | |
KR20210068853A (en) | A foldable electronic device comprising a camera | |
CN108848405B (en) | Image processing method and device | |
US20120320500A1 (en) | Portable electronic device and method for using the same | |
KR101495790B1 (en) | Mobile terminal and method for controlling screen display thereof | |
KR20150074757A (en) | Electronic device and control method thereof | |
CN111176601A (en) | Processing method and device | |
KR20150048576A (en) | Electronic device and control method thereof | |
KR20160005862A (en) | Mobile terminal and method for controlling the same | |
KR20160003522A (en) | Mobile terminal | |
KR20120040320A (en) | Apparatus and method for display of terminal | |
CN110728275B (en) | License plate recognition method, license plate recognition device and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20131224 |
|
PG1501 | Laying open of application | ||
A201 | Request for examination | ||
PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20181103 Comment text: Request for Examination of Application Patent event code: PA02011R01I Patent event date: 20131224 Comment text: Patent Application |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20191120 Patent event code: PE09021S01D |
|
E601 | Decision to refuse application | ||
PE0601 | Decision on rejection of patent |
Patent event date: 20200304 Comment text: Decision to Refuse Application Patent event code: PE06012S01D Patent event date: 20191120 Comment text: Notification of reason for refusal Patent event code: PE06011S01I |