[go: up one dir, main page]

KR20210061062A - 외부 객체의 반사 이미지의 위치에 기반하여 컨텐츠를 제공하는 전자 장치 및 전자 장치의 동작 방법 - Google Patents

외부 객체의 반사 이미지의 위치에 기반하여 컨텐츠를 제공하는 전자 장치 및 전자 장치의 동작 방법 Download PDF

Info

Publication number
KR20210061062A
KR20210061062A KR1020190148827A KR20190148827A KR20210061062A KR 20210061062 A KR20210061062 A KR 20210061062A KR 1020190148827 A KR1020190148827 A KR 1020190148827A KR 20190148827 A KR20190148827 A KR 20190148827A KR 20210061062 A KR20210061062 A KR 20210061062A
Authority
KR
South Korea
Prior art keywords
content
electronic device
user
display
external object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
KR1020190148827A
Other languages
English (en)
Inventor
이미영
박찬웅
배주윤
강동구
김현진
유임경
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020190148827A priority Critical patent/KR20210061062A/ko
Priority to PCT/KR2020/008628 priority patent/WO2021101006A1/ko
Publication of KR20210061062A publication Critical patent/KR20210061062A/ko
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B71/0622Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • H04N5/2257
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/806Video cameras

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

다양한 실시예에 따른 전자 장치 및 전자 장치의 동작 방법에서, 전자 장치는 디스플레이; 카메라; 및 프로세서를 포함하고, 상기 프로세서는 제 1 컨텐츠를 디스플레이하도록 상기 디스플레이를 제어하고, 상기 제 1 컨텐츠가 디스플레이되는 동안, 상기 제 1 컨텐츠에 포함된 비쥬얼 오브젝트의 위치와 상기 디스플레이에 의해 반사되어 표시되는 상기 외부 객체의 반사 이미지(reflective image)의 위치가 일치함을 확인함에 대응하여, 상기 반사 이미지의 위치 정보를 상기 비쥬얼 오브젝트의 위치 정보에 기반하여 결정하고, 제 2 컨텐츠가 디스플레이될 위치를 상기 반사 이미지의 위치 정보에 기반하여 결정하도록 설정될 수 있다.
이 밖에 다양한 실시예들이 가능하다.

Description

외부 객체의 반사 이미지의 위치에 기반하여 컨텐츠를 제공하는 전자 장치 및 전자 장치의 동작 방법{ELECTRONIC DEVICE FOR PROVIDING CONTENT BASED ON A LOCATION OF REFLECT IMAGE OF EXTERNAL OBJECT AND METHOD FOR THE SAME}
본 발명의 다양한 실시예는, 전자 장치 및 전자 장치의 동작 방법에 관한 것으로, 특히, 전자 장치의 디스플레이에 의해 반사되는 외부 객체의 반사 이미지의 위치에 기반하여 컨텐츠를 제공하는 전자 장치 및 전자 장치의 동작 방법에 관한 것이다.
스마트 폰(smart phone), 태블릿 PC(tablet PC), PMP(portable multimedia player), PDA(personal digital assistant), 랩탑 PC(laptop personal computer) 및 웨어러블 기기(wearable device) 등의 다양한 전자 장치들이 보급되고 있다.
전자 장치의 구성 요소 중 디스플레이의 일 종류인 미러 디스플레이는 전자 장치의 메모리에 저장된 데이터에 기반하여 생성된 스크린과 디스플레이의 전면에 존재하는 외부 객체가 디스플레이에 의해 반사되어 표시되는 외부 객체의 반사 이미지를 같이 디스플레이할 수 있다. 최근에는, 미러 디스플레이가 등장하면서, 증강 현실(augmented reality, AR)을 이용한 컨텐츠 제공 서비스가 등장하고 있다. 사용자가 미러 디스플레이의 전면에 존재하는 경우, 사용자의 반사 이미지와 사용자와 관련된 정보(예: 운동 관련 정보)가 증강 현실로 구현될 수 있다.
미러 디스플레이를 포함하는 전자 장치는 반사 이미지에 기반한 증강 현실 서비스를 제공하기 위해서는, 반사 이미지가 표시되는 디스플레이 상의 좌표가 요구된다. 전자 장치는 반사 이미지를 인식할 수 없으며, 더 나아가 반사 이미지가 표시되는 디스플레이 상의 좌표 역시 확인할 수 없다.
반사 이미지가 표시되는 디스플레이 상의 좌표를 확인하지 못하는 경우, 반사 이미지와 특정 정보가 증강 현실 형태로 구현되는 서비스는 구현하기 어려울 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치는, 디스플레이; 카메라; 및 프로세서를 포함하고, 상기 프로세서는 제 1 컨텐츠를 디스플레이하도록 상기 디스플레이를 제어하고, 상기 제 1 컨텐츠가 디스플레이되는 동안, 상기 제 1 컨텐츠에 포함된 비쥬얼 오브젝트의 위치와 상기 디스플레이에 의해 반사되어 표시되는 상기 외부 객체의 반사 이미지(reflective image)의 위치가 일치함을 확인함에 대응하여, 상기 반사 이미지의 위치 정보를 상기 비쥬얼 오브젝트의 위치 정보에 기반하여 결정하고, 제 2 컨텐츠가 디스플레이될 위치를 상기 반사 이미지의 위치 정보에 기반하여 결정하도록 설정될 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치의 동작 방법은 제 1 컨텐츠를 디스플레이하는 동작; 상기 제1 컨텐츠가 디스플레이되는 동안 상기 제 1 컨텐츠에 포함된 비쥬얼 오브젝트와 관련된 외부 객체의 이동을 감지하는 동작; 상기 비쥬얼 오브젝트의 위치와 상기 디스플레이에 의해 반사되어 표시되는 상기 외부 객체의 반사 이미지(reflective image)의 위치가 일치함을 확인함에 대응하여, 상기 반사 이미지의 위치 정보를 상기 비쥬얼 오브젝트의 위치 정보에 기반하여 획득하는 동작; 및 제 2 컨텐츠가 디스플레이될 위치를 상기 반사 이미지의 위치 정보에 기반하여 결정하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치 및 전자 장치의 동작 방법은 반사 이미지가 표시되는 위치를 획득하기 위해서, 적어도 하나 이상의 비쥬얼 오브젝트가 포함된 제 1 컨텐츠를 디스플레이하고, 비쥬얼 오브젝트의 위치와 반사 이미지의 위치가 일치함을 확인함에 대응하여, 비쥬얼 오브젝트의 위치에 기반하여 반사 이미지의 위치를 정확하게 획득할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치 및 전자 장치의 동작 방법은 반사 이미지의 위치를 획득할 수 있어, 반사 이미지와 관련된 제 2 컨텐츠의 위치를 반사 이미지의 위치에 기반하여 결정할 수 있다. 따라서, 반사 이미지 및 제2 컨텐츠를 증강 현실 형태로 제공하는 서비스를 제공할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치 및 전자 장치의 동작 방법은 외부 객체와 디스플레이 사이의 거리를 고려할 수 있어, 반사 이미지의 정확한 위치를 획득할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치 및 전자 장치의 동작 방법은 외부 객체의 반사 이미지의 위치를 획득하는 과정에서, 외부 객체의 특성을 확인하고, 외부 객체의 특성에 맞는 제 2 컨텐츠를 제공할 수 있다. 따라서, 사용자에게 적절한 컨텐츠 제공 서비스가 구현될 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치 및 전자 장치의 동작 방법은 사용자의 반사 이미지의 위치를 획득하는 과정에서, 사용자의 신체의 특성을 확인하고, 신체의 특성에 맞는 운동 컨텐츠를 제공할 수 있다. 따라서, 사용자의 신체에 맞는 적절한 운동 컨텐츠 제공 서비스가 구현될 수 있다.
도 1은 본 발명의 다양한 실시예에 따른, 전자 장치의 블록도이다.
도 2는 다양한 실시예에 따른 프로그램의 블록도이다.
도 3a 및 도 3b는 본 발명의 다양한 실시예에 따른 전자 장치를 도시한 도면이다.
도 4는 본 발명의 다양한 실시예에 따른 전자 장치의 블록도이다.
도 5a, 도 5b, 도 5c, 도 5d, 도 5e, 도 5f, 도 5g, 도 5h 및 도 5i는 본 발명의 다양한 실시예에 따른 전자 장치에서, 제 1 컨텐츠를 디스플레이하는 동안, 제 2 컨텐츠를 디스플레이할 위치를 조절하고, 사용자의 신체 정보를 획득하는 실시예를 도시한 도면이다.
도 6a 및 도 6b는 본 발명의 다양한 실시예에 따른 전자 장치에서, 제 1 컨텐츠 및 비쥬얼 오브젝트를 디스플레이하는 실시예를 도시한 도면이다.
도 7a, 도 7b, 도 7c 및 도 7d는 본 발명의 다양한 실시예에 따른 전자 장치에서, 사용자의 신체 정보를 추가로 획득하는 실시예를 도시한 도면이다.
도 8a, 도 8b 및 도 8c는 본 발명의 다양한 실시예에 따른 전자 장치에서, 사용자의 신체 정보에 기반하여 디스플레이될 제 2 컨텐츠를 도시한 도면이다.
도 9a, 도 9b, 도 9c 및 도 9d는 본 발명의 다양한 실시예에 따른 전자 장치에서, 사용자의 신체 정보에 기반하여 디스플레이될 제 2 컨텐츠를 도시한 도면이다.
도 10a, 도 10b, 도 10c 및 도 10d는 본 발명의 다양한 실시예에 따른 전자 장치에서, 다른 외부 객체를 식별한 결과에 기반하여 디스플레이될 제 2 컨텐츠를 도시한 도면이다.
도 11a, 도 11b, 도 11c 및 도 11d는 본 발명의 다양한 실시예에 따른 전자 장치에서, 전자 장치와 외부 객체 사이의 거리에 따라 디스플레이될 제 2 컨텐츠를 도시한 도면이다.
도 12는 본 발명의 다양한 실시예에 따른 전자 장치의 동작 방법을 도시한 동작 흐름도이다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블럭도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(160) 또는 카메라 모듈(180))가 생략되거나, 하나 이상의 다른 구성 요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들은 하나의 통합된 회로로 구현될 수 있다. 예를 들면, 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)은 표시 장치(160)(예: 디스플레이)에 임베디드된 채 구현될 수 있다
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 로드하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 추가적으로 또는 대체적으로, 보조 프로세서(123)은 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 장치(150)는, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 장치(150)은, 예를 들면, 마이크, 마우스, 키보드, 또는 디지털 펜(예:스타일러스 펜)을 포함할 수 있다.
음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 장치(155)는, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있고, 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
표시 장치(160)는 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 표시 장치(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 표시 장치(160)는 터치를 감지하도록 설정된 터치 회로(touch circuitry), 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(예: 압력 센서)를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 장치(150) 를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102)) (예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)이 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)은, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(388)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성 요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108))간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성 요소(예: 단일 칩)으로 통합되거나, 또는 서로 별도의 복수의 구성 요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 및 인증할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 하나의 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC)이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부 전자 장치들(102, 104, or 108) 중 하나 이상의 외부 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다.. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
도 2은 다양한 실시예에 따른 프로그램(140)을 예시하는 블록도(200)이다. 일실시예에 따르면, 프로그램(140)은 전자 장치(101)의 하나 이상의 리소스들을 제어하기 위한 운영 체제(142), 미들웨어(144), 또는 상기 운영 체제(142)에서 실행 가능한 어플리케이션(146)을 포함할 수 있다. 운영 체제(142)는, 예를 들면, AndroidTM, iOSTM, WindowsTM, SymbianTM, TizenTM, 또는 BadaTM를 포함할 수 있다. 프로그램(140) 중 적어도 일부 프로그램은, 예를 들면, 제조 시에 전자 장치(101)에 프리로드되거나, 또는 사용자에 의해 사용 시 외부 전자 장치(예: 전자 장치(102 또는 104), 또는 서버(108))로부터 다운로드되거나 갱신 될 수 있다.
운영 체제(142)는 전자 장치(101)의 하나 이상의 시스템 리소스들(예: 프로세스, 메모리, 또는 전원)의 관리(예: 할당 또는 회수)를 제어할 수 있다. 운영 체제(142)는, 추가적으로 또는 대체적으로, 전자 장치(101)의 다른 하드웨어 디바이스, 예를 들면, 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 구동하기 위한 하나 이상의 드라이버 프로그램들을 포함할 수 있다.
미들웨어(144)는 전자 장치(101)의 하나 이상의 리소스들로부터 제공되는 기능 또는 정보가 어플리케이션(146)에 의해 사용될 수 있도록 다양한 기능들을 어플리케이션(146)으로 제공할 수 있다. 미들웨어(144)는, 예를 들면, 어플리케이션 매니저(201), 윈도우 매니저(203), 멀티미디어 매니저(205), 리소스 매니저(207), 파워 매니저(209), 데이터베이스 매니저(211), 패키지 매니저(213), 커넥티비티 매니저(215), 노티피케이션 매니저(217), 로케이션 매니저(219), 그래픽 매니저(221), 시큐리티 매니저(223), 통화 매니저(225), 또는 음성 인식 매니저(227)를 포함할 수 있다.
어플리케이션 매니저(201)는, 예를 들면, 어플리케이션(146)의 생명 주기를 관리할 수 있다. 윈도우 매니저(203)는, 예를 들면, 화면에서 사용되는 하나 이상의 GUI 자원들을 관리할 수 있다. 멀티미디어 매니저(205)는, 예를 들면, 미디어 파일들의 재생에 필요한 하나 이상의 포맷들을 파악하고, 그 중 선택된 해당하는 포맷에 맞는 코덱을 이용하여 상기 미디어 파일들 중 해당하는 미디어 파일의 인코딩 또는 디코딩을 수행할 수 있다. 리소스 매니저(207)는, 예를 들면, 어플리케이션(146)의 소스 코드 또는 메모리(130)의 메모리의 공간을 관리할 수 있다. 파워 매니저(209)는, 예를 들면, 배터리(189)의 용량, 온도 또는 전원을 관리하고, 이 중 해당 정보를 이용하여 전자 장치(101)의 동작에 필요한 관련 정보를 결정 또는 제공할 수 있다. 일실시예에 따르면, 파워 매니저(209)는 전자 장치(101)의 바이오스(BIOS: basic input/output system)(미도시)와 연동할 수 있다.
데이터베이스 매니저(211)는, 예를 들면, 어플리케이션(146)에 의해 사용될 데이터베이스를 생성, 검색, 또는 변경할 수 있다. 패키지 매니저(213)는, 예를 들면, 패키지 파일의 형태로 배포되는 어플리케이션의 설치 또는 갱신을 관리할 수 있다. 커넥티비티 매니저(215)는, 예를 들면, 전자 장치(101)와 외부 전자 장치 간의 무선 연결 또는 직접 연결을 관리할 수 있다. 노티피케이션 매니저(217)는, 예를 들면, 지정된 이벤트(예: 착신 통화, 메시지, 또는 알람)의 발생을 사용자에게 알리기 위한 기능을 제공할 수 있다. 로케이션 매니저(219)는, 예를 들면, 전자 장치(101)의 위치 정보를 관리할 수 있다. 그래픽 매니저(221)는, 예를 들면, 사용자에게 제공될 하나 이상의 그래픽 효과들 또는 이와 관련된 사용자 인터페이스를 관리할 수 있다.
시큐리티 매니저(223)는, 예를 들면, 시스템 보안 또는 사용자 인증을 제공할 수 있다. 통화(telephony) 매니저(225)는, 예를 들면, 전자 장치(101)에 의해 제공되는 음성 통화 기능 또는 영상 통화 기능을 관리할 수 있다. 음성 인식 매니저(227)는, 예를 들면, 사용자의 음성 데이터를 서버(108)로 전송하고, 그 음성 데이터에 적어도 일부 기반하여 전자 장치(101)에서 수행될 기능에 대응하는 명령어(command), 또는 그 음성 데이터에 적어도 일부 기반하여 변환된 문자 데이터를 서버(108)로부터 수신할 수 있다. 일 실시예에 따르면, 미들웨어(244)는 동적으로 기존의 구성요소를 일부 삭제하거나 새로운 구성요소들을 추가할 수 있다. 일 실시예에 따르면, 미들웨어(144)의 적어도 일부는 운영 체제(142)의 일부로 포함되거나, 또는 운영 체제(142)와는 다른 별도의 소프트웨어로 구현될 수 있다.
어플리케이션(146)은, 예를 들면, 홈(251), 다이얼러(253), SMS/MMS(255), IM(instant message)(257), 브라우저(259), 카메라(261), 알람(263), 컨택트(265), 음성 인식(267), 이메일(269), 달력(271), 미디어 플레이어(273), 앨범(275), 와치(277), 헬스(279)(예: 운동량 또는 혈당과 같은 생체 정보를 측정), 또는 환경 정보(281)(예: 기압, 습도, 또는 온도 정보 측정) 어플리케이션을 포함할 수 있다. 일실시예에 따르면, 어플리케이션(146)은 전자 장치(101)와 외부 전자 장치 사이의 정보 교환을 지원할 수 있는 정보 교환 어플리케이션(미도시)을 더 포함할 수 있다. 정보 교환 어플리케이션은, 예를 들면, 외부 전자 장치로 지정된 정보 (예: 통화, 메시지, 또는 알람)를 전달하도록 설정된 노티피케이션 릴레이 어플리케이션, 또는 외부 전자 장치를 관리하도록 설정된 장치 관리 어플리케이션을 포함할 수 있다. 노티피케이션 릴레이 어플리케이션은, 예를 들면, 전자 장치(101)의 다른 어플리케이션(예: 이메일 어플리케이션(269))에서 발생된 지정된 이벤트(예: 메일 수신)에 대응하는 알림 정보를 외부 전자 장치로 전달할 수 있다. 추가적으로 또는 대체적으로, 노티피케이션 릴레이 어플리케이션은 외부 전자 장치로부터 알림 정보를 수신하여 전자 장치(101)의 사용자에게 제공할 수 있다.
장치 관리 어플리케이션은, 예를 들면, 전자 장치(101)와 통신하는 외부 전자 장치 또는 그 일부 구성 요소(예: 표시 장치(160) 또는 카메라 모듈(180))의 전원(예: 턴-온 또는 턴-오프) 또는 기능(예: 표시 장치(160) 또는 카메라 모듈(180)의 밝기, 해상도, 또는 포커스)을 제어할 수 있다. 장치 관리 어플리케이션은, 추가적으로 또는 대체적으로, 외부 전자 장치에서 동작하는 어플리케이션의 설치, 삭제, 또는 갱신을 지원할 수 있다.
도 3a 및 도 3b는 본 발명의 다양한 실시예에 따른 전자 장치를 도시한 도면이다.
도 3a를 참조하면, 본 발명의 다양한 실시예에 따른 전자 장치(예: 도 1의 전자 장치(101))(300)는 디스플레이(310) 및 카메라(320)를 포함할 수 있다.
본 발명의 다양한 실시예에 따르면, 디스플레이(310)는 프로세서(예: 도 1의 프로세서(120))의 제어에 기반하여 다양한 화면을 디스플레이할 수 있다. 외부 객체(예: 전자 장치(300)의 사용자, 전자 장치(300)의 사용자가 구비하는 다양한 객체)가 디스플레이(310)의 전면에 존재하는 경우, 디스플레이(310)에 의해 반사되어 표시되는 외부 객체의 반사 이미지(reflective image)가 디스플레이(310) 상에 표시될 수도 있다. 디스플레이(310)는 외부 객체의 반사 이미지가 표시되면서, 프로세서(120)가 전송한 데이터에 대응하는 화면을 디스플레이할 수 있다. 전자 장치(300)의 사용자는 디스플레이(310) 상에서 표시되는 화면 및 반사 이미지를 같이 확인할 수 있다.
본 발명의 다양한 실시예에 따르면, 디스플레이(310)는 외부 객체의 반사 이미지를 선명하게 표시하기 위해, 디스플레이(310)를 향해 진행하는 빛에 대한 반사율을 증가시키는 구성이 추가되는 미러 디스플레이로 구현될 수 있다. 예를 들면, 미러 디스플레이는 디스플레이(310)의 구성 요소 중 편광판에 미러 필름이 부착되는 방식으로 디스플레이(310)를 향해 진행하는 빛에 대한 반사율을 증가시킬 수 있다.
본 발명의 다양한 실시예에 따르면, 카메라(320)는 디스플레이(310) 전면에 존재하는 다양한 외부 객체를 촬영할 수 있다. 전자 장치(300)는 촬영한 이미지에 기반하여 외부 객체의 위치를 결정하고, 외부 객체의 위치에 기반하여 다양한 컨텐츠를 제공할 수 있다.
본 발명의 다양한 실시예에 따르면, 전자 장치(300)는 증강 현실(augment reality, AR)을 이용한 컨텐츠를 디스플레이(310) 상에 디스플레이할 수 있다. 전자 장치(300)는 증강 현실을 이용한 컨텐츠는 외부 객체의 반사 이미지의 위치에 기반하여 제공될 수 있다. 전자 장치(300)가 외부 객체의 반사 이미지의 위치 정보를 획득하지 못한 경우, 전자 장치(300)는 컨텐츠를 디스플레이할 위치를 결정함에 있어, 외부 객체의 반사 이미지의 위치를 고려하지 못할 수 있다. 더 나아가, 전자 장치(300)는 적절하지 못한 위치(예: 외부 객체의 반사 이미지와 동일한 위치가 아닌 다른 위치)에 컨텐츠를 디스플레이하는 현상이 발생할 수 있다.
도 3b는 본 발명의 다양한 실시예에 따른 전자 장치가 반사 이미지 및 컨텐츠를 디스플레이하는 실시예를 도시한 도면이다.
도 3b를 참조하면, 디스플레이(310)의 전면에 존재하는 외부 객체가 디스플레이(310)에 의해 반사되어 표시되는 외부 객체의 반사 이미지(330)가 디스플레이(310) 상에 표시될 수 있다. 디스플레이(310)는 외부 객체의 반사 이미지(330)가 표시되면서, 전자 장치(300)가 제공하는 컨텐츠(340)를 디스플레이(310) 상에서 디스플레이할 수 있다.
도 3b를 참조하면, 반사 이미지(330)가 표시되는 위치와 컨텐츠(340)가 디스플레이되는 위치가 서로 상이할 수 있다. 반사 이미지(330)가 표시되는 위치와 컨텐츠(340)가 디스플레이되는 위치가 서로 상이한 현상은 전자 장치(300)가 카메라(320)를 이용하여 획득한 외부 객체(350)의 위치 정보에 기반하여 컨텐츠(340)를 디스플레이하기로 결정한 위치와 실제 사용자가 인식하는 반사 이미지(330)가 표시되는 위치가 상이함을 의미할 수 있다. 반사 이미지(330)가 표시되는 위치와 컨텐츠(340)가 디스플레이되는 위치가 서로 상이한 현상은 컨텐츠(340)를 반사 이미지(330)가 표시되는 위치에 제공해야 하는 서비스(예: 증강 현실 기반 서비스, 피트니스 코치 서비스)의 제공을 어렵게 할 수 있다.
이하에서는, 반사 이미지(330)가 표시되는 위치와 컨텐츠(340)가 디스플레이되는 위치를 일치시키기 위한 다양한 실시예들과, 반사 이미지(330)가 표시되는 위치와 컨텐츠(340)가 디스플레이되는 위치를 일치시키는 동작에서 획득할 수 있는 사용자의 신체 정보에 기반한 다양한 컨텐츠 제공에 대한 실시예들에 대해서 서술한다.
도 4는 본 발명의 다양한 실시예에 따른 전자 장치의 블록도이다.
도 4를 참조하면, 본 발명의 다양한 실시예에 따른 전자 장치(예: 도 3의 전자 장치(300))(400)는 디스플레이(예: 도 3의 디스플레이(310))(410), 프로세서(예: 도 1의 프로세서(120))(420) 및 적어도 하나 이상의 카메라(예: 도 3의 카메라(320))(430)를 포함할 수 있다.
본 발명의 다양한 실시예에 따르면, 디스플레이(410)는 프로세서(420)의 제어에 기반하여 다양한 화면을 디스플레이할 수 있다. 디스플레이(410)는 외부 객체(예: 도 3b 외부 객체(350))의 반사 이미지(예: 도 3b의 반사 이미지(330))를 선명하게 표시하기 위해, 디스플레이(410)를 향해 진행하는 빛에 대한 반사율을 증가시키는 구성이 추가된 미러 디스플레이로 구현될 수 있다.
본 발명의 다양한 실시예에 따르면, 카메라(430)는 디스플레이(410)의 전면에 위치하는 외부 객체와 카메라(430) 사이의 거리를 측정할 수 있다. 카메라(430)는 외부 객체와 카메라(430) 사이의 거리를 측정할 수 있는 뎁스 카메라(depth camera) 또는 비전 센서(vision sersor)로 구현될 수 있다. 뎁스 카메라 또는 비전 센서로 구현된 카메라(430)는 외부 객체가 포함된 뎁스 이미지를 촬영할 수 있다. 뎁스 이미지는 객체와 카메라(430) 사이의 거리 정보를 포함하는 이미지일 수 있다. 프로세서(420)는 카메라(430)가 촬영한 뎁스 이미지에 기반하여 외부 객체와 카메라(430) 사이의 거리를 확인할 수 있다.
본 발명의 다양한 실시예에 따르면, 프로세서(420)는 디스플레이(410) 또는 카메라(420)와 동작적으로 연결되어, 디스플레이(410) 또는 카메라(430)의 동작을 제어할 수 있다. 프로세서(420)는 디스플레이(410) 상에 디스플레이되는 컨텐츠의 위치에 대한 캘리브레이션(calibration) 또는 조절(adjust)을 수행할 수 있다. 구체적으로, 프로세서(420)는 디스플레이(410) 전면에 존재하는 외부 객체가 디스플레이(410)에 의해 반사되어 표시된 외부 객체의 반사 이미지의 위치와 프로세서(420)의 제어에 의해 디스플레이되는 컨텐츠의 위치가 일치하도록 디스플레이될 컨텐츠의 위치를 캘리브레이션할 수 있다. 이하에서는, 디스플레이되는 컨텐츠의 위치를 조절하는 구체적인 실시예에 대해서 서술한다.
본 발명의 다양한 실시예에 따르면, 프로세서(420)는 제 1 컨텐츠를 디스플레이하도록 디스플레이(410)를 제어할 수 있다. 프로세서(420)는 디스플레이(410)의 전면에 특정 형상(예: 사람의 외형)을 가지는 외부 객체(예: 사용자)가 존재함을 확인함에 대응하여, 제 1 컨텐츠를 디스플레이할 수 있다.
본 발명의 다양한 실시예에 따르면, 제 1 컨텐츠는 프로세서(420)가 외부 객체에 대한 정보를 획득하기 위해 제공되는 컨텐츠일 수 있다. 일 실시예에 따르면, 제 1 컨텐츠는 디스플레이될 컨텐츠의 위치를 캘리브레이션하기 위한 다양한 정보들을 획득하기 위해서 제공되는 컨텐츠일 수 있다. 프로세서(420)가 디스플레이될 컨텐츠의 위치를 캘리브레이션하기 위한 다양한 정보들은 컨텐츠가 디스플레이될 영역의 위치(또는, 디스플레이 상의 좌표)를 결정하기 위해 요구되는 변수들로, 외부 객체의 반사 이미지의 디스플레이(410) 상에서의 위치 정보를 포함할 수 있다. 다른 실시예에 따르면, 제 1 컨텐츠는 외부 객체(예; 사람)의 특성(예: 신체의 특성으로 사용자의 키, 팔의 반경, 허리 위치) 정보를 획득하기 위해 제공되는 컨텐츠일 수 있다.
본 발명의 다양한 실시예에 따르면, 제 1 컨텐츠는 전자 장치(400)의 사용자의 준비 운동(예: 스트레칭, 팔 흔들기 또는 무릎 굽히기)과 관련된 컨텐츠일 수 있다. 사용자가 디스플레이(410)의 전면에 존재하는 경우, 사용자는 외부 객체에 대응할 수 있다. 사용자는 사용자의 준비 운동과 관련된 컨텐츠를 제공 받으면서, 준비 운동을 수행할 수 있다. 프로세서(420)는 사용자가 준비 운동을 수행하는 동안 수신한 사용자 입력에 기반하여 외부 객체의 반사 이미지의 위치를 결정할 수 있다.
본 발명의 다양한 실시예에 따르면, 제 2 컨텐츠는 전자 장치(400)가 제 1 컨텐츠를 디스플레이하는 동안 획득한 외부 객체의 반사 이미지의 위치에 기반하여 제 1 컨텐츠가 디스플레이되는 위치를 캘리브레이션하여 획득한 위치 상에 디스플레이되는 다양한 컨텐츠를 의미할 수 있다. 예를 들면, 제 2 컨텐츠는 사용자에게 제공되는 사용자의 운동을 위한 컨텐츠일 수 있다.
본 발명의 다양한 실시에에 따르면, 프로세서(420)는 카메라(430)를 이용하여 획득한 외부 객체의 위치 정보에 기반하여 제 1 컨텐츠를 디스플레이할 위치를 결정할 수 있다. 프로세서(420)는 결정된 위치 상에서 제 1 컨텐츠를 디스플레이하도록 디스플레이(410)를 제어할 수 있다.
본 발명의 다양한 실시예에 따르면, 프로세서(420)는 외부 객체(예: 사람)의 적어도 하나 이상의 특징점(예: 손목, 어깨, 머리를 포함하는 사람의 신체의 일부)의 반사 이미지의 위치를 획득하기 위해서, 제 1 컨텐츠가 디스플레이될 영역 중 특징점에 대응하는 영역에 적어도 하나 이상의 비쥬얼 오브젝트를 디스플레이할 수 있다. 비쥬얼 오브젝트는 제 1 컨텐츠에 포함될 수 있다. 비쥬얼 오브젝트가 디스플레이되는 위치는 특징점에 대응하는 영역으로부터 미리 설정된 거리 이내에 존재하는 위치일 수 있다.
본 발명의 다양한 실시예에 따르면, 프로세서(420)는, 외부 객체의 반사 이미지의 디스플레이(410) 상에서의 위치 정보를 다양한 방식으로 획득할 수 있다. 본 발명의 다양한 실시예에 따르면, 프로세서(420)는 디스플레이(410) 상의 특정 영역에 비쥬얼 오브젝트를 디스플레이하고, 외부 객체의 반사 이미지의 위치와 비쥬얼 오브젝트의 위치가 일치함을 지시하는 사용자 입력을 수신할 수 있다. 사용자 입력은 다양한 형태로 수신될 수 있다. 예를 들면, 사용자 입력은 사용자가 외부 객체의 반사 이미지의 위치와 비쥬얼 오브젝트의 위치가 일치함을 지시하는 음성으로 구현된 입력일 수 있다. 다른 예를 들면, 사용자 입력은 외부 객체의 반사 이미지의 위치와 비쥬얼 오브젝트의 위치가 일치함을 지시하는 제스처 형태로 구현된 입력일 수 있다. 프로세서(420)는 사용자 입력을 수신함에 대응하여, 외부 객체의 반사 이미지의 위치를 비쥬얼 오브젝트의 위치로 결정할 수 있다.
본 발명의 다양한 실시예에 따르면, 프로세서(420)는 비쥬얼 오브젝트의 위치 정보 및 비쥬얼 오브젝트에 대응하는 외부 객체의 위치 정보에 기반하여 제 2 컨텐츠가 디스플레이될 위치를 결정(또는, 캘리브레이션)할 수 있다. 일 실시예에 따르면, 프로세서(420)는 제 1 컨텐츠가 디스플레이된 위치를 비쥬얼 오브젝트의 위치 및 비쥬얼 오브젝트에 대응하는 외부 객체의 위치의 차이에 기반하여 캘리브레이션하고, 캘리브레이션된 좌표를 제 2 컨텐츠가 디스플레이될 위치로 결정할 수 있다.
본 발명의 다양한 실시예에 따르면, 프로세서(420)는 제 1 컨텐츠를 디스플레이하는 동안, 외부 객체의 특성을 획득할 수 있다. 예를 들어, 외부 객체가 사용자에 해당하는 경우, 외부 객체의 특성은 사용자의 키, 사용자의 팔의 활동 반경, 사용자의 무릎의 위치를 포함할 수 있다. 프로세서(420)는 외부 객체의 일부 영역에 대한 특성의 정확도가 미리 설정된 값 이하임을 확인함에 대응하여, 외부 객체의 일부 영역의 특성의 정확도를 높이기 위한 추가 컨텐츠인 제 3 컨텐츠를 제공할 수 있다. 제 3 컨텐츠는 외부 객체의 일부 영역의 특성을 획득하기 위한 컨텐츠일 수 있다. 외부 객체가 사용자에 해당하고, 획득하기 위한 외부 객체의 일부 영역이 사용자의 어깨 부분에 해당하는 상황을 가정하면, 프로세서(420)는 어깨 부분에 대한 준비 운동이 포함된 제 3 컨텐츠를 디스플레이(410) 상에 디스플레이할 수 있다. 프로세서(420)는 제 3 컨텐츠를 디스플레이하는 동안, 어깨 부분에 대한 준비 운동을 수행하는 사용자를 카메라(430)를 이용하여 촬영하고, 촬영한 이미지에 기반하여 어깨 부분에 대한 특성을 확인할 수 있다.
본 발명의 다양한 실시예에 따르면, 프로세서(420)는 디스플레이(410)와 외부 객체의 거리에 기반하여 제 2 컨텐츠가 디스플레이될 위치를 결정할 수 있다. 프로세서(420)는 카메라(430)가 수집한 뎁스 이미지에 기반하여 카메라(430)와 외부 객체의 거리를 결정하고, 카메라(430)와 외부 객체 사이의 거리에 기반하여 디스플레이(410)와 외부 객체의 거리를 결정할 수 있다. 카메라(430)와 외부 객체의 거리는 디스플레이(410)와 외부 객체의 거리와 동일하거나, 유사할 수 있다. 일 실시예에 따르면, 프로세서(420)는 디스플레이(410)와 외부 객체 사이의 거리가 증가할수록, 제 2 컨텐츠의 디스플레이 위치를 디스플레이(410)의 하부로 이동시킬 수 있다. 다른 실시예에 따르면, 프로세서(420)는 디스플레이(410)와 외부 객체 사이의 거리라 감소할수록, 제 2 컨텐츠의 디스플레이 위치를 디스플레이(410)의 상부로 이동시킬 수 있다.
본 발명의 다양한 실시예에 따르면, 프로세서(420)는 제 1 컨텐츠를 디스플레이하는 동안 카메라(430)를 이용하여 촬영한 영상에 기반하여 외부 객체의 특성 정보를 획득할 수 있다. 외부 객체가 사용자인 경우, 외부 객체의 특성 정보는 사용자의 신체의 특성 정보로써, 사용자의 성별, 사용자의 나이, 사용자의 키, 허리 위치, 무릎 위치, 팔의 반경을 포함할 수 있다. 프로세서(420)는 수집한 외부 객체의 특성 정보에 기반하여 디스플레이될 제 2 컨텐츠를 선택 또는 결정할 수 있다.
본 발명의 다양한 실시예에 따르면, 전자 장치(400)의 메모리(예: 도 1의 메모리(130)) 상에는 복수의 제 2 컨텐츠들이 저장될 수 있다. 메모리에 저장된 제 2 컨텐츠들은 외부 전자 장치(예: 도 1의 서버(108), 도 1의 전자 장치(104)))로부터 수신하거나, 전자 장치(400)의 제조 당시에 미리 저장될 수 있다. 저장된 제 2 컨텐츠들 각각은 선택을 위한 메타 데이터가 포함될 수 있다. 메타 데이터는 제 2 컨텐츠에 포함된 가이드 음성의 특성(예: 부드러운 음성), 제 2 컨텐츠에 포함된 배경 음악의 특성, 제 2 컨텐츠에 포함된 운동의 특성(예: 운동 난이도, 운동 속도, 운동 횟수), 운동 도구가 요구되는지 지시하는 인디케이터, 필요한 운동 도구 중 적어도 하나 이상의 정보가 포함될 수 있다. 프로세서(420)는 사용자의 신체 정보를 확인하고, 사용자의 신체 정보 및 메타 데이터에 기반하여 디스플레이될 제 2 컨텐츠를 선택 또는 결정할 수 있다. 예를 들면, 프로세서(420)는 사용자의 신체 정보(예: 남성, 20대)를 확인하고, 신체 정보에 대응하는 제 2 컨텐츠(예: 상대적으로 무거운 운동 기구(덤벨)를 이용한 운동이 포함된 컨텐츠)를 선택할 수 있다. 다른 예를 들면, 프로세서(420)는 사용자의 신체 정보(예: 여성, 50대)를 확인하고, 신체 정보에 대응하는 제 2 컨텐츠(예: 상대적으로 가벼운 운동 기구(폼-롤러)를 이용한 운동이 포함된 컨텐츠)를 선택할 수 있다.
본 발명의 다양한 실시예에 따르면, 프로세서(420)는 제 1 컨텐츠를 디스플레이하는 동안 카메라(430)를 이용하여 획득한 사용자의 신체 정보 및 전자 장치(400)와 연결된 다른 전자 장치(104, 108)로부터 수신한 사용자의 신체 정보를 이용하여 제 2 컨텐츠를 선택할 수도 있다. 일 실시예에 따르면, 다른 전자 장치(104, 108)로부터 수신한 사용자의 신체 정보는 전자 장치(400)가 영상 분석을 통해 획득하기 어려운 사용자의 신체 정보(예: 사용자의 질병 이력, 사용자의 몸무게, 사용자의 혈압 또는 사용자의 혈당량)를 포함할 수 있다. 프로세서(420)는 카메라(430)를 이용하여 획득하기 어려운 사용자의 신체 정보를 추가로 고려하여, 제 2 컨텐츠를 선택 또는 결정할 수 있어, 사용자에게 더 적절한 컨텐츠를 제공할 수 있다.
본 발명의 다양한 실시예에 따르면, 프로세서(420)는 제 1 컨텐츠를 디스플레이하는 동안 카메라(430)를 이용하여 획득한 이미지를 분석한 결과에 기반하여 다른 외부 객체가 존재하는지 여부 및 외부 객체의 종류를 확인할 수 있다. 다른 외부 객체는 사용자가 구비한 운동 기구(예: 폼 롤러, 아령)를 포함할 수 있다. 프로세서(420)는 외부 객체의 식별 결과에 기반하여 제 2 컨텐츠를 선택 또는 결정할 수 있다. 예를 들면, 프로세서(420)는 사용자가 아령을 구비하는 것을 확인함에 대응하여, 아령을 이용한 운동 컨텐츠가 포함된 제2 컨텐츠를 선택 또는 결정할 수 있다. 프로세서(420)는 다른 외부 객체가 존재함을 확인함에 대응하여, 디스플레이(410) 상에 디스플레이될 제 2 컨텐츠들의 순서를 변경할 수도 있다. 예를 들면, 프로세서(420)는 사용자가 아령을 구비하는 것을 확인함에 대응하여, 아령을 이용한 운동 컨텐츠가 포함된 제 2 컨텐츠를 다른 제 2 컨텐츠들에 비해 먼저 제공할 수도 있다.
본 발명의 다양한 실시예에 따르면, 프로세서(420)는 외부 객체와 디스플레이(410) 사이의 거리에 기반하여 제 2 컨텐츠를 결정할 수 있다. 예를 들면, 프로세서(420)는 사용자와 디스플레이(410) 사이의 거리가 미리 설정된 값을 이상(또는, 초과)임을 확인함에 대응하여, 전신 운동과 관련된 제 2 컨텐츠를 선택 또는 결정할 수 있다. 사용자와 디스플레이(410) 사이의 거리가 미리 설정된 값 이상인 경우, 사용자의 전신이 디스플레이(410) 상에 반사될 수 있기 때문이다. 다른 예를 들면, 프로세서(420)는 사용자와 디스플레이(410) 사이의 거리가 미리 설정된 값 미만(또는, 이하)임을 확인함에 대응하여, 사용자의 신체의 일부와 관련된 제 2 컨텐츠를 선택 또는 결정할 수 있다. 사용자와 디스플레이(410) 사이의 거리가 미리 설정된 값 이하인 경우, 사용자의 특정 신체 부위가 디스플레이(410) 상에 반사될 수 있어, 신체의 일부와 관련된 운동 컨텐츠가 적절할 수 있다.
본 발명의 다양한 실시예에 따르면, 프로세서(420)는 사용자의 신체 정보에 기반하여 디스플레이될 적어도 하나 이상의 제 2 컨텐츠들을 선택하고, 선택된 제 2 컨텐츠들이 포함된 리스트를 디스플레이할 수 있다. 프로세서(420)는 리스트에 포함된 제 2 컨텐츠들 중 적어도 하나 이상을 선택하는 사용자 입력에 기반하여 제 2 컨텐츠를 디스플레이할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(400)는 상기에 기재된 방식에 따라 제 2 컨텐츠가 디스플레이될 위치를 결정하는 동안 사용자의 신체 정보, 사용자가 구비한 다른 외부 객체의 정보를 획득하고, 획득한 정보를 이용하여 사용자에게 적절한 운동이 포함된 제 2 컨텐츠를 제공할 수 있어, 전자 장치(400)의 활용성이 증가할 수 있다.
도 5a, 도 5b, 도 5c, 도 5d, 도 5e, 도 5f, 도 5g, 도 5h 및 도 5i는 본 발명의 다양한 실시예에 따른 전자 장치에서, 제 1 컨텐츠를 디스플레이하는 동안, 제 2 컨텐츠를 디스플레이할 위치를 조절하고, 사용자의 신체 정보를 획득하는 실시예를 도시한 도면이다.
도 5a를 참조하면, 전자 장치(예: 도 4의 전자 장치(400))는 카메라(예: 도 4의 카메라(430))를 이용하여 디스플레이(예: 도 4의 디스플레이(410)) 전면에 외부 객체(511)가 존재하는지 여부를 확인할 수 있다. 전자 장치(400)는 카메라(430)를 미리 설정된 주기 마다 활성화하고, 카메라(430)가 수집한 영상에 기반하여 외부 객체(511)가 존재하는지 여부를 확인할 수 있다.
본 발명의 다양한 실시예에 따르면, 디스플레이(410)는 외부 객체(511)의 반사 이미지(513)를 선명하게 표시하기 위해, 디스플레이(410)를 향해 진행하는 빛에 대한 반사율을 증가시키는 구성이 추가된 미러 디스플레이로 구현될 수 있다.
도 5b를 참조하면, 전자 장치(400)는 디스플레이(410)의 전면에 특정 형상(예: 사람의 외형)을 가지는 외부 객체(예: 사용자)가 존재함을 확인함에 대응하여, 제 1 컨텐츠를 디스플레이할 수 있다.
본 발명의 다양한 실시예에 따르면, 제 1 컨텐츠는 전자 장치(400)가 외부 객체에 대한 정보를 획득하기 위해 제공되는 컨텐츠일 수 있다. 일 실시예에 따르면, 제 1 컨텐츠는 디스플레이될 제 2 컨텐츠의 위치를 캘리브레이션하기 위한 다양한 정보들을 획득하기 위해서 제공되는 컨텐츠일 수 있다. 디스플레이될 제 2 컨텐츠의 위치를 캘리브레이션하기 위한 다양한 정보들은 컨텐츠가 디스플레이될 영역의 위치(또는, 디스플레이 상의 좌표)를 결정하기 위해 요구되는 변수들로, 외부 객체(511)의 반사 이미지(513)의 디스플레이(410) 상에서의 위치 정보를 포함할 수 있다.
본 발명의 다양한 실시예에 따르면, 제 1 컨텐츠는 전자 장치(400)의 사용자의 준비 운동(예: 스트레칭, 팔 흔들기 또는 무릎 굽히기)과 관련된 컨텐츠일 수 있다. 제 1 컨텐츠는 사용자의 인터랙션을 유도하기 위한 영상 또는 음성 컨텐츠(예: 스트레칭을 도와줄 아이템을 착용하겠습니다, 화면에 표시된 아이템이 있는 위치에 손목을 맞춰 주세요) 및 사용자의 적어도 하나 이상의 특징점(예: 왼쪽 손목 및 오른쪽 손목)의 반사 이미지의 위치를 획득하기 위한 적어도 하나 이상의 비쥬얼 오브젝트(515, 517)를 포함할 수 있다. 디스플레이(410)는, 사용자의 반사 이미지(513)가 표시되면서, 적어도 하나 이상의 비쥬얼 오브젝트(515, 517)를 디스플레이할 수 있다.
본 발명의 다양한 실시에에 따르면, 전자 장치(400)는 카메라(430)를 이용하여 획득한 외부 객체의 위치 정보에 기반하여 제 1 컨텐츠를 디스플레이할 위치를 결정할 수 있다. 전자 장치(400)는 결정된 위치 상에서 제 1 컨텐츠를 디스플레이하도록 디스플레이(410)를 제어할 수 있다.
도 5c를 참조하면, 전자 장치(400)는 디스플레이(410)의 전면에 존재하는 사용자의 인터랙션(예: 손목을 비쥬얼 오브젝트가 디스플레이되는 영역에 맞추기 위한 인터랙션)(519)을 감지할 수 있다. 사용자는 사용자의 준비 운동과 관련된 컨텐츠를 제공 받으면서, 준비 운동을 수행할 수 있다. 전자 장치(400)는 사용자가 준비 운동을 수행하는 동안 수집한 사용자 입력에 기반하여 외부 객체의 반사 이미지의 위치를 결정할 수 있다.
본 발명의 다양한 실시예에 따르면, 전자 장치(400)는 디스플레이(410) 상에 비쥬얼 오브젝트(515, 517)를 디스플레이하고, 외부 객체의 반사 이미지(519)의 위치와 비쥬얼 오브젝트(515, 517)의 위치가 일치함을 지시하는 사용자 입력을 수신할 수 있다. 사용자 입력은 다양한 형태로 수신될 수 있다. 예를 들면, 사용자 입력은 사용자가 외부 객체의 반사 이미지의 위치와 비쥬얼 오브젝트의 위치가 일치함을 지시하는 음성으로 구현된 입력일 수 있다. 다른 예를 들면, 사용자 입력은 외부 객체의 반사 이미지의 위치와 비쥬얼 오브젝트의 위치가 일치함을 지시하는 제스처 형태(예: 손을 쥐었다 피는 제스처)로 구현된 입력일 수 있다. 전자 장치(400)는 사용자 입력을 수신함에 대응하여, 외부 객체의 반사 이미지의 위치를 비쥬얼 오브젝트의 위치로 결정할 수 있다.
도 5d 및 도 5e는 본 발명의 다양한 실시예에 따른 전자 장치(400)가 제 1 컨텐츠가 디스플레이되는 위치를 캘리브레이션함으로써 제 2 컨텐츠가 디스플레이될 위치를 결정하는 실시예를 도시한 도면이다.
도 5d는 전자 장치(400)가 카메라(430)를 이용하여 획득한 외부 객체의 반사 이미지의 디스플레이(410) 상의 추정된 위치(525) 및 비쥬얼 오브젝트(521, 523)의 위치를 도시하고 있다.
본 발명의 다양한 실시예에 따르면, 전자 장치(400)는 비쥬얼 오브젝트(521, 523)의 위치에 기반하여 외부 객체의 일부 영역(예: 손목)의 반사 이미지의 디스플레이(410) 상의 실제 위치(527)를 결정할 수 있다. 전자 장치(400)는 추정된 위치(525)와 비쥬얼 오브젝트(521, 523)의 위치 차이(또는, 반사 이미지의 추정된 위치(525)와 실제 위치(527)의 차이)를 확인하고, 차이 값에 기반하여 제 1 컨텐츠가 디스플레이되는 위치에 대한 캘리브레이션을 수행함으로써, 제 2 컨텐츠가 디스플레이되는 위치를 결정할 수 있다. 도 5d 및 도 5e를 참조하면, 전자 장치(400)는 추정된 위치(525)에 비해 실제 위치(527)가 더 위에 존재함을 확인함에 대응하여, 제 1 컨텐츠가 디스플레이되는 위치에 대한 캘리브레이션을 수행하고, 캘리브레이션된 좌표를 제 2 컨텐츠가 디스플레이될 위치로 결정할 수 있다.
도 5f 내지 도 5i는 본 발명의 다양한 실시예에 따른 전자 장치(400)가 제 1 컨텐츠를 디스플레이하는 동안, 외부 객체(예: 사용자)의 특성(예: 신체 특성)을 획득하는 실시예를 도시한 도면이다.
본 발명의 다양한 실시예에 따르면, 전자 장치(400)는 제 1 컨텐츠를 디스플레이하면서, 제 2 컨텐츠가 디스플레이될 위치를 결정하는 동작과 함께 외부 객체(예: 사용자)의 특성(예: 사용자의 신체 특성)을 획득할 수 있다. 전자 장치(400)는 카메라(예: 도 4의 카메라(430))를 이용하여 획득한 이미지에 기반하여 외부 객체의 특성을 확인할 수 있다. 일 실시예에 따르면, 전자 장치(400)는 RGB 카메라 방식 또는 뎁스 카메라 방식으로 구현된 카메라(430)를 이용하여 획득한 이미지에 기반하여 사용자의 얼굴 및 신체의 각 부분들(예: 어깨, 팔목, 무릎 또는 관절의 위치)을 인식하고, 인식된 결과에 기반하여 신체의 특성(예: 특정 관절의 가용 각도, 신체 부분들 각각의 크기, 길이)을 획득할 수 있다. 일 실시예에 따르면, 전자 장치(400)는 전자 장치(400)와 연결된 외부 전자 장치(예; 사용자의 정보를 저장하는 서버(예: 도 1의 서버(108)) 또는 외부 전자 장치(예: 도 1의 전자 장치(102))로부터 외부 객체의 특성을 수신할 수도 있다.
본 발명의 다양한 실시예에 따르면, 전자 장치(400)는 획득한 외부 객체의 특성에 기반하여 디스플레이될 제 2 컨텐츠를 결정 또는 선택할 수 있다.
도 5f는 전자 장치(400)가 사용자의 팔 반경을 측정하는 실시예를 도시한 도면이다. 도 5f를 참조하면, 전자 장치(400)는 제 1 컨텐츠에 포함된 사용자의 팔 반경을 측정을 위한 제스처를 유도하는 음성(예: 팔을 위아래로 최대한 넓게 흔들어 보세요) 또는 영상 컨텐츠를 출력할 수 있다. 전자 장치(400)는 왼쪽 팔을 움직이는 사용자 입력(532) 또는 오른쪽 팔을 움직이는 사용자 입력(533)을 감지하고, 사용자 입력(532, 533)에 기반하여 사용자의 팔의 반경을 확인할 수 있다. 전자 장치(400)는 사용자의 팔의 반경에 기반하여 디스플레이될 제 2 컨텐츠를 결정할 수 있다. 전자 장치(400)는 팔의 반경을 확인하는 동안, 비쥬얼 오브젝트(534, 535)를 팔의 움직임에 대응하도록 이동하는 동작을 디스플레이(410) 상에 디스플레이할 수 있다. 디스플레이(410)는 사용자의 반사 이미지(531)가 표시되면서, 비쥬얼 오브젝트(534, 535)를 디스플레이할 수 있다.
도 5g는 전자 장치(400)가 사용자의 키를 측정하는 실시예를 도시한 도면이다. 도 5g를 참조하면, 전자 장치(400)는 제 1 컨텐츠에 포함된 사용자의 키의 측정을 위한 제스처를 유도하는 음성(예: 선(537)이 머리 끝에 위치할 때 다가오는 것을 멈춰주세요) 또는 영상 컨텐츠를 출력할 수 있다. 전자 장치(400)는 사용자가 접근하는 동작을 감지하고, 사용자와 디스플레이(410) 사이의 거리를 측정할 수 있다. 전자 장치(400)는 사용자와 디스플레이 사이의 거리 및 디스플레이(410) 상에 디스플레이되는 선의 좌표에 대응하는 선의 높이에 기반하여 사용자의 키를 측정할 수 있다. 전자 장치(400)는 사용자의 키를 측정하는 동안, 비쥬얼 오브젝트(534, 535)를 팔의 움직임에 대응하도록 이동하는 동작을 디스플레이(410) 상에 디스플레이할 수 있다. 디스플레이(410)는 사용자의 반사 이미지(531)가 표시되면서, 비쥬얼 오브젝트(534, 535)를 디스플레이할 수 있다.
도 5h는 전자 장치(400)가 사용자의 허리의 위치를 측정하는 실시예를 도시한 도면이다. 도 5h를 참조하면, 전자 장치(400)는 제 1 컨텐츠에 포함된 사용자의 허리의 위치 측정을 위한 제스처를 유도하는 음성(예: 아이템(539)을 무릎 위에 올려 몇초 동안 유지하는 동작을 수행하세요) 또는 영상 컨텐츠를 출력할 수 있다. 디스플레이(410)는 사용자의 반사 이미지(531)가 표시되면서, 아이템(539)을 디스플레이할 수 있다. 디스플레이 상에 디스플레이되는 아이템(539)은 전자 장치(400)가 가상으로 출력하는 정지 이미지 또는 움직임이 가능한 이미지로써, 전자 장치(400)는 아이템(539)의 위치에 기반하여 사용자의 허리의 위치를 측정할 수 있다. 전자 장치(400)는 사용자의 동작을 감지함에 대응하여, 아이템(539)의 위치 정보에 기반하여 사용자의 허리의 위치를 결정할 수 있다. 도 5h는 사용자의 허리의 위치를 측정하는 실시예이나, 도 5h에 기재된 방식을 통해 사용자의 다양한 신체 부분에 대한 위치를 측정할 수 있다.
도 5i는 전자 장치(400)가 사용자의 이동 반경을 측정하는 실시예를 도시한 도면이다. 도 5i를 참조하면, 전자 장치(400)는 제 1 컨텐츠에 포함된 사용자의 이동 반경을 측정을 위한 제스처를 유도하는 음성(예; 특정 운동 도구(예: 공 또는 아령)를 디스플레이(410) 상의 지정된 위치에 가져다 놓으세요) 또는 영상 컨텐츠를 출력할 수 있다. 디스플레이(410) 상에는 사용자의 반사 이미지(531), 특정 운동 도구의 반사 이미지(541)가 표시될 수 있다. 전자 장치(400)는 특정 운동 도구를 디스플레이(410) 상에 지정된 영역에 비추도록 특정 운동 도구를 이동시키는 사용자 입력을 감지하고, 사용자의 이동 반경을 측정할 수 있다. 전자 장치(400)는 사용자의 이동 반경에 기반하여 디스플레이될 제 2 컨텐츠를 결정할 수 있다.
도 6a 및 도 6b는 본 발명의 다양한 실시예에 따른 전자 장치에서, 제 1 컨텐츠 및 비쥬얼 오브젝트를 디스플레이하는 실시예를 도시한 도면이다.
본 발명의 다양한 실시예에 따르면, 전자 장치(예: 도 4의 전자 장치(400))(또는, 프로세서(예: 도 4의 프로세서(420))는 외부 객체의 특정 부분에 대응하는 디스플레이(예: 도 4의 디스플레이(410)) 상에 적어도 하나 이상의 비쥬얼 오브젝트를 디스플레이할 수 있다. 비쥬얼 오브젝트의 위치 정보는 전자 장치(400)가 외부 객체(예: 사람)의 적어도 하나의 영역(예: 신체 부분)의 반사 이미지의 위치를 획득하는 동작에 이용될 수 있다. 전자 장치(400)는, 외부 객체의 일부분의 반사 이미지의 위치가 비쥬얼 오브젝트의 디스플레이(420) 상의 위치와 일치함을 확인함에 대응하여, 외부 객체의 일부분의 반사 이미지의 위치가 비쥬얼 오브젝트의 위치에 해당함을 결정할 수 있다. 일 실시예에 따르면, 전자 장치(400)는 외부 객체의 일부분의 반사 이미지의 위치가 비쥬얼 오브젝트의 디스플레이(420) 상의 위치와 일치함을 지시하는 사용자 입력(예: 음성 입력, 제스처 입력)을 수신 여부에 따라 외부 객체의 일부분의 반사 이미지의 위치가 비쥬얼 오브젝트의 디스플레이(420) 상의 위치와 일치하는지 여부를 확인할 수 있다.
도 6a는 사용자의 신체의 일부분(예: 머리, 어깨, 무릎 또는 발)의 반사 이미지의 위치를 확인하기 위해 비쥬얼 오브젝트를 디스플레이하는 실시예를 도시한 도면이다.
도 6a를 참조하면, 전자 장치(400)는 비쥬얼 오브젝트(621)를 이용하여 사용자의 신체의 일부분의 반사 이미지(610)의 위치를 확인할 수 있다. 비쥬얼 오브젝트(621)는 이동 가능한 이미지로, 도 6a에서는 수직 방향으로 이동할 수 있다. 전자 장치(400)는 음성 컨텐츠(예: 머리, 어깨, 무릎 또는 발에 그림이 도착하면 손을 움직여 주세요) 및 비쥬얼 오브젝트를 포함하는 제 1 컨텐츠를 출력할 수 있다. 전자 장치(400)는 사용자의 제스처를 수신하기 위해 카메라(예: 도 4의 카메라(430))를 활성화한 상태일 수 있다.
도 6a의 (1)을 참조하면, 전자 장치(400)는 카메라(430)를 이용하여 사용자 제스처(예: 비쥬얼 오브젝트(621)가 머리에 도달할 때의 사용자 제스처)를 감지할 수 있다. 전자 장치(400)는 사용자 제스처를 수신한 시간에 대응하는 비쥬얼 오브젝트(421)의 위치(또는, 좌표)에 기반하여 사용자의 머리의 반사 이미지의 위치를 결정할 수 있다.
도 6a의 (2)를 참조하면, 전자 장치(400)는 카메라(430)를 이용하여 사용자 제스처(예: 비쥬얼 오브젝트(621)가 어깨에 도달할 때의 사용자 제스처)를 감지할 수 있다. 전자 장치(400)는 사용자 제스처를 수신한 시간에 대응하는 비쥬얼 오브젝트(421)의 위치(또는, 좌표)에 기반하여 사용자의 어깨의 반사 이미지의 위치를 결정할 수 있다.
도 6a의 (3)를 참조하면, 전자 장치(400)는 카메라(430)를 이용하여 사용자 제스처(예: 비쥬얼 오브젝트(621)가 무릎에 도달할 때의 사용자 제스처)를 감지할 수 있다. 전자 장치(400)는 사용자 제스처를 수신한 시간에 대응하는 비쥬얼 오브젝트(421)의 위치(또는, 좌표)에 기반하여 사용자의 무릎의 반사 이미지의 위치를 결정할 수 있다.
본 발명의 다양한 실시예에 따르면, 전자 장치(400)는 제 1 컨텐츠를 디스플레이하는 동안 카메라(430)를 이용하여 획득한 이미지를 분석한 결과에 기반하여 사용자 이외의 다른 외부 객체(예: 운동 기구)가 존재하는지 여부 및 다른 외부 객체의 종류(예: 아령, 공)를 확인할 수 있다. 전자 장치(400)는 외부 객체의 식별 결과에 기반하여 비쥬얼 오브젝트의 특성을 변경할 수 있다. 비쥬얼 오브젝트의 특성은 비쥬얼 오브젝트의 크기, 모양을 포함할 수 있다.
도 6b의 (1)을 참조하면, 전자 장치(400)는 사용자의 신체의 특성(예; 사용자의 키, 사용자의 이동 반경)을 측정하기 위한 비쥬얼 오브젝트(630)를 포함하는 제 1 컨텐츠를 디스플레이할 수 있다. 디스플레이(410) 상에는 비쥬얼 오브젝트(630) 및 사용자의 반사 이미지(631)가 표시될 수 있다. 전자 장치(400)는 제 1 컨텐츠를 디스플레이하는 동안, 카메라(430)를 이용하여 획득한 이미지를 분석한 결과에 기반하여 사용자 이외의 다른 외부 객체(예: 공)를 식별하고, 비쥬얼 오브젝트(630)의 특성을 변경할 수 있다.
도 6b의 (2)를 참조하면, 전자 장치(400)는 다른 외부 객체를 식별함에 대응하여, 기존에 디스플레이되던 비쥬얼 오브젝트(630)의 특성(예: 크기, 모양)이 변경된 비쥬얼 오브젝트(640)를 디스플레이할 수 있다. 디스플레이(410) 상에는 비쥬얼 오브젝트(640), 사용자의 반사 이미지(633) 및 다른 외부 객체의 반사 이미지(635)가 표시될 수 있다.
도 7a, 도 7b, 도 7c 및 도 7d는 본 발명의 다양한 실시예에 따른 전자 장치에서, 사용자의 신체 정보를 추가로 획득하는 실시예를 도시한 도면이다.
본 발명의 다양한 실시예에 따르면, 전자 장치(예: 도 4의 전자 장치(400))는 제 1 컨텐츠를 디스플레이하는 동안, 외부 객체(예: 도 5a의 외부 객체(511))의 특성을 획득할 수 있다. 예를 들어, 외부 객체(511)가 사용자에 해당하는 경우, 외부 객체(511)의 특성은 사용자의 키, 사용자의 팔의 활동 반경, 사용자의 무릎의 위치를 포함할 수 있다. 이하에서 서술되는 실시예는 외부 객체(511)가 사용자의 신체임을 가정하고 서술한다.
본 발명의 다양한 실시예에 따르면, 전자 장치(400)는 사용자(511)의 일부분에 대한 특성의 정확도가 미리 설정된 값 이하임을 확인할 수 있다.
도 7a는 전자 장치(400)가 외부 객체(511)의 특성을 확인한 결과를 도시한 도면으로, 전자 장치(400)는 사용자의 신체 중 일부 영역(예: 사용자의 다리, 손목, 허리, 배)(711)의 특성을 확인했으나, 사용자의 신체 중 다른 일부 영역(예: 사용자의 팔뚝, 겨드랑이 부분)(715) 또는 사용자의 팔의 이동 반경(713)의 특성을 확인하지 못했거나, 팔의 이동 반경(713) 또는 다른 일부 영역(715)의 확인된 특성의 정확도가 미리 설정된 값 이하임을 확인할 수 있다. 도 7a에 도시된 화면은 디스플레이(410) 상에 디스플레이되는 것으로 도시하고 있으나, 사용자의 신체의 특성을 확인한 결과를 포함하는 화면은 디스플레이(410) 상에 디스플레이되지 않을 수도 있다.
본 발명의 다양한 실시예에 따르면, 전자 장치(400)는 사용자(511)의 일부분(713, 715)에 대한 특성의 정확도가 미리 설정된 값 이하임을 확인함에 대응하여, 외부 객체의 일부 영역의 특성의 정확도를 높이기 위한 추가 컨텐츠인 제 3 컨텐츠를 제공할 수 있다. 제 3 컨텐츠는 외부 객체의 일부 영역의 특성을 획득하기 위한 컨텐츠일 수 있다.
도 7b를 참조하면, 전자 장치(400)는 제 3 컨텐츠를 제공하기 위한 화면(721)을 디스플레이(410) 상에 디스플레이할 수 있다.
도 7c를 참조하면, 전자 장치(400)는 팔 부분에 대한 준비 운동이 포함된 제 3 컨텐츠를 디스플레이(410) 상에 디스플레이할 수 있다. 전자 장치(400)는 사용자의 팔 부분에 대한 측정을 위한 제스처를 유도하는 음성(예: 팔을 위아래로 흔들어봐요) 또는 영상 컨텐츠를 출력할 수 있다. 전자 장치(400)는 왼쪽 팔을 움직이는 사용자 입력(731) 또는 오른쪽 팔을 움직이는 사용자 입력(733)을 감지하고, 사용자 입력(731, 733)에 기반하여 사용자의 팔의 반경을 확인할 수 있다. 전자 장치(400)는 팔의 반경을 확인하는 동안, 비쥬얼 오브젝트(735, 737)를 팔의 움직임에 대응하도록 이동하는 동작을 디스플레이(410) 상에 디스플레이할 수 있다. 비쥬얼 오브젝트(735, 737)는 사용자의 반사 이미지(739)와 함께 디스플레이(410) 상에 표시될 수 있다.
도 7d를 참조하면, 전자 장치(400)는 팔 부분의 특성 또는 팔의 이동 반경을 측정함을 완료함에 대응하여, 준비 운동이 종료됨을 지시하는 인디케이터(741)를 디스플레이(410) 상에 디스플레이할 수 있다.
도 8a, 도 8b 및 도 8c는 본 발명의 다양한 실시예에 따른 전자 장치에서, 사용자의 신체 정보에 기반하여 디스플레이될 제 2 컨텐츠를 도시한 도면이다.
본 발명의 다양한 실시예에 따르면, 전자 장치(예: 도 4의 전자 장치(400))의 메모리(예: 도 1의 메모리(130)) 상에는 복수의 제 2 컨텐츠들이 저장될 수 있다. 메모리에 저장된 제 2 컨텐츠들은 외부 전자 장치(예: 도 1의 서버(108), 도 1의 전자 장치(104)))로부터 수신하거나, 전자 장치(400)의 제조 당시에 미리 저장될 수 있다. 저장된 제 2 컨텐츠들 각각은 선택을 위한 메타 데이터가 포함될 수 있다. 메타 데이터는 제 2 컨텐츠에 포함된 가이드 음성의 특성(예: 부드러운 음성), 제 2 컨텐츠에 포함된 배경 음악의 특성, 제 2 컨텐츠에 포함된 운동의 특성(예: 운동 난이도, 운동 속도, 운동 횟수), 운동 도구가 요구되는지 지시하는 인디케이터, 필요한 운동 도구 중 적어도 하나 이상의 정보가 포함될 수 있다. 전자 장치(400)는 사용자의 신체 정보를 확인하고, 사용자의 신체 정보 및 메타 데이터에 기반하여 디스플레이될 제 2 컨텐츠를 선택 또는 결정할 수 있다. 예를 들면, 전자 장치(400)는 사용자의 신체 정보에 기반하여 사용자의 키가 미리 설정된 값(예: 130cm) 이하(또는, 미만)임을 확인함에 대응하여, 어린이들이 사용 가능한 제 2 컨텐츠를 제공할 수 있다. 다른 예를 들면, 전자 장치(400)는 사용자의 신체 정보에 기반하여 사용자의 나이가 미리 설정된 값(예: 65세) 이상임을 확인함에 대응하여, 노인이 사용 가능한 제 2 컨텐츠를 제공할 수 있다. 또 다른 예를 들면, 전자 장치(400)는 사용자의 신체 정보(예: 강한 근력을 가짐)를 확인하고, 신체 정보에 대응하는 제 2 컨텐츠(예: 상대적으로 무거운 운동 기구(덤벨)를 이용한 운동이 포함된 컨텐츠)를 선택할 수 있다. 또 다른 예를 들면, 전자 장치(400)는 사용자의 신체 정보(예: 약한 근력을 가짐)를 확인하고, 신체 정보에 대응하는 제 2 컨텐츠(예: 상대적으로 가벼운 운동 기구(폼-롤러)를 이용한 운동이 포함된 컨텐츠)를 선택할 수 있다.
본 발명의 다양한 실시예에 따르면, 전자 장치(400)는 선택된 제 2 컨텐츠를 디스플레이(410) 상에 디스플레이할 수 있다.
도 8a는 제 2 컨텐츠가 디스플레이(410) 상에 디스플레이되는 실시예를 도시한 도면으로, 제 2 컨텐츠는 사용자가 운동 도구(예: 공)을 가지고 하는 운동을 가이드하는 컨텐츠를 의미할 수 있다. 제 2 컨텐츠는 사용자의 운동 상태와 관련된 데이터를 디스플레이하는 영역(811), 사용자의 운동과 관련된 영상을 디스플레이하는 영역(813), 사용자의 운동과 관련된 시각 가이드(817)를 포함할 수 있다.
본 발명의 다양한 실시예에 따르면, 시각 가이드(817)는 증강 현실 형태로 구현될 수 있고, 시각 가이드(817)는 사용자의 반사 이미지(815) 상에 오버레이되어 디스플레이될 수 있다.
본 발명의 다양한 실시예에 따르면, 전자 장치(400)는 제 2 컨텐츠를 제공함에 있어, 사용자의 신체 정보에 기반하여 제 2 컨텐츠을 구성하는 구성 요소들의 레이아웃을 변경할 수 있다. 전자 장치(400)는 사용자의 운동 상태와 관련된 데이터를 디스플레이하는 영역(811), 사용자의 운동과 관련된 영상을 디스플레이하는 영역(813)이 사용자의 반사 이미지와 겹치지 않도록 영역들(811, 813)의 위치를 변경하거나, 크기를 변경하는 방식으로 구성 요소들의 레이아웃을 변경할 수 있다.
도 8b는 제 2 컨텐츠가 디스플레이(410) 상에 디스플레이되는 실시예를 도시한 도면이다.
본 발명의 다양한 실시예에 따르면, 전자 장치(400)는 운동 도구(예: 공)의 이동과 관련된 가이드(817)를 디스플레이(410) 상에 디스플레이 할 수 있다. 디스플레이(410)는 사용자의 반사 이미지(815), 운동 도구의 반사 이미지(819) 및 가이드(817)를 표시할 수 있다.
본 발명의 다양한 실시예에 따르면, 전자 장치(400)는 카메라(430)를 이용하여 운동 도구의 움직임을 추적하고, 운동 도구의 움직임에 대한 특성(예: 운동 도구의 움직임이 가이드(817)와 일치하는 정도, 운동 종류, 운동 도구의 이동 거리, 운동 도구의 이동 속도 또는 운동 도구의 종류)에 기반하여 사용자의 운동과 관련된 점수를 계산할 수 있다. 운동과 관련된 점수는 사용자가 운동에 포함된 복수의 동작들 중 하나의 동작을 수행할 때마다 측정될 수 있다. 계산된 점수는 사용자의 운동 상태와 관련된 데이터를 디스플레이하는 영역(811) 상에 디스플레이될 수 있다.
도 8c는 도 8b에 도시된 다른 제 2 컨텐츠가 디스플레이(410) 상에 디스플레이되는 실시예를 도시한 도면이다.
본 발명의 다양한 실시예에 따르면, 제 2 컨텐츠는 사용자의 운동 상태와 관련된 데이터를 디스플레이하는 영역(811), 사용자의 운동과 관련된 영상을 디스플레이하는 영역(813), 사용자의 운동과 관련된 시각 가이드(821)를 포함할 수 있다.
본 발명의 다양한 실시예에 따르면, 사용자의 운동과 관련된 시각 가이드(821)는 사용자가 운동을 수행하면서 발생하는 사용자 또는 운동 도구의 이동의 예상 경로를 시각적으로 표시(예: 점선, 실선, 면 또는 애니메이션 형태)한 가이드를 의미할 수 있다. 전자 장치(400)는 제 1 컨텐츠를 디스플레이하는 동안 획득한 사용자의 신체 정보에 기반하여 시각 가이드(821)의 위치 또는 크기를 조절할 수 있다.
도 8c에 도시된 시각 가이드(821)는 사용자가 팔을 이용한 스트레칭을 수행하면서 발생하는 사용자의 이동 경로를 도시하고 있다. 전자 장치(400)는 제 1 컨텐츠를 디스플레이하는 동안 획득한 사용자의 이동 반경에 기반하여 시각 가이드(821)의 길이를 설정할 수 있다.
도 9a, 도 9b, 도 9c 및 도 9d는 본 발명의 다양한 실시예에 따른 전자 장치에서, 사용자의 신체 정보에 기반하여 디스플레이될 제 2 컨텐츠를 도시한 도면이다.
본 발명의 다양한 실시예에 따르면, 제 2 컨텐츠는 사용자의 운동 상태와 관련된 데이터를 디스플레이하는 영역(예: 도 8a의 811), 사용자의 운동과 관련된 영상을 디스플레이하는 영역(예: 도 8a의 813), 사용자의 운동과 관련된 시각 가이드(예; 도 8a의 817)를 포함할 수 있다.
본 발명의 다양한 실시예에 따르면, 전자 장치(400)는 제 1 컨텐츠를 디스플레이하는 동안 카메라(430)를 이용하여 획득한 사용자의 신체 정보 및/또는 전자 장치(400)와 연결된 다른 전자 장치(104, 108)로부터 수신한 사용자의 신체 정보에 기반하여 운동 목표 및 운동과 관련된 시각 가이드를 생성할 수 있다.
도 9a는 제 2 컨텐츠에 포함된 사용자의 운동 상태와 관련된 데이터(예: 도 8a의 811)를 도시한 도면이다.
본 발명의 다양한 실시예에 따르면, 전자 장치(400)는 카메라(430)를 이용하여 획득한 사용자의 신체 정보 및/또는 전자 장치(400)와 연결된 다른 전자 장치(104, 108)로부터 수신한 사용자의 신체 정보에 기반하여 운동 목표를 설정할 수 있다. 사용자의 신체 정보를 고려한 운동 목표를 설정함으로써, 사용자마다 서로 다른 운동 목표가 설정될 수 있다. 운동 목표는 운동 도구의 움직임이 가이드(817)와 일치하는 정도, 운동 종류, 운동 도구의 이동 거리, 운동 도구의 이동 속도, 운동 도구의 종류 중 적어도 하나 이상에 따라서 사용자의 운동과 관련된 목표 점수, 운동을 통해 사용자가 소비하는 칼로리와 관련된 목표 칼로리, 사용자가 운동을 하는 시간과 관련된 목표 운동 시간 및 사용자가 운동을 수행할 때 측정된 사용자의 심박수와 관련된 목표 심박수 중 적어도 하나 이상을 포함할 수 있다.
본 발명의 다양한 실시예에 따르면, 전자 장치(400)는 운동 목표 및 운동 상태와 관련된 정보를 운동 상태와 관련된 데이터를 디스플레이하는 영역(811) 상에 디스플레이할 수 있다. 도 9a를 참조하면, 운동 상태와 관련된 데이터를 디스플레이하는 영역(811)은 사용자의 운동 점수 및 목표 점수를 디스플레이하는 점수 영역(901), 사용자가 실제로 소비한 칼로리 및 목표 칼로리를 디스플레이하는 칼로리 영역(903), 사용자가 실제로 운동한 운동 시간 및 목표 운동 시간을 디스플레이하는 운동 시간 영역(905) 및 사용자의 심박수 및 목표 심박수를 디스플레이하는 심박수 영역(907) 중 적어도 하나 이상을 포함할 수 있다.
도 9b 및 도 9c는 제 2 컨텐츠에 포함된 운동과 관련된 시각 가이드를 도시한 도면이다.
본 발명의 다양한 실시예에 따르면, 전자 장치(400)는 카메라(430)를 이용하여 획득한 사용자의 신체 정보 및/또는 전자 장치(400)와 연결된 다른 전자 장치(104, 108)로부터 수신한 사용자의 신체 정보에 기반하여 시각 가이드를 생성할 수 있다. 시각 가이드는 운동 동작 별 사용자의 신체 정보를 고려하여 적정 자세 및 이동 범위를 포함할 수 있다.
본 발명의 다양한 실시예에 따르면, 시각 가이드는 사용자의 신체 정보에 기반하여 생성되는 적어도 하나 이상의 운동 기준점을 포함할 수 있다. 운동 기준점은 기준점에 대응하는 사용자의 신체 부분의 위치 또는 자세를 표시하는 인디케이터를 의미할 수 있다. 일 실시예에 따르면, 시각 가이드는 적어도 하나 이상의 운동 기준점들을 연결한 선으로 구현될 수 있다.
도 9b를 참조하면, 전자 장치(400)는 디스플레이(410) 상에 특정 사용자에게 제공되는 시각 가이드(911)를 디스플레이할 수 있다. 디스플레이(410) 상에는 시각 가이드(911) 및 사용자의 반사 이미지(912)가 같이 표시될 수 있다.
도 9c를 참조하면, 전자 장치(400)는 디스플레이(410) 상에 다른 사용자에게 제공되는 시각 가이드(913)를 디스플레이할 수 있다. 디스플레이(410)는, 사용자의 반사 이미지(914)가 표시되면서, 시각 가이드(913)를 디스플레이할 수 있다.
본 발명의 다양한 실시예에 따르면, 전자 장치(400)는 사용자의 신체 정보에 기반하여 시각 가이드를 생성 및 디스플레이함으로써, 사용자마다 서로 다른 시각 가이드가 생성 및 디스플레이될 수 있다. 예를 들면, 특정 사용자가 다른 사용자들에 비해 상대적으로 운동 능력이 좋은 경우, 전자 장치(400)는 특정 사용자에게 제공되는 시각 가이드는 다른 사용자에게 제공되는 시각 가이드에 비해 상대적으로 높은 기준(예: 운동 자세, 운동 속도, 동작 범위)을 가질 수 있다.
도 9b에 도시된 시각 가이드(912)는 도 9c에 도시된 시각 가이드(913)에 비해 상대적으로 높은 기준을 가짐을 확인할 수 있다.
도 9d는 본 발명의 다양한 실시예에 따른 전자 장치(400)가 디스플레이(410) 상에 디스플레이하는 가이드 정보를 도시한 도면이다.
본 발명의 다양한 실시예에 따르면, 전자 장치(400)는 사용자에 신체 정보에 기반하여 생성되는 적어도 하나 이상의 운동 기준점(924, 925, 926, 927, 928, 929, 930)을 포함하는 운동 가이드(930)를 사용자의 신체 정보에 기반하여 생성할 수 있다. 운동 기준점(924, 925, 926, 927, 928, 929, 930)은 운동 기준점에 대응하는 사용자의 신체 부분의 위치 또는 자세를 표시하는 인디케이터를 의미할 수 있다. 일 실시예에 따르면, 시각 가이드(930)는 적어도 하나 이상의 운동 기준점들(924, 925, 926, 927, 928, 929, 930)을 연결한 선으로 구현될 수 있다.
본 발명의 다양한 실시예에 따르면, 전자 장치(400)는 카메라(430)를 이용하여 수집한 영상에 기반하여 운동 기준점들(924, 925, 926, 927, 928, 929, 930) 중 사용자의 신체의 위치와 일치하는 운동 기준점들의 개수에 기반하여 사용자의 운동 점수를 결정할 수 있다. 전자 장치(400)는 운동의 난이도에 따라 운동 기준점들의 개수를 조절할 수 있다. 예를 들면, 전자 장치(400)는 같은 동작이라도 운동의 난이도를 높일수록 운동 기준점들의 개수를 증가시킬 수 있다.
본 발명의 다양한 실시예에 따르면, 전자 장치(400)는 사용자의 운동과 관련된 영상(921)을 운동 가이드(930)와 함께 디스플레이할 수 있다. 디스플레이(410)는, 사용자의 반사 이미지가 표시되면서, 운동 가이드(930)를 사용자의 반사 이미지가 표시된 영역에 디스플레이할 수 있어, 사용자는 운동 가이드(930) 및 반사 이미지를 동시에 확인하면서, 운동을 수행할 수 있다.
도 10a, 도 10b, 도 10c 및 도 10d는 본 발명의 다양한 실시예에 따른 전자 장치에서, 다른 외부 객체를 식별한 결과에 기반하여 디스플레이될 제 2 컨텐츠를 도시한 도면이다.
본 발명의 다양한 실시예에 따르면, 전자 장치(예: 도 4의 전자 장치(400))는 제 1 컨텐츠를 디스플레이하는 동안 카메라(430)를 이용하여 획득한 이미지를 분석한 결과에 기반하여 다른 외부 객체가 존재하는지 여부 및 외부 객체의 종류를 확인할 수 있다. 다른 외부 객체는 사용자가 구비한 운동 기구(예: 폼 롤러, 아령)를 포함할 수 있다. 전자 장치(400)는 외부 객체의 식별 결과에 기반하여 제 2 컨텐츠를 선택 또는 결정할 수 있다. 전자 장치(400)는 특정 외부 객체를 이용할 수 있는 제 2 컨텐츠를 선택하고, 선택된 제 2 컨텐츠를 디스플레이(예: 도 4의 디스플레이(410)) 상에 디스플레이할 수 있다.
도 10a을 참조하면, 전자 장치(400)는 카메라(430)를 이용하여 획득한 이미지를 분석한 결과에 기반하여, 공이 존재함을 확인하고, 공을 이용할 수 있는 제 2 컨텐츠를 선택 및 디스플레이할 수 있다.
본 발명의 다양한 실시예에 따르면, 전자 장치(400)는 공을 이용한 운동과 관련된 공의 이동 지점(1005) 및 공을 이용한 운동과 관련된 신체의 이동 지점을 지시하는 운동 기준점(1007)을 포함하는 시각 가이드를 디스플레이(410) 상에 디스플레이할 수 있다. 디스플레이(410)는 운동을 수행하는 사용자의 반사 이미지(1001) 및 공의 반사 이미지(1003)가 표시되면서, 시각 가이드를 디스플레이할 수 있다. 전자 장치(400)는 적어도 하나 이상의 운동 기준점(1007) 중 사용자의 신체와 일치하는 운동 기준점의 개수 및 공이 공의 이동 지점(1005)으로 근접한 정도에 기반하여 운동 점수를 계산하고, 운동 점수와 관련된 피드백을 다양한 수단(예: 음성)을 통해 사용자에게 제공할 수 있다.
도 10b를 참조하면, 전자 장치(400)는 카메라(430)를 이용하여 획득한 이미지를 분석한 결과에 기반하여, 아령이 존재함을 확인하고, 아령을 이용할 수 있는 제 2 컨텐츠를 선택 및 디스플레이할 수 있다.
본 발명의 다양한 실시예에 따르면, 전자 장치(400)는 아령을 이용한 운동과 관련된 아령의 이동 지점(1015) 및 아령을 이용한 운동과 관련된 신체의 이동 지점을 지시하는 운동 기준점(1017)을 포함하는 시각 가이드를 디스플레이(410) 상에 디스플레이할 수 있다. 디스플레이(410)는 운동을 수행하는 사용자의 반사 이미지(1011) 및 아령의 반사 이미지(1013)가 표시되면서, 시각 가이드를 디스플레이할 수 있다. 전자 장치(400)는 적어도 하나 이상의 운동 기준점(1017) 중 사용자의 신체와 일치하는 운동 기준점의 개수 및 아령이 아령의 이동 지점(1015)으로 근접한 정도에 기반하여 운동 점수를 계산하고, 운동 점수와 관련된 피드백을 다양한 수단(예: 음성)을 통해 사용자에게 제공할 수 있다.
본 발명의 다양한 실시예에 따르면, 전자 장치(예: 도 4의 전자 장치(400))는 제 1 컨텐츠를 디스플레이하는 동안 카메라(430)를 이용하여 획득한 이미지를 분석한 결과에 기반하여 다른 외부 객체가 존재하지 않음을 확인할 수 있다. 전자 장치(400)는 특정 운동 기구를 사용하지 않는 운동(예: 맨손 운동)과 관련된 제 2 컨텐츠를 선택하고, 선택된 제 2 컨텐츠를 디스플레이(410) 상에 디스플레이할 수 있다.
도 10c 및 도 10d는 전자 장치(400)가 특정 운동 기구를 사용하지 않는 운동과 관련된 제 2 컨텐츠를 디스플레이하는 실시예를 도시한 도면이다.
도 10c를 참조하면, 전자 장치(400)는 운동(예: 스쿼트)과 관련된 신체의 이동 지점을 지시하는 운동 기준점(1025), 운동 기준점(1025)에 기반하여 생성된 신체의 이동 방향을 지시하는 인디케이터(1023)를 포함하는 시각 가이드를 디스플레이(410) 상에 디스플레이할 수 있다. 디스플레이(410)는 운동을 수행하는 사용자의 반사 이미지(1021)가 표시되면서, 시각 가이드를 디스플레이할 수 있다. 전자 장치(400)는 적어도 하나 이상의 운동 기준점(1025) 중 사용자의 신체와 일치하는 운동 기준점의 개수에 기반하여 운동 점수를 계산하고, 운동 점수와 관련된 피드백 또는 운동 자세와 관련된 피드백(예: 허벅지와 무릎이 수평이 되도록 유지하세요)을 다양한 수단(예: 음성)을 통해 사용자에게 제공할 수 있다. 일 실시예에 따르면, 전자 장치(400)는 카메라(430)를 이용하여 획득한 이미지를 분석한 결과에 기반하여, 사용자의 자세를 확인하고, 사용자의 자세와 시각 가이드를 비교하는 정보를 디스플레이(410) 상에 출력할 수도 있다.
도 10d를 참조하면, 전자 장치(400)는 운동(예: 다운 레그)과 관련된 신체의 이동 지점을 지시하는 운동 기준점(1035), 운동 기준점(1035)에 기반하여 생성된 신체의 이동 방향을 지시하는 인디케이터(1033)를 포함하는 시각 가이드를 디스플레이(410) 상에 디스플레이할 수 있다. 디스플레이(410)는 운동을 수행하는 사용자의 반사 이미지(1031)가 표시되면서, 시각 가이드를 디스플레이할 수 있다. 전자 장치(400)는 적어도 하나 이상의 운동 기준점(1035) 중 사용자의 신체와 일치하는 운동 기준점의 개수에 기반하여 운동 점수를 계산하고, 운동 점수와 관련된 피드백 또는 운동 자세와 관련된 피드백(예: 발바닥을 바닥에 붙이고 무릎고 등을 완전히 피세요)을 다양한 수단(예: 음성)을 통해 사용자에게 제공할 수 있다. 일 실시예에 따르면, 전자 장치(400)는 카메라(430)를 이용하여 획득한 이미지를 분석한 결과에 기반하여, 사용자의 자세를 확인하고, 사용자의 자세와 시각 가이드를 비교하는 정보를 디스플레이(410) 상에 출력할 수도 있다.
도 11a, 도 11b, 도 11c 및 도 11d는 본 발명의 다양한 실시예에 따른 전자 장치에서, 전자 장치와 외부 객체 사이의 거리에 따라 디스플레이될 제 2 컨텐츠를 도시한 도면이다.
본 발명의 다양한 실시예에 따르면, 전자 장치(예: 도 4의 전자 장치(400))는 디스플레이(예: 도 4의 디스플레이(410))와 외부 객체의 거리에 기반하여 제 2 컨텐츠가 디스플레이될 위치를 결정할 수 있다. 전자 장치(400)는 카메라(예: 도 4의 카메라(430))가 수집한 뎁스 이미지에 기반하여 카메라(430)와 외부 객체의 거리를 결정하고, 카메라(430)와 외부 객체 사이의 거리에 기반하여 디스플레이(410)와 외부 객체의 거리를 결정할 수 있다. 카메라(430)와 외부 객체의 거리는 디스플레이(410)와 외부 객체의 거리와 동일하거나, 유사할 수 있다. 전자 장치(400)는 디스플레이(410)와 외부 객체 사이의 거리에 기반하여 디스플레이될 제 2 컨텐츠의 디스플레이 방식을 다르게 설정할 수 있다.
본 발명의 다양한 실시예에 따르면, 전자 장치(400)는 디스플레이(410)와 외부 객체 사이의 거리가 증가할수록 표시되는 정보(예: 운동 기준점, 시각 가이드)의 양은 감소시키고, 정보의 디스플레이되는 크기를 증가시킬 수 있다. 반대로, 전자 장치(400)는 디스플레이(410)와 외부 객체 사이의 거리가 감소할수록 표시되는 정보의 양을 증가시킬 수 있다.
도 11a 및 도 11b는 디스플레이(410)와 외부 객체 사이의 거리에 따라 다르게 디스플레이되는 시각 가이드를 도시한 도면이다.
도 11a의 시각 가이드는 디스플레이(410)와 외부 객체 사이의 거리가 도 11b에 비해 큰 경우에 디스플레이되는 시각 가이드(1110)를 도시하고 있고, 도 11b의 시각 가이드는 디스플레이(410)와 외부 객체 사이의 거리가 도 11a에 비해 작은 경우 디스플레이되는 시각 가이드(1120)를 도시한다.
도 11a를 참조하면, 전자 장치(400)는 디스플레이(410)와 외부 객체 사이의 거리가 상대적으로 큰 경우, 표시되는 정보를 크게 표시하면서, 표시되는 정보의 양을 최소화할 수 있다. 디스플레이(410)와 외부 객체 사이의 거리가 증가할수록 표시되는 정보(예: 운동 기준점(1111, 1113, 1115))의 양은 도 11b에 도시된 정보(예; 운동 기준점(1121, 1122, 1123, 1124, 1125))에 비해 작을 수 있다.
도 11b를 참조하면, 전자 장치(400)는 디스플레이(410)와 외부 객체 사이의 거리가 감소할수록, 표시되는 정보의 양을 증가시킬 수 있다. 표시되는 정보의 양이 증가하는 것은 사용자에게 좀 더 세부적인 정보를 제공할 수 있으며, 더 나아가 사용자에게 정확한 운동 자세를 제공할 수 있다. 전자 장치(400)는 디스플레이(410)와 외부 객체 사이의 거리가 감소할수록, 제 2 컨텐츠의 디스플레이 위치를 디스플레이(410)의 상부로 이동시킬 수 있다. 전자 장치(400)는 외부 객체와 디스플레이(410) 사이의 거리가 감소하면서, 특정 위치(1126) 상에는 제 2 컨텐츠를 제공하지 않을 수 있다. 특정 위치(1126) 상에는 외부 객체의 반사 이미지만 표시될 수 있다.
본 발명의 다양한 실시예에 따르면, 전자 장치(400)는 외부 객체와 디스플레이(410) 사이의 거리에 기반하여 디스플레이될 제 2 컨텐츠를 결정할 수 있다. 예를 들면, 전자 장치(400)는 사용자와 디스플레이(410) 사이의 거리가 미리 설정된 값을 이상(또는, 초과)임을 확인함에 대응하여, 전신 운동과 관련된 제 2 컨텐츠를 선택 또는 결정할 수 있다. 사용자와 디스플레이(410) 사이의 거리가 미리 설정된 값 이상인 경우, 사용자의 전신이 디스플레이(410) 상에 반사될 수 있기 때문이다. 도 11c를 참조하면, 전자 장치(400)는 사용자와 디스플레이(410) 사이의 거리가 미리 설정된 값 이상임을 확인함에 대응하여, 전신 운동과 관련된 시각 가이드(1130)가 포함된 제 2 컨텐츠를 디스플레이(410) 상에 디스플레이할 수 있다.
다른 예를 들면, 전자 장치(400)는 사용자와 디스플레이(410) 사이의 거리가 미리 설정된 값 미만(또는, 이하)임을 확인함에 대응하여, 사용자의 신체의 일부와 관련된 제 2 컨텐츠를 선택 또는 결정할 수 있다. 사용자와 디스플레이(410) 사이의 거리가 미리 설정된 값 이하인 경우, 사용자의 특정 신체 부위가 디스플레이(410) 상에 반사될 수 있어, 신체의 일부와 관련된 운동 컨텐츠가 적절할 수 있다. 도 11d를 참조하면, 전자 장치(400)는 사용자와 디스플레이(410) 사이의 거리가 미리 설정된 값 이하임을 확인함에 대응하여, 상반신 운동과 관련된 시각 가이드(1140) 또는 하반신 운동과 관련된 시각 가이드(1150)가 포함된 제 2 컨텐츠를 디스플레이(410) 상에 디스플레이할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치는 디스플레이; 카메라; 및 프로세서를 포함하고, 상기 프로세서는 제 1 컨텐츠를 디스플레이하도록 상기 디스플레이를 제어하고, 상기 제 1 컨텐츠가 디스플레이되는 동안, 상기 제 1 컨텐츠에 포함된 비쥬얼 오브젝트의 위치와 상기 디스플레이에 의해 반사되어 표시되는 상기 외부 객체의 반사 이미지(reflective image)의 위치가 일치함을 확인함에 대응하여, 상기 반사 이미지의 위치 정보를 상기 비쥬얼 오브젝트의 위치 정보에 기반하여 결정하고, 제 2 컨텐츠가 디스플레이될 위치를 상기 반사 이미지의 위치 정보에 기반하여 결정하도록 설정될 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치에서, 상기 프로세서는 상기 반사 이미지의 위치와 상기 제 2 컨텐츠의 위치가 서로 일치하도록 상기 제 2 컨텐츠의 위치를 조절하도록 설정될 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치에서, 상기 프로세서는 상기 외부 객체의 적어도 일부에 대한 정보의 정확도가 미리 설정된 값 이하임을 확인함에 대응하여, 상기 외부 객체의 적어도 일부에 대한 정보를 획득하기 위한 비쥬얼 오브젝트를 포함하는 제 3 컨텐츠를 상기 디스플레이 상에 디스플레이하고, 상기 비쥬얼 오브젝트에 대한 상기 사용자의 인터랙션에 대응하여, 상기 외부 객체의 적어도 일부에 대한 정보를 상기 카메라를 이용하여 획득하도록 설정될 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치에서, 상기 프로세서는 상기 외부 객체와 상기 디스플레이 사이의 거리 정보를 상기 카메라를 이용하여 획득하고, 상기 거리 정보에 기반하여 상기 디스플레이될 컨텐츠의 위치를 조절하도록 설정될 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치에서, 상기 프로세서는 상기 제 1 컨텐츠를 디스플레이하기 이전, 상기 카메라를 이용하여 획득한 상기 외부 객체의 위치 정보에 기반하여 상기 제 1 컨텐츠의 디스플레이될 위치를 결정하도록 설정될 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치에서, 상기 외부 객체는 상기 전자 장치의 사용자를 포함하고, 상기 프로세서는 상기 제 1 컨텐츠가 디스플레이되는 동안, 상기 카메라를 이용하여 획득한 상기 사용자를 포함하는 이미지의 분석 결과에 기반하여 상기 사용자의 신체 정보를 획득하고, 디스플레이될 제 2 컨텐츠를 상기 신체 정보에 기반하여 결정하도록 설정될 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치에서, 상기 프로세서는 상기 제 1 컨텐츠가 디스플레이되는 동안, 상기 카메라를 이용하여 획득한 상기 이미지를 분석하여 다른 외부 객체를 식별하고, 상기 다른 외부 객체의 식별 결과에 기반하여 상기 제 2 컨텐츠를 결정하도록 설정될 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치에서, 상기 프로세서는 상기 외부 객체와 상기 디스플레이 사이의 거리 정보를 상기 카메라를 이용하여 획득하고, 상기 거리 정보에 기반하여 상기 제 2컨텐츠를 결정하도록 설정될 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치에서, 상기 프로세서는 상기 외부 객체와 상기 디스플레이 사이의 거리가 미리 설정된 값 이상임을 확인함에 대응하여, 상기 사용자의 신체 전체와 관련된 제 2 컨텐츠를 디스플레이하고, 상기 외부 객체와 상기 디스플레이 사이의 거리가 미리 설정된 값 이상임을 확인함에 대응하여, 상기 사용자의 신체의 일부와 관련된 제 2 컨텐츠를 디스플레이하도록 설정될 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치에서, 상기 제 1 컨텐츠는 사용자의 준비 운동과 관련된 컨텐츠를 포함하고, 상기 제 2 컨텐츠는 상기 준비 운동 이후에 수행되는 상기 사용자의 운동을 위한 컨텐츠일 수 있다.
도 12는 본 발명의 다양한 실시예에 따른 전자 장치의 동작 방법(1200)을 도시한 동작 흐름도이다.
본 발명의 다양한 실시예에 따르면, 동작 1210에서, 전자 장치(예: 도 4의 전자 장치(400))는 제 1 컨텐츠를 디스플레이(예: 도 4의 디스플레이(410)) 상에 디스플레이할 수 있다.
본 발명의 다양한 실시예에 따르면, 제 1 컨텐츠는 전자 장치(400)가 외부 객체에 대한 정보를 획득하기 위해 제공되는 컨텐츠일 수 있다. 일 실시예에 따르면, 제 1 컨텐츠는 디스플레이될 컨텐츠의 위치를 캘리브레이션하기 위한 다양한 정보들을 획득하기 위해서 제공되는 컨텐츠일 수 있다. 전자 장치(400)가 디스플레이될 제 2 컨텐츠의 위치를 결정하기 위한 다양한 정보들은 컨텐츠가 디스플레이될 영역의 위치(또는, 디스플레이 상의 좌표)를 결정하기 위해 요구되는 변수들로, 외부 객체의 반사 이미지의 디스플레이(410) 상에서의 위치 정보를 포함할 수 있다.
본 발명의 다양한 실시예에 따르면, 외부 객체(예: 사람)의 적어도 하나 이상의 특징점(예: 손목)의 반사 이미지의 위치를 획득하기 위해서, 제 1 컨텐츠가 디스플레이될 영역 중 특징점에 대응하는 영역에 적어도 하나 이상의 비쥬얼 오브젝트를 디스플레이할 수 있다. 비쥬얼 오브젝트는 제 1 컨텐츠에 포함될 수 있다. 비쥬얼 오브젝트가 디스플레이되는 위치는 특징점에 대응하는 영역으로부터 미리 설정된 거리 이내에 존재하는 위치일 수 있다.
본 발명의 다양한 실시예에 따르면, 제 1 컨텐츠는 전자 장치(400)의 사용자의 준비 운동(예: 스트레칭, 팔 흔들기 또는 무릎 굽히기)과 관련된 컨텐츠일 수 있다. 사용자가 디스플레이(410)의 전면에 존재하는 경우, 사용자는 외부 객체에 대응할 수 있다. 사용자는 사용자의 준비 운동과 관련된 컨텐츠를 제공 받으면서, 준비 운동을 수행할 수 있다.
본 발명의 다양한 실시예에 따르면, 동작 1220에서, 전자 장치(400)는 비쥬얼 오브젝트의 위치와 외부 객체의 반사 이미지의 위치가 일치하는지 여부를 확인할 수 있다.
본 발명의 다양한 실시예에 따르면, 전자 장치(400)는 디스플레이(410) 상의 특정 영역에 비쥬얼 오브젝트를 디스플레이하고, 외부 객체의 반사 이미지의 위치와 비쥬얼 오브젝트의 위치가 일치함을 지시하는 사용자 입력을 수신할 수 있다. 사용자 입력은 다양한 형태로 수신될 수 있다. 예를 들면, 사용자 입력은 사용자가 외부 객체의 반사 이미지의 위치와 비쥬얼 오브젝트의 위치가 일치함을 지시하는 음성으로 구현된 입력일 수 있다. 다른 예를 들면, 사용자 입력은 외부 객체의 반사 이미지의 위치와 비쥬얼 오브젝트의 위치가 일치함을 지시하는 제스처 형태로 구현된 입력일 수 있다. 전자 장치(400)는 사용자 입력을 수신함에 대응하여, 비쥬얼 오브젝트의 위치와 외부 객체의 반사 이미지의 위치가 일치하는 것으로 판단할 수 있다.
본 발명의 다양한 실시예에 따르면, 동작 1230에서, 전자 장치(400)는 비쥬얼 오브젝트의 위치와 외부 객체의 반사 이미지가 일치함을 확인함에 대응하여, 반사 이미지의 위치 정보를 획득할 수 있다.
본 발명의 다양한 실시예에 따르면, 전자 장치(400)는 반사 이미지의 위치를 비쥬얼 오브젝트의 위치로 결정할 수 있다.
본 발명의 다양한 실시예에 따르면, 동작 1240에서, 전자 장치(400)는 제 2 컨텐츠의 디스플레이 위치를 반사 이미지의 위치 정보에 기반하여 결정할 수 있다.
일 실시예에 따르면, 전자 장치(400)는 제 1 컨텐츠가 디스플레이된 위치를 반사 이미지의 위치에 일치시키도록 캘리브레이션하고, 캘리브레이션된 좌표를 제 2 컨텐츠가 디스플레이될 위치로 결정할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치의 동작 방법은 제 1 컨텐츠를 디스플레이하는 동작; 상기 제1 컨텐츠가 디스플레이되는 동안 상기 제 1 컨텐츠에 포함된 비쥬얼 오브젝트와 관련된 외부 객체의 이동을 감지하는 동작; 상기 비쥬얼 오브젝트의 위치와 상기 디스플레이에 의해 반사되어 표시되는 상기 외부 객체의 반사 이미지(reflective image)의 위치가 일치함을 확인함에 대응하여, 상기 반사 이미지의 위치 정보를 상기 비쥬얼 오브젝트의 위치 정보에 기반하여 획득하는 동작; 및 제 2 컨텐츠가 디스플레이될 위치를 상기 반사 이미지의 위치 정보에 기반하여 결정하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치의 동작 방법에서, 상기 제 2 컨텐츠가 디스플레이될 위치를 결정하는 동작은 상기 반사 이미지의 위치와 상기 제 2 컨텐츠의 위치가 서로 일치하도록 상기 제 2 컨텐츠의 위치를 조절하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치의 동작 방법은 상기 외부 객체의 적어도 일부에 대한 정보의 정확도가 미리 설정된 값 이하임을 확인함에 대응하여, 상기 외부 객체의 적어도 일부에 대한 정보를 획득하기 위한 비쥬얼 오브젝트를 포함하는 제 3 컨텐츠를 상기 미러 디스플레이 상에 디스플레이하는 동작; 및 상기 비쥬얼 오브젝트에 대한 상기 사용자의 인터랙션에 대응하여, 상기 외부 객체의 적어도 일부에 대한 정보를 상기 카메라를 이용하여 획득하는 동작을 더 포함할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치의 동작 방법은 상기 외부 객체와 상기 디스플레이 사이의 거리 정보를 상기 카메라를 이용하여 획득하는 동작; 및 상기 거리 정보에 기반하여 상기 제 2 컨텐츠의 위치를 조절하는 동작을 더 포함할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치의 동작 방법은 상기 제 1 컨텐츠를 디스플레이하기 이전, 상기 카메라를 이용하여 획득한 상기 외부 객체의 위치 정보에 기반하여 상기 제 1 컨텐츠의 디스플레이될 위치를 결정하는 동작을 더 포함할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치의 동작 방법에서, 상기 외부 객체는 상기 전자 장치의 사용자를 포함하고, 상기 전자 장치의 동작 방법은 상기 제 1 컨텐츠가 디스플레이되는 동안, 상기 카메라를 이용하여 획득한 상기 사용자를 포함하는 이미지의 분석 결과에 기반하여 상기 사용자의 신체 정보를 획득하는 동작; 및 디스플레이될 제 2 컨텐츠를 상기 신체 정보에 기반하여 결정하는 동작을 더 포함할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치의 동작 방법은 상기 제 1 컨텐츠가 디스플레이되는 동안, 상기 카메라를 이용하여 획득한 상기 이미지를 분석하여 다른 외부 객체를 식별하는 동작; 및 상기 다른 외부 객체의 식별 결과에 기반하여 상기 제 2 컨텐츠를 결정하는 동작을 더 포함할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치의 동작 방법에서, 상기 제 2 컨텐츠를 결정하는 동작은 상기 외부 객체와 상기 디스플레이 사이의 거리 정보를 상기 카메라를 이용하여 획득하는 동작; 및 상기 거리 정보에 기반하여 상기 제 2컨텐츠를 결정하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치의 동작 방법에서, 상기 제 2 컨텐츠를 결정하는 동작은 상기 외부 객체와 상기 디스플레이 사이의 거리가 미리 설정된 값 이상임을 확인함에 대응하여, 상기 사용자의 신체 전체와 관련된 제 2 컨텐츠를 디스플레이하도록 결정하는 동작; 또는 상기 외부 객체와 상기 디스플레이 사이의 거리가 미리 설정된 값 이상임을 확인함에 대응하여, 상기 사용자의 신체의 일부와 관련된 제 2 컨텐츠를 디스플레이하도록 결정하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치의 동작 방법에서, 상기 제 1 컨텐츠는 사용자의 준비 운동과 관련된 컨텐츠를 포함하고, 상기 제 2 컨텐츠는 상기 준비 운동 이후에 수행되는 상기 사용자의 운동을 위한 컨텐츠일 수 있다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", “A 또는 B 중 적어도 하나,”"A, B 또는 C," "A, B 및 C 중 적어도 하나,”및 “A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, “기능적으로” 또는 “통신적으로”라는 용어와 함께 또는 이런 용어 없이, “커플드” 또는 “커넥티드”라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체 는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.

Claims (20)

  1. 전자 장치에 있어서,
    디스플레이;
    카메라; 및
    프로세서를 포함하고,
    상기 프로세서는
    제 1 컨텐츠를 디스플레이하도록 상기 디스플레이를 제어하고,
    상기 제 1 컨텐츠가 디스플레이되는 동안, 상기 제 1 컨텐츠에 포함된 비쥬얼 오브젝트의 위치와 상기 디스플레이에 의해 반사되어 표시되는 상기 외부 객체의 반사 이미지(reflective image)의 위치가 일치함을 확인함에 대응하여, 상기 반사 이미지의 위치 정보를 상기 비쥬얼 오브젝트의 위치 정보에 기반하여 결정하고,
    제 2 컨텐츠가 디스플레이될 위치를 상기 반사 이미지의 위치 정보에 기반하여 결정하도록 설정된 전자 장치.
  2. 제 1항에 있어서,
    상기 프로세서는
    상기 반사 이미지의 위치와 상기 제 2 컨텐츠의 위치가 서로 일치하도록 상기 제 2 컨텐츠의 위치를 조절하도록 설정된 전자 장치.
  3. 제 1항에 있어서,
    상기 프로세서는
    상기 외부 객체의 적어도 일부에 대한 정보의 정확도가 미리 설정된 값 이하임을 확인함에 대응하여, 상기 외부 객체의 적어도 일부에 대한 정보를 획득하기 위한 비쥬얼 오브젝트를 포함하는 제 3 컨텐츠를 상기 디스플레이 상에 디스플레이하고,
    상기 비쥬얼 오브젝트에 대한 상기 사용자의 인터랙션에 대응하여, 상기 외부 객체의 적어도 일부에 대한 정보를 상기 카메라를 이용하여 획득하도록 설정된 전자 장치.
  4. 제 1항에 있어서,
    상기 프로세서는
    상기 외부 객체와 상기 디스플레이 사이의 거리 정보를 상기 카메라를 이용하여 획득하고,
    상기 거리 정보에 기반하여 상기 디스플레이될 컨텐츠의 위치를 조절하도록 설정된 전자 장치.
  5. 제 1 항에 있어서,
    상기 프로세서는
    상기 제 1 컨텐츠를 디스플레이하기 이전, 상기 카메라를 이용하여 획득한 상기 외부 객체의 위치 정보에 기반하여 상기 제 1 컨텐츠의 디스플레이될 위치를 결정하도록 설정된 전자 장치.
  6. 제 1항에 있어서,
    상기 외부 객체는 상기 전자 장치의 사용자를 포함하고,
    상기 프로세서는
    상기 제 1 컨텐츠가 디스플레이되는 동안, 상기 카메라를 이용하여 획득한 상기 사용자를 포함하는 이미지의 분석 결과에 기반하여 상기 사용자의 신체 정보를 획득하고,
    디스플레이될 제 2 컨텐츠를 상기 신체 정보에 기반하여 결정하도록 설정된 전자 장치.
  7. 제 1항에 있어서,
    상기 프로세서는
    상기 제 1 컨텐츠가 디스플레이되는 동안, 상기 카메라를 이용하여 획득한 상기 이미지를 분석하여 다른 외부 객체를 식별하고,
    상기 다른 외부 객체의 식별 결과에 기반하여 상기 제 2 컨텐츠를 결정하도록 설정된 전자 장치.
  8. 제 7항에 있어서,
    상기 프로세서는
    상기 외부 객체와 상기 디스플레이 사이의 거리 정보를 상기 카메라를 이용하여 획득하고,
    상기 거리 정보에 기반하여 상기 제 2컨텐츠를 결정하도록 설정된 전자 장치.
  9. 제 8항에 있어서,
    상기 프로세서는
    상기 외부 객체와 상기 디스플레이 사이의 거리가 미리 설정된 값 이상임을 확인함에 대응하여, 상기 사용자의 신체 전체와 관련된 제 2 컨텐츠를 디스플레이하고,
    상기 외부 객체와 상기 디스플레이 사이의 거리가 미리 설정된 값 이상임을 확인함에 대응하여, 상기 사용자의 신체의 일부와 관련된 제 2 컨텐츠를 디스플레이하도록 설정된 전자 장치.
  10. 제 1항에 있어서,
    상기 제 1 컨텐츠는
    사용자의 준비 운동과 관련된 컨텐츠를 포함하고,
    상기 제 2 컨텐츠는
    상기 준비 운동 이후에 수행되는 상기 사용자의 운동을 위한 컨텐츠인 전자 장치.
  11. 전자 장치의 동작 방법에 있어서,
    제 1 컨텐츠를 디스플레이하는 동작;
    상기 제1 컨텐츠가 디스플레이되는 동안 상기 제 1 컨텐츠에 포함된 비쥬얼 오브젝트와 관련된 외부 객체의 이동을 감지하는 동작;
    상기 비쥬얼 오브젝트의 위치와 상기 디스플레이에 의해 반사되어 표시되는 상기 외부 객체의 반사 이미지(reflective image)의 위치가 일치함을 확인함에 대응하여, 상기 반사 이미지의 위치 정보를 상기 비쥬얼 오브젝트의 위치 정보에 기반하여 획득하는 동작; 및
    제 2 컨텐츠가 디스플레이될 위치를 상기 반사 이미지의 위치 정보에 기반하여 결정하는 동작을 포함하는 전자 장치의 동작 방법.
  12. 제 11항에 있어서,
    상기 제 2 컨텐츠가 디스플레이될 위치를 결정하는 동작은
    상기 반사 이미지의 위치와 상기 제 2 컨텐츠의 위치가 서로 일치하도록 상기 제 2 컨텐츠의 위치를 조절하는 동작을 포함하는 전자 장치의 동작 방법.
  13. 제 11항에 있어서,
    상기 전자 장치의 동작 방법은
    상기 외부 객체의 적어도 일부에 대한 정보의 정확도가 미리 설정된 값 이하임을 확인함에 대응하여, 상기 외부 객체의 적어도 일부에 대한 정보를 획득하기 위한 비쥬얼 오브젝트를 포함하는 제 3 컨텐츠를 상기 미러 디스플레이 상에 디스플레이하는 동작; 및
    상기 비쥬얼 오브젝트에 대한 상기 사용자의 인터랙션에 대응하여, 상기 외부 객체의 적어도 일부에 대한 정보를 상기 카메라를 이용하여 획득하는 동작을 더 포함하는 전자 장치의 동작 방법.
  14. 제 11항에 있어서,
    상기 전자 장치의 동작 방법은
    상기 외부 객체와 상기 디스플레이 사이의 거리 정보를 상기 카메라를 이용하여 획득하는 동작; 및
    상기 거리 정보에 기반하여 상기 제 2 컨텐츠의 위치를 조절하는 동작을 더 포함하는 전자 장치의 동작 방법.
  15. 제 11 항에 있어서,
    상기 전자 장치의 동작 방법은
    상기 제 1 컨텐츠를 디스플레이하기 이전, 상기 카메라를 이용하여 획득한 상기 외부 객체의 위치 정보에 기반하여 상기 제 1 컨텐츠의 디스플레이될 위치를 결정하는 동작을 더 포함하는 전자 장치의 동작 방법.
  16. 제 11항에 있어서,
    상기 외부 객체는 상기 전자 장치의 사용자를 포함하고,
    상기 전자 장치의 동작 방법은
    상기 제 1 컨텐츠가 디스플레이되는 동안, 상기 카메라를 이용하여 획득한 상기 사용자를 포함하는 이미지의 분석 결과에 기반하여 상기 사용자의 신체 정보를 획득하는 동작; 및
    디스플레이될 제 2 컨텐츠를 상기 신체 정보에 기반하여 결정하는 동작을 더 포함하는 전자 장치의 동작 방법.
  17. 제 11항에 있어서,
    상기 전자 장치의 동작 방법은
    상기 제 1 컨텐츠가 디스플레이되는 동안, 상기 카메라를 이용하여 획득한 상기 이미지를 분석하여 다른 외부 객체를 식별하는 동작; 및
    상기 다른 외부 객체의 식별 결과에 기반하여 상기 제 2 컨텐츠를 결정하는 동작을 더 포함하는 전자 장치의 동작 방법.
  18. 제 17항에 있어서,
    상기 제 2 컨텐츠를 결정하는 동작은
    상기 외부 객체와 상기 디스플레이 사이의 거리 정보를 상기 카메라를 이용하여 획득하는 동작; 및
    상기 거리 정보에 기반하여 상기 제 2컨텐츠를 결정하는 동작을 포함하는 전자 장치의 동작 방법.
  19. 제 18항에 있어서,
    상기 제 2 컨텐츠를 결정하는 동작은
    상기 외부 객체와 상기 디스플레이 사이의 거리가 미리 설정된 값 이상임을 확인함에 대응하여, 상기 사용자의 신체 전체와 관련된 제 2 컨텐츠를 디스플레이하도록 결정하는 동작; 또는
    상기 외부 객체와 상기 디스플레이 사이의 거리가 미리 설정된 값 이상임을 확인함에 대응하여, 상기 사용자의 신체의 일부와 관련된 제 2 컨텐츠를 디스플레이하도록 결정하는 동작을 포함하는 전자 장치의 동작 방법.
  20. 제 11항에 있어서,
    상기 제 1 컨텐츠는
    사용자의 준비 운동과 관련된 컨텐츠를 포함하고,
    상기 제 2 컨텐츠는
    상기 준비 운동 이후에 수행되는 상기 사용자의 운동을 위한 컨텐츠인 전자 장치의 동작 방법.
KR1020190148827A 2019-11-19 2019-11-19 외부 객체의 반사 이미지의 위치에 기반하여 컨텐츠를 제공하는 전자 장치 및 전자 장치의 동작 방법 Withdrawn KR20210061062A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190148827A KR20210061062A (ko) 2019-11-19 2019-11-19 외부 객체의 반사 이미지의 위치에 기반하여 컨텐츠를 제공하는 전자 장치 및 전자 장치의 동작 방법
PCT/KR2020/008628 WO2021101006A1 (ko) 2019-11-19 2020-07-02 외부 객체의 반사 이미지의 위치에 기반하여 컨텐츠를 제공하는 전자 장치 및 전자 장치의 동작 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190148827A KR20210061062A (ko) 2019-11-19 2019-11-19 외부 객체의 반사 이미지의 위치에 기반하여 컨텐츠를 제공하는 전자 장치 및 전자 장치의 동작 방법

Publications (1)

Publication Number Publication Date
KR20210061062A true KR20210061062A (ko) 2021-05-27

Family

ID=75980685

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190148827A Withdrawn KR20210061062A (ko) 2019-11-19 2019-11-19 외부 객체의 반사 이미지의 위치에 기반하여 컨텐츠를 제공하는 전자 장치 및 전자 장치의 동작 방법

Country Status (2)

Country Link
KR (1) KR20210061062A (ko)
WO (1) WO2021101006A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102510048B1 (ko) * 2022-07-25 2023-03-15 주식회사 컴플렉시온 운동 동작에 따른 증강현실 데이터를 출력하는 전자 장치의 제어 방법
KR102528108B1 (ko) * 2022-11-02 2023-05-02 홍미영 미러 미디어를 이용한 디지털 컨텐츠 출력 시스템

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7201850B1 (ja) * 2022-01-24 2023-01-10 三菱ケミカルグループ株式会社 情報処理装置、方法、およびプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101864418B1 (ko) * 2016-11-15 2018-06-12 박종찬 스마트 트레이닝 장치
KR102000763B1 (ko) * 2018-02-07 2019-07-16 주식회사 인프라웨어테크놀러지 퍼스널 트레이닝 서비스를 제공하는 스마트 미러 장치
KR102499354B1 (ko) * 2018-02-23 2023-02-13 삼성전자주식회사 디스플레이를 통해 표시된 제 1 콘텐트에 대해 제 2 콘텐트를 외부 객체의 움직임에 따라 제공하기 위한 전자 장치 및 그의 동작 방법
KR102099316B1 (ko) * 2018-03-28 2020-04-09 주식회사 스탠스 헬스케어를 위한 증강현실 디스플레이 장치 및 이를 이용한 헬스케어 시스템
KR20190117099A (ko) * 2018-04-06 2019-10-16 엘지전자 주식회사 트레이닝 시스템

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102510048B1 (ko) * 2022-07-25 2023-03-15 주식회사 컴플렉시온 운동 동작에 따른 증강현실 데이터를 출력하는 전자 장치의 제어 방법
KR102528108B1 (ko) * 2022-11-02 2023-05-02 홍미영 미러 미디어를 이용한 디지털 컨텐츠 출력 시스템

Also Published As

Publication number Publication date
WO2021101006A1 (ko) 2021-05-27

Similar Documents

Publication Publication Date Title
EP3671549B1 (en) Electronic device for assisting a user during exercise
KR20200101206A (ko) 가상 캐릭터 기반 촬영 모드를 제공하는 전자 장치 및 이의 동작 방법
KR102788907B1 (ko) 증강 현실 환경에서 다양한 기능을 수행하는 전자 장치 및 그 동작 방법
KR20200067567A (ko) 전자 장치의 상태 정보에 기반하여 동작을 수행하는 전자 장치 및 전자 장치의 동작 방법
KR20200028771A (ko) 사용자 의도 기반 제스처 인식 방법 및 장치
CN110059686B (zh) 字符识别方法、装置、设备及可读存储介质
US11422609B2 (en) Electronic device and method for controlling operation of display in same
US10853024B2 (en) Method for providing information mapped between a plurality of inputs and electronic device for supporting the same
KR20200076169A (ko) 놀이 컨텐츠를 추천하는 전자 장치 및 그의 동작 방법
KR20200076449A (ko) 증강 장치를 제어하는 방법 및 이를 수행하는 전자 장치
US9430081B2 (en) Electronic device, control method, and control program
KR20210061062A (ko) 외부 객체의 반사 이미지의 위치에 기반하여 컨텐츠를 제공하는 전자 장치 및 전자 장치의 동작 방법
KR20200094396A (ko) 전자 장치 및 복수의 액션들을 포함하는 태스크를 결정하는 방법
EP3705982B1 (en) Apparatus and method for adaptively configuring user interface
KR20200040597A (ko) 터치 입력의 종류에 기반하여 터치 입력 조건을 결정하는 전자 장치 및 그 동작 방법
KR20220008118A (ko) 가상 객체들의 밝기를 다르게 표시하는 방법 및 장치
US20150253932A1 (en) Information processing apparatus, information processing system and information processing method
CN112989198A (zh) 推送内容的确定方法、装置、设备及计算机可读存储介质
CN112001442A (zh) 特征检测方法、装置、计算机设备及存储介质
CN112100528B (zh) 对搜索结果评分模型进行训练的方法、装置、设备、介质
KR20200102838A (ko) 이미지를 이용하여 콘텐트를 검색하기 위한 장치 및 그 제어 방법
KR102850833B1 (ko) 사용자의 액티비티 정보를 제공하는 전자 장치와 이의 동작 방법
KR102813510B1 (ko) 사용자 입력을 처리하는 전자 장치 및 방법
US11889181B2 (en) Electronic device having plurality of lenses where the device changes a visual object corresponding to a recommended lens
KR102529190B1 (ko) 위치를 결정하기 위한 전자 장치 및 그의 동작 방법

Legal Events

Date Code Title Description
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

PC1203 Withdrawal of no request for examination

St.27 status event code: N-1-6-B10-B12-nap-PC1203

P22-X000 Classification modified

St.27 status event code: A-2-2-P10-P22-nap-X000

P22-X000 Classification modified

St.27 status event code: A-2-2-P10-P22-nap-X000