[go: up one dir, main page]

KR20060091310A - 디스플레이 상의 컨텐트 윈도우의 위치, 크기 및/또는컨텐트를 정의하는 제스쳐 - Google Patents

디스플레이 상의 컨텐트 윈도우의 위치, 크기 및/또는컨텐트를 정의하는 제스쳐 Download PDF

Info

Publication number
KR20060091310A
KR20060091310A KR1020067006254A KR20067006254A KR20060091310A KR 20060091310 A KR20060091310 A KR 20060091310A KR 1020067006254 A KR1020067006254 A KR 1020067006254A KR 20067006254 A KR20067006254 A KR 20067006254A KR 20060091310 A KR20060091310 A KR 20060091310A
Authority
KR
South Korea
Prior art keywords
display
content
user
gesture
mirror
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
KR1020067006254A
Other languages
English (en)
Inventor
바텔 마리누스 반 데 스루이스
잔 비.에이.엠. 호르스텐
Original Assignee
코닌클리케 필립스 일렉트로닉스 엔.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 코닌클리케 필립스 일렉트로닉스 엔.브이. filed Critical 코닌클리케 필립스 일렉트로닉스 엔.브이.
Publication of KR20060091310A publication Critical patent/KR20060091310A/ko
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47GHOUSEHOLD OR TABLE EQUIPMENT
    • A47G1/00Mirrors; Picture frames or the like, e.g. provided with heating, lighting or ventilating means
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

컨텐트를 사용자에게 디스플레이하는 디스플레이 표면(108, 300), 상기 디스플레이 표면(108, 300) 상의 컨텐트 윈도우(112, 306)에 디스플레이하기 위해 상기 컨텐트를 상기 디스플레이 표면(108, 300)에 공급하는 컴퓨터 시스템(110), 및 사용자의 제스쳐를 인식하고 상기 인식된 제스쳐에 기초하여 상기 디스플레이 표면(108, 300) 상의 상기 컨텐트 윈도우(112, 306)의 크기, 위치, 및 컨텐트 중 적어도 하나를 정의하는 인식 시스템(128)을 포함하는 디스플레이가 개시된다. 이 디스플레이는 적어도 상기 컨텐트가 디스플레이되지 않을 때 사용자의 영상을 반사하는 디스플레이 미러(108)일 수 있다. 게다가, 제스쳐는 사용자의 손 제스쳐일 수 있다.
디스플레이, 컨텐트 윈도우, 제스쳐, 디스플레이 미러, 인식 시스템

Description

디스플레이 상의 컨텐트 윈도우의 위치, 크기 및/또는 컨텐트를 정의하는 제스쳐{Gesture to define location, size, and/or content of content window on a display}
본 발명은 일반적으로 디스플레이들에 관한 것으로, 보다 구체적으로는, 디스플레이 미러들(display mirrors) 상의 컨텐트 윈도우들의 위치, 크기 및/또는 컨텐트를 정의하는 제스쳐들에 관한 것이다.
디스플레이 미러들은 마인(Meine)에게 허여된 미국 특허 6,560,027에 서술된 바와 같이 종래 기술로 알려져 있다. 디스플레이 미러는 미러의 특정 영역 상에 정보, 통신 또는 오락(ICE) 컨텐트를 갖는 컨텐트 윈도우를 디스플레이할 수 있다. 이 윈도우는 일반적으로 미러 디스플레이 상에 고정된 위치를 갖는다. 미러 디스플레이들의 애플리케이션들은 욕실, 부엌, 정자, 엘리베이터, 빌딩 로비 등에 대해 계획된다. 사용자의 위치(사용자-디스플레이 거리) 및 사용자 활동(예를 들어, 사용자의 주의가 미러와 컨텐트 윈도우 간에 어떻게 균형 잡히는지)에 따라, 사용자는 컨텐트 윈도우의 크기, 미러 디스플레이 상에 자신의 위치, 및/또는 상기 윈도우의 컨텐트 중 하나 이상에 영향을 미치기를 원할 수 있다. 이것은 미러 디스플레이를 위한 사용자 인터페이스가 사용자에게 알려질 수 없기 때문에 문제가 될 수 있다. 키보드 및 포인팅 장치(예를 들어, 마우스, 롤러볼(rollerball))와 같은 전통적인 입력 해결책들은 많은 상황들에서 매력적이거나 적용가능하지 않을 수 있다. 게다가, 원격 제어들은 일부 애플리케이션들에서 유용하지 않을 수 있다. 다른 대화식 디스플레이들, 터치 스크린들에서 사용되는 명백한 해결책들이 제한 사용되는데, 그 이유는 미러 품질이 영향받을 수 있고, 임의의 접촉이 미러 표면을 오염시키거나 그렇지 않다면 저하시키기 때문이다.
게다가, 디스플레이의 크기 및 해상도는 벽 또는 데스크를 커버할 수 있는 대형 디스플레이들에 대한 가까운 장래의 제조 방법에서 급속도로 성장할 것으로 예측된다. 이와 같은 대형 디스플레이는 또한 컨텐트 윈도우들을 디스플레이할 수 있고, 일부 상황들에서는 전술된 바와 같이 디스플레이 상에 컨텐트 윈도우를 렌더링(rendering)하기 위해 크기 및 위치 표시와 연관된 동일한 문제들을 가질 수 있다.
그러므로, 본 발명의 목적은 종래 기술과 연관된 상기 및 다른 단점들을 극복하는 디스플레이를 제공하는 것이다.
따라서, 디스플레이가 제공된다. 상기 디스플레이는 컨텐트를 사용자에게 디스플레이하는 디스플레이 표면; 상기 디스플레이 표면상의 컨텐트 윈도우에 디스플레이하기 위해 상기 컨텐트를 상기 디스플레이 표면에 공급하는 컴퓨터 시스템; 및 사용자의 제스쳐를 인식하고 상기 인식된 제스쳐에 기초하여 상기 디스플레이 표면상의 상기 컨텐트 윈도우의 크기, 위치, 및 컨텐트 중 적어도 하나를 정의하는 인식 시스템을 포함한다.
이 디스플레이는 적어도 상기 컨텐트가 디스플레이되지 않을 때 사용자의 영상을 반사하는 디스플레이 미러일 수 있다. 이 디스플레이 미러는 사용자의 컨텐트 및 영상 모두를 디스플레이할 수 있다.
인식 시스템은 컴퓨터 시스템에 동작 가능하게 연결되는 하나 이상의 센서들; 및 사용자의 제스쳐를 인식하기 위해 상기 하나 이상의 센서들로부터 데이터를 분석하는 프로세서를 포함한다. 상기 하나 이상의 센서들은 하나 이상의 카메라들을 포함할 수 있고, 상기 프로세서는 상기 하나 이상의 카메라들로부터 영상 데이터를 분석하여 사용자의 제스쳐를 인식한다. 인식 시스템은 미리 결정된 제스쳐들 및 컨텐트 윈도우의 연관된 크기 및/또는 위치를 저장하는 메모리를 더 포함하는데, 상기 프로세서는 사용자의 인식된 제스쳐를 미리 결정된 제스쳐들과 비교하고, 연관된 크기 및/또는 위치에 컨텐트 윈도우를 렌더링한다. 이 메모리는 연관된 컨텐트를 더 포함할 수 있고, 상기 프로세서는 사용자의 인식된 제스쳐를 미리 결정된 제스쳐들과 비교하여 컨텐트 윈도우에 연관된 컨텐트를 렌더링한다. 이 프로세서 및 메모리는 컴퓨터 시스템에 포함될 수 있다.
이 디스플레이는 사용자의 음성 명령을 인식하고 인식된 음성 명령에 기초하여 컨텐트 윈도우에 컨텐트를 렌더링하는 음성 인식 시스템을 더 포함한다.
이 제스쳐는 디스플레이 표면상에 디스플레이되는 애플리케이션의 클로우징(closing)을 또한 정의한다.
이 디스플레이는 명령을 컴퓨터 시스템으로 입력하는 터치-스크린, 클로우즈-터치 및 및 비접촉 시스템 중 하나를 더 포함한다.
또한, 디스플레이 상에 컨텐트 윈도우를 렌더링하는 방법이 제공된다. 이 방법은 컨텐트 윈도우에 디스플레이하기 위해 컨텐트를 디스플레이에 공급하는 단계; 사용자의 제스쳐를 인식하는 단계; 상기 인식된 제스쳐에 기초하여 디스플레이 상의 컨텐트 윈도우의 크기, 위치 및 컨텐트 중 적어도 하나를 정의하는 단계; 및 상기 정의된 크기, 위치 및 컨텐트 중 적어도 하나에 따라 디스플레이 상에 상기 컨텐트 윈도우를 디스플레이하는 단계를 포함한다.
이 제스쳐는 손 제스쳐일 수 있다.
상기 디스플레이는 상기 디스플레이 단계가 사용자의 컨텐트 및 영상 모두를 디스플레이하는 단계를 포함하는 디스플레이 미러일 수 있다. 상기 디스플레이는 또한 상기 디스플레이 단계가 컨텐트만을 디스플레이하는 단계를 포함하는 디스플레이 미러일 수 있다.
상기 인식 단계는: 하나 이상의 센서들로부터 제스쳐의 데이터를 캡쳐하는 단계; 및 사용자의 제스쳐를 인식하도록 상기 하나 이상의 센서들로부터 데이터를 분석하는 단계를 포함한다. 상기 하나 이상의 센서들은 상기 분석 단계가 사용자의 제스쳐를 인식하도록 상기 하나 이상의 카메라들로부터 영상 데이터를 분석하는 단계를 포함하는 카메라들일 수 있다. 상기 분석 단계는: 미리 결정된 제스쳐 및 상기 컨텐트 윈도우의 연관된 크기 및/또는 위치를 저장하는 단계; 상기 사용자의 인식된 제스쳐를 상기 미리 결정된 제스쳐들과 비교하는 단계; 및 상기 연관된 크기 및/또는 위치에 상기 컨텐트 윈도우를 디스플레이하는 단계를 포함한다. 상기 저장 단계는 상기 미리 결정된 제스쳐들에 대한 연관된 컨텐트를 더 포함하고, 상기 디스플레이하는 단계는 상기 컨텐트 윈도우에 상기 연관된 컨텐트를 디스플레이하는 단계를 더 포함한다.
상기 방법은 사용자의 음성 명령을 인식하여 상기 인식된 음성 명령에 기초하여 상기 컨텐트 윈도우에 컨텐트를 렌더링하는 단계를 더 포함할 수 있다.
상기 방법은 상기 인식된 제스쳐에 기초하여 상기 디스플레이 상에 디스플레이되는 애플리케이션의 클로우징을 정의하는 단계를 더 포함한다.
상기 방법은 상기 컴퓨터 시스템 내로 명령을 입력하는 터치-스크린, 클로우즈-스크린 및 비접촉 시스템 중 하나를 제공하는 단계를 더 포함할 수 있다.
미러 디스플레이 컨텐트 윈도우가 사용자의 컨텐트 및 영상 모두를 디스플레이하는 디스플레이 상에 미러 디스플레이 컨텐트 윈도우를 렌더링하는 방법이 또한 제공된다. 이 방법은 미러 디스플레이 컨텐트 윈도우에 디스플레이하기 위하여 컨텐트를 디스플레이에 공급하는 단계; 사용자의 제스쳐를 인식하는 단계; 상기 인식된 제스쳐에 기초하여 디스플레이 상의 상기 미러 디스플레이 컨텐트 윈도우의 크기, 위치 및 컨텐트 중 적어도 하나를 정의하는 단계; 및 상기 정의된 크기, 위치 및 컨텐트 중 적어도 하나에 따라 상기 디스플레이 상에 상기 미러 디스플레이 컨텐트 윈도우를 디스플레이하는 단계를 포함한다.
본 발명의 방법들을 실행하는 컴퓨터 프로그램 제품 및 그 내에 컴퓨터 프로그램 제품을 저장하는 프로그램 저장 장치가 또한 제공된다.
본 발명의 이들 및 다른 특징들, 양상들 및 장점들이 이하의 상세한 설명, 첨부된 청구범위, 및 도면들과 관련하여 더욱 잘 이해할 수 있을 것이다.
도1은 욕실 미러와 통합된 디스플레이 미러의 실시예를 도시한 도면.
도2는 도1의 디스플레이 미러의 개요도.
도3은 도1의 개요도에 사용하기 위한 대안적인 디스플레이를 도시한 도면.
도4는 디스플레이 미러 상에 컨텐트 윈도우를 렌더링하는 바람직한 방법의 순서도.
본 발명이 수많은 그리고 각종 유형들의 디스플레이들에 적용될 수 있지만, 본 발명은 욕실 디스플레이 미러들의 환경에서 특히 유용하다는 것이 밝혀졌다. 그러므로, 본 발명은 욕실 디스플레이 미러들 환경에서 설명되겠지만, 본 발명의 적용 가능성을 상기 환경들로 제한하지 않는다. 그러나, 당업자는 본 발명이 다른 유형들의 디스플레이들, 특히 대형 디스플레이들 및 부엌, 정자, 엘리베이터 및 건물과 호텔 로비들과 같은 다른 유형들의 디스플레이 미러들에 적용된다는 것을 인지할 것이다.
게다가, 본 발명이 수많은 그리고 각종 유형들의 제스쳐들에 적용될 수 있지만, 특히 손 제스쳐들의 환경에서 유용하다는 것이 밝혀졌다. 그러므로, 본 발명은 손 제스쳐들 환경에서 설명되겠지만, 본 발명의 적용 가능성을 상기 환경들로 제한하지 않는다. 그러나, 당업자는 손가락들, 팔들, 팔꿈치 및 심지어 얼굴 제스쳐들과 같은 인체의 다른 부분들을 포함한 제스쳐들과 같은 다른 유형들의 제스쳐들이 마찬가지로 본 발명의 장치 및 방법들에 적용될 수 있다는 것을 인지할 것이다.
본 발명은 본원에 참조된 Meine에게 허여된 미국 특허 제 6,560,027호에 서술된 바와 같은 디스플레이 미러를 형성하기 위하여 정보 디스플레이 패널 및 미러를 포함하는 시스템 및 방법에 관한 것이다. 이와 같은 디스플레이 미러는 바람직하게는 욕실에 배치되는데, 그 이유는 사람이 하루를 준비하기 위하여 욕실에서의 특정 시간량을 소모하기 때문이다. 디스플레이 미러는 예를 들어 이 닦기, 면도, 머리 다듬기, 세수, 메이크업, 건조 등과 같이, 사람이 하루를 준비하면서 전자 뉴스들 및 정보뿐만 아니라 자신들의 스케쥴을 검토하도록 한다. 디스플레이 미러와 대화함으로써, 사람은 자신들의 스케쥴을 수정하며, 자신들의 이메일을 체크하고, 그들이 받고자 하는 뉴스들 및 정보를 선택할 수 있다. 사용자는 스마트 미러를 보고, 뉴스 헤드라인 및/또는 스토리들을 검토하고, 이메일들에 응답하고, 및/또는 자신들의 약속 스케쥴을 검토하여 편집한다.
지금부터 도1을 참조하면, 욕실(100)에서 정보, 통신 또는 오락 컨텐트를 디스플레이하는 디스플레이 미러의 바람직한 실시예가 도시되어 있다. 이 설명을 위하여, "컨텐트(content)"는 이메일, 웹페이지, 소프트웨어 애플리케이션, 텔레비젼, 또는 다른 비디오 컨텐트뿐만 아니라 실내 또는 건물의 방 내의 전등을 켜거나 보안을 제어하는 것과 같은 사용자에 의해 실행될 수 있는 기능들을 포함하지만 이것만으로 제한되지 않고 윈도우에서 사용자에게 디스플레이될 수 있는 모든 것들을 의미한다. 연관된 미러(104)를 갖는 화장대(102)를 갖는 욕실(100)은 욕실(100)의 벽(106)에 배치된다. 상술된 바와 같이, 욕실은 단지 예로서 도시되고, 본 발명의 범위 및 원리를 제한하지 않는다.
디스플레이 미러(108)는 미러(104)의 표면의 적어도 일부와 통합된다. 디스플레이 미러(108)의 윤곽은 점선들로 도1에 도시된다. 디스플레이 미러(108)가 일반적으로 미러(104)에서 집중되어 도시되어 있지만, 이는 한쪽 측면을 따라서 또는 미러(104)의 코너 상의 임의의 위치에 위치될 수 있다. 게다가, 디스플레이 미러(108)가 미러(104)의 상당 부분을 커버하는 것으로 도시되었지만, 이는 본 발명의 범위를 벗어남이 없이 작거나 클 수 있다. 디스플레이 미러(108)는 정보, 통신 또는 오락(ICE) 컨텐트를 사용자에게 디스플레이하고, 또한 적어도 ICE 컨텐트가 디스플레이되지 않을 때 사용자의 영상을 반사할 수 있다. 일반적으로, 디스플레이 미러는 두 개의 모드들을 갖는다. 파워 오프 모드(power off mode)에서, 스마트 미러는 표준 반사 미러로서 동작한다. 파워 온 모드(power on mode)에서, 스마트 미러는 디스플레이 장치가 된다. 디스플레이 미러(108)는 액정 스크린으로부터 형성될 수 있다. 파워 오프 모드에서, 디스플레이 미러(108)는 표준 반사 미러로서 동작한다. 미러의 앞에 배치된 임의의 물체는 반사된 영상이 형성되게 한다. 디스플레이 장치(108)가 턴온될 때, 미러의 반사 동작은 턴오프될 수 있다. 따라서, 미러의 앞에 배치된 물체들은 반사된 영상들을 발생시키지 않고, 단지 디스플레이 정보만이 사용자에게 도시된다.
대안적으로, 반사 동작은 디스플레이 동작과 중첩될 수 있다. 이 장치에 의해 디스플레이되는 정보는 디스플레이 미러(108)의 표면상에 생성되도록 사용자에게 나타난다. 사용자에게 제공된 사용자의 반사 영상은 미러(104)(특정 거리는 소 스 물체(예를 들어, 사용자) 및 미러(104) 표면 사이의 거리와 동일하다) 뒤에서 특정 거리를 두고 생성하도록 나타난다. 따라서, 사용자는 자신들의 눈들의 초점을 변화시킴으로써 자신들의 반사된 영상 및 디스플레이 정보 사이를 스위칭할 수 있다. 이는 사용자가 시각 집중 활동들, 예를 들어 면도 또는 메이크업을 하면서 정보를 수신하게 한다. 따라서, 디스플레이 미러(108)는 ICE 컨텐트 및 사용자의 영상 모두를 동시에 디스플레이하거나 사용자의 영상을 반사함이 없이 ICE 컨텐트만을 디스플레이할 수 있다. 도1에 도시된 욕실 예에서, 디스플레이 미러(108)는 ICE 컨텐트 및 사용자의 반사 모두를 디스플레이하여 사용자가 ICE 컨텐트를 검토하고 동시에 면도 또는 메이크업을 하는 것과 같은 다른 잡일들을 수행하도록 한다.
상술된 바와 같이, 디스플레이 미러는 단지 예로서 제공되며 본 발명의 의도 또는 범위를 제한하지 않아야 한다. 디스플레이는 컨텐트 윈도우를 렌더링할 수 있고 컨텐트 윈도우를 재크기화하고/하거나 이동시키고 컨텐트 윈도우에 렌더링하기 위한 컨텐트를 제공하기 위하여 제어에 동작 가능하게 연결되는 임의의 유형의 디스플레이일 수 있다. 이와 같은 디스플레이는 벽의 실질적인 부분 또는 데스크 상에 배치되는 대형 디스플레이일 수 있으며, 이것은 제스처들을 사용하여 컨텐트 윈도우의 위치, 크기, 및/또는 컨텐트를 정의하기 위해 본 발명의 방법들로 이익을 얻을 수 있다.
이제 도2의 개략도를 참조하면, 디스플레이 미러(108)는 상기 디스플레이 미러(108) 상의 컨텐트 윈도우(112)에서의 디스플레이를 위해 ICE 컨텐트를 디스플레 이 미러(108)에 제공하는 컴퓨터 시스템(110)을 포함한다. 컴퓨터 시스템(110)은 상기 컴퓨터 시스템(110)과 일체이거나 이에 동작 가능하게 연결될 수 있는 프로세서(114) 및 메모리(116)를 포함한다. 컴퓨터 시스템은 개인용 컴퓨터이거나, ICE 컨텐트를 텔레비전 수신기, DVD 플레이어, 셋톱박스 등과 같은 디스플레이 미러(108)에 제공할 수 있는 프로세서를 갖는 임의의 다른 장치일 수 있다. 컴퓨터 시스템(110)은 또한 모뎀(118) 또는 인터넷(120)과 같은 원격 네트워크에 접촉하기 위한 다른 유사한 수단을 더 포함한다. 인터넷 연결은 ISDN, DSL, 기존 전화, 또는 케이블과 같이 종래 기술에 알려진 임의의 수단일 수 있고, 유선이거나 무선일 수 있다. 인터넷으로의 연결은 디스플레이 미러(108)의 사용자가 이메일들뿐만 아니라, 디스플레이 웹 정보를 송/수신할 수 있게 한다. 이것은 사용자가 선택된 소스들, 예를 들어, CNN, UPI, 주식 회로들 등으로부터 원하는 정보, 예를 들어, 뉴스, 주식들 등을 디스플레이하는 디스플레이 미러(108)를 구성하게 한다. 컴퓨터 시스템(110)으로의 연결은 또한 메모리(116)에 저장될 수 있는 사용자의 약속 스케줄에 대한 액세스를 허용할 것이다. 그 다음에, 사용자는 스케줄 또는 캘린더 내의 약속들, 테스크들, 및/또는 노트들을 검토하거나 변화시킬 수 있다. 그 다음, 사용자는 개인 휴대 정보 단말기, 예를 들어, 팜 파일럿(palm pilot)으로 스케줄 다운로드를 하거나, 약속 기록부에 포함하기 위해 인쇄 출력한다. 사용자는 또한 스케줄을 작업 위치 또는 다른 사람, 예를 들어, 관리 보조자에게 이메일로 보낼 수 있다. 컴퓨터 시스템(110)은 디스플레이 미러(108)로 전용되어 다른 컴퓨터들로 네트워킹되거나, 유선 또는 무선 네트워킹에 의해 디스플레이 미러(108)로 연결되어 다른 목 적을 위해 사용될 수 있다. 컴퓨터 시스템(110)은 또한 단일 위치 또는 다수 위치들에 위치된 다수의 디스플레이 미러들(108)을 동작시키고 제어하도록 구성될 수 있다.
디스플레이 미러는 명령들 또는 입력 데이터를 수행하기 위하여 컴퓨터 시스템(110)에 명령들을 입력하는 수단을 더 포함한다. 이와 같은 수단은 키보드, 마우스, 롤러볼 등일 수 있다. 그러나, 디스플레이 미러(108)는 바람직하게는, 컴퓨터 시스템(110) 내로 명령들 및/또는 데이터를 입력하는 터치-스크린(touch-screen), 클로우즈-터치(close-touch), 및 비접촉 시스템(touchless system)(본원에서 집합적으로 터치-스크린이라 칭함) 중 하나를 포함하고 직접적인 사용자 대화를 허용한다. 터치 스크린 기술은 종래 기술에 잘 알려져 있다. 일반적으로, 터치-스크린은 미러 디스플레이(108) 앞의 IR 광 그리드의 차단에 의존한다. 터치-스크린은 안 보이는 적외선 광의 그리드를 생성하기 위하여 두 개의 대향 측들 상에 각각 장착된 IF-발광 다이오드(LEDs)(122) 및 광트랜지스터들(124)의 열을 포함한 광-매트릭스 프레임을 포함한다. 프레임 어셈블리(126)는 광-전자기기들이 장착되고 미러(104) 뒤에 숨겨지는 인쇄 배선 기판들로 이루어진다. 미러(104)는 IR 빔들이 통과하게 하는 동안 동작 환경으로부터 광-전자기기를 차폐한다. 프로세서(114)는 순차적으로 LED들(122)를 펄싱(pulsing)하여, IR 광 빔들의 그리드를 생성한다. 손가락과 같은 스틸러스(stylus)가 그리드에 들어갈 때, 이것은 빔을 차단한다. 하나 이상의 광트랜지스터들(124)은 광의 부재를 검출하여 x 및 y 좌표들을 식별하는 신호를 전송한다. 컴퓨터 시스템(110)에 동작 가능하게 연결된 마이크로폰(134)으로부터의 음성 명령을 인식하기 위하여 음성 인식 시스템(132)이 또한 제공될 수 있다. 마이크로폰은 바람직하게는 물 및 다른 액체들이 마이크로폰(134)을 덜 손상시킬 것 같은 벽(106) 내의 어쿠스틱 오픈닝(acoustic opening)들 뒤에 위치된다.
디스플레이 미러가 욕실(100)에서와 같이 상대적으로 부적당한 환경에서 사용되는 경우에, 부가적인 요소들이 필요할 수 있다. 예를 들어, 디스플레이 미러(108)는 증기/안개가 디스플레이 상에 나타나는 것을 방지하기 위하여 안개 방지 코팅(anti-fog coating) 및/또는 가열 시스템을 사용할 수 있다. 또한 컴퓨터 시스템(110) 및 미러 디스플레이(108)는 부식을 초래할 수 있는 습기(증기 및 액체 물 둘 다)로부터 밀폐되어야 한다. 미러 디스플레이(108)는 또한 고속 온도 변화들뿐만 아니라, 극도의 고온 및 저온들을 허용해야 한다. 마찬가지로, 미러 디스플레이(108)는 극도의 고습 및 저습 변화들뿐만 아니라, 습도의 고속 변화들을 허용해야 한다.
디스플레이 미러(108)는 또한 사용자의 손 제스처를 인식하고 인식된 손 제스처에 기초하여 디스플레이 미러(108) 상의 컨텐트 윈도우(112)의 하나 이상의 크기, 위치, 및 컨텐트를 정의하는 인식 시스템(128) 및 하나 이상의 센서를 포함한다. 인식 시스템(128)은 자립형 전용 모듈이거나, 프로세서(114)에 의해 수행되는 메모리(116) 내의 소프트웨어 명령들로 구현될 수 있다. 일실시예에서, 인식 시스템(128)은 손 제스처들을 인식하는 컴퓨터 비전 시스템이고, 이와 같은 컴퓨터 비전 시스템은 그 명세서가 본원에 참조되어 있는 미국 특허 제6,396,497호에 개시된 바와 같이 종래 기술에 잘 알려져 있다. 컴퓨터 비전 시스템에서, 하나 이상의 센 서들은 미러(104) 뒤에 위치되지만 미러(104) 앞의 이미지들을 캡쳐할 수 있는 디지털 비디오 카메라들(130)과 같은 하나 이상의 이미지 캡쳐 장치들이다. 바람직하게는, 세 개의 이와 같은 비디오 카메라들이 제공되며, 도1에서 파선으로 도시되며, 사용자의 손 제스처들이 세 개의 비디오 카메라들(130) 중 두 개 이상의 시계 내에 존재하도록 위치된다. 대안으로, 하나 이상의 비디오 카메라들(130)에는 팬-줌-틸트 모터(pan-zoom-tilt motor)(도시되지 않음)들이 제공되고, 여기서 인식 시스템(128)은 또한 사용자의 손들을 검출하여 손들을 추적하도록 팬-틸트-줌 모터들에 명령한다.
일실시예에서, 미리 결정된 손 제스처 모델들과 매칭하는 이미지들 또는 비디오 패턴들이 메모리(116)에 저장된다. 메모리(116)는 미리 결정된 손 제스처들 각각에 대한 컨텐트 윈도우(112)의 연관된 크기, 위치, 및/또는 컨텐트를 더 포함한다. 따라서, 프로세서(114)는 사용자의 인식된 손 제스처를 메모리(116) 내의 미리 결정된 손 제스처들과 비교하여 컨텐트 윈도우(112)를 연관된 크기, 위치, 및/또는 컨텐트으로 렌더링한다. 상기 비교는 모델에 비교되는 바와 같이 인식된 손 제스처에 대한 스코어를 결정하는 것을 포함하며, 스코어링이 미리 결정된 임계값 이상이면, 프로세서(114)는 메모리(116) 내의 연관된 데이터에 따라 컨텐트 윈도우(112)의 렌더링을 수행한다. 손 제스처는 디스플레이 미러 표면상에 디스플레이된 애플리케이션의 클로우징과 같은 명령을 또한 정의할 수 있다.
두 개 이상의 카메라들(130)이 사용되면, 손 제스처는 또한 삼각측량에 의해 계산될 수 있다. 따라서, 메모리(116) 내의 연관된 데이터에 따른 컨텐트 윈도우 (112)의 렌더링에 대한 대안으로서, 손 제스처 위치 값이 손 제스처의 검출된 위치 및 대응 위치에 렌더링된 컨텐트 윈도우(112)로부터 결정될 수 있다. 마찬가지로, 손 제스처 크기 값이 검출된 손 제스처 및 대응하는 크기에서 렌더링된 컨텐트 윈도우(112)로부터 계산될 수 있다.
인식 시스템이 컴퓨터 비전 시스템과 관련하여 서술되었지만, 당업자는 미리 결정된 손 제스쳐들이 열 전사, 초음파, 디스플레이 표면상에서 행해질 제스쳐를 필요로 하는 터치 스크린 또는 비접촉 대화(예를 들어, 용량성 센싱)과 같은 다른 수단에 의해 인식될 수 있다.
미러 디스플레이(108)의 동작이 지금부터 일반적으로 도4와 관련하여 설명될 것이다. 단계(200)에서, 컴퓨터 시스템(110)은 컨텐트 윈도우(112)를 랜더링하는 명령을 수신한다. 이 명령은 터치 명령, 구어 명령일 수 있으며 또는 심지어 손 제스쳐들과 통합될 수 있다. 예를 들어, 손 제스쳐는 컨텐트 윈도우(12)의 개구 및 디스플레이 미러(108) 상에 컨텐트 윈도우를 렌더링하도록 크기 및/또는 위치 둘 다를 신호화할 수 있다. 단계(202)에서, 인식 시스템(128)은 손 제스쳐가 검출되는지를 결정한다. 손 제스쳐가 검출되지 않으면, 이 방법은 컨텐트 윈도우가 크기 및/또는 위치와 같은 미리 결정된 디폴트 세팅들에 따라서 렌더링되는 단계(204)로 진행한다. 손 제스쳐가 검출되면, 손 체스쳐가 단계(206)에서 메모리(116)에 저장된 미리 결정된 손 제스쳐들 중 한 제스쳐와 매칭하는지가 결정된다. 검출된 손 제스쳐가 "컨텐트 윈도우 손 제스쳐(content window hand gesture)"(메모리(16)에 저장된 미리 결정된 손 제스쳐들 중 하나)가 아닌 경우, 또다시 컨텐트 윈도우는 단 계(204)에서 미리 결정된 디폴트 세팅에 따라서 렌더링된다. 컨텐트 윈도우(112)가 컨텐트 윈도우의 크기, 위치 및/또는 컨텐트를 표시하는 메모리(112)에 연관된 데이터에 따라서 렌더링되는 경우, 이 방법은 점선으로 표시된 단계(208)로 진행한다.
대안적으로, 이 방법은 단계(206-Y)로부터 제스쳐 위치 값이 계산되는 단계(210)로 진행한다. 상술된 바와 같이, 손 제스쳐의 위치는 3개의 비디오 카메라들(130) 중 적어도 2개로부터 비디오 데이터를 갖는 3각 측량 방법을 사용하여 결정될 수 있다. 그 후, 이 제스쳐 위치 값은 단계(212)에서 컨텐트 윈도우(112) 위치로 변환된다. 예를 들어, 손 제스쳐가 디스플레이 미러(108)의 상위 우측 코너에 있는 것으로서 검출되는 경우, 컨텐트 윈도우(112)는 디스플레이 미러(1080의 상위 우측 코너에서 렌더링될 수 있다. 단계(214)에서, 제스쳐 크기 값은 검출된 손 제스쳐의 크기에 기초하여 계산된다. 그 후, 단계(216)에서 제스쳐 크기 값은 컨텐트 윈도우 크기로 변환된다. 예를 들어, 손 제스쳐가 우선 주먹을 쥔 경우, 작은 컨텐트 윈도우(112)는 계산된 위치값에 따른 위치에 렌더링된다. 손바닥을 편 제스쳐가 검출되는 경우, 큰 컨텐트 윈도우(112)가 렌더링될 수 있다. 검출된 손 제스쳐에 대응하는 컨텐트 윈도우(112)의 크기는 손 제스쳐의 실제 검출된 크기에 기초하여 메모리(116)에 저장될 수 있다. 따라서, 주먹을 쥔 손 제스쳐가 제1 크기의 컨텐트 윈도우(112)이고 손바닥을 편 제스쳐가 더 큰 제2 크기의 컨텐트 윈도우(112)라면, 주먹을 쥐고 펼친 손 사이의 크기를 갖는 손 제스쳐는 제1 및 제2 크기들 간의 크기를 갖는 컨텐트 윈도우(112)가 된다. 컨텐트 윈도우(112)가 오픈되면, 이의 크기 는 음성 인식 시스템(132)에 의해 인식되는 구어 명령과 가능한 조합하여 손 제스쳐의 크기를 조정함으로써 조정될 수 있다. 단계(218)에서, 컨텐트 윈도우(112)는 컨텐트 윈도우 크기 및/또는 위치에 따라서 렌더링된다. 이 방법이 크기 및 위치와 관련하여 서술되었지만, 당업자는 원하는 경우 다른 것 없이도 어느 하나를 사용할 수 있다는 것을 인지할 것이다.
컨텐트 윈도우(112)에서 렌더링되는 컨텐트(예를 들어, 특정 웹 사이트, 사용자의 이메일 메일박스 등)는 프로그램된 사용자 또는 사용자 입력으로부터 컴퓨터 시스템에 알려질 수 있다. 예를 들어, 사용자는 컨텐트 윈도우(112)를 이동 또는 재크기화하는 손 제스쳐를 행하기 바로 직전 터치 스크린 또는 음성 인식 시스템(132)을 사용하여 메뉴로부터 컨텐트를 특정할 수 있다. 사용자는 또한 하루 중 여러 시간들에서 렌더링될 특정 컨텐트를 사전프로그램할 수 있다. 예를 들어, 저녁에 MTV와 같은 이메일 메시지들 및 음악 비디오 클립을 리스트화하기 앞서 오전에 뉴스 웹사이트를 렌더링한다. 인식 시스템(128)은 또한 가족 또는 사업으로부터 특정 개인들을 인지하고 각 개인의 프리셋 프로그래밍 또는 손 크기에 따라서 컨텐트를 렌더링하도록 사용될 수 있다.
컨텐트 윈도우(112)에 렌더링될 컨텐트는 또한 가령 손 제스쳐와 동시에 음성 명령을 발부함으로써 손 제스쳐들 동안 사용자에 의해 특정될 수 있다. 컨텐트 윈도우(112)에 렌더링될 컨텐트는 또한, 터치 스크린 또는 구어 명령에 의한 가능한 또 다른 손 제스쳐로 예를 들어 컨텐트 윈도우에 메뉴를 제공하고 사용자가 이 메뉴로부터 부가적인 선택을 필요로 함으로써 손 제스쳐가 행해진 후 사용자에 의 해 특정될 수 있다. 손 제스쳐 그 자체는 또한 디스플레이 미러(108) 상에 컨텐트 윈도우(112)의 크기 및/또는 위치를 표시하는 것 이외에 컨텐트 윈도우에 렌더링되는 컨텐트를 특정하도록 동작할 수 있다. 예를 들어, 사용자는 디스플레이 미러(108)의 최상위 우측 손 코너에서 C-형 손 제스쳐를 행하는데, 이 경우에 CNN은 디스플레이 미러의 최상위 우측 손 코너에서 컨텐트 윈도우(112)에 렌더링될 것이다. 게다가, 손 제스쳐의 C-형은 큰 윈도우를 표시하도록 넓게 오픈되거나 작은 윈도우를 표시하도록 클로우징된다. 유사하게, M-형 손 제스쳐는 컨텐트 윈도우(112)에 렌더링될 음악 컨텐트를 정의하도록 사용되거나 R-형 손 제스쳐는 무선 컨텐트를 특정하는데 행해질 수 있다. 또한, 특정 손 제스쳐 위치 및/또는 크기는 컨텐트 윈도우(112)에 렌더링될 특정 컨텐트에 대응할 수 있다. 예를 들어, 최상위 좌측 손 제스쳐는 컨텐트 윈도우(112)에 렌더링되는 CNN 컨텐트에 대응하고, 하위 우측 손 제스쳐는 컨텐트 윈도우(112)에 렌더링되는 카툰 네트워크(cartoon network;112)에 렌더링되는 CNN 컨텐트에 대응한다. 간략하게 요약하여 서술된 바와 같이, 검출된 손 제스쳐는 또한 "X" 또는 와이핑 모션과 같은 컨텐트 윈도우(112)를 클로우징하도록 사용될 수 있다. 하나 이상의 컨텐트 윈도우(112)가 오픈되면, 손을 쥔 제스쳐는 손 제스쳐의 위치에 가장 밀접하게 대응하는 컨텐트 윈도우(112)에 적용될 수 있다.
상술된 실시예들은 디스플레이 미러(108) 상에 디스플레이되는 컨텐트 윈도우를 오픈, 클로우즈, 재크기화 및 이동시키는데 유용하다. 그러나, 도3에 도시된 바와 같이, LCD 패널 디스플레이와 같은 미러화되지 않은 디스플레이(non-mirrored display;300)는 도2에 개요적으로 도시된 시스템에서 구성될 수 있다. 미러화되지 않은 디스플레이(300)는 디스플레이 표면(304) 상에 미러화된 것 같은 부분(mirrored-like portion;302)을 렌더링할 수 있다. 따라서, 이와 같은 미러화되지 않은 디스플레이(300)를 사용하는 시스템은 디스플레이 미러(108)에 대한 상술된 바와 유사한 미러화된 배경을 갖는 컨텐트 윈도우(306)를 렌더링할 수 있다. 그러나, 컨텐트 윈도우(306)를 둘러싸는 영역은 미러화되지 않거나 미러화된 효과를 갖는다. 그 후, 이 시스템은 상술된 바와 유사하게 컨텐트 윈도우를 오픈, 클로우즈, 재크기화 및/또는 이동시키는데 사용될 수 있다.
본 발명의 방법들은 특히, 이 방법들의 개별적인 단계들에 대응하는 모듈들을 포함하는 컴퓨터 소프트웨어 프로그램과 같은 컴퓨터 소프트웨어 프로그램에 의해 실행되도록 하는데 적합하다. 이와 같은 소프트웨어는 물론 집적 칩 또는 주변 장치와 같은 컴퓨터 판독가능한 매체에서 구체화될 수 있다.
본 발명의 바람직한 실시예들이 도시되고 설명되었지만, 형태 또는 상세사항면에서 물론 각종 수정들 및 변경들이 본 발명의 원리를 벗어남이 없이 손쉽게 행해질 수 있다는 것을 이해할 것이다. 그러므로, 본 발명은 서술되고 도시된 형태들로 제한되는 것이 아니라 첨부된 청구범위 내에 있는 모든 수정들을 커버한다.

Claims (24)

  1. 디스플레이에 있어서,
    컨텐트를 사용자에게 디스플레이하는 디스플레이 표면(108, 300);
    상기 디스플레이 표면(108, 300) 상의 컨텐트 윈도우(content window;112, 306)에 디스플레이하기 위해 상기 컨텐트를 상기 디스플레이 표면(108)에 공급하는 컴퓨터 시스템(110); 및
    사용자의 제스쳐를 인식하고, 상기 인식된 제스쳐에 기초하여 상기 디스플레이 표면(108, 300) 상의 상기 컨텐트 윈도우(112, 306)의 크기, 위치, 및 컨텐트 중 적어도 하나를 정의하는 인식 시스템(128)을 포함하는, 디스플레이.
  2. 제1항에 있어서, 상기 디스플레이는 적어도 상기 컨텐트가 디스플레이되지 않을 때 상기 사용자의 영상을 반사하는 디스플레이 미러(display mirror)인, 디스플레이.
  3. 제2항에 있어서, 상기 디스플레이 미러는 상기 컨텐트 및 사용자의 영상 모두를 디스플레이하는, 디스플레이.
  4. 제1항에 있어서, 상기 인식 시스템(128)은:
    상기 컴퓨터 시스템(128)에 동작 가능하게 연결되는 하나 이상의 센서들; 및
    상기 사용자의 제스쳐를 인식하기 위해 상기 하나 이상의 센서들로부터 데이터를 분석하는 프로세서(114)를 포함하는, 디스플레이.
  5. 제4항에 있어서, 상기 하나 이상의 센서들은 하나 이상의 카메라들(130)을 포함하고, 상기 프로세서는 상기 사용자의 제스쳐를 인식하기 위해 상기 하나 이상의 카메라들(130)로부터 영상 데이터를 분석하는, 디스플레이.
  6. 제4항에 있어서, 상기 인식 시스템(128)은 미리 결정된 제스쳐들 및 상기 컨텐트 윈도우(112, 306)의 연관된 크기 및/또는 위치를 저장하는 메모리(116)를 더 포함하고, 상기 프로세서(114)는 상기 사용자의 인식된 제스쳐를 상기 미리 결정된 제스쳐들과 비교하고, 상기 연관된 크기 및/또는 위치에 상기 컨텐트 윈도우(112)를 렌더링하는, 디스플레이.
  7. 제6항에 있어서, 상기 메모리(116)는 연관된 컨텐트를 더 포함하고, 상기 프로세서(114)는 또한 상기 사용자의 인식된 제스쳐를 상기 미리 결정된 제스쳐들과 비교하고, 상기 컨텐트 윈도우(112, 306)에 연관된 컨텐트를 렌더링하는, 디스플레이.
  8. 제6항에 있어서, 상기 프로세서(114) 및 메모리(116)는 상기 컴퓨터 시스템(110)에 포함되는, 디스플레이.
  9. 제1항에 있어서, 상기 사용자의 음성 명령을 인식하고, 상기 인식된 음성 명령에 기초하여 상기 컨텐트 윈도우(112, 306)에 컨텐트를 렌더링하는 음성 인식 시스템(132)을 더 포함하는, 디스플레이.
  10. 제1항에 있어서, 상기 제스쳐는 상기 디스플레이 표면(108, 300) 상에 디스플레이되는 애플리케이션의 클로우징(closing)을 또한 정의하는, 디스플레이.
  11. 제1항에 있어서, 명령을 상기 컴퓨터 시스템에 입력하기 위해 터치-스크린(touch-screen), 클로우즈-터치(close-touch), 및 비접촉 시스템(touchless system)(122, 124, 126) 중 하나를 더 포함하는, 디스플레이.
  12. 디스플레이(108, 300) 상에 컨텐트 윈도우(112, 300)를 렌더링하는 방법에 있어서,
    상기 컨텐트 윈도우(112, 306)에 디스플레이하기 위해 컨텐트를 디스플레이(108, 300)에 공급하는 단계;
    사용자의 제스쳐를 인식하는 단계;
    상기 인식된 제스쳐에 기초하여 상기 디스플레이(108, 300) 상의 상기 컨텐트 윈도우(112, 306)의 크기, 위치, 및 컨텐트 중 적어도 하나를 정의하는 단계; 및
    상기 정의된 크기, 위치, 및 컨텐트 중 적어도 하나에 따라 상기 컨텐트 윈도우(112, 306)를 상기 디스플레이(108, 300) 상에 디스플레이하는 단계를 포함하는, 렌더링 방법.
  13. 제12항에 있어서, 상기 제스쳐는 손 체스쳐(hand gesture)인, 렌더링 방법.
  14. 제12항에 있어서, 상기 디스플레이(108, 300)는 디스플레이 미러(108)이고, 상기 디스플레이하는 단계는 상기 컨텐트 및 상기 사용자의 영상 모두를 디스플레이하는 단계를 포함하는, 렌더링 방법.
  15. 제12항에 있어서, 상기 디스플레이(108)는 디스플레이 미러이고, 상기 디스플레이하는 단계는 상기 컨텐트만을 디스플레이하는 단계를 포함하는, 렌더링 방법.
  16. 제12항에 있어서, 상기 인식하는 단계는:
    하나 이상의 센서들로부터 상기 제스쳐의 데이터를 캡쳐하는 단계; 및
    상기 사용자의 제스쳐를 인식하기 위해 상기 하나 이상의 센서들로부터 데이터를 분석하는 단계를 포함하는, 렌더링 방법.
  17. 제16항에 있어서, 상기 하나 이상의 센서들은 카메라들(130)이고, 상기 분석 하는 단계는 상기 사용자의 제스쳐를 인식하기 위해 상기 하나 이상의 카메라들(130)로부터 영상 데이터를 분석하는 단계를 포함하는, 렌더링 방법.
  18. 제16항에 있어서, 상기 분석하는 단계는:
    미리 결정된 제스쳐 및 상기 컨텐트 윈도우의 연관된 크기 및/또는 위치를 저장하는 단계;
    상기 사용자의 인식된 제스쳐를 상기 미리 결정된 제스쳐들과 비교하는 단계; 및
    상기 컨텐트 윈도우(112, 306)를 상기 연관된 크기 및/또는 위치에 디스플레이하는 단계를 포함하는, 렌더링 방법.
  19. 제18항에 있어서, 상기 저장하는 단계는 상기 미리 결정된 제스쳐들에 대한 연관된 컨텐트를 더 포함하고, 상기 디스플레이하는 단계는 상기 연관된 컨텐트를 상기 컨텐트 윈도우(112, 306)에 디스플레이하는 단계를 더 포함하는, 렌더링 방법.
  20. 제12항에 있어서, 상기 사용자의 음성 명령을 인식하고, 상기 인식된 음성 명령에 기초하여 컨텐트를 상기 컨텐트 윈도우(112, 306)에 렌더링하는 단계를 더 포함하는, 렌더링 방법.
  21. 제12항에 있어서, 상기 인식된 제스쳐에 기초하여 상기 디스플레이(108, 300) 상에 디스플레이되는 애플리케이션의 클로우징을 정의하는 단계를 더 포함하는, 렌더링 방법.
  22. 제12항에 있어서, 명령을 상기 컴퓨터 시스템(110)에 입력하기 위해 터치-스크린, 클로우즈-터치 및 비접촉 시스템(122, 124, 126) 중 하나를 제공하는 단계를 더 포함하는, 렌더링 방법.
  23. 디스플레이(108, 300) 상에 컨텐트 윈도우(112, 306)를 렌더링하기 위해 컴퓨터-판독가능한 매체에 구현되는 컴퓨터 프로그램 제품에 있어서,
    상기 방법은:
    상기 컨텐트 윈도우(112, 306)에 디스플레이하기 위해 컨텐트를 상기 디스플레이(108, 300)에 공급하는 컴퓨터 판독가능한 프로그램 코드 수단;
    사용자의 제스쳐를 인식하는 컴퓨터 판독가능한 프로그램 코드 수단;
    상기 인식된 제스쳐에 기초하여 상기 디스플레이(108, 300) 상의 상기 컨텐트 윈도우(112, 306)의 크기, 위치, 및 컨텐트 중 적어도 하나를 정의하는 컴퓨터 판독가능한 프로그램 코드 수단; 및
    상기 정의된 크기, 위치, 및 컨텐트 중 적어도 하나에 따라 상기 디스플레이(108, 300) 상에 상기 컨텐트 윈도우(112, 306)를 디스플레이하는 컴퓨터 판독가능한 프로그램 코드 수단을 포함하는, 컴퓨터 프로그램 수단.
  24. 디스플레이(300) 상에 미러 디스플레이 컨텐트 윈도우(306)를 렌더링하는 방법으로서, 상기 미러 디스플레이 컨텐트 윈도우(306)는 컨텐트 및 사용자의 영상 모두를 디스플레이하는, 상기 렌더링 방법에 있어서,
    상기 미러 디스플레이 컨텐트 윈도우(306)에 디스플레이하기 위해 상기 컨텐트를 상기 디스플레이(300)에 공급하는 단계;
    사용자의 제스쳐를 인식하는 단계;
    상기 인식된 제스쳐에 기초하여 상기 디스플레이(300) 상의 상기 미러 디스플레이 컨텐트 윈도우(306)의 크기, 위치, 및 컨텐트 중 적어도 하나를 정의하는 단계; 및
    상기 정의된 크기, 위치, 및 컨텐트 중 적어도 하나에 따라 상기 디스플레이 상(300)에 상기 미러 디스플레이 컨텐트 윈도우(306)를 디스플레이하는 단계를 포함하는, 미러 디스플레이 컨텐트 윈도우 렌더링 방법.
KR1020067006254A 2003-09-30 2004-09-27 디스플레이 상의 컨텐트 윈도우의 위치, 크기 및/또는컨텐트를 정의하는 제스쳐 Withdrawn KR20060091310A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US50728703P 2003-09-30 2003-09-30
US60/507,287 2003-09-30

Publications (1)

Publication Number Publication Date
KR20060091310A true KR20060091310A (ko) 2006-08-18

Family

ID=34393230

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020067006254A Withdrawn KR20060091310A (ko) 2003-09-30 2004-09-27 디스플레이 상의 컨텐트 윈도우의 위치, 크기 및/또는컨텐트를 정의하는 제스쳐

Country Status (6)

Country Link
US (1) US20070124694A1 (ko)
EP (1) EP1671219A2 (ko)
JP (1) JP2007507782A (ko)
KR (1) KR20060091310A (ko)
CN (1) CN1860429A (ko)
WO (1) WO2005031552A2 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101493748B1 (ko) * 2008-06-16 2015-03-02 삼성전자주식회사 물품 제공장치, 디스플레이 장치 및 이를 이용한 gui제공방법
KR20180005063A (ko) * 2016-07-05 2018-01-15 삼성전자주식회사 디스플레이장치, 디스플레이장치의 구동방법 및 컴퓨터 판독가능 기록매체
KR20180030318A (ko) * 2016-09-13 2018-03-22 (주)아이리녹스 욕실용 스마트 미러 장치
US11061533B2 (en) 2015-08-18 2021-07-13 Samsung Electronics Co., Ltd. Large format display apparatus and control method thereof

Families Citing this family (95)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070287541A1 (en) 2001-09-28 2007-12-13 Jeffrey George Tracking display with proximity button activation
US7864159B2 (en) 2005-01-12 2011-01-04 Thinkoptics, Inc. Handheld vision based absolute pointing system
US20060184993A1 (en) * 2005-02-15 2006-08-17 Goldthwaite Flora P Method and system for collecting and using data
WO2007000743A2 (en) * 2005-06-28 2007-01-04 Koninklijke Philips Electronics, N.V. In-zoom gesture control for display mirror
EP1742144B1 (en) * 2005-07-04 2018-10-24 Electrolux Home Products Corporation N.V. Household appliance with virtual data interface
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
US8683362B2 (en) 2008-05-23 2014-03-25 Qualcomm Incorporated Card metaphor for activities in a computing device
US8296684B2 (en) 2008-05-23 2012-10-23 Hewlett-Packard Development Company, L.P. Navigating among activities in a computing device
TW200813806A (en) * 2006-06-27 2008-03-16 Ibm Method, program, and data processing system for modifying shape of display object
US8913003B2 (en) 2006-07-17 2014-12-16 Thinkoptics, Inc. Free-space multi-dimensional absolute pointer using a projection marker system
ATE527610T1 (de) * 2006-08-23 2011-10-15 Hewlett Packard Development Co MASCHINE FÜR MEHRFACHE BILDSCHIRMGRÖßENDARSTELLUNG
US20080104547A1 (en) * 2006-10-25 2008-05-01 General Electric Company Gesture-based communications
US7826906B2 (en) * 2006-11-01 2010-11-02 Intel Corporation Transducer access point
US7844915B2 (en) 2007-01-07 2010-11-30 Apple Inc. Application programming interfaces for scrolling operations
US20080168402A1 (en) 2007-01-07 2008-07-10 Christopher Blumenberg Application Programming Interfaces for Gesture Operations
US20080168478A1 (en) 2007-01-07 2008-07-10 Andrew Platzer Application Programming Interfaces for Scrolling
JP4306778B2 (ja) * 2007-01-15 2009-08-05 エプソンイメージングデバイス株式会社 表示装置
CN101610715B (zh) * 2007-02-14 2012-12-19 皇家飞利浦电子股份有限公司 用于引导及监督身体锻炼的反馈设备
WO2008132546A1 (en) * 2007-04-30 2008-11-06 Sony Ericsson Mobile Communications Ab Method and algorithm for detecting movement of an object
US9176598B2 (en) 2007-05-08 2015-11-03 Thinkoptics, Inc. Free-space multi-dimensional absolute pointer with improved performance
JP4625831B2 (ja) * 2007-08-01 2011-02-02 シャープ株式会社 表示装置および表示方法
US9479274B2 (en) 2007-08-24 2016-10-25 Invention Science Fund I, Llc System individualizing a content presentation
US9647780B2 (en) * 2007-08-24 2017-05-09 Invention Science Fund I, Llc Individualizing a content presentation
US20090172606A1 (en) * 2007-12-31 2009-07-02 Motorola, Inc. Method and apparatus for two-handed computer user interface with gesture recognition
US8762892B2 (en) * 2008-01-30 2014-06-24 Microsoft Corporation Controlling an integrated messaging system using gestures
US8717305B2 (en) 2008-03-04 2014-05-06 Apple Inc. Touch event model for web pages
US8645827B2 (en) 2008-03-04 2014-02-04 Apple Inc. Touch event model
US8416196B2 (en) 2008-03-04 2013-04-09 Apple Inc. Touch event model programming interface
CN101729808B (zh) * 2008-10-14 2012-03-28 Tcl集团股份有限公司 一种电视遥控方法及用该方法遥控操作电视机的系统
US20100146388A1 (en) * 2008-12-05 2010-06-10 Nokia Corporation Method for defining content download parameters with simple gesture
US9652030B2 (en) * 2009-01-30 2017-05-16 Microsoft Technology Licensing, Llc Navigation of a virtual plane using a zone of restriction for canceling noise
DE102009008041A1 (de) 2009-02-09 2010-08-12 Volkswagen Ag Verfahren zum Betrieb eines Kraftfahrzeuges mit einem Touchscreen
USD686637S1 (en) * 2009-03-11 2013-07-23 Apple Inc. Display screen or portion thereof with icon
US9311112B2 (en) 2009-03-16 2016-04-12 Apple Inc. Event recognition
US8285499B2 (en) 2009-03-16 2012-10-09 Apple Inc. Event recognition
US9684521B2 (en) 2010-01-26 2017-06-20 Apple Inc. Systems having discrete and continuous gesture recognizers
US8566045B2 (en) 2009-03-16 2013-10-22 Apple Inc. Event recognition
US9383823B2 (en) * 2009-05-29 2016-07-05 Microsoft Technology Licensing, Llc Combining gestures beyond skeletal
US8428368B2 (en) * 2009-07-31 2013-04-23 Echostar Technologies L.L.C. Systems and methods for hand gesture control of an electronic device
US8754856B2 (en) * 2009-09-30 2014-06-17 Ncr Corporation Multi-touch surface interaction
JP5400578B2 (ja) * 2009-11-12 2014-01-29 キヤノン株式会社 表示制御装置、及びその制御方法
US8552999B2 (en) 2010-06-14 2013-10-08 Apple Inc. Control selection approximation
WO2012002915A1 (en) * 2010-06-30 2012-01-05 Serdar Rakan Computer integrated presentation device
US8643481B2 (en) * 2010-09-17 2014-02-04 Johnson Controls Technology Company Interior rearview mirror assembly with integrated indicator symbol
US9180819B2 (en) * 2010-09-17 2015-11-10 Gentex Corporation Interior rearview mirror assembly with integrated indicator symbol
CN102081918B (zh) * 2010-09-28 2013-02-20 北京大学深圳研究生院 一种视频图像显示控制方法及视频图像显示器
CN102452591A (zh) * 2010-10-19 2012-05-16 由田新技股份有限公司 电梯操控系统
US8674965B2 (en) 2010-11-18 2014-03-18 Microsoft Corporation Single camera display device detection
KR101718893B1 (ko) * 2010-12-24 2017-04-05 삼성전자주식회사 터치 인터페이스 제공 방법 및 장치
US20120249595A1 (en) * 2011-03-31 2012-10-04 Feinstein David Y Area selection for hand held devices with display
US9298363B2 (en) 2011-04-11 2016-03-29 Apple Inc. Region activation for touch sensitive surface
US8929612B2 (en) 2011-06-06 2015-01-06 Microsoft Corporation System for recognizing an open or closed hand
EP2745186A1 (en) 2011-09-15 2014-06-25 Koninklijke Philips N.V. Gesture-based user-interface with user-feedback
US9432611B1 (en) 2011-09-29 2016-08-30 Rockwell Collins, Inc. Voice radio tuning
US9922651B1 (en) * 2014-08-13 2018-03-20 Rockwell Collins, Inc. Avionics text entry, cursor control, and display format selection via voice recognition
CN103135754B (zh) * 2011-12-02 2016-05-11 深圳泰山体育科技股份有限公司 采用交互设备实现交互的方法
US20150145883A1 (en) * 2012-04-26 2015-05-28 Qualcomm Incorporated Altering attributes of content that is provided in a portion of a display area based on detected inputs
CN103000054B (zh) * 2012-11-27 2015-07-22 广州中国科学院先进技术研究所 智能厨房烹饪教学机及其控制方法
KR101393573B1 (ko) * 2012-12-27 2014-05-09 현대자동차 주식회사 광 스캔을 이용한 사용자 인터페이스 시스템 및 방법
US9733716B2 (en) 2013-06-09 2017-08-15 Apple Inc. Proxy gesture recognizer
CN103479140A (zh) * 2013-09-10 2014-01-01 北京恒华伟业科技股份有限公司 一种智能镜子
US20150102994A1 (en) * 2013-10-10 2015-04-16 Qualcomm Incorporated System and method for multi-touch gesture detection using ultrasound beamforming
KR20150081840A (ko) * 2014-01-07 2015-07-15 삼성전자주식회사 디스플레이장치 및 그 제어방법
US10222866B2 (en) 2014-03-24 2019-03-05 Beijing Lenovo Software Ltd. Information processing method and electronic device
CN104951051B (zh) * 2014-03-24 2018-07-06 联想(北京)有限公司 一种信息处理方法和电子设备
CN104951211B (zh) * 2014-03-24 2018-12-14 联想(北京)有限公司 一种信息处理方法和电子设备
US20150277696A1 (en) * 2014-03-27 2015-10-01 International Business Machines Corporation Content placement based on user input
US9619120B1 (en) 2014-06-30 2017-04-11 Google Inc. Picture-in-picture for operating systems
US9990043B2 (en) * 2014-07-09 2018-06-05 Atheer Labs, Inc. Gesture recognition systems and devices for low and no light conditions
DE102014010352A1 (de) 2014-07-10 2016-01-14 Iconmobile Gmbh Interaktiver Spiegel
KR102322034B1 (ko) * 2014-09-26 2021-11-04 삼성전자주식회사 전환 거울을 구비한 장치의 이미지 디스플레이 방법 및 그 장치
EP3062195A1 (en) 2015-02-27 2016-08-31 Iconmobile Gmbh Interactive mirror
DE102015104437B4 (de) * 2015-03-24 2019-05-16 Beurer Gmbh Spiegel mit Display
DE102015226153A1 (de) * 2015-12-21 2017-06-22 Bayerische Motoren Werke Aktiengesellschaft Anzeigevorrichtung und Bedieneinrichtung
CN107368181B (zh) * 2016-05-12 2020-01-14 株式会社理光 一种手势识别方法及装置
WO2018004615A1 (en) 2016-06-30 2018-01-04 Hewlett Packard Development Company, L.P. Smart mirror
WO2018013074A1 (en) * 2016-07-11 2018-01-18 Hewlett-Packard Development Company, L.P. Mirror display devices
EP3316186B1 (en) * 2016-10-31 2021-04-28 Nokia Technologies Oy Controlling display of data to a person via a display apparatus
IT201700031537A1 (it) * 2017-03-22 2018-09-22 Tgd Spa Cabina per ascensore e simili con funzionalita' comunicative ed interattive di tipo migliorato.
CN108784175A (zh) * 2017-04-27 2018-11-13 芜湖美的厨卫电器制造有限公司 浴室镜及其手势控制装置、方法
CN107333055B (zh) * 2017-06-12 2020-04-03 美的集团股份有限公司 控制方法、控制装置、智能镜子和计算机可读存储介质
JP7128457B2 (ja) * 2017-08-30 2022-08-31 クリナップ株式会社 吊戸棚
US10448762B2 (en) * 2017-09-15 2019-10-22 Kohler Co. Mirror
US10887125B2 (en) 2017-09-15 2021-01-05 Kohler Co. Bathroom speaker
US11314215B2 (en) 2017-09-15 2022-04-26 Kohler Co. Apparatus controlling bathroom appliance lighting based on user identity
US11093554B2 (en) 2017-09-15 2021-08-17 Kohler Co. Feedback for water consuming appliance
US11099540B2 (en) 2017-09-15 2021-08-24 Kohler Co. User identity in household appliances
US11205405B2 (en) 2017-10-19 2021-12-21 Hewlett-Packard Development Company, L.P. Content arrangements on mirrored displays
JP6719087B2 (ja) * 2017-12-08 2020-07-08 パナソニックIpマネジメント株式会社 入力装置、及び、入力方法
CN108281096A (zh) * 2018-03-01 2018-07-13 安徽省东超科技有限公司 一种互动灯箱装置及其控制方法
DE102018116781A1 (de) * 2018-07-11 2020-01-16 Oliver M. Röttcher Spiegel und Verfahren zur Benutzerinteraktion
EP3641319A1 (en) * 2018-10-16 2020-04-22 Koninklijke Philips N.V. Displaying content on a display unit
EP3669748A1 (en) 2018-12-19 2020-06-24 Koninklijke Philips N.V. A mirror assembly
KR20220129769A (ko) 2021-03-17 2022-09-26 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법
CN113791699A (zh) * 2021-09-17 2021-12-14 联想(北京)有限公司 一种电子设备操纵方法以及电子设备

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US617678A (en) * 1899-01-10 emery
US5821930A (en) * 1992-08-23 1998-10-13 U S West, Inc. Method and system for generating a working window in a computer system
JP3382276B2 (ja) * 1993-01-07 2003-03-04 キヤノン株式会社 電子機器及びその制御方法
US5454043A (en) * 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
US6061064A (en) * 1993-08-31 2000-05-09 Sun Microsystems, Inc. System and method for providing and using a computer user interface with a view space having discrete portions
US5734923A (en) * 1993-09-22 1998-03-31 Hitachi, Ltd. Apparatus for interactively editing and outputting sign language information using graphical user interface
US6176782B1 (en) * 1997-12-22 2001-01-23 Philips Electronics North America Corp. Motion-based command generation technology
US6154723A (en) * 1996-12-06 2000-11-28 The Board Of Trustees Of The University Of Illinois Virtual reality 3D interface system for data creation, viewing and editing
US6720949B1 (en) * 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
EP0905644A3 (en) * 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Hand gesture recognizing device
US6072494A (en) * 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
US6394557B2 (en) * 1998-05-15 2002-05-28 Intel Corporation Method and apparatus for tracking an object using a continuously adapting mean shift
US6681031B2 (en) * 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6222465B1 (en) * 1998-12-09 2001-04-24 Lucent Technologies Inc. Gesture-based computer interface
SE0000850D0 (sv) * 2000-03-13 2000-03-13 Pink Solution Ab Recognition arrangement
US6643721B1 (en) * 2000-03-22 2003-11-04 Intel Corporation Input device-adaptive human-computer interface
EP1148411A3 (en) * 2000-04-21 2005-09-14 Sony Corporation Information processing apparatus and method for recognising user gesture
US6895589B2 (en) * 2000-06-12 2005-05-17 Microsoft Corporation Manager component for managing input from existing serial devices and added serial and non-serial devices in a similar manner
US6560027B2 (en) * 2000-12-21 2003-05-06 Hewlett-Packard Development Company System and method for displaying information on a mirror
US6990639B2 (en) * 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
US6996460B1 (en) * 2002-10-03 2006-02-07 Advanced Interfaces, Inc. Method and apparatus for providing virtual touch interaction in the drive-thru
US8745541B2 (en) * 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101493748B1 (ko) * 2008-06-16 2015-03-02 삼성전자주식회사 물품 제공장치, 디스플레이 장치 및 이를 이용한 gui제공방법
US9230386B2 (en) 2008-06-16 2016-01-05 Samsung Electronics Co., Ltd. Product providing apparatus, display apparatus, and method for providing GUI using the same
US11061533B2 (en) 2015-08-18 2021-07-13 Samsung Electronics Co., Ltd. Large format display apparatus and control method thereof
KR20180005063A (ko) * 2016-07-05 2018-01-15 삼성전자주식회사 디스플레이장치, 디스플레이장치의 구동방법 및 컴퓨터 판독가능 기록매체
US10467949B2 (en) 2016-07-05 2019-11-05 Samsung Electronics Co., Ltd. Display apparatus, driving method thereof, and computer readable recording medium
KR20180030318A (ko) * 2016-09-13 2018-03-22 (주)아이리녹스 욕실용 스마트 미러 장치

Also Published As

Publication number Publication date
JP2007507782A (ja) 2007-03-29
WO2005031552A3 (en) 2005-06-16
WO2005031552A2 (en) 2005-04-07
CN1860429A (zh) 2006-11-08
US20070124694A1 (en) 2007-05-31
EP1671219A2 (en) 2006-06-21

Similar Documents

Publication Publication Date Title
KR20060091310A (ko) 디스플레이 상의 컨텐트 윈도우의 위치, 크기 및/또는컨텐트를 정의하는 제스쳐
US12288301B2 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
US12032803B2 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
US11237625B2 (en) Interaction engine for creating a realistic experience in virtual reality/augmented reality environments
US20240361843A1 (en) Systems and methods of creating a realistic displacement of a virtual object in virtual reality/augmented reality environments
US10845511B2 (en) Smart mirror
KR101688355B1 (ko) 다수의 지각 감지 입력의 상호작용
US6560027B2 (en) System and method for displaying information on a mirror
US20170199576A1 (en) Interactive Mirror
Aghajan et al. Human-centric interfaces for ambient intelligence
US20140028548A1 (en) Gaze detection in a 3d mapping environment
JP2006048650A (ja) 赤外線画像作成システムにおける不要信号の影響を低減させるための方法およびシステム
CN101874234A (zh) 用户接口装置、用户接口方法、以及记录媒体
US20210081104A1 (en) Electronic apparatus and controlling method thereof
US11818511B2 (en) Virtual mirror systems and methods
CN112347294A (zh) 一种消除照明阴影的方法及系统
Wilson et al. Multimodal sensing for explicit and implicit interaction
US20240143257A1 (en) Hybrid structure displays
AT&T Your Title
EP4439240A1 (en) Emulation of a physical input device for touchless control of a computer device
Olanipekun et al. Development of an Integrated Human-Computer Interactive Model for Improved User Experience in Gesture-Controlled Smart Mirrors
US20250151187A1 (en) Lighting effects
JP2025041305A (ja) 冷蔵庫
CN115914701A (zh) 功能选择方法、装置、电子设备及存储介质
CN112889293A (zh) 在显示单元上显示内容

Legal Events

Date Code Title Description
PA0105 International application

Patent event date: 20060330

Patent event code: PA01051R01D

Comment text: International Patent Application

PG1501 Laying open of application
PC1203 Withdrawal of no request for examination
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid