KR20060091310A - 디스플레이 상의 컨텐트 윈도우의 위치, 크기 및/또는컨텐트를 정의하는 제스쳐 - Google Patents
디스플레이 상의 컨텐트 윈도우의 위치, 크기 및/또는컨텐트를 정의하는 제스쳐 Download PDFInfo
- Publication number
- KR20060091310A KR20060091310A KR1020067006254A KR20067006254A KR20060091310A KR 20060091310 A KR20060091310 A KR 20060091310A KR 1020067006254 A KR1020067006254 A KR 1020067006254A KR 20067006254 A KR20067006254 A KR 20067006254A KR 20060091310 A KR20060091310 A KR 20060091310A
- Authority
- KR
- South Korea
- Prior art keywords
- display
- content
- user
- gesture
- mirror
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 claims description 35
- 238000009877 rendering Methods 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 3
- 238000012552 review Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 239000007788 liquid Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000005693 optoelectronics Effects 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 241000699666 Mus <mouse, genus> Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000001680 brushing effect Effects 0.000 description 1
- 239000011248 coating agent Substances 0.000 description 1
- 238000000576 coating method Methods 0.000 description 1
- 230000007797 corrosion Effects 0.000 description 1
- 238000005260 corrosion Methods 0.000 description 1
- 238000001035 drying Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000010438 heat treatment Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47G—HOUSEHOLD OR TABLE EQUIPMENT
- A47G1/00—Mirrors; Picture frames or the like, e.g. provided with heating, lighting or ventilating means
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0421—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
컨텐트를 사용자에게 디스플레이하는 디스플레이 표면(108, 300), 상기 디스플레이 표면(108, 300) 상의 컨텐트 윈도우(112, 306)에 디스플레이하기 위해 상기 컨텐트를 상기 디스플레이 표면(108, 300)에 공급하는 컴퓨터 시스템(110), 및 사용자의 제스쳐를 인식하고 상기 인식된 제스쳐에 기초하여 상기 디스플레이 표면(108, 300) 상의 상기 컨텐트 윈도우(112, 306)의 크기, 위치, 및 컨텐트 중 적어도 하나를 정의하는 인식 시스템(128)을 포함하는 디스플레이가 개시된다. 이 디스플레이는 적어도 상기 컨텐트가 디스플레이되지 않을 때 사용자의 영상을 반사하는 디스플레이 미러(108)일 수 있다. 게다가, 제스쳐는 사용자의 손 제스쳐일 수 있다.
디스플레이, 컨텐트 윈도우, 제스쳐, 디스플레이 미러, 인식 시스템
Description
본 발명은 일반적으로 디스플레이들에 관한 것으로, 보다 구체적으로는, 디스플레이 미러들(display mirrors) 상의 컨텐트 윈도우들의 위치, 크기 및/또는 컨텐트를 정의하는 제스쳐들에 관한 것이다.
디스플레이 미러들은 마인(Meine)에게 허여된 미국 특허 6,560,027에 서술된 바와 같이 종래 기술로 알려져 있다. 디스플레이 미러는 미러의 특정 영역 상에 정보, 통신 또는 오락(ICE) 컨텐트를 갖는 컨텐트 윈도우를 디스플레이할 수 있다. 이 윈도우는 일반적으로 미러 디스플레이 상에 고정된 위치를 갖는다. 미러 디스플레이들의 애플리케이션들은 욕실, 부엌, 정자, 엘리베이터, 빌딩 로비 등에 대해 계획된다. 사용자의 위치(사용자-디스플레이 거리) 및 사용자 활동(예를 들어, 사용자의 주의가 미러와 컨텐트 윈도우 간에 어떻게 균형 잡히는지)에 따라, 사용자는 컨텐트 윈도우의 크기, 미러 디스플레이 상에 자신의 위치, 및/또는 상기 윈도우의 컨텐트 중 하나 이상에 영향을 미치기를 원할 수 있다. 이것은 미러 디스플레이를 위한 사용자 인터페이스가 사용자에게 알려질 수 없기 때문에 문제가 될 수 있다. 키보드 및 포인팅 장치(예를 들어, 마우스, 롤러볼(rollerball))와 같은 전통적인 입력 해결책들은 많은 상황들에서 매력적이거나 적용가능하지 않을 수 있다. 게다가, 원격 제어들은 일부 애플리케이션들에서 유용하지 않을 수 있다. 다른 대화식 디스플레이들, 터치 스크린들에서 사용되는 명백한 해결책들이 제한 사용되는데, 그 이유는 미러 품질이 영향받을 수 있고, 임의의 접촉이 미러 표면을 오염시키거나 그렇지 않다면 저하시키기 때문이다.
게다가, 디스플레이의 크기 및 해상도는 벽 또는 데스크를 커버할 수 있는 대형 디스플레이들에 대한 가까운 장래의 제조 방법에서 급속도로 성장할 것으로 예측된다. 이와 같은 대형 디스플레이는 또한 컨텐트 윈도우들을 디스플레이할 수 있고, 일부 상황들에서는 전술된 바와 같이 디스플레이 상에 컨텐트 윈도우를 렌더링(rendering)하기 위해 크기 및 위치 표시와 연관된 동일한 문제들을 가질 수 있다.
그러므로, 본 발명의 목적은 종래 기술과 연관된 상기 및 다른 단점들을 극복하는 디스플레이를 제공하는 것이다.
따라서, 디스플레이가 제공된다. 상기 디스플레이는 컨텐트를 사용자에게 디스플레이하는 디스플레이 표면; 상기 디스플레이 표면상의 컨텐트 윈도우에 디스플레이하기 위해 상기 컨텐트를 상기 디스플레이 표면에 공급하는 컴퓨터 시스템; 및 사용자의 제스쳐를 인식하고 상기 인식된 제스쳐에 기초하여 상기 디스플레이 표면상의 상기 컨텐트 윈도우의 크기, 위치, 및 컨텐트 중 적어도 하나를 정의하는 인식 시스템을 포함한다.
이 디스플레이는 적어도 상기 컨텐트가 디스플레이되지 않을 때 사용자의 영상을 반사하는 디스플레이 미러일 수 있다. 이 디스플레이 미러는 사용자의 컨텐트 및 영상 모두를 디스플레이할 수 있다.
인식 시스템은 컴퓨터 시스템에 동작 가능하게 연결되는 하나 이상의 센서들; 및 사용자의 제스쳐를 인식하기 위해 상기 하나 이상의 센서들로부터 데이터를 분석하는 프로세서를 포함한다. 상기 하나 이상의 센서들은 하나 이상의 카메라들을 포함할 수 있고, 상기 프로세서는 상기 하나 이상의 카메라들로부터 영상 데이터를 분석하여 사용자의 제스쳐를 인식한다. 인식 시스템은 미리 결정된 제스쳐들 및 컨텐트 윈도우의 연관된 크기 및/또는 위치를 저장하는 메모리를 더 포함하는데, 상기 프로세서는 사용자의 인식된 제스쳐를 미리 결정된 제스쳐들과 비교하고, 연관된 크기 및/또는 위치에 컨텐트 윈도우를 렌더링한다. 이 메모리는 연관된 컨텐트를 더 포함할 수 있고, 상기 프로세서는 사용자의 인식된 제스쳐를 미리 결정된 제스쳐들과 비교하여 컨텐트 윈도우에 연관된 컨텐트를 렌더링한다. 이 프로세서 및 메모리는 컴퓨터 시스템에 포함될 수 있다.
이 디스플레이는 사용자의 음성 명령을 인식하고 인식된 음성 명령에 기초하여 컨텐트 윈도우에 컨텐트를 렌더링하는 음성 인식 시스템을 더 포함한다.
이 제스쳐는 디스플레이 표면상에 디스플레이되는 애플리케이션의 클로우징(closing)을 또한 정의한다.
이 디스플레이는 명령을 컴퓨터 시스템으로 입력하는 터치-스크린, 클로우즈-터치 및 및 비접촉 시스템 중 하나를 더 포함한다.
또한, 디스플레이 상에 컨텐트 윈도우를 렌더링하는 방법이 제공된다. 이 방법은 컨텐트 윈도우에 디스플레이하기 위해 컨텐트를 디스플레이에 공급하는 단계; 사용자의 제스쳐를 인식하는 단계; 상기 인식된 제스쳐에 기초하여 디스플레이 상의 컨텐트 윈도우의 크기, 위치 및 컨텐트 중 적어도 하나를 정의하는 단계; 및 상기 정의된 크기, 위치 및 컨텐트 중 적어도 하나에 따라 디스플레이 상에 상기 컨텐트 윈도우를 디스플레이하는 단계를 포함한다.
이 제스쳐는 손 제스쳐일 수 있다.
상기 디스플레이는 상기 디스플레이 단계가 사용자의 컨텐트 및 영상 모두를 디스플레이하는 단계를 포함하는 디스플레이 미러일 수 있다. 상기 디스플레이는 또한 상기 디스플레이 단계가 컨텐트만을 디스플레이하는 단계를 포함하는 디스플레이 미러일 수 있다.
상기 인식 단계는: 하나 이상의 센서들로부터 제스쳐의 데이터를 캡쳐하는 단계; 및 사용자의 제스쳐를 인식하도록 상기 하나 이상의 센서들로부터 데이터를 분석하는 단계를 포함한다. 상기 하나 이상의 센서들은 상기 분석 단계가 사용자의 제스쳐를 인식하도록 상기 하나 이상의 카메라들로부터 영상 데이터를 분석하는 단계를 포함하는 카메라들일 수 있다. 상기 분석 단계는: 미리 결정된 제스쳐 및 상기 컨텐트 윈도우의 연관된 크기 및/또는 위치를 저장하는 단계; 상기 사용자의 인식된 제스쳐를 상기 미리 결정된 제스쳐들과 비교하는 단계; 및 상기 연관된 크기 및/또는 위치에 상기 컨텐트 윈도우를 디스플레이하는 단계를 포함한다. 상기 저장 단계는 상기 미리 결정된 제스쳐들에 대한 연관된 컨텐트를 더 포함하고, 상기 디스플레이하는 단계는 상기 컨텐트 윈도우에 상기 연관된 컨텐트를 디스플레이하는 단계를 더 포함한다.
상기 방법은 사용자의 음성 명령을 인식하여 상기 인식된 음성 명령에 기초하여 상기 컨텐트 윈도우에 컨텐트를 렌더링하는 단계를 더 포함할 수 있다.
상기 방법은 상기 인식된 제스쳐에 기초하여 상기 디스플레이 상에 디스플레이되는 애플리케이션의 클로우징을 정의하는 단계를 더 포함한다.
상기 방법은 상기 컴퓨터 시스템 내로 명령을 입력하는 터치-스크린, 클로우즈-스크린 및 비접촉 시스템 중 하나를 제공하는 단계를 더 포함할 수 있다.
미러 디스플레이 컨텐트 윈도우가 사용자의 컨텐트 및 영상 모두를 디스플레이하는 디스플레이 상에 미러 디스플레이 컨텐트 윈도우를 렌더링하는 방법이 또한 제공된다. 이 방법은 미러 디스플레이 컨텐트 윈도우에 디스플레이하기 위하여 컨텐트를 디스플레이에 공급하는 단계; 사용자의 제스쳐를 인식하는 단계; 상기 인식된 제스쳐에 기초하여 디스플레이 상의 상기 미러 디스플레이 컨텐트 윈도우의 크기, 위치 및 컨텐트 중 적어도 하나를 정의하는 단계; 및 상기 정의된 크기, 위치 및 컨텐트 중 적어도 하나에 따라 상기 디스플레이 상에 상기 미러 디스플레이 컨텐트 윈도우를 디스플레이하는 단계를 포함한다.
본 발명의 방법들을 실행하는 컴퓨터 프로그램 제품 및 그 내에 컴퓨터 프로그램 제품을 저장하는 프로그램 저장 장치가 또한 제공된다.
본 발명의 이들 및 다른 특징들, 양상들 및 장점들이 이하의 상세한 설명, 첨부된 청구범위, 및 도면들과 관련하여 더욱 잘 이해할 수 있을 것이다.
도1은 욕실 미러와 통합된 디스플레이 미러의 실시예를 도시한 도면.
도2는 도1의 디스플레이 미러의 개요도.
도3은 도1의 개요도에 사용하기 위한 대안적인 디스플레이를 도시한 도면.
도4는 디스플레이 미러 상에 컨텐트 윈도우를 렌더링하는 바람직한 방법의 순서도.
본 발명이 수많은 그리고 각종 유형들의 디스플레이들에 적용될 수 있지만, 본 발명은 욕실 디스플레이 미러들의 환경에서 특히 유용하다는 것이 밝혀졌다. 그러므로, 본 발명은 욕실 디스플레이 미러들 환경에서 설명되겠지만, 본 발명의 적용 가능성을 상기 환경들로 제한하지 않는다. 그러나, 당업자는 본 발명이 다른 유형들의 디스플레이들, 특히 대형 디스플레이들 및 부엌, 정자, 엘리베이터 및 건물과 호텔 로비들과 같은 다른 유형들의 디스플레이 미러들에 적용된다는 것을 인지할 것이다.
게다가, 본 발명이 수많은 그리고 각종 유형들의 제스쳐들에 적용될 수 있지만, 특히 손 제스쳐들의 환경에서 유용하다는 것이 밝혀졌다. 그러므로, 본 발명은 손 제스쳐들 환경에서 설명되겠지만, 본 발명의 적용 가능성을 상기 환경들로 제한하지 않는다. 그러나, 당업자는 손가락들, 팔들, 팔꿈치 및 심지어 얼굴 제스쳐들과 같은 인체의 다른 부분들을 포함한 제스쳐들과 같은 다른 유형들의 제스쳐들이 마찬가지로 본 발명의 장치 및 방법들에 적용될 수 있다는 것을 인지할 것이다.
본 발명은 본원에 참조된 Meine에게 허여된 미국 특허 제 6,560,027호에 서술된 바와 같은 디스플레이 미러를 형성하기 위하여 정보 디스플레이 패널 및 미러를 포함하는 시스템 및 방법에 관한 것이다. 이와 같은 디스플레이 미러는 바람직하게는 욕실에 배치되는데, 그 이유는 사람이 하루를 준비하기 위하여 욕실에서의 특정 시간량을 소모하기 때문이다. 디스플레이 미러는 예를 들어 이 닦기, 면도, 머리 다듬기, 세수, 메이크업, 건조 등과 같이, 사람이 하루를 준비하면서 전자 뉴스들 및 정보뿐만 아니라 자신들의 스케쥴을 검토하도록 한다. 디스플레이 미러와 대화함으로써, 사람은 자신들의 스케쥴을 수정하며, 자신들의 이메일을 체크하고, 그들이 받고자 하는 뉴스들 및 정보를 선택할 수 있다. 사용자는 스마트 미러를 보고, 뉴스 헤드라인 및/또는 스토리들을 검토하고, 이메일들에 응답하고, 및/또는 자신들의 약속 스케쥴을 검토하여 편집한다.
지금부터 도1을 참조하면, 욕실(100)에서 정보, 통신 또는 오락 컨텐트를 디스플레이하는 디스플레이 미러의 바람직한 실시예가 도시되어 있다. 이 설명을 위하여, "컨텐트(content)"는 이메일, 웹페이지, 소프트웨어 애플리케이션, 텔레비젼, 또는 다른 비디오 컨텐트뿐만 아니라 실내 또는 건물의 방 내의 전등을 켜거나 보안을 제어하는 것과 같은 사용자에 의해 실행될 수 있는 기능들을 포함하지만 이것만으로 제한되지 않고 윈도우에서 사용자에게 디스플레이될 수 있는 모든 것들을 의미한다. 연관된 미러(104)를 갖는 화장대(102)를 갖는 욕실(100)은 욕실(100)의 벽(106)에 배치된다. 상술된 바와 같이, 욕실은 단지 예로서 도시되고, 본 발명의 범위 및 원리를 제한하지 않는다.
디스플레이 미러(108)는 미러(104)의 표면의 적어도 일부와 통합된다. 디스플레이 미러(108)의 윤곽은 점선들로 도1에 도시된다. 디스플레이 미러(108)가 일반적으로 미러(104)에서 집중되어 도시되어 있지만, 이는 한쪽 측면을 따라서 또는 미러(104)의 코너 상의 임의의 위치에 위치될 수 있다. 게다가, 디스플레이 미러(108)가 미러(104)의 상당 부분을 커버하는 것으로 도시되었지만, 이는 본 발명의 범위를 벗어남이 없이 작거나 클 수 있다. 디스플레이 미러(108)는 정보, 통신 또는 오락(ICE) 컨텐트를 사용자에게 디스플레이하고, 또한 적어도 ICE 컨텐트가 디스플레이되지 않을 때 사용자의 영상을 반사할 수 있다. 일반적으로, 디스플레이 미러는 두 개의 모드들을 갖는다. 파워 오프 모드(power off mode)에서, 스마트 미러는 표준 반사 미러로서 동작한다. 파워 온 모드(power on mode)에서, 스마트 미러는 디스플레이 장치가 된다. 디스플레이 미러(108)는 액정 스크린으로부터 형성될 수 있다. 파워 오프 모드에서, 디스플레이 미러(108)는 표준 반사 미러로서 동작한다. 미러의 앞에 배치된 임의의 물체는 반사된 영상이 형성되게 한다. 디스플레이 장치(108)가 턴온될 때, 미러의 반사 동작은 턴오프될 수 있다. 따라서, 미러의 앞에 배치된 물체들은 반사된 영상들을 발생시키지 않고, 단지 디스플레이 정보만이 사용자에게 도시된다.
대안적으로, 반사 동작은 디스플레이 동작과 중첩될 수 있다. 이 장치에 의해 디스플레이되는 정보는 디스플레이 미러(108)의 표면상에 생성되도록 사용자에게 나타난다. 사용자에게 제공된 사용자의 반사 영상은 미러(104)(특정 거리는 소 스 물체(예를 들어, 사용자) 및 미러(104) 표면 사이의 거리와 동일하다) 뒤에서 특정 거리를 두고 생성하도록 나타난다. 따라서, 사용자는 자신들의 눈들의 초점을 변화시킴으로써 자신들의 반사된 영상 및 디스플레이 정보 사이를 스위칭할 수 있다. 이는 사용자가 시각 집중 활동들, 예를 들어 면도 또는 메이크업을 하면서 정보를 수신하게 한다. 따라서, 디스플레이 미러(108)는 ICE 컨텐트 및 사용자의 영상 모두를 동시에 디스플레이하거나 사용자의 영상을 반사함이 없이 ICE 컨텐트만을 디스플레이할 수 있다. 도1에 도시된 욕실 예에서, 디스플레이 미러(108)는 ICE 컨텐트 및 사용자의 반사 모두를 디스플레이하여 사용자가 ICE 컨텐트를 검토하고 동시에 면도 또는 메이크업을 하는 것과 같은 다른 잡일들을 수행하도록 한다.
상술된 바와 같이, 디스플레이 미러는 단지 예로서 제공되며 본 발명의 의도 또는 범위를 제한하지 않아야 한다. 디스플레이는 컨텐트 윈도우를 렌더링할 수 있고 컨텐트 윈도우를 재크기화하고/하거나 이동시키고 컨텐트 윈도우에 렌더링하기 위한 컨텐트를 제공하기 위하여 제어에 동작 가능하게 연결되는 임의의 유형의 디스플레이일 수 있다. 이와 같은 디스플레이는 벽의 실질적인 부분 또는 데스크 상에 배치되는 대형 디스플레이일 수 있으며, 이것은 제스처들을 사용하여 컨텐트 윈도우의 위치, 크기, 및/또는 컨텐트를 정의하기 위해 본 발명의 방법들로 이익을 얻을 수 있다.
이제 도2의 개략도를 참조하면, 디스플레이 미러(108)는 상기 디스플레이 미러(108) 상의 컨텐트 윈도우(112)에서의 디스플레이를 위해 ICE 컨텐트를 디스플레 이 미러(108)에 제공하는 컴퓨터 시스템(110)을 포함한다. 컴퓨터 시스템(110)은 상기 컴퓨터 시스템(110)과 일체이거나 이에 동작 가능하게 연결될 수 있는 프로세서(114) 및 메모리(116)를 포함한다. 컴퓨터 시스템은 개인용 컴퓨터이거나, ICE 컨텐트를 텔레비전 수신기, DVD 플레이어, 셋톱박스 등과 같은 디스플레이 미러(108)에 제공할 수 있는 프로세서를 갖는 임의의 다른 장치일 수 있다. 컴퓨터 시스템(110)은 또한 모뎀(118) 또는 인터넷(120)과 같은 원격 네트워크에 접촉하기 위한 다른 유사한 수단을 더 포함한다. 인터넷 연결은 ISDN, DSL, 기존 전화, 또는 케이블과 같이 종래 기술에 알려진 임의의 수단일 수 있고, 유선이거나 무선일 수 있다. 인터넷으로의 연결은 디스플레이 미러(108)의 사용자가 이메일들뿐만 아니라, 디스플레이 웹 정보를 송/수신할 수 있게 한다. 이것은 사용자가 선택된 소스들, 예를 들어, CNN, UPI, 주식 회로들 등으로부터 원하는 정보, 예를 들어, 뉴스, 주식들 등을 디스플레이하는 디스플레이 미러(108)를 구성하게 한다. 컴퓨터 시스템(110)으로의 연결은 또한 메모리(116)에 저장될 수 있는 사용자의 약속 스케줄에 대한 액세스를 허용할 것이다. 그 다음에, 사용자는 스케줄 또는 캘린더 내의 약속들, 테스크들, 및/또는 노트들을 검토하거나 변화시킬 수 있다. 그 다음, 사용자는 개인 휴대 정보 단말기, 예를 들어, 팜 파일럿(palm pilot)으로 스케줄 다운로드를 하거나, 약속 기록부에 포함하기 위해 인쇄 출력한다. 사용자는 또한 스케줄을 작업 위치 또는 다른 사람, 예를 들어, 관리 보조자에게 이메일로 보낼 수 있다. 컴퓨터 시스템(110)은 디스플레이 미러(108)로 전용되어 다른 컴퓨터들로 네트워킹되거나, 유선 또는 무선 네트워킹에 의해 디스플레이 미러(108)로 연결되어 다른 목 적을 위해 사용될 수 있다. 컴퓨터 시스템(110)은 또한 단일 위치 또는 다수 위치들에 위치된 다수의 디스플레이 미러들(108)을 동작시키고 제어하도록 구성될 수 있다.
디스플레이 미러는 명령들 또는 입력 데이터를 수행하기 위하여 컴퓨터 시스템(110)에 명령들을 입력하는 수단을 더 포함한다. 이와 같은 수단은 키보드, 마우스, 롤러볼 등일 수 있다. 그러나, 디스플레이 미러(108)는 바람직하게는, 컴퓨터 시스템(110) 내로 명령들 및/또는 데이터를 입력하는 터치-스크린(touch-screen), 클로우즈-터치(close-touch), 및 비접촉 시스템(touchless system)(본원에서 집합적으로 터치-스크린이라 칭함) 중 하나를 포함하고 직접적인 사용자 대화를 허용한다. 터치 스크린 기술은 종래 기술에 잘 알려져 있다. 일반적으로, 터치-스크린은 미러 디스플레이(108) 앞의 IR 광 그리드의 차단에 의존한다. 터치-스크린은 안 보이는 적외선 광의 그리드를 생성하기 위하여 두 개의 대향 측들 상에 각각 장착된 IF-발광 다이오드(LEDs)(122) 및 광트랜지스터들(124)의 열을 포함한 광-매트릭스 프레임을 포함한다. 프레임 어셈블리(126)는 광-전자기기들이 장착되고 미러(104) 뒤에 숨겨지는 인쇄 배선 기판들로 이루어진다. 미러(104)는 IR 빔들이 통과하게 하는 동안 동작 환경으로부터 광-전자기기를 차폐한다. 프로세서(114)는 순차적으로 LED들(122)를 펄싱(pulsing)하여, IR 광 빔들의 그리드를 생성한다. 손가락과 같은 스틸러스(stylus)가 그리드에 들어갈 때, 이것은 빔을 차단한다. 하나 이상의 광트랜지스터들(124)은 광의 부재를 검출하여 x 및 y 좌표들을 식별하는 신호를 전송한다. 컴퓨터 시스템(110)에 동작 가능하게 연결된 마이크로폰(134)으로부터의 음성 명령을 인식하기 위하여 음성 인식 시스템(132)이 또한 제공될 수 있다. 마이크로폰은 바람직하게는 물 및 다른 액체들이 마이크로폰(134)을 덜 손상시킬 것 같은 벽(106) 내의 어쿠스틱 오픈닝(acoustic opening)들 뒤에 위치된다.
디스플레이 미러가 욕실(100)에서와 같이 상대적으로 부적당한 환경에서 사용되는 경우에, 부가적인 요소들이 필요할 수 있다. 예를 들어, 디스플레이 미러(108)는 증기/안개가 디스플레이 상에 나타나는 것을 방지하기 위하여 안개 방지 코팅(anti-fog coating) 및/또는 가열 시스템을 사용할 수 있다. 또한 컴퓨터 시스템(110) 및 미러 디스플레이(108)는 부식을 초래할 수 있는 습기(증기 및 액체 물 둘 다)로부터 밀폐되어야 한다. 미러 디스플레이(108)는 또한 고속 온도 변화들뿐만 아니라, 극도의 고온 및 저온들을 허용해야 한다. 마찬가지로, 미러 디스플레이(108)는 극도의 고습 및 저습 변화들뿐만 아니라, 습도의 고속 변화들을 허용해야 한다.
디스플레이 미러(108)는 또한 사용자의 손 제스처를 인식하고 인식된 손 제스처에 기초하여 디스플레이 미러(108) 상의 컨텐트 윈도우(112)의 하나 이상의 크기, 위치, 및 컨텐트를 정의하는 인식 시스템(128) 및 하나 이상의 센서를 포함한다. 인식 시스템(128)은 자립형 전용 모듈이거나, 프로세서(114)에 의해 수행되는 메모리(116) 내의 소프트웨어 명령들로 구현될 수 있다. 일실시예에서, 인식 시스템(128)은 손 제스처들을 인식하는 컴퓨터 비전 시스템이고, 이와 같은 컴퓨터 비전 시스템은 그 명세서가 본원에 참조되어 있는 미국 특허 제6,396,497호에 개시된 바와 같이 종래 기술에 잘 알려져 있다. 컴퓨터 비전 시스템에서, 하나 이상의 센 서들은 미러(104) 뒤에 위치되지만 미러(104) 앞의 이미지들을 캡쳐할 수 있는 디지털 비디오 카메라들(130)과 같은 하나 이상의 이미지 캡쳐 장치들이다. 바람직하게는, 세 개의 이와 같은 비디오 카메라들이 제공되며, 도1에서 파선으로 도시되며, 사용자의 손 제스처들이 세 개의 비디오 카메라들(130) 중 두 개 이상의 시계 내에 존재하도록 위치된다. 대안으로, 하나 이상의 비디오 카메라들(130)에는 팬-줌-틸트 모터(pan-zoom-tilt motor)(도시되지 않음)들이 제공되고, 여기서 인식 시스템(128)은 또한 사용자의 손들을 검출하여 손들을 추적하도록 팬-틸트-줌 모터들에 명령한다.
일실시예에서, 미리 결정된 손 제스처 모델들과 매칭하는 이미지들 또는 비디오 패턴들이 메모리(116)에 저장된다. 메모리(116)는 미리 결정된 손 제스처들 각각에 대한 컨텐트 윈도우(112)의 연관된 크기, 위치, 및/또는 컨텐트를 더 포함한다. 따라서, 프로세서(114)는 사용자의 인식된 손 제스처를 메모리(116) 내의 미리 결정된 손 제스처들과 비교하여 컨텐트 윈도우(112)를 연관된 크기, 위치, 및/또는 컨텐트으로 렌더링한다. 상기 비교는 모델에 비교되는 바와 같이 인식된 손 제스처에 대한 스코어를 결정하는 것을 포함하며, 스코어링이 미리 결정된 임계값 이상이면, 프로세서(114)는 메모리(116) 내의 연관된 데이터에 따라 컨텐트 윈도우(112)의 렌더링을 수행한다. 손 제스처는 디스플레이 미러 표면상에 디스플레이된 애플리케이션의 클로우징과 같은 명령을 또한 정의할 수 있다.
두 개 이상의 카메라들(130)이 사용되면, 손 제스처는 또한 삼각측량에 의해 계산될 수 있다. 따라서, 메모리(116) 내의 연관된 데이터에 따른 컨텐트 윈도우 (112)의 렌더링에 대한 대안으로서, 손 제스처 위치 값이 손 제스처의 검출된 위치 및 대응 위치에 렌더링된 컨텐트 윈도우(112)로부터 결정될 수 있다. 마찬가지로, 손 제스처 크기 값이 검출된 손 제스처 및 대응하는 크기에서 렌더링된 컨텐트 윈도우(112)로부터 계산될 수 있다.
인식 시스템이 컴퓨터 비전 시스템과 관련하여 서술되었지만, 당업자는 미리 결정된 손 제스쳐들이 열 전사, 초음파, 디스플레이 표면상에서 행해질 제스쳐를 필요로 하는 터치 스크린 또는 비접촉 대화(예를 들어, 용량성 센싱)과 같은 다른 수단에 의해 인식될 수 있다.
미러 디스플레이(108)의 동작이 지금부터 일반적으로 도4와 관련하여 설명될 것이다. 단계(200)에서, 컴퓨터 시스템(110)은 컨텐트 윈도우(112)를 랜더링하는 명령을 수신한다. 이 명령은 터치 명령, 구어 명령일 수 있으며 또는 심지어 손 제스쳐들과 통합될 수 있다. 예를 들어, 손 제스쳐는 컨텐트 윈도우(12)의 개구 및 디스플레이 미러(108) 상에 컨텐트 윈도우를 렌더링하도록 크기 및/또는 위치 둘 다를 신호화할 수 있다. 단계(202)에서, 인식 시스템(128)은 손 제스쳐가 검출되는지를 결정한다. 손 제스쳐가 검출되지 않으면, 이 방법은 컨텐트 윈도우가 크기 및/또는 위치와 같은 미리 결정된 디폴트 세팅들에 따라서 렌더링되는 단계(204)로 진행한다. 손 제스쳐가 검출되면, 손 체스쳐가 단계(206)에서 메모리(116)에 저장된 미리 결정된 손 제스쳐들 중 한 제스쳐와 매칭하는지가 결정된다. 검출된 손 제스쳐가 "컨텐트 윈도우 손 제스쳐(content window hand gesture)"(메모리(16)에 저장된 미리 결정된 손 제스쳐들 중 하나)가 아닌 경우, 또다시 컨텐트 윈도우는 단 계(204)에서 미리 결정된 디폴트 세팅에 따라서 렌더링된다. 컨텐트 윈도우(112)가 컨텐트 윈도우의 크기, 위치 및/또는 컨텐트를 표시하는 메모리(112)에 연관된 데이터에 따라서 렌더링되는 경우, 이 방법은 점선으로 표시된 단계(208)로 진행한다.
대안적으로, 이 방법은 단계(206-Y)로부터 제스쳐 위치 값이 계산되는 단계(210)로 진행한다. 상술된 바와 같이, 손 제스쳐의 위치는 3개의 비디오 카메라들(130) 중 적어도 2개로부터 비디오 데이터를 갖는 3각 측량 방법을 사용하여 결정될 수 있다. 그 후, 이 제스쳐 위치 값은 단계(212)에서 컨텐트 윈도우(112) 위치로 변환된다. 예를 들어, 손 제스쳐가 디스플레이 미러(108)의 상위 우측 코너에 있는 것으로서 검출되는 경우, 컨텐트 윈도우(112)는 디스플레이 미러(1080의 상위 우측 코너에서 렌더링될 수 있다. 단계(214)에서, 제스쳐 크기 값은 검출된 손 제스쳐의 크기에 기초하여 계산된다. 그 후, 단계(216)에서 제스쳐 크기 값은 컨텐트 윈도우 크기로 변환된다. 예를 들어, 손 제스쳐가 우선 주먹을 쥔 경우, 작은 컨텐트 윈도우(112)는 계산된 위치값에 따른 위치에 렌더링된다. 손바닥을 편 제스쳐가 검출되는 경우, 큰 컨텐트 윈도우(112)가 렌더링될 수 있다. 검출된 손 제스쳐에 대응하는 컨텐트 윈도우(112)의 크기는 손 제스쳐의 실제 검출된 크기에 기초하여 메모리(116)에 저장될 수 있다. 따라서, 주먹을 쥔 손 제스쳐가 제1 크기의 컨텐트 윈도우(112)이고 손바닥을 편 제스쳐가 더 큰 제2 크기의 컨텐트 윈도우(112)라면, 주먹을 쥐고 펼친 손 사이의 크기를 갖는 손 제스쳐는 제1 및 제2 크기들 간의 크기를 갖는 컨텐트 윈도우(112)가 된다. 컨텐트 윈도우(112)가 오픈되면, 이의 크기 는 음성 인식 시스템(132)에 의해 인식되는 구어 명령과 가능한 조합하여 손 제스쳐의 크기를 조정함으로써 조정될 수 있다. 단계(218)에서, 컨텐트 윈도우(112)는 컨텐트 윈도우 크기 및/또는 위치에 따라서 렌더링된다. 이 방법이 크기 및 위치와 관련하여 서술되었지만, 당업자는 원하는 경우 다른 것 없이도 어느 하나를 사용할 수 있다는 것을 인지할 것이다.
컨텐트 윈도우(112)에서 렌더링되는 컨텐트(예를 들어, 특정 웹 사이트, 사용자의 이메일 메일박스 등)는 프로그램된 사용자 또는 사용자 입력으로부터 컴퓨터 시스템에 알려질 수 있다. 예를 들어, 사용자는 컨텐트 윈도우(112)를 이동 또는 재크기화하는 손 제스쳐를 행하기 바로 직전 터치 스크린 또는 음성 인식 시스템(132)을 사용하여 메뉴로부터 컨텐트를 특정할 수 있다. 사용자는 또한 하루 중 여러 시간들에서 렌더링될 특정 컨텐트를 사전프로그램할 수 있다. 예를 들어, 저녁에 MTV와 같은 이메일 메시지들 및 음악 비디오 클립을 리스트화하기 앞서 오전에 뉴스 웹사이트를 렌더링한다. 인식 시스템(128)은 또한 가족 또는 사업으로부터 특정 개인들을 인지하고 각 개인의 프리셋 프로그래밍 또는 손 크기에 따라서 컨텐트를 렌더링하도록 사용될 수 있다.
컨텐트 윈도우(112)에 렌더링될 컨텐트는 또한 가령 손 제스쳐와 동시에 음성 명령을 발부함으로써 손 제스쳐들 동안 사용자에 의해 특정될 수 있다. 컨텐트 윈도우(112)에 렌더링될 컨텐트는 또한, 터치 스크린 또는 구어 명령에 의한 가능한 또 다른 손 제스쳐로 예를 들어 컨텐트 윈도우에 메뉴를 제공하고 사용자가 이 메뉴로부터 부가적인 선택을 필요로 함으로써 손 제스쳐가 행해진 후 사용자에 의 해 특정될 수 있다. 손 제스쳐 그 자체는 또한 디스플레이 미러(108) 상에 컨텐트 윈도우(112)의 크기 및/또는 위치를 표시하는 것 이외에 컨텐트 윈도우에 렌더링되는 컨텐트를 특정하도록 동작할 수 있다. 예를 들어, 사용자는 디스플레이 미러(108)의 최상위 우측 손 코너에서 C-형 손 제스쳐를 행하는데, 이 경우에 CNN은 디스플레이 미러의 최상위 우측 손 코너에서 컨텐트 윈도우(112)에 렌더링될 것이다. 게다가, 손 제스쳐의 C-형은 큰 윈도우를 표시하도록 넓게 오픈되거나 작은 윈도우를 표시하도록 클로우징된다. 유사하게, M-형 손 제스쳐는 컨텐트 윈도우(112)에 렌더링될 음악 컨텐트를 정의하도록 사용되거나 R-형 손 제스쳐는 무선 컨텐트를 특정하는데 행해질 수 있다. 또한, 특정 손 제스쳐 위치 및/또는 크기는 컨텐트 윈도우(112)에 렌더링될 특정 컨텐트에 대응할 수 있다. 예를 들어, 최상위 좌측 손 제스쳐는 컨텐트 윈도우(112)에 렌더링되는 CNN 컨텐트에 대응하고, 하위 우측 손 제스쳐는 컨텐트 윈도우(112)에 렌더링되는 카툰 네트워크(cartoon network;112)에 렌더링되는 CNN 컨텐트에 대응한다. 간략하게 요약하여 서술된 바와 같이, 검출된 손 제스쳐는 또한 "X" 또는 와이핑 모션과 같은 컨텐트 윈도우(112)를 클로우징하도록 사용될 수 있다. 하나 이상의 컨텐트 윈도우(112)가 오픈되면, 손을 쥔 제스쳐는 손 제스쳐의 위치에 가장 밀접하게 대응하는 컨텐트 윈도우(112)에 적용될 수 있다.
상술된 실시예들은 디스플레이 미러(108) 상에 디스플레이되는 컨텐트 윈도우를 오픈, 클로우즈, 재크기화 및 이동시키는데 유용하다. 그러나, 도3에 도시된 바와 같이, LCD 패널 디스플레이와 같은 미러화되지 않은 디스플레이(non-mirrored display;300)는 도2에 개요적으로 도시된 시스템에서 구성될 수 있다. 미러화되지 않은 디스플레이(300)는 디스플레이 표면(304) 상에 미러화된 것 같은 부분(mirrored-like portion;302)을 렌더링할 수 있다. 따라서, 이와 같은 미러화되지 않은 디스플레이(300)를 사용하는 시스템은 디스플레이 미러(108)에 대한 상술된 바와 유사한 미러화된 배경을 갖는 컨텐트 윈도우(306)를 렌더링할 수 있다. 그러나, 컨텐트 윈도우(306)를 둘러싸는 영역은 미러화되지 않거나 미러화된 효과를 갖는다. 그 후, 이 시스템은 상술된 바와 유사하게 컨텐트 윈도우를 오픈, 클로우즈, 재크기화 및/또는 이동시키는데 사용될 수 있다.
본 발명의 방법들은 특히, 이 방법들의 개별적인 단계들에 대응하는 모듈들을 포함하는 컴퓨터 소프트웨어 프로그램과 같은 컴퓨터 소프트웨어 프로그램에 의해 실행되도록 하는데 적합하다. 이와 같은 소프트웨어는 물론 집적 칩 또는 주변 장치와 같은 컴퓨터 판독가능한 매체에서 구체화될 수 있다.
본 발명의 바람직한 실시예들이 도시되고 설명되었지만, 형태 또는 상세사항면에서 물론 각종 수정들 및 변경들이 본 발명의 원리를 벗어남이 없이 손쉽게 행해질 수 있다는 것을 이해할 것이다. 그러므로, 본 발명은 서술되고 도시된 형태들로 제한되는 것이 아니라 첨부된 청구범위 내에 있는 모든 수정들을 커버한다.
Claims (24)
- 디스플레이에 있어서,컨텐트를 사용자에게 디스플레이하는 디스플레이 표면(108, 300);상기 디스플레이 표면(108, 300) 상의 컨텐트 윈도우(content window;112, 306)에 디스플레이하기 위해 상기 컨텐트를 상기 디스플레이 표면(108)에 공급하는 컴퓨터 시스템(110); 및사용자의 제스쳐를 인식하고, 상기 인식된 제스쳐에 기초하여 상기 디스플레이 표면(108, 300) 상의 상기 컨텐트 윈도우(112, 306)의 크기, 위치, 및 컨텐트 중 적어도 하나를 정의하는 인식 시스템(128)을 포함하는, 디스플레이.
- 제1항에 있어서, 상기 디스플레이는 적어도 상기 컨텐트가 디스플레이되지 않을 때 상기 사용자의 영상을 반사하는 디스플레이 미러(display mirror)인, 디스플레이.
- 제2항에 있어서, 상기 디스플레이 미러는 상기 컨텐트 및 사용자의 영상 모두를 디스플레이하는, 디스플레이.
- 제1항에 있어서, 상기 인식 시스템(128)은:상기 컴퓨터 시스템(128)에 동작 가능하게 연결되는 하나 이상의 센서들; 및상기 사용자의 제스쳐를 인식하기 위해 상기 하나 이상의 센서들로부터 데이터를 분석하는 프로세서(114)를 포함하는, 디스플레이.
- 제4항에 있어서, 상기 하나 이상의 센서들은 하나 이상의 카메라들(130)을 포함하고, 상기 프로세서는 상기 사용자의 제스쳐를 인식하기 위해 상기 하나 이상의 카메라들(130)로부터 영상 데이터를 분석하는, 디스플레이.
- 제4항에 있어서, 상기 인식 시스템(128)은 미리 결정된 제스쳐들 및 상기 컨텐트 윈도우(112, 306)의 연관된 크기 및/또는 위치를 저장하는 메모리(116)를 더 포함하고, 상기 프로세서(114)는 상기 사용자의 인식된 제스쳐를 상기 미리 결정된 제스쳐들과 비교하고, 상기 연관된 크기 및/또는 위치에 상기 컨텐트 윈도우(112)를 렌더링하는, 디스플레이.
- 제6항에 있어서, 상기 메모리(116)는 연관된 컨텐트를 더 포함하고, 상기 프로세서(114)는 또한 상기 사용자의 인식된 제스쳐를 상기 미리 결정된 제스쳐들과 비교하고, 상기 컨텐트 윈도우(112, 306)에 연관된 컨텐트를 렌더링하는, 디스플레이.
- 제6항에 있어서, 상기 프로세서(114) 및 메모리(116)는 상기 컴퓨터 시스템(110)에 포함되는, 디스플레이.
- 제1항에 있어서, 상기 사용자의 음성 명령을 인식하고, 상기 인식된 음성 명령에 기초하여 상기 컨텐트 윈도우(112, 306)에 컨텐트를 렌더링하는 음성 인식 시스템(132)을 더 포함하는, 디스플레이.
- 제1항에 있어서, 상기 제스쳐는 상기 디스플레이 표면(108, 300) 상에 디스플레이되는 애플리케이션의 클로우징(closing)을 또한 정의하는, 디스플레이.
- 제1항에 있어서, 명령을 상기 컴퓨터 시스템에 입력하기 위해 터치-스크린(touch-screen), 클로우즈-터치(close-touch), 및 비접촉 시스템(touchless system)(122, 124, 126) 중 하나를 더 포함하는, 디스플레이.
- 디스플레이(108, 300) 상에 컨텐트 윈도우(112, 300)를 렌더링하는 방법에 있어서,상기 컨텐트 윈도우(112, 306)에 디스플레이하기 위해 컨텐트를 디스플레이(108, 300)에 공급하는 단계;사용자의 제스쳐를 인식하는 단계;상기 인식된 제스쳐에 기초하여 상기 디스플레이(108, 300) 상의 상기 컨텐트 윈도우(112, 306)의 크기, 위치, 및 컨텐트 중 적어도 하나를 정의하는 단계; 및상기 정의된 크기, 위치, 및 컨텐트 중 적어도 하나에 따라 상기 컨텐트 윈도우(112, 306)를 상기 디스플레이(108, 300) 상에 디스플레이하는 단계를 포함하는, 렌더링 방법.
- 제12항에 있어서, 상기 제스쳐는 손 체스쳐(hand gesture)인, 렌더링 방법.
- 제12항에 있어서, 상기 디스플레이(108, 300)는 디스플레이 미러(108)이고, 상기 디스플레이하는 단계는 상기 컨텐트 및 상기 사용자의 영상 모두를 디스플레이하는 단계를 포함하는, 렌더링 방법.
- 제12항에 있어서, 상기 디스플레이(108)는 디스플레이 미러이고, 상기 디스플레이하는 단계는 상기 컨텐트만을 디스플레이하는 단계를 포함하는, 렌더링 방법.
- 제12항에 있어서, 상기 인식하는 단계는:하나 이상의 센서들로부터 상기 제스쳐의 데이터를 캡쳐하는 단계; 및상기 사용자의 제스쳐를 인식하기 위해 상기 하나 이상의 센서들로부터 데이터를 분석하는 단계를 포함하는, 렌더링 방법.
- 제16항에 있어서, 상기 하나 이상의 센서들은 카메라들(130)이고, 상기 분석 하는 단계는 상기 사용자의 제스쳐를 인식하기 위해 상기 하나 이상의 카메라들(130)로부터 영상 데이터를 분석하는 단계를 포함하는, 렌더링 방법.
- 제16항에 있어서, 상기 분석하는 단계는:미리 결정된 제스쳐 및 상기 컨텐트 윈도우의 연관된 크기 및/또는 위치를 저장하는 단계;상기 사용자의 인식된 제스쳐를 상기 미리 결정된 제스쳐들과 비교하는 단계; 및상기 컨텐트 윈도우(112, 306)를 상기 연관된 크기 및/또는 위치에 디스플레이하는 단계를 포함하는, 렌더링 방법.
- 제18항에 있어서, 상기 저장하는 단계는 상기 미리 결정된 제스쳐들에 대한 연관된 컨텐트를 더 포함하고, 상기 디스플레이하는 단계는 상기 연관된 컨텐트를 상기 컨텐트 윈도우(112, 306)에 디스플레이하는 단계를 더 포함하는, 렌더링 방법.
- 제12항에 있어서, 상기 사용자의 음성 명령을 인식하고, 상기 인식된 음성 명령에 기초하여 컨텐트를 상기 컨텐트 윈도우(112, 306)에 렌더링하는 단계를 더 포함하는, 렌더링 방법.
- 제12항에 있어서, 상기 인식된 제스쳐에 기초하여 상기 디스플레이(108, 300) 상에 디스플레이되는 애플리케이션의 클로우징을 정의하는 단계를 더 포함하는, 렌더링 방법.
- 제12항에 있어서, 명령을 상기 컴퓨터 시스템(110)에 입력하기 위해 터치-스크린, 클로우즈-터치 및 비접촉 시스템(122, 124, 126) 중 하나를 제공하는 단계를 더 포함하는, 렌더링 방법.
- 디스플레이(108, 300) 상에 컨텐트 윈도우(112, 306)를 렌더링하기 위해 컴퓨터-판독가능한 매체에 구현되는 컴퓨터 프로그램 제품에 있어서,상기 방법은:상기 컨텐트 윈도우(112, 306)에 디스플레이하기 위해 컨텐트를 상기 디스플레이(108, 300)에 공급하는 컴퓨터 판독가능한 프로그램 코드 수단;사용자의 제스쳐를 인식하는 컴퓨터 판독가능한 프로그램 코드 수단;상기 인식된 제스쳐에 기초하여 상기 디스플레이(108, 300) 상의 상기 컨텐트 윈도우(112, 306)의 크기, 위치, 및 컨텐트 중 적어도 하나를 정의하는 컴퓨터 판독가능한 프로그램 코드 수단; 및상기 정의된 크기, 위치, 및 컨텐트 중 적어도 하나에 따라 상기 디스플레이(108, 300) 상에 상기 컨텐트 윈도우(112, 306)를 디스플레이하는 컴퓨터 판독가능한 프로그램 코드 수단을 포함하는, 컴퓨터 프로그램 수단.
- 디스플레이(300) 상에 미러 디스플레이 컨텐트 윈도우(306)를 렌더링하는 방법으로서, 상기 미러 디스플레이 컨텐트 윈도우(306)는 컨텐트 및 사용자의 영상 모두를 디스플레이하는, 상기 렌더링 방법에 있어서,상기 미러 디스플레이 컨텐트 윈도우(306)에 디스플레이하기 위해 상기 컨텐트를 상기 디스플레이(300)에 공급하는 단계;사용자의 제스쳐를 인식하는 단계;상기 인식된 제스쳐에 기초하여 상기 디스플레이(300) 상의 상기 미러 디스플레이 컨텐트 윈도우(306)의 크기, 위치, 및 컨텐트 중 적어도 하나를 정의하는 단계; 및상기 정의된 크기, 위치, 및 컨텐트 중 적어도 하나에 따라 상기 디스플레이 상(300)에 상기 미러 디스플레이 컨텐트 윈도우(306)를 디스플레이하는 단계를 포함하는, 미러 디스플레이 컨텐트 윈도우 렌더링 방법.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US50728703P | 2003-09-30 | 2003-09-30 | |
US60/507,287 | 2003-09-30 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20060091310A true KR20060091310A (ko) | 2006-08-18 |
Family
ID=34393230
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020067006254A Withdrawn KR20060091310A (ko) | 2003-09-30 | 2004-09-27 | 디스플레이 상의 컨텐트 윈도우의 위치, 크기 및/또는컨텐트를 정의하는 제스쳐 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20070124694A1 (ko) |
EP (1) | EP1671219A2 (ko) |
JP (1) | JP2007507782A (ko) |
KR (1) | KR20060091310A (ko) |
CN (1) | CN1860429A (ko) |
WO (1) | WO2005031552A2 (ko) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101493748B1 (ko) * | 2008-06-16 | 2015-03-02 | 삼성전자주식회사 | 물품 제공장치, 디스플레이 장치 및 이를 이용한 gui제공방법 |
KR20180005063A (ko) * | 2016-07-05 | 2018-01-15 | 삼성전자주식회사 | 디스플레이장치, 디스플레이장치의 구동방법 및 컴퓨터 판독가능 기록매체 |
KR20180030318A (ko) * | 2016-09-13 | 2018-03-22 | (주)아이리녹스 | 욕실용 스마트 미러 장치 |
US11061533B2 (en) | 2015-08-18 | 2021-07-13 | Samsung Electronics Co., Ltd. | Large format display apparatus and control method thereof |
Families Citing this family (95)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070287541A1 (en) | 2001-09-28 | 2007-12-13 | Jeffrey George | Tracking display with proximity button activation |
US7864159B2 (en) | 2005-01-12 | 2011-01-04 | Thinkoptics, Inc. | Handheld vision based absolute pointing system |
US20060184993A1 (en) * | 2005-02-15 | 2006-08-17 | Goldthwaite Flora P | Method and system for collecting and using data |
WO2007000743A2 (en) * | 2005-06-28 | 2007-01-04 | Koninklijke Philips Electronics, N.V. | In-zoom gesture control for display mirror |
EP1742144B1 (en) * | 2005-07-04 | 2018-10-24 | Electrolux Home Products Corporation N.V. | Household appliance with virtual data interface |
US7697827B2 (en) | 2005-10-17 | 2010-04-13 | Konicek Jeffrey C | User-friendlier interfaces for a camera |
US8683362B2 (en) | 2008-05-23 | 2014-03-25 | Qualcomm Incorporated | Card metaphor for activities in a computing device |
US8296684B2 (en) | 2008-05-23 | 2012-10-23 | Hewlett-Packard Development Company, L.P. | Navigating among activities in a computing device |
TW200813806A (en) * | 2006-06-27 | 2008-03-16 | Ibm | Method, program, and data processing system for modifying shape of display object |
US8913003B2 (en) | 2006-07-17 | 2014-12-16 | Thinkoptics, Inc. | Free-space multi-dimensional absolute pointer using a projection marker system |
ATE527610T1 (de) * | 2006-08-23 | 2011-10-15 | Hewlett Packard Development Co | MASCHINE FÜR MEHRFACHE BILDSCHIRMGRÖßENDARSTELLUNG |
US20080104547A1 (en) * | 2006-10-25 | 2008-05-01 | General Electric Company | Gesture-based communications |
US7826906B2 (en) * | 2006-11-01 | 2010-11-02 | Intel Corporation | Transducer access point |
US7844915B2 (en) | 2007-01-07 | 2010-11-30 | Apple Inc. | Application programming interfaces for scrolling operations |
US20080168402A1 (en) | 2007-01-07 | 2008-07-10 | Christopher Blumenberg | Application Programming Interfaces for Gesture Operations |
US20080168478A1 (en) | 2007-01-07 | 2008-07-10 | Andrew Platzer | Application Programming Interfaces for Scrolling |
JP4306778B2 (ja) * | 2007-01-15 | 2009-08-05 | エプソンイメージングデバイス株式会社 | 表示装置 |
CN101610715B (zh) * | 2007-02-14 | 2012-12-19 | 皇家飞利浦电子股份有限公司 | 用于引导及监督身体锻炼的反馈设备 |
WO2008132546A1 (en) * | 2007-04-30 | 2008-11-06 | Sony Ericsson Mobile Communications Ab | Method and algorithm for detecting movement of an object |
US9176598B2 (en) | 2007-05-08 | 2015-11-03 | Thinkoptics, Inc. | Free-space multi-dimensional absolute pointer with improved performance |
JP4625831B2 (ja) * | 2007-08-01 | 2011-02-02 | シャープ株式会社 | 表示装置および表示方法 |
US9479274B2 (en) | 2007-08-24 | 2016-10-25 | Invention Science Fund I, Llc | System individualizing a content presentation |
US9647780B2 (en) * | 2007-08-24 | 2017-05-09 | Invention Science Fund I, Llc | Individualizing a content presentation |
US20090172606A1 (en) * | 2007-12-31 | 2009-07-02 | Motorola, Inc. | Method and apparatus for two-handed computer user interface with gesture recognition |
US8762892B2 (en) * | 2008-01-30 | 2014-06-24 | Microsoft Corporation | Controlling an integrated messaging system using gestures |
US8717305B2 (en) | 2008-03-04 | 2014-05-06 | Apple Inc. | Touch event model for web pages |
US8645827B2 (en) | 2008-03-04 | 2014-02-04 | Apple Inc. | Touch event model |
US8416196B2 (en) | 2008-03-04 | 2013-04-09 | Apple Inc. | Touch event model programming interface |
CN101729808B (zh) * | 2008-10-14 | 2012-03-28 | Tcl集团股份有限公司 | 一种电视遥控方法及用该方法遥控操作电视机的系统 |
US20100146388A1 (en) * | 2008-12-05 | 2010-06-10 | Nokia Corporation | Method for defining content download parameters with simple gesture |
US9652030B2 (en) * | 2009-01-30 | 2017-05-16 | Microsoft Technology Licensing, Llc | Navigation of a virtual plane using a zone of restriction for canceling noise |
DE102009008041A1 (de) | 2009-02-09 | 2010-08-12 | Volkswagen Ag | Verfahren zum Betrieb eines Kraftfahrzeuges mit einem Touchscreen |
USD686637S1 (en) * | 2009-03-11 | 2013-07-23 | Apple Inc. | Display screen or portion thereof with icon |
US9311112B2 (en) | 2009-03-16 | 2016-04-12 | Apple Inc. | Event recognition |
US8285499B2 (en) | 2009-03-16 | 2012-10-09 | Apple Inc. | Event recognition |
US9684521B2 (en) | 2010-01-26 | 2017-06-20 | Apple Inc. | Systems having discrete and continuous gesture recognizers |
US8566045B2 (en) | 2009-03-16 | 2013-10-22 | Apple Inc. | Event recognition |
US9383823B2 (en) * | 2009-05-29 | 2016-07-05 | Microsoft Technology Licensing, Llc | Combining gestures beyond skeletal |
US8428368B2 (en) * | 2009-07-31 | 2013-04-23 | Echostar Technologies L.L.C. | Systems and methods for hand gesture control of an electronic device |
US8754856B2 (en) * | 2009-09-30 | 2014-06-17 | Ncr Corporation | Multi-touch surface interaction |
JP5400578B2 (ja) * | 2009-11-12 | 2014-01-29 | キヤノン株式会社 | 表示制御装置、及びその制御方法 |
US8552999B2 (en) | 2010-06-14 | 2013-10-08 | Apple Inc. | Control selection approximation |
WO2012002915A1 (en) * | 2010-06-30 | 2012-01-05 | Serdar Rakan | Computer integrated presentation device |
US8643481B2 (en) * | 2010-09-17 | 2014-02-04 | Johnson Controls Technology Company | Interior rearview mirror assembly with integrated indicator symbol |
US9180819B2 (en) * | 2010-09-17 | 2015-11-10 | Gentex Corporation | Interior rearview mirror assembly with integrated indicator symbol |
CN102081918B (zh) * | 2010-09-28 | 2013-02-20 | 北京大学深圳研究生院 | 一种视频图像显示控制方法及视频图像显示器 |
CN102452591A (zh) * | 2010-10-19 | 2012-05-16 | 由田新技股份有限公司 | 电梯操控系统 |
US8674965B2 (en) | 2010-11-18 | 2014-03-18 | Microsoft Corporation | Single camera display device detection |
KR101718893B1 (ko) * | 2010-12-24 | 2017-04-05 | 삼성전자주식회사 | 터치 인터페이스 제공 방법 및 장치 |
US20120249595A1 (en) * | 2011-03-31 | 2012-10-04 | Feinstein David Y | Area selection for hand held devices with display |
US9298363B2 (en) | 2011-04-11 | 2016-03-29 | Apple Inc. | Region activation for touch sensitive surface |
US8929612B2 (en) | 2011-06-06 | 2015-01-06 | Microsoft Corporation | System for recognizing an open or closed hand |
EP2745186A1 (en) | 2011-09-15 | 2014-06-25 | Koninklijke Philips N.V. | Gesture-based user-interface with user-feedback |
US9432611B1 (en) | 2011-09-29 | 2016-08-30 | Rockwell Collins, Inc. | Voice radio tuning |
US9922651B1 (en) * | 2014-08-13 | 2018-03-20 | Rockwell Collins, Inc. | Avionics text entry, cursor control, and display format selection via voice recognition |
CN103135754B (zh) * | 2011-12-02 | 2016-05-11 | 深圳泰山体育科技股份有限公司 | 采用交互设备实现交互的方法 |
US20150145883A1 (en) * | 2012-04-26 | 2015-05-28 | Qualcomm Incorporated | Altering attributes of content that is provided in a portion of a display area based on detected inputs |
CN103000054B (zh) * | 2012-11-27 | 2015-07-22 | 广州中国科学院先进技术研究所 | 智能厨房烹饪教学机及其控制方法 |
KR101393573B1 (ko) * | 2012-12-27 | 2014-05-09 | 현대자동차 주식회사 | 광 스캔을 이용한 사용자 인터페이스 시스템 및 방법 |
US9733716B2 (en) | 2013-06-09 | 2017-08-15 | Apple Inc. | Proxy gesture recognizer |
CN103479140A (zh) * | 2013-09-10 | 2014-01-01 | 北京恒华伟业科技股份有限公司 | 一种智能镜子 |
US20150102994A1 (en) * | 2013-10-10 | 2015-04-16 | Qualcomm Incorporated | System and method for multi-touch gesture detection using ultrasound beamforming |
KR20150081840A (ko) * | 2014-01-07 | 2015-07-15 | 삼성전자주식회사 | 디스플레이장치 및 그 제어방법 |
US10222866B2 (en) | 2014-03-24 | 2019-03-05 | Beijing Lenovo Software Ltd. | Information processing method and electronic device |
CN104951051B (zh) * | 2014-03-24 | 2018-07-06 | 联想(北京)有限公司 | 一种信息处理方法和电子设备 |
CN104951211B (zh) * | 2014-03-24 | 2018-12-14 | 联想(北京)有限公司 | 一种信息处理方法和电子设备 |
US20150277696A1 (en) * | 2014-03-27 | 2015-10-01 | International Business Machines Corporation | Content placement based on user input |
US9619120B1 (en) | 2014-06-30 | 2017-04-11 | Google Inc. | Picture-in-picture for operating systems |
US9990043B2 (en) * | 2014-07-09 | 2018-06-05 | Atheer Labs, Inc. | Gesture recognition systems and devices for low and no light conditions |
DE102014010352A1 (de) | 2014-07-10 | 2016-01-14 | Iconmobile Gmbh | Interaktiver Spiegel |
KR102322034B1 (ko) * | 2014-09-26 | 2021-11-04 | 삼성전자주식회사 | 전환 거울을 구비한 장치의 이미지 디스플레이 방법 및 그 장치 |
EP3062195A1 (en) | 2015-02-27 | 2016-08-31 | Iconmobile Gmbh | Interactive mirror |
DE102015104437B4 (de) * | 2015-03-24 | 2019-05-16 | Beurer Gmbh | Spiegel mit Display |
DE102015226153A1 (de) * | 2015-12-21 | 2017-06-22 | Bayerische Motoren Werke Aktiengesellschaft | Anzeigevorrichtung und Bedieneinrichtung |
CN107368181B (zh) * | 2016-05-12 | 2020-01-14 | 株式会社理光 | 一种手势识别方法及装置 |
WO2018004615A1 (en) | 2016-06-30 | 2018-01-04 | Hewlett Packard Development Company, L.P. | Smart mirror |
WO2018013074A1 (en) * | 2016-07-11 | 2018-01-18 | Hewlett-Packard Development Company, L.P. | Mirror display devices |
EP3316186B1 (en) * | 2016-10-31 | 2021-04-28 | Nokia Technologies Oy | Controlling display of data to a person via a display apparatus |
IT201700031537A1 (it) * | 2017-03-22 | 2018-09-22 | Tgd Spa | Cabina per ascensore e simili con funzionalita' comunicative ed interattive di tipo migliorato. |
CN108784175A (zh) * | 2017-04-27 | 2018-11-13 | 芜湖美的厨卫电器制造有限公司 | 浴室镜及其手势控制装置、方法 |
CN107333055B (zh) * | 2017-06-12 | 2020-04-03 | 美的集团股份有限公司 | 控制方法、控制装置、智能镜子和计算机可读存储介质 |
JP7128457B2 (ja) * | 2017-08-30 | 2022-08-31 | クリナップ株式会社 | 吊戸棚 |
US10448762B2 (en) * | 2017-09-15 | 2019-10-22 | Kohler Co. | Mirror |
US10887125B2 (en) | 2017-09-15 | 2021-01-05 | Kohler Co. | Bathroom speaker |
US11314215B2 (en) | 2017-09-15 | 2022-04-26 | Kohler Co. | Apparatus controlling bathroom appliance lighting based on user identity |
US11093554B2 (en) | 2017-09-15 | 2021-08-17 | Kohler Co. | Feedback for water consuming appliance |
US11099540B2 (en) | 2017-09-15 | 2021-08-24 | Kohler Co. | User identity in household appliances |
US11205405B2 (en) | 2017-10-19 | 2021-12-21 | Hewlett-Packard Development Company, L.P. | Content arrangements on mirrored displays |
JP6719087B2 (ja) * | 2017-12-08 | 2020-07-08 | パナソニックIpマネジメント株式会社 | 入力装置、及び、入力方法 |
CN108281096A (zh) * | 2018-03-01 | 2018-07-13 | 安徽省东超科技有限公司 | 一种互动灯箱装置及其控制方法 |
DE102018116781A1 (de) * | 2018-07-11 | 2020-01-16 | Oliver M. Röttcher | Spiegel und Verfahren zur Benutzerinteraktion |
EP3641319A1 (en) * | 2018-10-16 | 2020-04-22 | Koninklijke Philips N.V. | Displaying content on a display unit |
EP3669748A1 (en) | 2018-12-19 | 2020-06-24 | Koninklijke Philips N.V. | A mirror assembly |
KR20220129769A (ko) | 2021-03-17 | 2022-09-26 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 제어 방법 |
CN113791699A (zh) * | 2021-09-17 | 2021-12-14 | 联想(北京)有限公司 | 一种电子设备操纵方法以及电子设备 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US617678A (en) * | 1899-01-10 | emery | ||
US5821930A (en) * | 1992-08-23 | 1998-10-13 | U S West, Inc. | Method and system for generating a working window in a computer system |
JP3382276B2 (ja) * | 1993-01-07 | 2003-03-04 | キヤノン株式会社 | 電子機器及びその制御方法 |
US5454043A (en) * | 1993-07-30 | 1995-09-26 | Mitsubishi Electric Research Laboratories, Inc. | Dynamic and static hand gesture recognition through low-level image analysis |
US6061064A (en) * | 1993-08-31 | 2000-05-09 | Sun Microsystems, Inc. | System and method for providing and using a computer user interface with a view space having discrete portions |
US5734923A (en) * | 1993-09-22 | 1998-03-31 | Hitachi, Ltd. | Apparatus for interactively editing and outputting sign language information using graphical user interface |
US6176782B1 (en) * | 1997-12-22 | 2001-01-23 | Philips Electronics North America Corp. | Motion-based command generation technology |
US6154723A (en) * | 1996-12-06 | 2000-11-28 | The Board Of Trustees Of The University Of Illinois | Virtual reality 3D interface system for data creation, viewing and editing |
US6720949B1 (en) * | 1997-08-22 | 2004-04-13 | Timothy R. Pryor | Man machine interfaces and applications |
EP0905644A3 (en) * | 1997-09-26 | 2004-02-25 | Matsushita Electric Industrial Co., Ltd. | Hand gesture recognizing device |
US6072494A (en) * | 1997-10-15 | 2000-06-06 | Electric Planet, Inc. | Method and apparatus for real-time gesture recognition |
US6394557B2 (en) * | 1998-05-15 | 2002-05-28 | Intel Corporation | Method and apparatus for tracking an object using a continuously adapting mean shift |
US6681031B2 (en) * | 1998-08-10 | 2004-01-20 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
US6222465B1 (en) * | 1998-12-09 | 2001-04-24 | Lucent Technologies Inc. | Gesture-based computer interface |
SE0000850D0 (sv) * | 2000-03-13 | 2000-03-13 | Pink Solution Ab | Recognition arrangement |
US6643721B1 (en) * | 2000-03-22 | 2003-11-04 | Intel Corporation | Input device-adaptive human-computer interface |
EP1148411A3 (en) * | 2000-04-21 | 2005-09-14 | Sony Corporation | Information processing apparatus and method for recognising user gesture |
US6895589B2 (en) * | 2000-06-12 | 2005-05-17 | Microsoft Corporation | Manager component for managing input from existing serial devices and added serial and non-serial devices in a similar manner |
US6560027B2 (en) * | 2000-12-21 | 2003-05-06 | Hewlett-Packard Development Company | System and method for displaying information on a mirror |
US6990639B2 (en) * | 2002-02-07 | 2006-01-24 | Microsoft Corporation | System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration |
US6996460B1 (en) * | 2002-10-03 | 2006-02-07 | Advanced Interfaces, Inc. | Method and apparatus for providing virtual touch interaction in the drive-thru |
US8745541B2 (en) * | 2003-03-25 | 2014-06-03 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
-
2004
- 2004-09-27 JP JP2006530931A patent/JP2007507782A/ja active Pending
- 2004-09-27 EP EP04770101A patent/EP1671219A2/en not_active Withdrawn
- 2004-09-27 WO PCT/IB2004/051882 patent/WO2005031552A2/en not_active Application Discontinuation
- 2004-09-27 KR KR1020067006254A patent/KR20060091310A/ko not_active Withdrawn
- 2004-09-27 CN CNA2004800283128A patent/CN1860429A/zh active Pending
- 2004-09-27 US US10/574,137 patent/US20070124694A1/en not_active Abandoned
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101493748B1 (ko) * | 2008-06-16 | 2015-03-02 | 삼성전자주식회사 | 물품 제공장치, 디스플레이 장치 및 이를 이용한 gui제공방법 |
US9230386B2 (en) | 2008-06-16 | 2016-01-05 | Samsung Electronics Co., Ltd. | Product providing apparatus, display apparatus, and method for providing GUI using the same |
US11061533B2 (en) | 2015-08-18 | 2021-07-13 | Samsung Electronics Co., Ltd. | Large format display apparatus and control method thereof |
KR20180005063A (ko) * | 2016-07-05 | 2018-01-15 | 삼성전자주식회사 | 디스플레이장치, 디스플레이장치의 구동방법 및 컴퓨터 판독가능 기록매체 |
US10467949B2 (en) | 2016-07-05 | 2019-11-05 | Samsung Electronics Co., Ltd. | Display apparatus, driving method thereof, and computer readable recording medium |
KR20180030318A (ko) * | 2016-09-13 | 2018-03-22 | (주)아이리녹스 | 욕실용 스마트 미러 장치 |
Also Published As
Publication number | Publication date |
---|---|
JP2007507782A (ja) | 2007-03-29 |
WO2005031552A3 (en) | 2005-06-16 |
WO2005031552A2 (en) | 2005-04-07 |
CN1860429A (zh) | 2006-11-08 |
US20070124694A1 (en) | 2007-05-31 |
EP1671219A2 (en) | 2006-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20060091310A (ko) | 디스플레이 상의 컨텐트 윈도우의 위치, 크기 및/또는컨텐트를 정의하는 제스쳐 | |
US12288301B2 (en) | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments | |
US12032803B2 (en) | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments | |
US11237625B2 (en) | Interaction engine for creating a realistic experience in virtual reality/augmented reality environments | |
US20240361843A1 (en) | Systems and methods of creating a realistic displacement of a virtual object in virtual reality/augmented reality environments | |
US10845511B2 (en) | Smart mirror | |
KR101688355B1 (ko) | 다수의 지각 감지 입력의 상호작용 | |
US6560027B2 (en) | System and method for displaying information on a mirror | |
US20170199576A1 (en) | Interactive Mirror | |
Aghajan et al. | Human-centric interfaces for ambient intelligence | |
US20140028548A1 (en) | Gaze detection in a 3d mapping environment | |
JP2006048650A (ja) | 赤外線画像作成システムにおける不要信号の影響を低減させるための方法およびシステム | |
CN101874234A (zh) | 用户接口装置、用户接口方法、以及记录媒体 | |
US20210081104A1 (en) | Electronic apparatus and controlling method thereof | |
US11818511B2 (en) | Virtual mirror systems and methods | |
CN112347294A (zh) | 一种消除照明阴影的方法及系统 | |
Wilson et al. | Multimodal sensing for explicit and implicit interaction | |
US20240143257A1 (en) | Hybrid structure displays | |
AT&T | Your Title | |
EP4439240A1 (en) | Emulation of a physical input device for touchless control of a computer device | |
Olanipekun et al. | Development of an Integrated Human-Computer Interactive Model for Improved User Experience in Gesture-Controlled Smart Mirrors | |
US20250151187A1 (en) | Lighting effects | |
JP2025041305A (ja) | 冷蔵庫 | |
CN115914701A (zh) | 功能选择方法、装置、电子设备及存储介质 | |
CN112889293A (zh) | 在显示单元上显示内容 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0105 | International application |
Patent event date: 20060330 Patent event code: PA01051R01D Comment text: International Patent Application |
|
PG1501 | Laying open of application | ||
PC1203 | Withdrawal of no request for examination | ||
WITN | Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid |