[go: up one dir, main page]

JP2018032440A - Controllable headset computer displays - Google Patents

Controllable headset computer displays Download PDF

Info

Publication number
JP2018032440A
JP2018032440A JP2017222885A JP2017222885A JP2018032440A JP 2018032440 A JP2018032440 A JP 2018032440A JP 2017222885 A JP2017222885 A JP 2017222885A JP 2017222885 A JP2017222885 A JP 2017222885A JP 2018032440 A JP2018032440 A JP 2018032440A
Authority
JP
Japan
Prior art keywords
cue
user interface
voice command
control
command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017222885A
Other languages
Japanese (ja)
Inventor
ウッダル・ジェイムズ
Woodall James
パーキンソン・クリストファー
Parkinson Christopher
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kopin Corp
Original Assignee
Kopin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US13/799,790 external-priority patent/US10013976B2/en
Application filed by Kopin Corp filed Critical Kopin Corp
Publication of JP2018032440A publication Critical patent/JP2018032440A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a headset computer in which a user can grasp what voice commands are available.SOLUTION: A method includes: a step of providing user interfaces 202 and 302 in a headset computer 100; in response to user utterance of a cue toggle command, a step of displaying at least one cue in the user interfaces 202 and 302, where each cue corresponds to voice commands 304a to 304f associated with codes to be executed, respectively; and in response to user utterance of the voice command, a step of executing the code associated with the voice command.SELECTED DRAWING: Figure 4

Description

関連技術Related technology

本願は、2013年1月4日付出願の米国特許出願第61/749,240号の優先権を主張する、2013年3月13日付出願の米国特許出願第13/799,790号の継続出願である。なお、米国特許出願第13/799,790号は、2010年9月20日付出願の米国特許出願第61/384,586号の優先権を主張する、2011年9月16日付出願の米国特許出願第13/234,916号の一部継続出願である。これら米国特許出願の全内容は、参照をもって本明細書に取り入れたものとする。   This application is a continuation of US Patent Application No. 13 / 799,790, filed March 13, 2013, claiming priority of US Patent Application No. 61 / 749,240, filed January 4, 2013. Note that U.S. Patent Application No. 13 / 799,790 claims U.S. Patent Application No. 61 / 384,586, filed September 20, 2010, and U.S. Patent Application No. 13 / 234,916, filed September 16, 2011. Is a continuation-in-part application. The entire contents of these US patent applications are hereby incorporated by reference.

現在、ノートブックPC、スマートフォン、タブレット型コンピューティング端末等のモバイルコンピューティングデバイスは、ビジネスライフおよび私生活の両方において、データを生成、分析、通信および消費するための日常的なツールとなっている。消費者は、高速無線通信技術のユビキタス化に伴ない、ますます容易にデジタル情報にアクセスできることを背景に、モバイルデジタルライフスタイルを享受し続ける。モバイルコンピューティングデバイスのよくある用途として、大量の高解像度コンピュータグラフィックス情報及び動画コンテンツを表示する用途が挙げられ、デバイスにワイヤレスでストリーミングして表示する場合が多い。典型的にこれらのデバイスはディスプレイ画面を備えているものの、モバイル性を推し進めるため、デバイス自体の物理的サイズは制限されている。そのため、これらのモバイルデバイスで、高解像度の大型ディスプレイのようなより好ましい視覚的体験を再現することは難しい。その他にも、このような種類のデバイスの短所として、ユーザインターフェースがヒトの手に依存する(ヒトの手を使うことを必要とする)点が挙げられる。典型的には、一般的にユーザは、(物理的または仮想的な)キーボードやタッチスクリーンディスプレイを用いてデータの入力や何らかの選択を行うことを求められる。そのため、今日の消費者は、ヒトの手に依存するモバイルデバイスを補うまたはこれにとって代わる、ハンズフリーで(ヒトの手に依存しないで)、高品質且つ携帯可能な、カラーディスプレイのソリューションを所望している。   Currently, mobile computing devices such as notebook PCs, smartphones, and tablet computing terminals have become everyday tools for generating, analyzing, communicating and consuming data in both business and private life. Consumers continue to enjoy a mobile digital lifestyle against the backdrop of increasingly easy access to digital information as high-speed wireless communication technology becomes ubiquitous. A common use of mobile computing devices is to display large amounts of high-resolution computer graphics information and video content, often streaming wirelessly to the device for display. Although these devices typically include a display screen, the physical size of the devices themselves is limited to promote mobility. Therefore, it is difficult to reproduce a more favorable visual experience on these mobile devices, such as a high resolution large display. Another disadvantage of this type of device is that the user interface depends on the human hand (requires use of the human hand). Typically, a user is generally required to enter data or make some selection using a (physical or virtual) keyboard or touch screen display. Therefore, today's consumers want a hands-free (independent of human hand), high quality and portable color display solution that supplements or replaces mobile devices that rely on human hands. ing.

近年開発されたマイクロディスプレイは、大型フォーマットの高解像度カラー画像及びストリーミング映像を、極めて小さい形状の構成要素で提供することができる。このようなディスプレイの用途として、ユーザの視野内にディスプレイが収まるように眼鏡やオーディオヘッドセットやビデオアイウェアと似た形式の、ユーザの頭部に装着される無線ヘッドセットコンピュータへの組込みが挙げられる。「無線ヘッドセットコンピューティング」デバイスは、少なくとも1つの小型高解像度マイクロディスプレイと画像を拡大する光学系とを備える。WVGAマイクロディスプレイは、スーパービデオグラフィックスアレイ(SVGA)(800×600)解像度または拡張グラフィックスアレイ(XGA)(1024×768)解像度、あるいは、それを超える解像度を提供することができる。また、無線コンピューティングヘッドセットは、データ機能や映像ストリーミング機能を可能にする少なくとも1つの無線コンピューティングインターフェースと通信インターフェースを備えており、かつ、ヒトの手に依存する装置を介して優れた利便性およびモバイル性を提供している。以上のようなデバイスに関する詳細な情報については、同時係属中の、2009年1月5日付出願の米国特許出願第12/348,648号“Mobile Wireless Display Software Platform for Controlling Other Systems and Devices”、2009年3月27日付出願の国際出願第PCT/US09/38601号“Handheld Wireless Display Devices Having High Resolution Display Suitable For Use as a Mobile Internet Device”および2012年4月25日付出願の米国特許出願第61/638,419号“Improved Headset Computer”を参照されたい。なお、これら特許出願の全内容は、参照をもって本明細書に取り入れたものとする。   Recently developed microdisplays can provide large format high resolution color images and streaming video with very small shaped components. An example of such a display application is the incorporation into a wireless headset computer worn on the user's head in a format similar to glasses, audio headsets or video eyewear so that the display fits within the user's field of view. It is done. A “wireless headset computing” device comprises at least one small high-resolution microdisplay and an optical system that magnifies an image. A WVGA microdisplay can provide Super Video Graphics Array (SVGA) (800 × 600) resolution or Extended Graphics Array (XGA) (1024 × 768) resolution or higher. In addition, the wireless computing headset has at least one wireless computing interface and a communication interface that enable data functions and video streaming functions, and has excellent convenience via a device that depends on human hands. And providing mobility. For detailed information on these devices, see co-pending US patent application Ser. No. 12 / 348,648, “Mobile Wireless Display Software Platform for Controlling Other Systems and Devices,” filed Jan. 5, 2009, March 2009. International Application No. PCT / US09 / 38601 filed on May 27, “Handheld Wireless Display Devices Having High Resolution Display Suitable For Use as a Mobile Internet Device” and US Patent Application No. 61 / 638,419 filed April 25, 2012, “ See “Improved Headset Computer”. Note that the entire contents of these patent applications are incorporated herein by reference.

本発明の一実施形態に係る方法は、ヘッドセットコンピュータにユーザインターフェースを提供する過程と、ユーザのキュー・トグルコマンド(キューとなるトグルコマンド)の発話に応答して、少なくとも1つのキュー(cue:合図、指示等)を前記ユーザインターフェースに表示する過程とを含む。各キューは、実行すべきコードが関連付けられた音声コマンドにそれぞれ対応し得る。この方法は、ユーザの前記音声コマンドの発話に応答して、当該音声コマンドに関連付けられた前記コードを実行する過程も含み得る。他の実施形態において、この方法は、さらに、前記キュー・トグルコマンドの前および次のキュー・トグルコマンドの後のうちの少なくとも一方において、前記インターフェースを前記キューなしで表示する過程を含み得る。前記キューを表示する過程は、前記音声コマンドをアクティベート(起動または活性化)する語(word)を表示することを含み得る。また、前記キューを表示する過程は、前記ユーザインターフェースに表示されているコントロールに関連付けられた前記音声コマンドに対応する前記キューを、当該ユーザインターフェースに表示することを含み得る。前記キューを表示する過程は、前記ユーザインターフェースから隠れているコントロールに関連付けられた前記音声コマンドに対応する前記キューを、当該ユーザインターフェースに表示することを含み得る。前記キューを表示する過程は、グローバルな(広域的な)ヘッドセットのコントロールであるコントロール(UIのコンポーネントのこと。詳細は後述。)に関連付けられた前記音声コマンドに対応する前記キューを、前記ユーザインターフェースに表示することを含み得る。前記キューは、当該キューと前記音声コマンドとを示すコントロールからロードされ得る。   In accordance with an embodiment of the present invention, a method for providing a user interface to a headset computer and responsive to the utterance of a user cue / toggle command (a cue toggle command) at least one cue: A signal, an instruction, etc.) on the user interface. Each cue may correspond to a voice command associated with code to be executed. The method may also include executing the code associated with the voice command in response to the user speaking the voice command. In other embodiments, the method may further include displaying the interface without the queue at least one of before the queue toggle command and after the next queue toggle command. The step of displaying the cue may include displaying a word that activates (activates or activates) the voice command. Also, the step of displaying the cue may include displaying the cue corresponding to the voice command associated with the control displayed on the user interface on the user interface. The step of displaying the cue may include displaying the cue corresponding to the voice command associated with a control hidden from the user interface on the user interface. The process of displaying the cue includes the cue corresponding to the voice command associated with a control (a component of the UI, which will be described in detail later), which is a global (global) headset control. It may include displaying on the interface. The cue may be loaded from a control that indicates the cue and the voice command.

他の実施形態において、ヘッドセットコンピュータにユーザインターフェースを表示するシステムは、ヘッドセットコンピュータにユーザインターフェースを提供するディスプレイ手段または表示手段を備え得る。この表示手段は、さらに、ユーザのキュー・トグルコマンドの発話に応答して、少なくとも1つのキューを前記ユーザインターフェースに表示し得る。各キューは、実行すべきコードが関連付けられた音声コマンドにそれぞれ対応し得る。このシステムは、さらに、ユーザの前記音声コマンドの発話に応答して、当該音声コマンドに関連付けられた前記コードを実行するコマンド手段または命令手段を備え得る。   In other embodiments, a system for displaying a user interface on a headset computer may comprise display means or display means for providing a user interface to the headset computer. The display means may further display at least one cue on the user interface in response to a user cue / toggle command utterance. Each cue may correspond to a voice command associated with code to be executed. The system may further comprise command means or command means for executing the code associated with the voice command in response to a user utterance of the voice command.

他の実施形態において、ヘッドセットコンピュータにユーザインターフェースを展開する方法は、前記ユーザインターフェース用のコントロールに、キューおよび音声コマンドを埋め込む過程を含む。この方法は、さらに、前記コントロールを前記ユーザインターフェースに提供する過程であって、当該ユーザインターフェースは、キュー・トグルコマンドに応答した前記キューを表示する過程を含む。   In another embodiment, a method for deploying a user interface on a headset computer includes embedding cues and voice commands in the controls for the user interface. The method further includes providing the control to the user interface, the user interface displaying the queue in response to a queue toggle command.

前述の内容は、添付の図面に示す本発明の例示的な実施形態についての以下の詳細な説明から明らかになる。図面では、異なる図をとおして同じ参照符号は同じ構成/構成要素を指すものとする。なお、図面は必ずしも縮尺どおりではなく、むしろ、本発明の実施形態を示すことに重点を置いている。   The foregoing will become apparent from the following detailed description of exemplary embodiments of the invention as illustrated in the accompanying drawings. In the drawings, like reference numerals refer to like elements / components throughout the different views. The drawings are not necessarily to scale, but rather focus on showing embodiments of the present invention.

本発明の原理に従ってホストコンピュータ(例えば、スマートフォン、ラップトップなど)および該コンピュータと協働するヘッドセットコンピュータの概略図である。1 is a schematic diagram of a host computer (eg, smartphone, laptop, etc.) and a headset computer that cooperates with the computer in accordance with the principles of the present invention. 本発明の原理に従ってホストコンピュータと協働するヘッドセットコンピュータの拡大斜視図である。2 is an enlarged perspective view of a headset computer cooperating with a host computer in accordance with the principles of the present invention. FIG. 図1A及び図1Bの実施形態における制御およびデータのフローを示すブロック図である。FIG. 2 is a block diagram showing a flow of control and data in the embodiment of FIGS. 1A and 1B. HSCで用いられるユーザインターフェースの例示的な一実施形態を示す図である。FIG. 4 illustrates an exemplary embodiment of a user interface used in HSC. 「Showコマンド」の音声コマンドを受け付けた後のユーザインターフェースの例示的な一実施形態を示す図である。FIG. 4 is a diagram illustrating an exemplary embodiment of a user interface after receiving a voice command of “Show command”. 本発明で用いられる方法の例示的な一実施形態を示すフロー図である。FIG. 3 is a flow diagram illustrating an exemplary embodiment of a method used in the present invention. 本発明が実現され得るコンピュータネットワークまたは同様のデジタル処理環境を示す図である。FIG. 1 illustrates a computer network or similar digital processing environment in which the present invention may be implemented. 図6のコンピュータシステムに含まれるコンピュータ(例えば、クライアント側処理装置/端末、サーバコンピュータなど)の内部構造を示す図である。It is a figure which shows the internal structure of the computer (For example, a client side processing apparatus / terminal, a server computer, etc.) included in the computer system of FIG.

図1A及び図1Bに、無線コンピューティングヘッドセットデバイス100(本明細書ではヘッドセットコンピュータ(HSC)と称することもある)の例示的な一実施形態を示す。HSC100は、高解像度(VGAまたはそれを超える解像度)のマイクロディスプレイ要素1010を組み込んでいると共に、下記のその他の構成要素も組み込んでいる。具体的に述べると、HSC100は:音声入力および/または音声出力装置(少なくとも1つのマイクロホン、少なくとも1つの入力スピーカ、および少なくとも1つの出力スピーカが含まれ得る);および/または地理位置センサ(GPS);および/または3軸〜9軸の自由度の方位センサ;および/または気圧センサ;および/または健康状態センサ;および/またはデジタルコンパス;および/または圧力センサ;および/または環境センサ;および/またはエネルギーセンサ;および/または加速度センサ;および/または位置センサ;および/または姿勢センサ;および/または動きセンサ;および/または速度センサ;および/または光センサ;および/またはカメラ(可視光カメラ、赤外線カメラなど);および/または複数のワイヤレス無線機;および/または補助照明;および/または距離計;および/またはその他;を備え得る。HSC100は:ヘッドセットに埋め込まれたセンサのアレイ;および/またはヘッドセットに組み込まれたセンサのアレイ;および/または少なくとも1つのペリフェラル(周辺機器)ポート(図1Bに詳細には示されていない)を介してデバイスに取り付けられるセンサのアレイ;を備え得る。典型的に、ヘッドセットコンピューティングデバイス100のハウジング内部には、様々な電子回路が配置されている。そのような電子回路には:マイクロコンピュータ(シングルコアまたはマルチコアのプロセッサ);1つ以上の有線および/または無線の通信インターフェース;メモリまたは記憶装置;各種センサ;ならびにペリフェラルマウント(装着部)または「ホットシュー」等のマウント;が含まれ得る。   1A and 1B illustrate an exemplary embodiment of a wireless computing headset device 100 (sometimes referred to herein as a headset computer (HSC)). The HSC 100 incorporates a high-resolution (VGA or higher resolution) microdisplay element 1010 as well as other components described below. Specifically, the HSC 100 includes: an audio input and / or audio output device (which may include at least one microphone, at least one input speaker, and at least one output speaker); and / or a geolocation sensor (GPS). And / or orientation sensors with 3 to 9 degrees of freedom; and / or barometric sensors; and / or health sensors; and / or digital compass; and / or pressure sensors; and / or environmental sensors; and / or Energy sensor; and / or acceleration sensor; and / or position sensor; and / or attitude sensor; and / or motion sensor; and / or velocity sensor; and / or light sensor; and / or camera (visible light camera, infrared camera) Etc.); and / or Wireless radios; and / or auxiliary lighting; and / or rangefinder; and / or other; may comprise. HSC 100: an array of sensors embedded in the headset; and / or an array of sensors embedded in the headset; and / or at least one peripheral port (not shown in detail in FIG. 1B) An array of sensors attached to the device via Typically, various electronic circuits are disposed within the housing of headset computing device 100. Such electronic circuits include: microcomputers (single-core or multi-core processors); one or more wired and / or wireless communication interfaces; memory or storage devices; various sensors; and peripheral mounts or “hot” Mounts such as “shoe” can be included.

HSC100の例示的な実施形態は、音声コマンド、頭の動き110,111,112、手のジェスチャ113、またはこれらの組合せを検出することにより、ユーザの入力を受け取り得る。具体的に述べると、HSC100に動作可能に接続された、または、好ましくは、HSC100に組み込まれた少なくとも1つのマイクロホンを用いて、発話コマンドまたは音声コマンドを捉え得る。捉えられた音声コマンドは、自動発話認識技術または自動音声認識技術を用いてデジタル化されて処理される。また、HSC100には、ジャイロスコープ、加速度計、および微小電気機械システムに基づくその他のセンサが組み込まれ得る。これらのセンサ等は、ユーザの頭の動きを追跡してユーザに入力コマンドを提供する。また、カメラまたはその他の動き追跡センサを用いて、ユーザの手のジェスチャを監視してユーザに入力コマンドを提供し得る。これらのようなユーザインターフェースにより、他のモバイルデバイスのようなヒトの手に依存する様式を不要にすることができる。   Exemplary embodiments of HSC 100 may receive user input by detecting voice commands, head movements 110, 111, 112, hand gestures 113, or combinations thereof. Specifically, an utterance command or voice command may be captured using at least one microphone operatively connected to, or preferably incorporated in, the HSC 100. The captured voice command is digitized and processed using automatic speech recognition technology or automatic speech recognition technology. HSC 100 may also incorporate gyroscopes, accelerometers, and other sensors based on microelectromechanical systems. These sensors and the like track the movement of the user's head and provide input commands to the user. A camera or other motion tracking sensor may also be used to monitor the user's hand gestures and provide input commands to the user. User interfaces such as these can eliminate the need for human hand-dependent modalities like other mobile devices.

HSC100は、様々な方法で使用することができる。具体的に述べると、HSC100は、リモートホストコンピューティングデバイス200(図1Aに示されている)から受け取った映像信号をストリーミング再生する遠隔ディスプレイとして使用可能である。ホスト200の例として、ノートブックPC、スマートフォン、タブレット型端末など、または、無線コンピューティングヘッドセットデバイス100よりも演算複雑度が高いまたは低い、その他のコンピューティングデバイス(例えば、クラウドベースのネットワークリソースなど)が挙げられる。ホストは、他のネットワーク210(例えば、インターネットなど)にさらに接続され得る。ヘッドセットコンピューティングデバイス100とホスト200とは、1つ以上の無線プロトコル(例えば、Bluetooth(登録商標)、Wi−Fi(登録商標)、WiMAX(登録商標)、4G LTE、その他のワイヤレス無線リンクなど)150で、ワイヤレスに相互に通信し得る(Bluetooth(登録商標)は、5209 Lake Washington Boulevard, Kirkland, Washington 98033に居所を有するBluetooth Sig, Inc.社の登録商標である)。例示的な一実施形態において、ホスト200は、無線リレーとして機能可能なように、他のネットワークにさらに接続され得る(例えば、無線接続で、インターネットまたはその他のクラウドベースのネットワークリソースにさらに接続される)。いくつかの変形例として、HSC100の例示的な実施形態は、インターネットやクラウドベースのネットワークリソースに対し、ホストを無線リレーとして使用することなく無線接続され得る。   The HSC 100 can be used in various ways. Specifically, the HSC 100 can be used as a remote display for streaming playback of video signals received from a remote host computing device 200 (shown in FIG. 1A). Examples of the host 200 include notebook PCs, smartphones, tablet terminals, or other computing devices (eg, cloud-based network resources, etc.) that have higher or lower computational complexity than the wireless computing headset device 100. ). The host can be further connected to other networks 210 (eg, the Internet, etc.). Headset computing device 100 and host 200 may include one or more wireless protocols (e.g., Bluetooth (R), Wi-Fi (R), WiMAX (R), 4G LTE, other wireless radio links, etc.) ) 150 can communicate with each other wirelessly (Bluetooth® is a registered trademark of Bluetooth Sig, Inc., located in 5209 Lake Washington Boulevard, Kirkland, Washington 98033). In an exemplary embodiment, the host 200 may be further connected to other networks (eg, further connected to the Internet or other cloud-based network resources via a wireless connection) so that it can function as a wireless relay. ). As some variations, exemplary embodiments of the HSC 100 can be wirelessly connected to the Internet or cloud-based network resources without using the host as a wireless relay.

図1Bは、ヘッドセットコンピュータ100の例示的な一実施形態について、その詳細の一部を示す斜視図である。この例示的な実施形態のHSC100は、概して、フレーム1000、ストラップ1002、後部ハウジング1004、スピーカ1006、マイクロホンが組み込まれたカンチレバー(片持ち支持部材)(アームまたはブームとも称される)1008、およびマイクロディスプレイサブアセンブリ1010を備える。   FIG. 1B is a perspective view showing some of the details of an exemplary embodiment of headset computer 100. The HSC 100 of this exemplary embodiment generally includes a frame 1000, a strap 1002, a rear housing 1004, a speaker 1006, a cantilever (also referred to as an arm or boom) 1008 incorporating a microphone, and a micro. A display subassembly 1010 is provided.

頭部に装着されるフレーム1000およびストラップ1002は、一般的に、ユーザがヘッドセットコンピュータデバイス100を自身の頭部に装着することを可能とするように構成されている。ハウジング1004は、一般的に、電子部品(例えば、マイクロプロセッサ、メモリ、その他の記憶装置など)をその他の関連回路と共に収容する、背の低いユニットとなっている。スピーカ1006は、ユーザに音声出力を提供することにより、ユーザが情報を聞くことを可能にする。マイクロディスプレイサブアセンブリ1010は、ユーザに視覚的情報または表示情報(visual information)を表示する。マイクロディスプレイサブアセンブリ1010は、アーム1008に連結している。アーム1008は、概して、マイクロディスプレイサブアセンブリをユーザの視野300(図1A)内、好ましくは、ユーザの眼の前方、あるいは、ユーザの周辺視野内(好ましくは、ユーザの眼よりも若干下または若干上)に配置できるように物理的な支持を行う。アーム1008は、さらに、マイクロディスプレイサブアセンブリ1010とハウジングユニット1004内に収容された制御回路との、電気的なまたは光学的な接続を行う。   The frame 1000 and strap 1002 that are worn on the head are generally configured to allow the user to wear the headset computing device 100 on their head. The housing 1004 is typically a short unit that houses electronic components (eg, a microprocessor, memory, other storage device, etc.) along with other associated circuitry. The speaker 1006 enables the user to listen to information by providing audio output to the user. The microdisplay subassembly 1010 displays visual information or visual information to the user. Microdisplay subassembly 1010 is coupled to arm 1008. The arm 1008 generally places the microdisplay subassembly in the user's field of view 300 (FIG. 1A), preferably in front of the user's eye, or in the user's peripheral field of view (preferably slightly below or slightly below the user's eye). Provide physical support so that it can be placed on top. The arm 1008 further provides an electrical or optical connection between the microdisplay subassembly 1010 and a control circuit housed in the housing unit 1004.

後で詳述する側面によると、HSCディスプレイデバイス100は、ユーザが視野300を、仮想的なディスプレイ400によって形成される、当該視野300よりも遥かに広い領域内から選択することを可能にする。ユーザは、典型的に、視野300の位置および/または範囲(例えば、X−Y範囲、3D範囲など)、および/または倍率を操作することができる。   According to aspects detailed below, the HSC display device 100 allows the user to select the field of view 300 from within a much wider area formed by the virtual display 400 than the field of view 300. A user can typically manipulate the position and / or range (eg, XY range, 3D range, etc.) and / or magnification of the field of view 300.

なお、図1Aに示されているのは単眼式のマイクロディスプレイであり、ユーザの顔に対してカンチレバー型のブームによって片持ち支持固定される単一のディスプレイ要素が図示されているが、遠隔制御ディスプレイデバイス100の機械的構成として、その他の構成を採用することも可能であることを理解されたい。   FIG. 1A shows a monocular micro-display, which shows a single display element that is cantilevered and fixed to a user's face by a cantilever boom. It should be understood that other configurations may be employed as the mechanical configuration of the display device 100.

図2は、HSCデバイス100の詳細、ホスト200の詳細、およびこれらの間を行き交うデータの詳細を示すブロック図である。HSCデバイス100は、ユーザからの音声入力を、マイクロホンを介して受け取り、手の動きまたは体のジェスチャを位置センサ及び方位センサ、カメラまたは少なくとも1つの光センサを介して受け取り、頭の動きによる入力を3軸〜9軸の自由度の方位センシング等の頭追跡回路を介して受け取る。これらは、HSCデバイス100のソフトウェアによってキーボードコマンドおよび/またはマウスコマンドに翻訳された後、Bluetooth(登録商標)またはその他のワイヤレスインターフェース150を介してホスト200に送信される。ホスト200は、これら翻訳されたコマンドを、自身のオペレーティングシステム/アプリケーションソフトウェアに従って解釈し、様々な機能を実行する。このようなコマンドの一つとして、視野300を仮想的なディスプレイ400内から選択し、選択された画面データをHSCデバイス100に返すコマンドが挙げられる。すなわち、ホスト200で動作するアプリケーションソフトウェアまたはオペレーティングシステムに、極めて大型のフォーマットの仮想的なディスプレイ領域が関連付けられ得ると理解されたい。ただし、その大型の仮想的なディスプレイ領域400のうち、前記視野300内の一部のみが返されて、HSCデバイス100のマイクロディスプレイ1010で実際に表示される。   FIG. 2 is a block diagram showing details of the HSC device 100, details of the host 200, and details of data passing between them. The HSC device 100 receives voice input from a user via a microphone, receives hand movements or body gestures via position and orientation sensors, a camera or at least one light sensor and receives input from head movement. It is received via a head tracking circuit such as azimuth sensing with 3 to 9 degrees of freedom. These are translated into keyboard commands and / or mouse commands by the HSC device 100 software and then sent to the host 200 via Bluetooth® or other wireless interface 150. The host 200 interprets these translated commands according to its own operating system / application software, and executes various functions. As one of such commands, there is a command for selecting the visual field 300 from the virtual display 400 and returning the selected screen data to the HSC device 100. That is, it should be understood that a very large format virtual display area can be associated with the application software or operating system running on the host 200. However, only a part of the large virtual display area 400 in the visual field 300 is returned and actually displayed on the micro display 1010 of the HSC device 100.

一実施形態において、HSC100は、同時係属中の米国特許出願公開公報第2011/0187640号に記載されたHSCの形態を取りうる。なお、この米国特許出願公開公報の全内容は、参照をもって本明細書に取り入れたものとする。   In one embodiment, the HSC 100 may take the form of the HSC described in co-pending US Patent Application Publication No. 2011/0187640. The entire contents of this US patent application publication are incorporated herein by reference.

他の実施形態において、本発明は、ヘッドマウントディスプレイ(HMD)1010を、外部の「スマート」デバイス200(例えば、スマートフォン、タブレットなど)と協働で使用することにより、ユーザに対してハンズフリーで情報及び制御機能を提供するという技術思想に関する。本発明は、少量のデータ送信で済み、高い信頼性のデータ転送方法をリアルタイムで実行することを可能にする。   In other embodiments, the present invention is hands free to the user by using a head mounted display (HMD) 1010 in conjunction with an external “smart” device 200 (eg, smartphone, tablet, etc.). It relates to the technical idea of providing information and control functions. The present invention requires only a small amount of data transmission and enables a highly reliable data transfer method to be executed in real time.

つまり、この意味では、接続150を介して送信されるデータ量により、画面をどのようにレイアウトするかについて、どのようなテキストを表示するのかについて、およびその他のスタイル情報(例えば、描画矢印、背景カラー、含まれるイメージなど)についての短い単純な命令で済む。   That is, in this sense, depending on the amount of data transmitted over connection 150, how the screen is laid out, what text is displayed, and other style information (eg, drawing arrows, backgrounds, etc.) Short, simple commands about color, included images, etc.).

ホスト200の要求があれば、さらなるデータ(例えば、映像ストリームなど)が、同じ接続150またはその他の接続を介してストリーミングされて画面1010上に表示され得る。   If requested by the host 200, additional data (eg, a video stream, etc.) may be streamed via the same connection 150 or other connection and displayed on the screen 1010.

本発明は、さらに、音声によって制御されるHSC100で、アプリケーション内において、コンテキストに敏感なまたはコンテキストを認識したオーバーレイを視ることを可能にする技術に関する。   The present invention further relates to a technique that allows a voice-controlled HSC 100 to view a context sensitive or context aware overlay within an application.

具体的に述べると、データを画面表示で(over a visual)、コンテキストに依存しつつ、オンデマンドで提示するというのが、その考えである。ユーザは、音声コマンド(典型的には、「Show(表示)コマンド」)により、オーバーレイを呼び出すことができる。この音声コマンドは、システム100の標準コマンドであり、常に利用可能である。このコマンドは、HSC100に、適用可能な音声コマンドおよびその他の情報を、コンテキストに敏感に且つ直感的に表示させる。   Specifically, the idea is to present data on screen (over a visual) and on-demand, depending on context. The user can invoke the overlay with a voice command (typically a “Show command”). This voice command is a standard command of the system 100 and is always available. This command causes the HSC 100 to display applicable voice commands and other information in a context sensitive and intuitive manner.

それら適用可能な音声コマンドは、ディスプレイユニット1010の、その時点での画面ビューにおいて、半透明のオーバーレイ上に示される。この構成により、ユーザは、そのオーバーレイを呼び出すための画面について、当該画面のコンテキストを維持することができる。   Those applicable voice commands are shown on the translucent overlay in the current screen view of the display unit 1010. With this configuration, the user can maintain the context of the screen for calling the overlay.

これらオーバーレイおよび表示された適用可能なコマンドは、短時間後にフェードアウトする。これは、画面ビューをリフレッシュするタイミングメカニズムによって実現される。   These overlays and displayed applicable commands fade out after a short time. This is achieved by a timing mechanism that refreshes the screen view.

それら適用可能な音声コマンドは、関連性の順番で表示される。具体的に述べると、最も関連性の高いコマンドが、関連性の低いコマンドよりも目立って配置される。HSC100は、ディスプレイ1010のコンテンツの、その時点でのコンテキストに基づいて、関連性の程度(relevancy)を決定する。   These applicable voice commands are displayed in order of relevance. Specifically, the most relevant command is placed more prominently than the less relevant command. The HSC 100 determines the relevancy of the content of the display 1010 based on the current context.

関連するシステムの各画面は、ユーザインターフェース(UI)の各種コンポーネントで構成される。これらコンポーネントの一部は「コントロール」である。コントロールとは、ユーザに情報を提供したり何らかの機能を可能にしたりする、UIのコンポーネントである。コントロールの例として、ボタン、ラジオボタン、テキストボックス、チェックボックス、ドロップダウンメニュー、ファイルメニュー、リボンメニュー、ライブタイルなどが挙げられる。これらは、ソフトウェアデベロッパーのコンポーネントライブラリ内に、利用可能なかたちで様々な形態で存在しており、所与の機能をカスタマイズすることを可能にする。このようなコントロールの一例として、「ボタン」は単純に、このボタン上に存在する音声コマンドをユーザが利用することで、当該ボタンを押すことを可能にする。この「ボタン」コントロールのような各種コントロールは、デベロッパーにとって利用可能なものであり、例えば、デベロッパーのコンポーネントライブラリの一部またはその他のライブラリの一部として利用可能である。具体的に述べると、デベロッパーは、始めから自らコントロールをコード化せずとも、予めコード化されたコントロールを挿入し、これを自分の趣向に合わせてカスタマイズすることができる。   Each screen of the related system is composed of various components of a user interface (UI). Some of these components are “controls”. A control is a component of a UI that provides information to a user or enables some function. Examples of controls include buttons, radio buttons, text boxes, check boxes, drop-down menus, file menus, ribbon menus, live tiles, and the like. These exist in a variety of forms in the software developer's component library that can be used to customize a given function. As an example of such a control, a “button” simply allows the user to press the button by using a voice command existing on the button. Various controls, such as this “button” control, are available to the developer, for example, as part of the developer's component library or as part of another library. Specifically, developers can insert pre-coded controls and customize them to suit their preferences without having to code the controls themselves from the start.

「Showコマンド」機能は、デベロッパーのライブラリ内のコントロールに組み込まれている。一例を挙げて説明するならば、デベロッパーが例えばボタンを作成して当該ボタン上に書き込むべきテキスト列を指定すると、そのテキスト列は、デベロッパー(またはユーザ)が音声コマンドを無効にしない限り、そのボタンをアクティベート(起動または活性化)するデフォルトの音声コマンドとなる。コントロール(例えば、上記ボタンなど)は、「Showコマンド」の音声コマンドに対し、当該コントロール上または当該コントロール近傍に、当該コントロールをアクティベートする語(word)のテキスト列をオーバーレイ表示することによって応答するように構成される。   The “Show Command” function is built into the controls in the developer's library. For example, if a developer creates a button and specifies a text string that should be written on the button, the text string is the button unless the developer (or user) disables the voice command. Is the default voice command that activates (activates or activates). A control (for example, the above button) responds to the voice command “Show command” by overlaying a text string of a word that activates the control on or near the control. Configured.

HSC100で利用可能な各ユーザインターフェース画面は、いずれも、「Showコマンド」の音声コマンド(例えば、デフォルトで利用可能なシステムコマンドなど)を受け付けることができる。すなわち、画面がUIのライブラリからのコントロールを用いて構築されるとき、どのような音声コマンドがユーザにとって利用可能なのかを案内するShowコマンド機能が組み込まれている。これらユーザにとって利用可能な音声コマンドは、(デフォルトで)その時点で表示されているコンテンツ(スクリーンビュー)のコンテキストで示される。   Each of the user interface screens that can be used in the HSC 100 can accept a voice command of “Show command” (for example, a system command that can be used by default). That is, when the screen is constructed using controls from the UI library, a Show command function is incorporated to guide what voice commands are available to the user. The voice commands available to these users are shown in the context of the content (screen view) currently displayed (by default).

「Showコマンド」のオーバーレイ内には、表示されているまたは視覚可能なコントロールに関連付けられていない、その他の利用可能な音声コマンドも配置され得る。これらの音声コマンドはデベロッパーによって前記オーバーレイ内に配置され、音声コマンドオンリーのコントロールや隠れているコントロール(通常は非表示のコントロール)を追加するのに用いられ、具体的に述べると、ボタンまたはその他のコントロールに関連付けられていない音声コマンドの表示されているまたは視覚可能なキュー(cue:合図、指示等)を提供する。   Other available voice commands that are not associated with the displayed or visible control may also be placed within the “Show Command” overlay. These voice commands are placed in the overlay by the developer and used to add voice command-only controls or hidden controls (usually hidden controls), specifically buttons or other Provides a displayed or visible cue of voice commands not associated with a control (cue).

図3は、HSCで用いられるユーザインターフェース202の例示的な一実施形態を示す図表250である。この実施形態において、ユーザインターフェース202は、ユーザのインボックスを表示する電子メールアプリケーションである。各電子メールがリスト化され、第1〜第6の電子メールコントロール204a〜204fが示されている。ユーザは、各コントロールを選択することにより、各電子メールを開くことができる。各電子メールコントロール204a〜204fは、少なくともそれに対応する音声コマンドによって選択されるようにプログラムされている。   FIG. 3 is a diagram 250 illustrating an exemplary embodiment of a user interface 202 used in HSC. In this embodiment, the user interface 202 is an email application that displays the user's inbox. Each electronic mail is listed, and first to sixth electronic mail controls 204a to 204f are shown. The user can open each e-mail by selecting each control. Each email control 204a-204f is programmed to be selected by at least a corresponding voice command.

図4は、「Showコマンド」の音声コマンドを受け付けた後のユーザインターフェース302の例示的な一実施形態を示す図表300である。ユーザインターフェースは、図3の各電子メールコントロール204a〜204fにそれぞれ対応する音声コマンドを表示する。具体的に述べると、図4における第1〜第6の音声コマンド304a〜304fは、第1〜第6の電子メールコントロール204a〜204fにそれぞれ対応している。一例として、第1の音声コマンド304aを発話する(すなわち、「第1の電子メールを開く」等といった内容の発話をする)ことにより、HSC100に、リスト内の第1の電子メールを開かせることができる。   FIG. 4 is a diagram 300 illustrating an exemplary embodiment of the user interface 302 after receiving a “Show command” voice command. The user interface displays voice commands corresponding to the respective email controls 204a to 204f in FIG. Specifically, the first to sixth voice commands 304a to 304f in FIG. 4 correspond to the first to sixth electronic mail controls 204a to 204f, respectively. As an example, by uttering the first voice command 304a (ie, uttering content such as “open first email”), the HSC 100 opens the first email in the list. Can do.

「Showコマンド」モードのユーザインターフェース302には、さらに、第1〜第9の暗示的なまたは対応付けなどの条件のない(implicit)音声コマンド306a〜306iが複数示されている。これら第1〜第9の暗示的な音声コマンド306a〜306iは、ユーザインターフェースで表示されているまたは視覚可能な、どの特定のコントロールにも対応していない(例えば、前記電子メールコントロールに対応していない)ものの、ユーザにとって利用可能な音声コマンドである。幾つかの例を挙げるならば、ユーザは、第1の暗示的な音声コマンド306aを発話することによって前のページに移動することができ、第2の暗示的な音声コマンド306bを発話することによって次のページに移動することができる。また、ユーザは、第3の暗示的なコマンド306cを発話することによって電子メールを作成することができる。また、ユーザは、第4の暗示的なコマンド306dを発話することによって自身の電子メールアカウントを管理することができる。また、ユーザは、第5の暗示的なコマンド306eを発話することによって自身のアカウントを閲覧することができる。また、ユーザは、第6の暗示的な音声コマンド306fを発話することによってフォルダを切り替えることができる。また、ユーザは、第7の暗示的な音声コマンド306gを発話することによってインボックスをリフレッシュすることができる。   The user interface 302 in the “Show command” mode further includes a plurality of first to ninth implicit or implicit voice commands 306a to 306i. These first through ninth implicit voice commands 306a-306i do not correspond to any particular control displayed or visible on the user interface (eg, corresponding to the email control). This is a voice command available to the user. To give some examples, the user can move to the previous page by speaking the first implicit voice command 306a and by speaking the second implicit voice command 306b. You can move to the next page. The user can also create an email by speaking the third implicit command 306c. The user can also manage his / her email account by issuing a fourth implicit command 306d. The user can also browse his / her account by speaking the fifth implicit command 306e. The user can also switch folders by speaking the sixth implicit voice command 306f. The user can also refresh the inbox by speaking the seventh implicit voice command 306g.

また、ユーザは、第8の暗示的な音声コマンド306hを発話することによって前の画面に戻ることができる。また、ユーザは、第9の暗示的な音声コマンド306iを発話することによってホーム画面に戻ることができる。第8および第9の暗示的な音声コマンドは、HSC100のどの画面においてもユニバーサル(汎用的)なまたはアプリケーションに依存しないコマンドである。その一方で、第1〜第6の音声コマンド304a〜304fおよび第1〜第7の暗示的な音声コマンド306a〜306gは、この特定のアプリケーション(ここではメールアプリケーション)内でのローカル(局所的)なコマンドである。しかし、他の実施形態では、第1および第2の暗示的な音声コマンド306a,306bが、アプリケーション内での、前のページおよび次のページに移動するためのグローバル(広域的)なコマンドとされ得る。   The user can also return to the previous screen by speaking the eighth implicit voice command 306h. In addition, the user can return to the home screen by speaking the ninth implicit voice command 306i. The eighth and ninth implicit voice commands are universal (general purpose) or application-independent commands on any screen of the HSC 100. On the other hand, the first to sixth voice commands 304a to 304f and the first to seventh implicit voice commands 306a to 306g are local (local) within this specific application (here, mail application). Command. However, in other embodiments, the first and second implicit voice commands 306a, 306b are global commands for moving to the previous and next pages within the application. obtain.

このような音声コマンドによるオーバーレイは、画面上のオプションやボタンを整理することになるので、ユーザを支援することができる。さらに、音声コマンドにより、ユーザにシステムをどのように使用するのかの把握を促す一助とできる。このことは、デバイスおよび音声コマンドの利用方法をユーザが覚える際に特に有用である。   Such overlay by voice command organizes the options and buttons on the screen, which can assist the user. Further, the voice command can help the user to grasp how to use the system. This is particularly useful when the user learns how to use the device and voice commands.

図5は、本発明で用いられる方法の例示的な一実施形態を示すフロー図500である。まず、この方法は、ヘッドセットコンピュータにユーザインターフェースを提供する(過程502)。次に、この方法は、前出のキューとなるトグルコマンドを、例えばユーザの発話から音声手段を介して受け取ったか否かを判断する(過程504)。この方法は、その判断結果が否定である場合、引き続きキュー・トグルコマンドの入力を待つ(過程504)。この方法は、その判断結果が肯定である場合には、少なくとも1つのキューを前記ユーザインターフェースに表示する(過程506)。各キューには、それぞれ対応する音声コマンドが関連付けられている。この音声コマンドは、発話されると、システムにコードまたはプログラム(code)を実行させる。   FIG. 5 is a flow diagram 500 illustrating an exemplary embodiment of a method used in the present invention. Initially, the method provides a user interface to the headset computer (step 502). Next, this method determines whether or not the toggle command to be the above queue has been received, for example, from the user's utterance via voice means (step 504). If the determination result is negative, the method continues to wait for input of a queue / toggle command (step 504). If the determination is affirmative, the method displays at least one queue on the user interface (step 506). Each cue is associated with a corresponding voice command. This voice command, when spoken, causes the system to execute a code or code.

次に、システムは、音声コマンド(例えば、前記キューのうちの一つにより示された音声コマンドなど)を受け取ったか否かを判断する(過程508)。システムは、その判断結果が否定である場合、引き続き音声コマンドの入力を待つ(過程508)。システムは、その判断結果が肯定である場合には、受け取った音声コマンドに関連付けられたコードまたはプログラムを実行する(過程510)。   Next, the system determines whether a voice command (eg, a voice command indicated by one of the queues) has been received (step 508). If the determination is negative, the system continues to wait for input of a voice command (step 508). If the determination is positive, the system executes the code or program associated with the received voice command (step 510).

図6に、本発明を実現し得るコンピュータネットワークまたは同様のデジタル処理環境を示す。   FIG. 6 illustrates a computer network or similar digital processing environment in which the present invention may be implemented.

少なくとも1つのクライアント側コンピュータ/端末50および少なくとも1つのサーバコンピュータが、アプリケーションプログラム等を実行する処理装置、記憶装置および入出力装置などを実現し得る。少なくとも1つのクライアント側コンピュータ/端末50は、通信ネットワーク70を介して別のコンピューティングデバイス(別のクライアント側端末/処理装置50および少なくとも1つの別のサーバコンピュータ60が含まれ得る)に接続可能である。通信ネットワーク70は、リモートアクセスネットワークの一部、グローバルネットワーク(例えば、インターネットなど)の一部、世界規模のコンピュータの集合の一部、ローカルエリアネットワークの一部、ワイドエリアネットワークの一部、あるいは、一般に各種プロトコル(TCP/IP、Bluetooth(登録商標)など)を用いて相互通信するゲートウェイの一部であり得る。それ以外の電子デバイス/コンピュータネットワークアーキテクチャも使用可能である。   At least one client-side computer / terminal 50 and at least one server computer can realize a processing device, a storage device, an input / output device, and the like that execute application programs and the like. At least one client-side computer / terminal 50 is connectable to another computing device (which may include another client-side terminal / processing device 50 and at least one other server computer 60) via a communication network 70. is there. The communication network 70 may be part of a remote access network, part of a global network (eg, the Internet, etc.), part of a global collection of computers, part of a local area network, part of a wide area network, or Generally, it can be part of a gateway that communicates with each other using various protocols (TCP / IP, Bluetooth (registered trademark), etc.). Other electronic device / computer network architectures can also be used.

図7は、図6のコンピュータシステムに含まれるコンピュータ(例えば、クライアント側処理装置/端末50、サーバコンピュータ60など)の内部構造を示す図である。各コンピュータ50,60は、システムバス79を備える。バスは、コンピュータ(または処理システム)の構成要素間のデータ転送に用いられるハードウェアラインのセットからなる。また、バス79は、本質的には、コンピュータシステムにおける相異なる構成要素(例えば、プロセッサ、ディスクストレージ、メモリ、入力/出力ポート、ネットワークポートなど)同士を接続する共有の配管のようなものであり、それら構成要素間の情報のやり取りを可能にする。システムバス79には、様々な入出力装置(例えば、キーボード、マウス、ディスプレイ、プリンタ、スピーカなど)をコンピュータ50,60に接続するためのI/O装置インターフェース82が取り付けられている。ネットワークインターフェース86は、コンピュータがネットワーク(例えば、図6のネットワーク70など)に取り付けられた他の様々な装置/端末/デバイスに接続することを可能にする。メモリ90は、本発明の一実施形態(例えば、前述したユーザインターフェースコード内の、コンテキストに敏感なまたはコンテキストを認識したオーバーレイなど)を実現するのに用いられるコンピュータソフトウェア命令92およびデータ94を記憶する揮発性メモリである。ディスクストレージ95は、本発明の一実施形態を実施するのに用いられるコンピュータソフトウェア命令92およびデータ94を記憶する不揮発性ストレージである。システムバス79には、さらに、コンピュータ命令を実行する中央演算処理装置84も取り付けられている。   FIG. 7 is a diagram showing an internal structure of a computer (for example, the client side processing apparatus / terminal 50, the server computer 60, etc.) included in the computer system of FIG. Each computer 50, 60 includes a system bus 79. A bus consists of a set of hardware lines that are used to transfer data between components of a computer (or processing system). The bus 79 is essentially a shared pipe that connects different components (eg, processor, disk storage, memory, input / output port, network port, etc.) in the computer system. , Enabling the exchange of information between these components. An I / O device interface 82 for connecting various input / output devices (for example, a keyboard, a mouse, a display, a printer, a speaker, etc.) to the computers 50 and 60 is attached to the system bus 79. Network interface 86 allows the computer to connect to various other devices / terminals / devices attached to a network (eg, network 70 of FIG. 6). Memory 90 stores computer software instructions 92 and data 94 that are used to implement an embodiment of the present invention (eg, a context sensitive or context aware overlay in the user interface code described above). Volatile memory. Disk storage 95 is a non-volatile storage that stores computer software instructions 92 and data 94 used to implement one embodiment of the present invention. Also attached to the system bus 79 is a central processing unit 84 for executing computer instructions.

一実施形態において、プロセッサのルーチン92およびデータ94は、本発明にかかるシステムに対するソフトウェア命令の少なくとも一部を提供するコンピュータプログラムプロダクト(概して符号92で示す)である。コンピュータプログラムプロダクト92には、コンピュータ読み取り可能な媒体(例えば、少なくとも1つのDVD−ROM、少なくとも1つのCD−ROM、少なくとも1つのディスク、少なくとも1つのテープ等といった取外し可能な記憶媒体など)が含まれる。コンピュータプログラムプロダクト92は、当該技術分野において周知である任意の適切なソフトウェアインストール方法によってインストール可能なものであり得る。他の実施形態において、前記ソフトウェア命令の少なくとも一部は、ケーブル接続および/または通信接続、および/または無線接続を介してダウンロード可能なものであり得る。さらなる他の実施形態において、本発明にかかるプログラムは、伝播媒体上の伝播信号(例えば、無線波、赤外線波、レーザ波、音波、インターネット等といったグローバルネットワークやその他の少なくとも1つのネットワークによって伝播される電気波動など)によって実現される、伝播信号によるコンピュータプログラムプロダクト107である。このような搬送媒体または搬送信号が、本発明にかかるルーチン/プログラム92用のソフトウェア命令の少なくとも一部を提供する。   In one embodiment, the processor routines 92 and data 94 are computer program products (generally designated 92) that provide at least some of the software instructions for the system according to the present invention. The computer program product 92 includes computer readable media (eg, removable storage media such as at least one DVD-ROM, at least one CD-ROM, at least one disk, at least one tape, etc.). . The computer program product 92 may be installable by any suitable software installation method known in the art. In other embodiments, at least some of the software instructions may be downloadable via a cable and / or communication connection and / or a wireless connection. In still another embodiment, the program according to the present invention is propagated by a propagation signal on a propagation medium (for example, a global network such as a radio wave, an infrared wave, a laser wave, a sound wave, and the Internet, or at least one other network) This is a computer program product 107 based on a propagation signal, which is realized by an electric wave or the like. Such a carrier medium or carrier signal provides at least part of the software instructions for the routine / program 92 according to the present invention.

さらなる他の実施形態において、前記伝播信号は、伝播媒体上を搬送されるアナログ搬送波またはデジタル信号である。例えば、前記伝播信号は、グローバルネットワーク(例えば、インターネットなど)、電気通信ネットワークまたはその他のネットワーク上を搬送されるデジタル信号であり得る。一実施形態において、前記伝播信号は、所与の期間のあいだ伝播媒体上を送信される信号であり、例えば、数ミリ秒、数秒、数分またはそれ以上の期間のあいだネットワーク上をパケットで送信される、ソフトウェアアプリケーション用の命令などであり得る。他の実施形態において、コンピュータプログラムプロダクト92の前記コンピュータ読み取り可能な媒体は、コンピュータシステム50が受け取って読み取り可能な伝播媒体である。例えば、コンピュータシステム50は、前述した伝播信号によるコンピュータプログラムプロダクトの場合のように、伝播媒体を受け取ってその伝播媒体内に組み込まれた伝播信号を特定する。   In yet another embodiment, the propagation signal is an analog carrier wave or digital signal carried on a propagation medium. For example, the propagated signal may be a digital signal carried over a global network (eg, the Internet, etc.), a telecommunications network, or other network. In one embodiment, the propagated signal is a signal transmitted over a propagation medium for a given period of time, for example, transmitted in packets over a network for a period of several milliseconds, seconds, minutes or more. Instructions for software applications, etc. In another embodiment, the computer readable medium of computer program product 92 is a propagation medium that can be received and read by computer system 50. For example, the computer system 50 receives a propagation medium and identifies the propagation signal embedded in the propagation medium, as in the case of the computer program product with propagation signals described above.

一般的に言って、「搬送媒体」や過渡的または一時的なキャリアという用語は、前述したような過渡的なまたは一時的な信号、伝播信号、伝播媒体、記憶媒体、およびその他を包含する用語である。   Generally speaking, the term “carrier medium” or transient or temporary carrier is a term encompassing transient or transient signals, propagation signals, propagation media, storage media, and others as described above. It is.

本発明を例示的な実施形態を参照しながら具体的に図示・説明したが、当業者であれば、添付の特許請求の範囲に包含される本発明の範囲から逸脱することなく、形態および細部の詳細な変更が可能であることを理解するであろう。
なお、本発明は、実施の態様として以下の内容を含む。
[態様1]
ヘッドセットコンピュータにユーザインターフェースを提供する過程と、
ユーザのキュー・トグルコマンドの発話に応答して、少なくとも1つのキューを前記ユーザインターフェースに表示する過程であって、各キューは、実行すべきコードが関連付けられた音声コマンドにそれぞれ対応する、過程と、
ユーザの前記音声コマンドの発話に応答して、当該音声コマンドに関連付けられた前記コードを実行する過程と、
を含む、方法。
[態様2]
態様1に記載の方法において、さらに、
前記キュー・トグルコマンドの前および次のキュー・トグルコマンドの後のうちの少なくとも一方において、前記インターフェースを前記キューなしで表示する過程、
を含む、方法。
[態様3]
態様1に記載の方法において、前記キューを表示する過程が、前記音声コマンドをアクティベートする語を表示することを含む、方法。
[態様4]
態様1に記載の方法において、前記キューを表示する過程が、前記ユーザインターフェースに表示されているコントロールに関連付けられた前記音声コマンドに対応する前記キューを、当該ユーザインターフェースに表示することを含む、方法。
[態様5]
態様1に記載の方法において、前記キューを表示する過程が、前記ユーザインターフェースから隠れているコントロールに関連付けられた前記音声コマンドに対応する前記キューを、当該ユーザインターフェースに表示することを含む、方法。
[態様6]
態様1に記載の方法において、前記キューを表示する過程が、グローバルなヘッドセットのコントロールに関連付けられた前記音声コマンドに対応する前記キューを、前記ユー
ザインターフェースに表示することを含む、方法。
[態様7]
態様1に記載の方法において、前記キューが、当該キューと前記音声コマンドとを示すコントロールからロードされる、方法。
[態様8]
ヘッドセットコンピュータにユーザインターフェースを表示するシステムであって、
ヘッドセットコンピュータにユーザインターフェースを提供し、さらに、ユーザのキュー・トグルコマンドの発話に応答して、少なくとも1つのキューを前記ユーザインターフェースに表示する表示手段であって、各キューは、実行すべきコードが関連付けられた音声コマンドにそれぞれ対応する、表示手段と、
ユーザの前記音声コマンドの発話に応答して、当該音声コマンドに関連付けられた前記コードを実行するコマンド手段と、
を備える、システム。
[態様9]
態様8に記載のシステムにおいて、前記表示手段が、さらに、前記キュー・トグルコマンドの前および次のキュー・トグルコマンドの後のうちの少なくとも一方において、前記インターフェースを前記キューなしで表示する、システム。
[態様10]
態様8に記載のシステムにおいて、前記表示手段が、さらに、前記音声コマンドをアクティベートする語を表示する、システム。
[態様11]
態様8に記載のシステムにおいて、前記表示手段が、さらに、前記ユーザインターフェースに表示されているコントロールに関連付けられた音声コマンドに対応するキューを、当該ユーザインターフェースに表示する、システム。
[態様12]
態様8に記載のシステムにおいて、前記表示手段が、さらに、前記ユーザインターフェースから隠れているコントロールに関連付けられた前記音声コマンドに対応する前記キューを、当該ユーザインターフェースに表示する、システム。
[態様13]
態様8に記載のシステムにおいて、前記表示手段が、さらに、グローバルなヘッドセットのコントロールに関連付けられた前記音声コマンドに対応する前記キューを、前記ユーザインターフェースに表示する、システム。
[態様14]
態様8に記載のシステムにおいて、前記キューが、当該キューと前記音声コマンドとを示すコントロールからロードされる、システム。
[態様15]
ヘッドセットコンピュータにユーザインターフェースを展開する方法であって、
前記ユーザインターフェース用のコントロールに、キューおよび音声コマンドを埋め込む過程と、
前記コントロールを前記ユーザインターフェースに提供する過程であって、当該ユーザインターフェースは、キュー・トグルコマンドに応答した前記キューを表示する過程と、
を含む、方法。
[態様16]
態様15に記載の方法において、前記キューが、前記音声コマンドをアクティベートする語を含む、方法。
[態様17]
態様15に記載の方法において、前記キューが、前記ユーザインターフェースに表示されているコントロールに関連付けられた前記音声コマンドに対応する、方法。
[態様18]
態様15に記載の方法において、前記キューが、前記ユーザインターフェースから隠れ
ているコントロールに関連付けられた前記音声コマンドに対応する、方法。
[態様19]
態様15に記載の方法において、前記キューが、グローバルなヘッドセットのコントロールに関連付けられた前記音声コマンドに対応する、方法。
[態様20]
態様15に記載の方法において、前記キューが、当該キューと前記音声コマンドとを示すコントロールからロードされる、方法。
While the invention has been illustrated and described with reference to illustrative embodiments, workers skilled in the art will recognize that the invention is capable of form and detail without departing from the scope of the invention as encompassed by the appended claims. It will be understood that detailed modifications of are possible.
In addition, this invention contains the following content as an aspect.
[Aspect 1]
Providing a user interface to the headset computer;
Displaying at least one cue on the user interface in response to a user cue / toggle command utterance, each cue corresponding to a voice command associated with a code to be executed; and ,
Executing the code associated with the voice command in response to an utterance of the voice command of the user;
Including a method.
[Aspect 2]
The method according to aspect 1, further comprising:
Displaying the interface without the queue before at least one of the queue-toggle command and after the next queue-toggle command;
Including a method.
[Aspect 3]
The method of aspect 1, wherein displaying the cue includes displaying a word that activates the voice command.
[Aspect 4]
The method of claim 1, wherein displaying the cue includes displaying the cue corresponding to the voice command associated with a control displayed on the user interface on the user interface. .
[Aspect 5]
The method of claim 1, wherein displaying the cue includes displaying the cue corresponding to the voice command associated with a control hidden from the user interface on the user interface.
[Aspect 6]
The method of aspect 1, wherein displaying the cue includes displaying the cue corresponding to the voice command associated with a global headset control on the user interface.
[Aspect 7]
The method of claim 1, wherein the cue is loaded from a control that indicates the cue and the voice command.
[Aspect 8]
A system for displaying a user interface on a headset computer,
Display means for providing a user interface to the headset computer and further displaying at least one cue on the user interface in response to a user cue / toggle command utterance, wherein each cue includes code to be executed Display means respectively corresponding to voice commands associated with
Command means for executing the code associated with the voice command in response to the utterance of the voice command of the user;
A system comprising:
[Aspect 9]
9. The system according to aspect 8, wherein the display means further displays the interface without the queue at least one of before the queue / toggle command and after the next queue / toggle command.
[Aspect 10]
9. The system according to aspect 8, wherein the display means further displays a word that activates the voice command.
[Aspect 11]
9. The system according to aspect 8, wherein the display means further displays a cue corresponding to a voice command associated with a control displayed on the user interface on the user interface.
[Aspect 12]
9. The system according to aspect 8, wherein the display means further displays the cue corresponding to the voice command associated with a control hidden from the user interface on the user interface.
[Aspect 13]
9. The system according to aspect 8, wherein the display means further displays the cue corresponding to the voice command associated with global headset control on the user interface.
[Aspect 14]
9. The system according to aspect 8, wherein the cue is loaded from a control indicating the cue and the voice command.
[Aspect 15]
A method of deploying a user interface on a headset computer,
Embedding cues and voice commands in the user interface controls;
Providing the control to the user interface, the user interface displaying the queue in response to a queue toggle command;
Including a method.
[Aspect 16]
16. The method of aspect 15, wherein the cue includes a word that activates the voice command.
[Aspect 17]
16. The method of aspect 15, wherein the cue corresponds to the voice command associated with a control displayed on the user interface.
[Aspect 18]
16. The method of aspect 15, wherein the cue corresponds to the voice command associated with a control hidden from the user interface.
[Aspect 19]
16. The method of aspect 15, wherein the cue corresponds to the voice command associated with a global headset control.
[Aspect 20]
16. The method of aspect 15, wherein the cue is loaded from a control that indicates the cue and the voice command.

Claims (20)

ヘッドセットコンピュータに、少なくとも1つのコントロールを有するユーザインターフェースを提供する過程と、
ユーザのキュー・トグルコマンドの発話に応答して、少なくとも1つのキューの半透明のオーバーレイを前記提供されたユーザインターフェースに表示する過程であって、各キューは、前記ユーザインターフェースにおいて、少なくとも1つのコントロールを実行するコードが関連付けられた音声コマンドにそれぞれ対応する、過程と、
ユーザの前記音声コマンドの発話に応答して、当該音声コマンドに関連付けられた前記コードを実行する過程と、
を含む、方法。
Providing a headset computer with a user interface having at least one control;
In response to the utterance of a user cue / toggle command, displaying a translucent overlay of at least one cue on the provided user interface, each cue being at least one control in the user interface Processes corresponding to each voice command with associated code
Executing the code associated with the voice command in response to an utterance of the voice command of the user;
Including a method.
請求項1に記載の方法において、さらに、
前記キュー・トグルコマンドの前および次のキュー・トグルコマンドの後のうちの少なくとも一方において、前記インターフェースを前記キューなしで表示する過程、
を含む、方法。
The method of claim 1, further comprising:
Displaying the interface without the queue before at least one of the queue-toggle command and after the next queue-toggle command;
Including a method.
請求項1に記載の方法において、前記キューを表示する過程が、前記音声コマンドをアクティベートする語を表示することを含む、方法。   2. The method of claim 1, wherein displaying the cue includes displaying a word that activates the voice command. 請求項1に記載の方法において、前記キューを表示する過程が、前記ユーザインターフェースに表示されているコントロールに関連付けられた前記音声コマンドに対応する前記キューを、当該ユーザインターフェースに表示することを含む、方法。   The method of claim 1, wherein displaying the cue includes displaying the cue corresponding to the voice command associated with a control displayed on the user interface on the user interface. Method. 請求項1に記載の方法において、前記キューを表示する過程が、前記ユーザインターフェースから隠れているコントロールに関連付けられた前記音声コマンドに対応する前記キューを、当該ユーザインターフェースに表示することを含む、方法。   The method of claim 1, wherein displaying the cue includes displaying the cue corresponding to the voice command associated with a control hidden from the user interface on the user interface. . 請求項1に記載の方法において、前記キューを表示する過程が、グローバルなヘッドセットのコントロールに関連付けられた前記音声コマンドに対応する前記キューを、前記ユーザインターフェースに表示することを含む、方法。   The method of claim 1, wherein displaying the cue includes displaying the cue corresponding to the voice command associated with a global headset control on the user interface. 請求項1に記載の方法において、前記キューが、当該キューと前記音声コマンドとを示すコントロールからロードされる、方法。   The method of claim 1, wherein the cue is loaded from a control indicating the cue and the voice command. ヘッドセットコンピュータにユーザインターフェースを表示するシステムであって、
ヘッドセットコンピュータに、少なくとも1つのコントロールを有するユーザインターフェースを提供し、さらに、ユーザのキュー・トグルコマンドの発話に応答して、少なくとも1つのキューの半透明のオーバーレイを前記提供されたユーザインターフェースに表示する表示手段であって、各キューは、前記ユーザインターフェースにおいて、少なくとも1つのコントロールを実行するコードが関連付けられた音声コマンドにそれぞれ対応する、表示手段と、
ユーザの前記音声コマンドの発話に応答して、当該音声コマンドに関連付けられた前記コードを実行するコマンド手段と、
を備える、システム。
A system for displaying a user interface on a headset computer,
Providing a headset computer with a user interface having at least one control, and further displaying a translucent overlay of at least one cue on the provided user interface in response to the utterance of the user's cue / toggle command Display means, each queue corresponding to a voice command associated with a code for executing at least one control in the user interface;
Command means for executing the code associated with the voice command in response to the utterance of the voice command of the user;
A system comprising:
請求項8に記載のシステムにおいて、前記表示手段が、さらに、前記キュー・トグルコマンドの前および次のキュー・トグルコマンドの後のうちの少なくとも一方において、前記インターフェースを前記キューなしで表示する、システム。   9. The system according to claim 8, wherein the display means further displays the interface without the queue at least one of before the queue toggle command and after the next queue toggle command. . 請求項8に記載のシステムにおいて、前記表示手段が、さらに、前記音声コマンドをアクティベートする語を表示する、システム。   9. The system according to claim 8, wherein the display means further displays a word that activates the voice command. 請求項8に記載のシステムにおいて、前記表示手段が、さらに、前記ユーザインターフェースに表示されているコントロールに関連付けられた音声コマンドに対応するキューを、当該ユーザインターフェースに表示する、システム。   9. The system according to claim 8, wherein the display means further displays a cue corresponding to a voice command associated with a control displayed on the user interface on the user interface. 請求項8に記載のシステムにおいて、前記表示手段が、さらに、前記ユーザインターフェースから隠れているコントロールに関連付けられた前記音声コマンドに対応する前記キューを、当該ユーザインターフェースに表示する、システム。   9. The system according to claim 8, wherein the display means further displays the cue corresponding to the voice command associated with a control hidden from the user interface on the user interface. 請求項8に記載のシステムにおいて、前記表示手段が、さらに、グローバルなヘッドセットのコントロールに関連付けられた前記音声コマンドに対応する前記キューを、前記ユーザインターフェースに表示する、システム。   9. The system of claim 8, wherein the display means further displays the cue corresponding to the voice command associated with global headset control on the user interface. 請求項8に記載のシステムにおいて、前記キューが、当該キューと前記音声コマンドとを示すコントロールからロードされる、システム。   9. The system of claim 8, wherein the cue is loaded from a control that indicates the cue and the voice command. ヘッドセットコンピュータにユーザインターフェースを展開する方法であって、
前記ユーザインターフェース用のコントロールに、キューおよび音声コマンドを埋め込む過程と、
前記コントロールを前記ユーザインターフェースに提供する過程であって、当該ユーザインターフェースは、キュー・トグルコマンドに応答した前記キューの半透明のオーバーレイを表示する過程と、
を含む、方法。
A method of deploying a user interface on a headset computer,
Embedding cues and voice commands in the user interface controls;
Providing the control to the user interface, the user interface displaying a translucent overlay of the cue in response to a cue toggle command;
Including a method.
請求項15に記載の方法において、前記キューが、前記音声コマンドをアクティベートする語を含む、方法。   16. The method of claim 15, wherein the cue includes a word that activates the voice command. 請求項15に記載の方法において、前記キューが、前記ユーザインターフェースに表示されているコントロールに関連付けられた前記音声コマンドに対応する、方法。   16. The method of claim 15, wherein the cue corresponds to the voice command associated with a control displayed on the user interface. 請求項15に記載の方法において、前記キューが、前記ユーザインターフェースから隠れているコントロールに関連付けられた前記音声コマンドに対応する、方法。   16. The method of claim 15, wherein the cue corresponds to the voice command associated with a control hidden from the user interface. 請求項15に記載の方法において、前記キューが、グローバルなヘッドセットのコントロールに関連付けられた前記音声コマンドに対応する、方法。   16. The method of claim 15, wherein the cue corresponds to the voice command associated with a global headset control. 請求項15に記載の方法において、前記キューが、当該キューと前記音声コマンドとを示すコントロールからロードされる、方法。   16. The method of claim 15, wherein the cue is loaded from a control that indicates the cue and the voice command.
JP2017222885A 2013-01-04 2017-11-20 Controllable headset computer displays Pending JP2018032440A (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201361749240P 2013-01-04 2013-01-04
US61/749,240 2013-01-04
US13/799,790 2013-03-13
US13/799,790 US10013976B2 (en) 2010-09-20 2013-03-13 Context sensitive overlays in voice controlled headset computer displays

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015551666A Division JP2016508271A (en) 2013-01-04 2013-05-15 Controllable headset computer display

Publications (1)

Publication Number Publication Date
JP2018032440A true JP2018032440A (en) 2018-03-01

Family

ID=48614125

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015551666A Pending JP2016508271A (en) 2013-01-04 2013-05-15 Controllable headset computer display
JP2017222885A Pending JP2018032440A (en) 2013-01-04 2017-11-20 Controllable headset computer displays

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2015551666A Pending JP2016508271A (en) 2013-01-04 2013-05-15 Controllable headset computer display

Country Status (4)

Country Link
EP (1) EP2941690A1 (en)
JP (2) JP2016508271A (en)
CN (1) CN104981767A (en)
WO (1) WO2014107186A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10474418B2 (en) 2008-01-04 2019-11-12 BlueRadios, Inc. Head worn wireless computer having high-resolution display suitable for use as a mobile internet device

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105070288B (en) * 2015-07-02 2018-08-07 百度在线网络技术(北京)有限公司 Vehicle-mounted voice instruction identification method and device
CN107832036B (en) * 2017-11-22 2022-01-18 北京小米移动软件有限公司 Voice control method, device and computer readable storage medium
KR102509465B1 (en) 2018-05-07 2023-03-14 구글 엘엘씨 Method, system, and apparatus for providing a complex graphical assistant interface for controlling a connected device
JP2022036352A (en) * 2018-12-27 2022-03-08 ソニーグループ株式会社 Display control device, and display control method
JP2022045262A (en) * 2020-09-08 2022-03-18 シャープ株式会社 Speech processing system, speech processing method, and speech processing program

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0284686A (en) * 1988-09-21 1990-03-26 Matsushita Electric Ind Co Ltd Image sound output device
JP2000215022A (en) * 1998-12-17 2000-08-04 Internatl Business Mach Corp <Ibm> Computer control interactive display system, voice command input method, and recording medium
JP2004054879A (en) * 2002-05-27 2004-02-19 Sony Corp Display device and display method
JP2005352619A (en) * 2004-06-09 2005-12-22 Fujitsu Ten Ltd Function selector
JP2011511935A (en) * 2008-01-14 2011-04-14 ガーミン スウィッツァランド ゲーエムベーハー Dynamic user interface for automatic speech recognition
US20110187640A1 (en) * 2009-05-08 2011-08-04 Kopin Corporation Wireless Hands-Free Computing Headset With Detachable Accessories Controllable by Motion, Body Gesture and/or Vocal Commands
WO2012025956A1 (en) * 2010-08-25 2012-03-01 三菱電機株式会社 Navigation apparatus
US20120068914A1 (en) * 2010-09-20 2012-03-22 Kopin Corporation Miniature communications gateway for head mounted display
WO2012040107A1 (en) * 2010-09-20 2012-03-29 Kopin Corporation Advanced remote control of host application using motion and voice commands
US20120110456A1 (en) * 2010-11-01 2012-05-03 Microsoft Corporation Integrated voice command modal user interface
JP2012174149A (en) * 2011-02-24 2012-09-10 Seiko Epson Corp Information processor, control method of information processor, and transmission type head-mounted display device
JP2012533055A (en) * 2009-07-09 2012-12-20 トムトム インターナショナル ベスローテン フエンノートシャップ Navigation apparatus and method for time dependence of route calculation

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2388209C (en) * 2001-12-20 2005-08-23 Canon Kk Control apparatus
JP4135520B2 (en) * 2003-01-29 2008-08-20 トヨタ自動車株式会社 Vehicle communication device
WO2011097226A1 (en) * 2010-02-02 2011-08-11 Kopin Corporation Wireless hands-free computing headset with detachable accessories controllable by motion, body gesture and/or vocal commands

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0284686A (en) * 1988-09-21 1990-03-26 Matsushita Electric Ind Co Ltd Image sound output device
JP2000215022A (en) * 1998-12-17 2000-08-04 Internatl Business Mach Corp <Ibm> Computer control interactive display system, voice command input method, and recording medium
JP2004054879A (en) * 2002-05-27 2004-02-19 Sony Corp Display device and display method
JP2005352619A (en) * 2004-06-09 2005-12-22 Fujitsu Ten Ltd Function selector
JP2011511935A (en) * 2008-01-14 2011-04-14 ガーミン スウィッツァランド ゲーエムベーハー Dynamic user interface for automatic speech recognition
US20110187640A1 (en) * 2009-05-08 2011-08-04 Kopin Corporation Wireless Hands-Free Computing Headset With Detachable Accessories Controllable by Motion, Body Gesture and/or Vocal Commands
JP2012533055A (en) * 2009-07-09 2012-12-20 トムトム インターナショナル ベスローテン フエンノートシャップ Navigation apparatus and method for time dependence of route calculation
WO2012025956A1 (en) * 2010-08-25 2012-03-01 三菱電機株式会社 Navigation apparatus
WO2012040107A1 (en) * 2010-09-20 2012-03-29 Kopin Corporation Advanced remote control of host application using motion and voice commands
US20120068914A1 (en) * 2010-09-20 2012-03-22 Kopin Corporation Miniature communications gateway for head mounted display
JP2013541092A (en) * 2010-09-20 2013-11-07 コピン コーポレーション Advanced remote control of host applications using movement and voice commands
US20120110456A1 (en) * 2010-11-01 2012-05-03 Microsoft Corporation Integrated voice command modal user interface
JP2012174149A (en) * 2011-02-24 2012-09-10 Seiko Epson Corp Information processor, control method of information processor, and transmission type head-mounted display device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10474418B2 (en) 2008-01-04 2019-11-12 BlueRadios, Inc. Head worn wireless computer having high-resolution display suitable for use as a mobile internet device
US10579324B2 (en) 2008-01-04 2020-03-03 BlueRadios, Inc. Head worn wireless computer having high-resolution display suitable for use as a mobile internet device

Also Published As

Publication number Publication date
WO2014107186A1 (en) 2014-07-10
CN104981767A (en) 2015-10-14
JP2016508271A (en) 2016-03-17
EP2941690A1 (en) 2015-11-11

Similar Documents

Publication Publication Date Title
US10013976B2 (en) Context sensitive overlays in voice controlled headset computer displays
JP6419262B2 (en) Headset computer (HSC) as an auxiliary display with ASR and HT inputs
US9122307B2 (en) Advanced remote control of host application using motion and voice commands
US9134793B2 (en) Headset computer with head tracking input used for inertial control
US9378028B2 (en) Headset computer (HSC) with docking station and dual personality
US9383816B2 (en) Text selection using HMD head-tracker and voice-command
US20180210544A1 (en) Head Tracking Based Gesture Control Techniques For Head Mounted Displays
JP2018032440A (en) Controllable headset computer displays
US9500867B2 (en) Head-tracking based selection technique for head mounted displays (HMD)
US20150220142A1 (en) Head-Tracking Based Technique for Moving On-Screen Objects on Head Mounted Displays (HMD)
US20110001699A1 (en) Remote control of host application using motion and voice commands
JP6545174B2 (en) User configurable speech commands
US20190279636A1 (en) Context Sensitive Overlays in Voice Controlled Headset Computer Displays

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171121

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190620

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191029

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200526