JP2018032440A - Controllable headset computer displays - Google Patents
Controllable headset computer displays Download PDFInfo
- Publication number
- JP2018032440A JP2018032440A JP2017222885A JP2017222885A JP2018032440A JP 2018032440 A JP2018032440 A JP 2018032440A JP 2017222885 A JP2017222885 A JP 2017222885A JP 2017222885 A JP2017222885 A JP 2017222885A JP 2018032440 A JP2018032440 A JP 2018032440A
- Authority
- JP
- Japan
- Prior art keywords
- cue
- user interface
- voice command
- control
- command
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本願は、2013年1月4日付出願の米国特許出願第61/749,240号の優先権を主張する、2013年3月13日付出願の米国特許出願第13/799,790号の継続出願である。なお、米国特許出願第13/799,790号は、2010年9月20日付出願の米国特許出願第61/384,586号の優先権を主張する、2011年9月16日付出願の米国特許出願第13/234,916号の一部継続出願である。これら米国特許出願の全内容は、参照をもって本明細書に取り入れたものとする。 This application is a continuation of US Patent Application No. 13 / 799,790, filed March 13, 2013, claiming priority of US Patent Application No. 61 / 749,240, filed January 4, 2013. Note that U.S. Patent Application No. 13 / 799,790 claims U.S. Patent Application No. 61 / 384,586, filed September 20, 2010, and U.S. Patent Application No. 13 / 234,916, filed September 16, 2011. Is a continuation-in-part application. The entire contents of these US patent applications are hereby incorporated by reference.
現在、ノートブックPC、スマートフォン、タブレット型コンピューティング端末等のモバイルコンピューティングデバイスは、ビジネスライフおよび私生活の両方において、データを生成、分析、通信および消費するための日常的なツールとなっている。消費者は、高速無線通信技術のユビキタス化に伴ない、ますます容易にデジタル情報にアクセスできることを背景に、モバイルデジタルライフスタイルを享受し続ける。モバイルコンピューティングデバイスのよくある用途として、大量の高解像度コンピュータグラフィックス情報及び動画コンテンツを表示する用途が挙げられ、デバイスにワイヤレスでストリーミングして表示する場合が多い。典型的にこれらのデバイスはディスプレイ画面を備えているものの、モバイル性を推し進めるため、デバイス自体の物理的サイズは制限されている。そのため、これらのモバイルデバイスで、高解像度の大型ディスプレイのようなより好ましい視覚的体験を再現することは難しい。その他にも、このような種類のデバイスの短所として、ユーザインターフェースがヒトの手に依存する(ヒトの手を使うことを必要とする)点が挙げられる。典型的には、一般的にユーザは、(物理的または仮想的な)キーボードやタッチスクリーンディスプレイを用いてデータの入力や何らかの選択を行うことを求められる。そのため、今日の消費者は、ヒトの手に依存するモバイルデバイスを補うまたはこれにとって代わる、ハンズフリーで(ヒトの手に依存しないで)、高品質且つ携帯可能な、カラーディスプレイのソリューションを所望している。 Currently, mobile computing devices such as notebook PCs, smartphones, and tablet computing terminals have become everyday tools for generating, analyzing, communicating and consuming data in both business and private life. Consumers continue to enjoy a mobile digital lifestyle against the backdrop of increasingly easy access to digital information as high-speed wireless communication technology becomes ubiquitous. A common use of mobile computing devices is to display large amounts of high-resolution computer graphics information and video content, often streaming wirelessly to the device for display. Although these devices typically include a display screen, the physical size of the devices themselves is limited to promote mobility. Therefore, it is difficult to reproduce a more favorable visual experience on these mobile devices, such as a high resolution large display. Another disadvantage of this type of device is that the user interface depends on the human hand (requires use of the human hand). Typically, a user is generally required to enter data or make some selection using a (physical or virtual) keyboard or touch screen display. Therefore, today's consumers want a hands-free (independent of human hand), high quality and portable color display solution that supplements or replaces mobile devices that rely on human hands. ing.
近年開発されたマイクロディスプレイは、大型フォーマットの高解像度カラー画像及びストリーミング映像を、極めて小さい形状の構成要素で提供することができる。このようなディスプレイの用途として、ユーザの視野内にディスプレイが収まるように眼鏡やオーディオヘッドセットやビデオアイウェアと似た形式の、ユーザの頭部に装着される無線ヘッドセットコンピュータへの組込みが挙げられる。「無線ヘッドセットコンピューティング」デバイスは、少なくとも1つの小型高解像度マイクロディスプレイと画像を拡大する光学系とを備える。WVGAマイクロディスプレイは、スーパービデオグラフィックスアレイ(SVGA)(800×600)解像度または拡張グラフィックスアレイ(XGA)(1024×768)解像度、あるいは、それを超える解像度を提供することができる。また、無線コンピューティングヘッドセットは、データ機能や映像ストリーミング機能を可能にする少なくとも1つの無線コンピューティングインターフェースと通信インターフェースを備えており、かつ、ヒトの手に依存する装置を介して優れた利便性およびモバイル性を提供している。以上のようなデバイスに関する詳細な情報については、同時係属中の、2009年1月5日付出願の米国特許出願第12/348,648号“Mobile Wireless Display Software Platform for Controlling Other Systems and Devices”、2009年3月27日付出願の国際出願第PCT/US09/38601号“Handheld Wireless Display Devices Having High Resolution Display Suitable For Use as a Mobile Internet Device”および2012年4月25日付出願の米国特許出願第61/638,419号“Improved Headset Computer”を参照されたい。なお、これら特許出願の全内容は、参照をもって本明細書に取り入れたものとする。 Recently developed microdisplays can provide large format high resolution color images and streaming video with very small shaped components. An example of such a display application is the incorporation into a wireless headset computer worn on the user's head in a format similar to glasses, audio headsets or video eyewear so that the display fits within the user's field of view. It is done. A “wireless headset computing” device comprises at least one small high-resolution microdisplay and an optical system that magnifies an image. A WVGA microdisplay can provide Super Video Graphics Array (SVGA) (800 × 600) resolution or Extended Graphics Array (XGA) (1024 × 768) resolution or higher. In addition, the wireless computing headset has at least one wireless computing interface and a communication interface that enable data functions and video streaming functions, and has excellent convenience via a device that depends on human hands. And providing mobility. For detailed information on these devices, see co-pending US patent application Ser. No. 12 / 348,648, “Mobile Wireless Display Software Platform for Controlling Other Systems and Devices,” filed Jan. 5, 2009, March 2009. International Application No. PCT / US09 / 38601 filed on May 27, “Handheld Wireless Display Devices Having High Resolution Display Suitable For Use as a Mobile Internet Device” and US Patent Application No. 61 / 638,419 filed April 25, 2012, “ See “Improved Headset Computer”. Note that the entire contents of these patent applications are incorporated herein by reference.
本発明の一実施形態に係る方法は、ヘッドセットコンピュータにユーザインターフェースを提供する過程と、ユーザのキュー・トグルコマンド(キューとなるトグルコマンド)の発話に応答して、少なくとも1つのキュー(cue:合図、指示等)を前記ユーザインターフェースに表示する過程とを含む。各キューは、実行すべきコードが関連付けられた音声コマンドにそれぞれ対応し得る。この方法は、ユーザの前記音声コマンドの発話に応答して、当該音声コマンドに関連付けられた前記コードを実行する過程も含み得る。他の実施形態において、この方法は、さらに、前記キュー・トグルコマンドの前および次のキュー・トグルコマンドの後のうちの少なくとも一方において、前記インターフェースを前記キューなしで表示する過程を含み得る。前記キューを表示する過程は、前記音声コマンドをアクティベート(起動または活性化)する語(word)を表示することを含み得る。また、前記キューを表示する過程は、前記ユーザインターフェースに表示されているコントロールに関連付けられた前記音声コマンドに対応する前記キューを、当該ユーザインターフェースに表示することを含み得る。前記キューを表示する過程は、前記ユーザインターフェースから隠れているコントロールに関連付けられた前記音声コマンドに対応する前記キューを、当該ユーザインターフェースに表示することを含み得る。前記キューを表示する過程は、グローバルな(広域的な)ヘッドセットのコントロールであるコントロール(UIのコンポーネントのこと。詳細は後述。)に関連付けられた前記音声コマンドに対応する前記キューを、前記ユーザインターフェースに表示することを含み得る。前記キューは、当該キューと前記音声コマンドとを示すコントロールからロードされ得る。 In accordance with an embodiment of the present invention, a method for providing a user interface to a headset computer and responsive to the utterance of a user cue / toggle command (a cue toggle command) at least one cue: A signal, an instruction, etc.) on the user interface. Each cue may correspond to a voice command associated with code to be executed. The method may also include executing the code associated with the voice command in response to the user speaking the voice command. In other embodiments, the method may further include displaying the interface without the queue at least one of before the queue toggle command and after the next queue toggle command. The step of displaying the cue may include displaying a word that activates (activates or activates) the voice command. Also, the step of displaying the cue may include displaying the cue corresponding to the voice command associated with the control displayed on the user interface on the user interface. The step of displaying the cue may include displaying the cue corresponding to the voice command associated with a control hidden from the user interface on the user interface. The process of displaying the cue includes the cue corresponding to the voice command associated with a control (a component of the UI, which will be described in detail later), which is a global (global) headset control. It may include displaying on the interface. The cue may be loaded from a control that indicates the cue and the voice command.
他の実施形態において、ヘッドセットコンピュータにユーザインターフェースを表示するシステムは、ヘッドセットコンピュータにユーザインターフェースを提供するディスプレイ手段または表示手段を備え得る。この表示手段は、さらに、ユーザのキュー・トグルコマンドの発話に応答して、少なくとも1つのキューを前記ユーザインターフェースに表示し得る。各キューは、実行すべきコードが関連付けられた音声コマンドにそれぞれ対応し得る。このシステムは、さらに、ユーザの前記音声コマンドの発話に応答して、当該音声コマンドに関連付けられた前記コードを実行するコマンド手段または命令手段を備え得る。 In other embodiments, a system for displaying a user interface on a headset computer may comprise display means or display means for providing a user interface to the headset computer. The display means may further display at least one cue on the user interface in response to a user cue / toggle command utterance. Each cue may correspond to a voice command associated with code to be executed. The system may further comprise command means or command means for executing the code associated with the voice command in response to a user utterance of the voice command.
他の実施形態において、ヘッドセットコンピュータにユーザインターフェースを展開する方法は、前記ユーザインターフェース用のコントロールに、キューおよび音声コマンドを埋め込む過程を含む。この方法は、さらに、前記コントロールを前記ユーザインターフェースに提供する過程であって、当該ユーザインターフェースは、キュー・トグルコマンドに応答した前記キューを表示する過程を含む。 In another embodiment, a method for deploying a user interface on a headset computer includes embedding cues and voice commands in the controls for the user interface. The method further includes providing the control to the user interface, the user interface displaying the queue in response to a queue toggle command.
前述の内容は、添付の図面に示す本発明の例示的な実施形態についての以下の詳細な説明から明らかになる。図面では、異なる図をとおして同じ参照符号は同じ構成/構成要素を指すものとする。なお、図面は必ずしも縮尺どおりではなく、むしろ、本発明の実施形態を示すことに重点を置いている。 The foregoing will become apparent from the following detailed description of exemplary embodiments of the invention as illustrated in the accompanying drawings. In the drawings, like reference numerals refer to like elements / components throughout the different views. The drawings are not necessarily to scale, but rather focus on showing embodiments of the present invention.
図1A及び図1Bに、無線コンピューティングヘッドセットデバイス100(本明細書ではヘッドセットコンピュータ(HSC)と称することもある)の例示的な一実施形態を示す。HSC100は、高解像度(VGAまたはそれを超える解像度)のマイクロディスプレイ要素1010を組み込んでいると共に、下記のその他の構成要素も組み込んでいる。具体的に述べると、HSC100は:音声入力および/または音声出力装置(少なくとも1つのマイクロホン、少なくとも1つの入力スピーカ、および少なくとも1つの出力スピーカが含まれ得る);および/または地理位置センサ(GPS);および/または3軸〜9軸の自由度の方位センサ;および/または気圧センサ;および/または健康状態センサ;および/またはデジタルコンパス;および/または圧力センサ;および/または環境センサ;および/またはエネルギーセンサ;および/または加速度センサ;および/または位置センサ;および/または姿勢センサ;および/または動きセンサ;および/または速度センサ;および/または光センサ;および/またはカメラ(可視光カメラ、赤外線カメラなど);および/または複数のワイヤレス無線機;および/または補助照明;および/または距離計;および/またはその他;を備え得る。HSC100は:ヘッドセットに埋め込まれたセンサのアレイ;および/またはヘッドセットに組み込まれたセンサのアレイ;および/または少なくとも1つのペリフェラル(周辺機器)ポート(図1Bに詳細には示されていない)を介してデバイスに取り付けられるセンサのアレイ;を備え得る。典型的に、ヘッドセットコンピューティングデバイス100のハウジング内部には、様々な電子回路が配置されている。そのような電子回路には:マイクロコンピュータ(シングルコアまたはマルチコアのプロセッサ);1つ以上の有線および/または無線の通信インターフェース;メモリまたは記憶装置;各種センサ;ならびにペリフェラルマウント(装着部)または「ホットシュー」等のマウント;が含まれ得る。
1A and 1B illustrate an exemplary embodiment of a wireless computing headset device 100 (sometimes referred to herein as a headset computer (HSC)). The HSC 100 incorporates a high-resolution (VGA or higher resolution)
HSC100の例示的な実施形態は、音声コマンド、頭の動き110,111,112、手のジェスチャ113、またはこれらの組合せを検出することにより、ユーザの入力を受け取り得る。具体的に述べると、HSC100に動作可能に接続された、または、好ましくは、HSC100に組み込まれた少なくとも1つのマイクロホンを用いて、発話コマンドまたは音声コマンドを捉え得る。捉えられた音声コマンドは、自動発話認識技術または自動音声認識技術を用いてデジタル化されて処理される。また、HSC100には、ジャイロスコープ、加速度計、および微小電気機械システムに基づくその他のセンサが組み込まれ得る。これらのセンサ等は、ユーザの頭の動きを追跡してユーザに入力コマンドを提供する。また、カメラまたはその他の動き追跡センサを用いて、ユーザの手のジェスチャを監視してユーザに入力コマンドを提供し得る。これらのようなユーザインターフェースにより、他のモバイルデバイスのようなヒトの手に依存する様式を不要にすることができる。
Exemplary embodiments of HSC 100 may receive user input by detecting voice commands,
HSC100は、様々な方法で使用することができる。具体的に述べると、HSC100は、リモートホストコンピューティングデバイス200(図1Aに示されている)から受け取った映像信号をストリーミング再生する遠隔ディスプレイとして使用可能である。ホスト200の例として、ノートブックPC、スマートフォン、タブレット型端末など、または、無線コンピューティングヘッドセットデバイス100よりも演算複雑度が高いまたは低い、その他のコンピューティングデバイス(例えば、クラウドベースのネットワークリソースなど)が挙げられる。ホストは、他のネットワーク210(例えば、インターネットなど)にさらに接続され得る。ヘッドセットコンピューティングデバイス100とホスト200とは、1つ以上の無線プロトコル(例えば、Bluetooth(登録商標)、Wi−Fi(登録商標)、WiMAX(登録商標)、4G LTE、その他のワイヤレス無線リンクなど)150で、ワイヤレスに相互に通信し得る(Bluetooth(登録商標)は、5209 Lake Washington Boulevard, Kirkland, Washington 98033に居所を有するBluetooth Sig, Inc.社の登録商標である)。例示的な一実施形態において、ホスト200は、無線リレーとして機能可能なように、他のネットワークにさらに接続され得る(例えば、無線接続で、インターネットまたはその他のクラウドベースのネットワークリソースにさらに接続される)。いくつかの変形例として、HSC100の例示的な実施形態は、インターネットやクラウドベースのネットワークリソースに対し、ホストを無線リレーとして使用することなく無線接続され得る。
The
図1Bは、ヘッドセットコンピュータ100の例示的な一実施形態について、その詳細の一部を示す斜視図である。この例示的な実施形態のHSC100は、概して、フレーム1000、ストラップ1002、後部ハウジング1004、スピーカ1006、マイクロホンが組み込まれたカンチレバー(片持ち支持部材)(アームまたはブームとも称される)1008、およびマイクロディスプレイサブアセンブリ1010を備える。
FIG. 1B is a perspective view showing some of the details of an exemplary embodiment of
頭部に装着されるフレーム1000およびストラップ1002は、一般的に、ユーザがヘッドセットコンピュータデバイス100を自身の頭部に装着することを可能とするように構成されている。ハウジング1004は、一般的に、電子部品(例えば、マイクロプロセッサ、メモリ、その他の記憶装置など)をその他の関連回路と共に収容する、背の低いユニットとなっている。スピーカ1006は、ユーザに音声出力を提供することにより、ユーザが情報を聞くことを可能にする。マイクロディスプレイサブアセンブリ1010は、ユーザに視覚的情報または表示情報(visual information)を表示する。マイクロディスプレイサブアセンブリ1010は、アーム1008に連結している。アーム1008は、概して、マイクロディスプレイサブアセンブリをユーザの視野300(図1A)内、好ましくは、ユーザの眼の前方、あるいは、ユーザの周辺視野内(好ましくは、ユーザの眼よりも若干下または若干上)に配置できるように物理的な支持を行う。アーム1008は、さらに、マイクロディスプレイサブアセンブリ1010とハウジングユニット1004内に収容された制御回路との、電気的なまたは光学的な接続を行う。
The
後で詳述する側面によると、HSCディスプレイデバイス100は、ユーザが視野300を、仮想的なディスプレイ400によって形成される、当該視野300よりも遥かに広い領域内から選択することを可能にする。ユーザは、典型的に、視野300の位置および/または範囲(例えば、X−Y範囲、3D範囲など)、および/または倍率を操作することができる。
According to aspects detailed below, the
なお、図1Aに示されているのは単眼式のマイクロディスプレイであり、ユーザの顔に対してカンチレバー型のブームによって片持ち支持固定される単一のディスプレイ要素が図示されているが、遠隔制御ディスプレイデバイス100の機械的構成として、その他の構成を採用することも可能であることを理解されたい。
FIG. 1A shows a monocular micro-display, which shows a single display element that is cantilevered and fixed to a user's face by a cantilever boom. It should be understood that other configurations may be employed as the mechanical configuration of the
図2は、HSCデバイス100の詳細、ホスト200の詳細、およびこれらの間を行き交うデータの詳細を示すブロック図である。HSCデバイス100は、ユーザからの音声入力を、マイクロホンを介して受け取り、手の動きまたは体のジェスチャを位置センサ及び方位センサ、カメラまたは少なくとも1つの光センサを介して受け取り、頭の動きによる入力を3軸〜9軸の自由度の方位センシング等の頭追跡回路を介して受け取る。これらは、HSCデバイス100のソフトウェアによってキーボードコマンドおよび/またはマウスコマンドに翻訳された後、Bluetooth(登録商標)またはその他のワイヤレスインターフェース150を介してホスト200に送信される。ホスト200は、これら翻訳されたコマンドを、自身のオペレーティングシステム/アプリケーションソフトウェアに従って解釈し、様々な機能を実行する。このようなコマンドの一つとして、視野300を仮想的なディスプレイ400内から選択し、選択された画面データをHSCデバイス100に返すコマンドが挙げられる。すなわち、ホスト200で動作するアプリケーションソフトウェアまたはオペレーティングシステムに、極めて大型のフォーマットの仮想的なディスプレイ領域が関連付けられ得ると理解されたい。ただし、その大型の仮想的なディスプレイ領域400のうち、前記視野300内の一部のみが返されて、HSCデバイス100のマイクロディスプレイ1010で実際に表示される。
FIG. 2 is a block diagram showing details of the
一実施形態において、HSC100は、同時係属中の米国特許出願公開公報第2011/0187640号に記載されたHSCの形態を取りうる。なお、この米国特許出願公開公報の全内容は、参照をもって本明細書に取り入れたものとする。
In one embodiment, the
他の実施形態において、本発明は、ヘッドマウントディスプレイ(HMD)1010を、外部の「スマート」デバイス200(例えば、スマートフォン、タブレットなど)と協働で使用することにより、ユーザに対してハンズフリーで情報及び制御機能を提供するという技術思想に関する。本発明は、少量のデータ送信で済み、高い信頼性のデータ転送方法をリアルタイムで実行することを可能にする。 In other embodiments, the present invention is hands free to the user by using a head mounted display (HMD) 1010 in conjunction with an external “smart” device 200 (eg, smartphone, tablet, etc.). It relates to the technical idea of providing information and control functions. The present invention requires only a small amount of data transmission and enables a highly reliable data transfer method to be executed in real time.
つまり、この意味では、接続150を介して送信されるデータ量により、画面をどのようにレイアウトするかについて、どのようなテキストを表示するのかについて、およびその他のスタイル情報(例えば、描画矢印、背景カラー、含まれるイメージなど)についての短い単純な命令で済む。
That is, in this sense, depending on the amount of data transmitted over
ホスト200の要求があれば、さらなるデータ(例えば、映像ストリームなど)が、同じ接続150またはその他の接続を介してストリーミングされて画面1010上に表示され得る。
If requested by the
本発明は、さらに、音声によって制御されるHSC100で、アプリケーション内において、コンテキストに敏感なまたはコンテキストを認識したオーバーレイを視ることを可能にする技術に関する。
The present invention further relates to a technique that allows a voice-controlled
具体的に述べると、データを画面表示で(over a visual)、コンテキストに依存しつつ、オンデマンドで提示するというのが、その考えである。ユーザは、音声コマンド(典型的には、「Show(表示)コマンド」)により、オーバーレイを呼び出すことができる。この音声コマンドは、システム100の標準コマンドであり、常に利用可能である。このコマンドは、HSC100に、適用可能な音声コマンドおよびその他の情報を、コンテキストに敏感に且つ直感的に表示させる。
Specifically, the idea is to present data on screen (over a visual) and on-demand, depending on context. The user can invoke the overlay with a voice command (typically a “Show command”). This voice command is a standard command of the
それら適用可能な音声コマンドは、ディスプレイユニット1010の、その時点での画面ビューにおいて、半透明のオーバーレイ上に示される。この構成により、ユーザは、そのオーバーレイを呼び出すための画面について、当該画面のコンテキストを維持することができる。
Those applicable voice commands are shown on the translucent overlay in the current screen view of the
これらオーバーレイおよび表示された適用可能なコマンドは、短時間後にフェードアウトする。これは、画面ビューをリフレッシュするタイミングメカニズムによって実現される。 These overlays and displayed applicable commands fade out after a short time. This is achieved by a timing mechanism that refreshes the screen view.
それら適用可能な音声コマンドは、関連性の順番で表示される。具体的に述べると、最も関連性の高いコマンドが、関連性の低いコマンドよりも目立って配置される。HSC100は、ディスプレイ1010のコンテンツの、その時点でのコンテキストに基づいて、関連性の程度(relevancy)を決定する。
These applicable voice commands are displayed in order of relevance. Specifically, the most relevant command is placed more prominently than the less relevant command. The
関連するシステムの各画面は、ユーザインターフェース(UI)の各種コンポーネントで構成される。これらコンポーネントの一部は「コントロール」である。コントロールとは、ユーザに情報を提供したり何らかの機能を可能にしたりする、UIのコンポーネントである。コントロールの例として、ボタン、ラジオボタン、テキストボックス、チェックボックス、ドロップダウンメニュー、ファイルメニュー、リボンメニュー、ライブタイルなどが挙げられる。これらは、ソフトウェアデベロッパーのコンポーネントライブラリ内に、利用可能なかたちで様々な形態で存在しており、所与の機能をカスタマイズすることを可能にする。このようなコントロールの一例として、「ボタン」は単純に、このボタン上に存在する音声コマンドをユーザが利用することで、当該ボタンを押すことを可能にする。この「ボタン」コントロールのような各種コントロールは、デベロッパーにとって利用可能なものであり、例えば、デベロッパーのコンポーネントライブラリの一部またはその他のライブラリの一部として利用可能である。具体的に述べると、デベロッパーは、始めから自らコントロールをコード化せずとも、予めコード化されたコントロールを挿入し、これを自分の趣向に合わせてカスタマイズすることができる。 Each screen of the related system is composed of various components of a user interface (UI). Some of these components are “controls”. A control is a component of a UI that provides information to a user or enables some function. Examples of controls include buttons, radio buttons, text boxes, check boxes, drop-down menus, file menus, ribbon menus, live tiles, and the like. These exist in a variety of forms in the software developer's component library that can be used to customize a given function. As an example of such a control, a “button” simply allows the user to press the button by using a voice command existing on the button. Various controls, such as this “button” control, are available to the developer, for example, as part of the developer's component library or as part of another library. Specifically, developers can insert pre-coded controls and customize them to suit their preferences without having to code the controls themselves from the start.
「Showコマンド」機能は、デベロッパーのライブラリ内のコントロールに組み込まれている。一例を挙げて説明するならば、デベロッパーが例えばボタンを作成して当該ボタン上に書き込むべきテキスト列を指定すると、そのテキスト列は、デベロッパー(またはユーザ)が音声コマンドを無効にしない限り、そのボタンをアクティベート(起動または活性化)するデフォルトの音声コマンドとなる。コントロール(例えば、上記ボタンなど)は、「Showコマンド」の音声コマンドに対し、当該コントロール上または当該コントロール近傍に、当該コントロールをアクティベートする語(word)のテキスト列をオーバーレイ表示することによって応答するように構成される。 The “Show Command” function is built into the controls in the developer's library. For example, if a developer creates a button and specifies a text string that should be written on the button, the text string is the button unless the developer (or user) disables the voice command. Is the default voice command that activates (activates or activates). A control (for example, the above button) responds to the voice command “Show command” by overlaying a text string of a word that activates the control on or near the control. Configured.
HSC100で利用可能な各ユーザインターフェース画面は、いずれも、「Showコマンド」の音声コマンド(例えば、デフォルトで利用可能なシステムコマンドなど)を受け付けることができる。すなわち、画面がUIのライブラリからのコントロールを用いて構築されるとき、どのような音声コマンドがユーザにとって利用可能なのかを案内するShowコマンド機能が組み込まれている。これらユーザにとって利用可能な音声コマンドは、(デフォルトで)その時点で表示されているコンテンツ(スクリーンビュー)のコンテキストで示される。
Each of the user interface screens that can be used in the
「Showコマンド」のオーバーレイ内には、表示されているまたは視覚可能なコントロールに関連付けられていない、その他の利用可能な音声コマンドも配置され得る。これらの音声コマンドはデベロッパーによって前記オーバーレイ内に配置され、音声コマンドオンリーのコントロールや隠れているコントロール(通常は非表示のコントロール)を追加するのに用いられ、具体的に述べると、ボタンまたはその他のコントロールに関連付けられていない音声コマンドの表示されているまたは視覚可能なキュー(cue:合図、指示等)を提供する。 Other available voice commands that are not associated with the displayed or visible control may also be placed within the “Show Command” overlay. These voice commands are placed in the overlay by the developer and used to add voice command-only controls or hidden controls (usually hidden controls), specifically buttons or other Provides a displayed or visible cue of voice commands not associated with a control (cue).
図3は、HSCで用いられるユーザインターフェース202の例示的な一実施形態を示す図表250である。この実施形態において、ユーザインターフェース202は、ユーザのインボックスを表示する電子メールアプリケーションである。各電子メールがリスト化され、第1〜第6の電子メールコントロール204a〜204fが示されている。ユーザは、各コントロールを選択することにより、各電子メールを開くことができる。各電子メールコントロール204a〜204fは、少なくともそれに対応する音声コマンドによって選択されるようにプログラムされている。 FIG. 3 is a diagram 250 illustrating an exemplary embodiment of a user interface 202 used in HSC. In this embodiment, the user interface 202 is an email application that displays the user's inbox. Each electronic mail is listed, and first to sixth electronic mail controls 204a to 204f are shown. The user can open each e-mail by selecting each control. Each email control 204a-204f is programmed to be selected by at least a corresponding voice command.
図4は、「Showコマンド」の音声コマンドを受け付けた後のユーザインターフェース302の例示的な一実施形態を示す図表300である。ユーザインターフェースは、図3の各電子メールコントロール204a〜204fにそれぞれ対応する音声コマンドを表示する。具体的に述べると、図4における第1〜第6の音声コマンド304a〜304fは、第1〜第6の電子メールコントロール204a〜204fにそれぞれ対応している。一例として、第1の音声コマンド304aを発話する(すなわち、「第1の電子メールを開く」等といった内容の発話をする)ことにより、HSC100に、リスト内の第1の電子メールを開かせることができる。
FIG. 4 is a diagram 300 illustrating an exemplary embodiment of the user interface 302 after receiving a “Show command” voice command. The user interface displays voice commands corresponding to the respective email controls 204a to 204f in FIG. Specifically, the first to sixth voice commands 304a to 304f in FIG. 4 correspond to the first to sixth electronic mail controls 204a to 204f, respectively. As an example, by uttering the first voice command 304a (ie, uttering content such as “open first email”), the
「Showコマンド」モードのユーザインターフェース302には、さらに、第1〜第9の暗示的なまたは対応付けなどの条件のない(implicit)音声コマンド306a〜306iが複数示されている。これら第1〜第9の暗示的な音声コマンド306a〜306iは、ユーザインターフェースで表示されているまたは視覚可能な、どの特定のコントロールにも対応していない(例えば、前記電子メールコントロールに対応していない)ものの、ユーザにとって利用可能な音声コマンドである。幾つかの例を挙げるならば、ユーザは、第1の暗示的な音声コマンド306aを発話することによって前のページに移動することができ、第2の暗示的な音声コマンド306bを発話することによって次のページに移動することができる。また、ユーザは、第3の暗示的なコマンド306cを発話することによって電子メールを作成することができる。また、ユーザは、第4の暗示的なコマンド306dを発話することによって自身の電子メールアカウントを管理することができる。また、ユーザは、第5の暗示的なコマンド306eを発話することによって自身のアカウントを閲覧することができる。また、ユーザは、第6の暗示的な音声コマンド306fを発話することによってフォルダを切り替えることができる。また、ユーザは、第7の暗示的な音声コマンド306gを発話することによってインボックスをリフレッシュすることができる。
The user interface 302 in the “Show command” mode further includes a plurality of first to ninth implicit or implicit voice commands 306a to 306i. These first through ninth implicit voice commands 306a-306i do not correspond to any particular control displayed or visible on the user interface (eg, corresponding to the email control). This is a voice command available to the user. To give some examples, the user can move to the previous page by speaking the first
また、ユーザは、第8の暗示的な音声コマンド306hを発話することによって前の画面に戻ることができる。また、ユーザは、第9の暗示的な音声コマンド306iを発話することによってホーム画面に戻ることができる。第8および第9の暗示的な音声コマンドは、HSC100のどの画面においてもユニバーサル(汎用的)なまたはアプリケーションに依存しないコマンドである。その一方で、第1〜第6の音声コマンド304a〜304fおよび第1〜第7の暗示的な音声コマンド306a〜306gは、この特定のアプリケーション(ここではメールアプリケーション)内でのローカル(局所的)なコマンドである。しかし、他の実施形態では、第1および第2の暗示的な音声コマンド306a,306bが、アプリケーション内での、前のページおよび次のページに移動するためのグローバル(広域的)なコマンドとされ得る。
The user can also return to the previous screen by speaking the eighth implicit voice command 306h. In addition, the user can return to the home screen by speaking the ninth implicit voice command 306i. The eighth and ninth implicit voice commands are universal (general purpose) or application-independent commands on any screen of the
このような音声コマンドによるオーバーレイは、画面上のオプションやボタンを整理することになるので、ユーザを支援することができる。さらに、音声コマンドにより、ユーザにシステムをどのように使用するのかの把握を促す一助とできる。このことは、デバイスおよび音声コマンドの利用方法をユーザが覚える際に特に有用である。 Such overlay by voice command organizes the options and buttons on the screen, which can assist the user. Further, the voice command can help the user to grasp how to use the system. This is particularly useful when the user learns how to use the device and voice commands.
図5は、本発明で用いられる方法の例示的な一実施形態を示すフロー図500である。まず、この方法は、ヘッドセットコンピュータにユーザインターフェースを提供する(過程502)。次に、この方法は、前出のキューとなるトグルコマンドを、例えばユーザの発話から音声手段を介して受け取ったか否かを判断する(過程504)。この方法は、その判断結果が否定である場合、引き続きキュー・トグルコマンドの入力を待つ(過程504)。この方法は、その判断結果が肯定である場合には、少なくとも1つのキューを前記ユーザインターフェースに表示する(過程506)。各キューには、それぞれ対応する音声コマンドが関連付けられている。この音声コマンドは、発話されると、システムにコードまたはプログラム(code)を実行させる。 FIG. 5 is a flow diagram 500 illustrating an exemplary embodiment of a method used in the present invention. Initially, the method provides a user interface to the headset computer (step 502). Next, this method determines whether or not the toggle command to be the above queue has been received, for example, from the user's utterance via voice means (step 504). If the determination result is negative, the method continues to wait for input of a queue / toggle command (step 504). If the determination is affirmative, the method displays at least one queue on the user interface (step 506). Each cue is associated with a corresponding voice command. This voice command, when spoken, causes the system to execute a code or code.
次に、システムは、音声コマンド(例えば、前記キューのうちの一つにより示された音声コマンドなど)を受け取ったか否かを判断する(過程508)。システムは、その判断結果が否定である場合、引き続き音声コマンドの入力を待つ(過程508)。システムは、その判断結果が肯定である場合には、受け取った音声コマンドに関連付けられたコードまたはプログラムを実行する(過程510)。 Next, the system determines whether a voice command (eg, a voice command indicated by one of the queues) has been received (step 508). If the determination is negative, the system continues to wait for input of a voice command (step 508). If the determination is positive, the system executes the code or program associated with the received voice command (step 510).
図6に、本発明を実現し得るコンピュータネットワークまたは同様のデジタル処理環境を示す。 FIG. 6 illustrates a computer network or similar digital processing environment in which the present invention may be implemented.
少なくとも1つのクライアント側コンピュータ/端末50および少なくとも1つのサーバコンピュータが、アプリケーションプログラム等を実行する処理装置、記憶装置および入出力装置などを実現し得る。少なくとも1つのクライアント側コンピュータ/端末50は、通信ネットワーク70を介して別のコンピューティングデバイス(別のクライアント側端末/処理装置50および少なくとも1つの別のサーバコンピュータ60が含まれ得る)に接続可能である。通信ネットワーク70は、リモートアクセスネットワークの一部、グローバルネットワーク(例えば、インターネットなど)の一部、世界規模のコンピュータの集合の一部、ローカルエリアネットワークの一部、ワイドエリアネットワークの一部、あるいは、一般に各種プロトコル(TCP/IP、Bluetooth(登録商標)など)を用いて相互通信するゲートウェイの一部であり得る。それ以外の電子デバイス/コンピュータネットワークアーキテクチャも使用可能である。
At least one client-side computer /
図7は、図6のコンピュータシステムに含まれるコンピュータ(例えば、クライアント側処理装置/端末50、サーバコンピュータ60など)の内部構造を示す図である。各コンピュータ50,60は、システムバス79を備える。バスは、コンピュータ(または処理システム)の構成要素間のデータ転送に用いられるハードウェアラインのセットからなる。また、バス79は、本質的には、コンピュータシステムにおける相異なる構成要素(例えば、プロセッサ、ディスクストレージ、メモリ、入力/出力ポート、ネットワークポートなど)同士を接続する共有の配管のようなものであり、それら構成要素間の情報のやり取りを可能にする。システムバス79には、様々な入出力装置(例えば、キーボード、マウス、ディスプレイ、プリンタ、スピーカなど)をコンピュータ50,60に接続するためのI/O装置インターフェース82が取り付けられている。ネットワークインターフェース86は、コンピュータがネットワーク(例えば、図6のネットワーク70など)に取り付けられた他の様々な装置/端末/デバイスに接続することを可能にする。メモリ90は、本発明の一実施形態(例えば、前述したユーザインターフェースコード内の、コンテキストに敏感なまたはコンテキストを認識したオーバーレイなど)を実現するのに用いられるコンピュータソフトウェア命令92およびデータ94を記憶する揮発性メモリである。ディスクストレージ95は、本発明の一実施形態を実施するのに用いられるコンピュータソフトウェア命令92およびデータ94を記憶する不揮発性ストレージである。システムバス79には、さらに、コンピュータ命令を実行する中央演算処理装置84も取り付けられている。
FIG. 7 is a diagram showing an internal structure of a computer (for example, the client side processing apparatus /
一実施形態において、プロセッサのルーチン92およびデータ94は、本発明にかかるシステムに対するソフトウェア命令の少なくとも一部を提供するコンピュータプログラムプロダクト(概して符号92で示す)である。コンピュータプログラムプロダクト92には、コンピュータ読み取り可能な媒体(例えば、少なくとも1つのDVD−ROM、少なくとも1つのCD−ROM、少なくとも1つのディスク、少なくとも1つのテープ等といった取外し可能な記憶媒体など)が含まれる。コンピュータプログラムプロダクト92は、当該技術分野において周知である任意の適切なソフトウェアインストール方法によってインストール可能なものであり得る。他の実施形態において、前記ソフトウェア命令の少なくとも一部は、ケーブル接続および/または通信接続、および/または無線接続を介してダウンロード可能なものであり得る。さらなる他の実施形態において、本発明にかかるプログラムは、伝播媒体上の伝播信号(例えば、無線波、赤外線波、レーザ波、音波、インターネット等といったグローバルネットワークやその他の少なくとも1つのネットワークによって伝播される電気波動など)によって実現される、伝播信号によるコンピュータプログラムプロダクト107である。このような搬送媒体または搬送信号が、本発明にかかるルーチン/プログラム92用のソフトウェア命令の少なくとも一部を提供する。
In one embodiment, the processor routines 92 and
さらなる他の実施形態において、前記伝播信号は、伝播媒体上を搬送されるアナログ搬送波またはデジタル信号である。例えば、前記伝播信号は、グローバルネットワーク(例えば、インターネットなど)、電気通信ネットワークまたはその他のネットワーク上を搬送されるデジタル信号であり得る。一実施形態において、前記伝播信号は、所与の期間のあいだ伝播媒体上を送信される信号であり、例えば、数ミリ秒、数秒、数分またはそれ以上の期間のあいだネットワーク上をパケットで送信される、ソフトウェアアプリケーション用の命令などであり得る。他の実施形態において、コンピュータプログラムプロダクト92の前記コンピュータ読み取り可能な媒体は、コンピュータシステム50が受け取って読み取り可能な伝播媒体である。例えば、コンピュータシステム50は、前述した伝播信号によるコンピュータプログラムプロダクトの場合のように、伝播媒体を受け取ってその伝播媒体内に組み込まれた伝播信号を特定する。
In yet another embodiment, the propagation signal is an analog carrier wave or digital signal carried on a propagation medium. For example, the propagated signal may be a digital signal carried over a global network (eg, the Internet, etc.), a telecommunications network, or other network. In one embodiment, the propagated signal is a signal transmitted over a propagation medium for a given period of time, for example, transmitted in packets over a network for a period of several milliseconds, seconds, minutes or more. Instructions for software applications, etc. In another embodiment, the computer readable medium of computer program product 92 is a propagation medium that can be received and read by
一般的に言って、「搬送媒体」や過渡的または一時的なキャリアという用語は、前述したような過渡的なまたは一時的な信号、伝播信号、伝播媒体、記憶媒体、およびその他を包含する用語である。 Generally speaking, the term “carrier medium” or transient or temporary carrier is a term encompassing transient or transient signals, propagation signals, propagation media, storage media, and others as described above. It is.
本発明を例示的な実施形態を参照しながら具体的に図示・説明したが、当業者であれば、添付の特許請求の範囲に包含される本発明の範囲から逸脱することなく、形態および細部の詳細な変更が可能であることを理解するであろう。
なお、本発明は、実施の態様として以下の内容を含む。
[態様1]
ヘッドセットコンピュータにユーザインターフェースを提供する過程と、
ユーザのキュー・トグルコマンドの発話に応答して、少なくとも1つのキューを前記ユーザインターフェースに表示する過程であって、各キューは、実行すべきコードが関連付けられた音声コマンドにそれぞれ対応する、過程と、
ユーザの前記音声コマンドの発話に応答して、当該音声コマンドに関連付けられた前記コードを実行する過程と、
を含む、方法。
[態様2]
態様1に記載の方法において、さらに、
前記キュー・トグルコマンドの前および次のキュー・トグルコマンドの後のうちの少なくとも一方において、前記インターフェースを前記キューなしで表示する過程、
を含む、方法。
[態様3]
態様1に記載の方法において、前記キューを表示する過程が、前記音声コマンドをアクティベートする語を表示することを含む、方法。
[態様4]
態様1に記載の方法において、前記キューを表示する過程が、前記ユーザインターフェースに表示されているコントロールに関連付けられた前記音声コマンドに対応する前記キューを、当該ユーザインターフェースに表示することを含む、方法。
[態様5]
態様1に記載の方法において、前記キューを表示する過程が、前記ユーザインターフェースから隠れているコントロールに関連付けられた前記音声コマンドに対応する前記キューを、当該ユーザインターフェースに表示することを含む、方法。
[態様6]
態様1に記載の方法において、前記キューを表示する過程が、グローバルなヘッドセットのコントロールに関連付けられた前記音声コマンドに対応する前記キューを、前記ユー
ザインターフェースに表示することを含む、方法。
[態様7]
態様1に記載の方法において、前記キューが、当該キューと前記音声コマンドとを示すコントロールからロードされる、方法。
[態様8]
ヘッドセットコンピュータにユーザインターフェースを表示するシステムであって、
ヘッドセットコンピュータにユーザインターフェースを提供し、さらに、ユーザのキュー・トグルコマンドの発話に応答して、少なくとも1つのキューを前記ユーザインターフェースに表示する表示手段であって、各キューは、実行すべきコードが関連付けられた音声コマンドにそれぞれ対応する、表示手段と、
ユーザの前記音声コマンドの発話に応答して、当該音声コマンドに関連付けられた前記コードを実行するコマンド手段と、
を備える、システム。
[態様9]
態様8に記載のシステムにおいて、前記表示手段が、さらに、前記キュー・トグルコマンドの前および次のキュー・トグルコマンドの後のうちの少なくとも一方において、前記インターフェースを前記キューなしで表示する、システム。
[態様10]
態様8に記載のシステムにおいて、前記表示手段が、さらに、前記音声コマンドをアクティベートする語を表示する、システム。
[態様11]
態様8に記載のシステムにおいて、前記表示手段が、さらに、前記ユーザインターフェースに表示されているコントロールに関連付けられた音声コマンドに対応するキューを、当該ユーザインターフェースに表示する、システム。
[態様12]
態様8に記載のシステムにおいて、前記表示手段が、さらに、前記ユーザインターフェースから隠れているコントロールに関連付けられた前記音声コマンドに対応する前記キューを、当該ユーザインターフェースに表示する、システム。
[態様13]
態様8に記載のシステムにおいて、前記表示手段が、さらに、グローバルなヘッドセットのコントロールに関連付けられた前記音声コマンドに対応する前記キューを、前記ユーザインターフェースに表示する、システム。
[態様14]
態様8に記載のシステムにおいて、前記キューが、当該キューと前記音声コマンドとを示すコントロールからロードされる、システム。
[態様15]
ヘッドセットコンピュータにユーザインターフェースを展開する方法であって、
前記ユーザインターフェース用のコントロールに、キューおよび音声コマンドを埋め込む過程と、
前記コントロールを前記ユーザインターフェースに提供する過程であって、当該ユーザインターフェースは、キュー・トグルコマンドに応答した前記キューを表示する過程と、
を含む、方法。
[態様16]
態様15に記載の方法において、前記キューが、前記音声コマンドをアクティベートする語を含む、方法。
[態様17]
態様15に記載の方法において、前記キューが、前記ユーザインターフェースに表示されているコントロールに関連付けられた前記音声コマンドに対応する、方法。
[態様18]
態様15に記載の方法において、前記キューが、前記ユーザインターフェースから隠れ
ているコントロールに関連付けられた前記音声コマンドに対応する、方法。
[態様19]
態様15に記載の方法において、前記キューが、グローバルなヘッドセットのコントロールに関連付けられた前記音声コマンドに対応する、方法。
[態様20]
態様15に記載の方法において、前記キューが、当該キューと前記音声コマンドとを示すコントロールからロードされる、方法。
While the invention has been illustrated and described with reference to illustrative embodiments, workers skilled in the art will recognize that the invention is capable of form and detail without departing from the scope of the invention as encompassed by the appended claims. It will be understood that detailed modifications of are possible.
In addition, this invention contains the following content as an aspect.
[Aspect 1]
Providing a user interface to the headset computer;
Displaying at least one cue on the user interface in response to a user cue / toggle command utterance, each cue corresponding to a voice command associated with a code to be executed; and ,
Executing the code associated with the voice command in response to an utterance of the voice command of the user;
Including a method.
[Aspect 2]
The method according to
Displaying the interface without the queue before at least one of the queue-toggle command and after the next queue-toggle command;
Including a method.
[Aspect 3]
The method of
[Aspect 4]
The method of
[Aspect 5]
The method of
[Aspect 6]
The method of
[Aspect 7]
The method of
[Aspect 8]
A system for displaying a user interface on a headset computer,
Display means for providing a user interface to the headset computer and further displaying at least one cue on the user interface in response to a user cue / toggle command utterance, wherein each cue includes code to be executed Display means respectively corresponding to voice commands associated with
Command means for executing the code associated with the voice command in response to the utterance of the voice command of the user;
A system comprising:
[Aspect 9]
9. The system according to aspect 8, wherein the display means further displays the interface without the queue at least one of before the queue / toggle command and after the next queue / toggle command.
[Aspect 10]
9. The system according to aspect 8, wherein the display means further displays a word that activates the voice command.
[Aspect 11]
9. The system according to aspect 8, wherein the display means further displays a cue corresponding to a voice command associated with a control displayed on the user interface on the user interface.
[Aspect 12]
9. The system according to aspect 8, wherein the display means further displays the cue corresponding to the voice command associated with a control hidden from the user interface on the user interface.
[Aspect 13]
9. The system according to aspect 8, wherein the display means further displays the cue corresponding to the voice command associated with global headset control on the user interface.
[Aspect 14]
9. The system according to aspect 8, wherein the cue is loaded from a control indicating the cue and the voice command.
[Aspect 15]
A method of deploying a user interface on a headset computer,
Embedding cues and voice commands in the user interface controls;
Providing the control to the user interface, the user interface displaying the queue in response to a queue toggle command;
Including a method.
[Aspect 16]
16. The method of aspect 15, wherein the cue includes a word that activates the voice command.
[Aspect 17]
16. The method of aspect 15, wherein the cue corresponds to the voice command associated with a control displayed on the user interface.
[Aspect 18]
16. The method of aspect 15, wherein the cue corresponds to the voice command associated with a control hidden from the user interface.
[Aspect 19]
16. The method of aspect 15, wherein the cue corresponds to the voice command associated with a global headset control.
[Aspect 20]
16. The method of aspect 15, wherein the cue is loaded from a control that indicates the cue and the voice command.
Claims (20)
ユーザのキュー・トグルコマンドの発話に応答して、少なくとも1つのキューの半透明のオーバーレイを前記提供されたユーザインターフェースに表示する過程であって、各キューは、前記ユーザインターフェースにおいて、少なくとも1つのコントロールを実行するコードが関連付けられた音声コマンドにそれぞれ対応する、過程と、
ユーザの前記音声コマンドの発話に応答して、当該音声コマンドに関連付けられた前記コードを実行する過程と、
を含む、方法。 Providing a headset computer with a user interface having at least one control;
In response to the utterance of a user cue / toggle command, displaying a translucent overlay of at least one cue on the provided user interface, each cue being at least one control in the user interface Processes corresponding to each voice command with associated code
Executing the code associated with the voice command in response to an utterance of the voice command of the user;
Including a method.
前記キュー・トグルコマンドの前および次のキュー・トグルコマンドの後のうちの少なくとも一方において、前記インターフェースを前記キューなしで表示する過程、
を含む、方法。 The method of claim 1, further comprising:
Displaying the interface without the queue before at least one of the queue-toggle command and after the next queue-toggle command;
Including a method.
ヘッドセットコンピュータに、少なくとも1つのコントロールを有するユーザインターフェースを提供し、さらに、ユーザのキュー・トグルコマンドの発話に応答して、少なくとも1つのキューの半透明のオーバーレイを前記提供されたユーザインターフェースに表示する表示手段であって、各キューは、前記ユーザインターフェースにおいて、少なくとも1つのコントロールを実行するコードが関連付けられた音声コマンドにそれぞれ対応する、表示手段と、
ユーザの前記音声コマンドの発話に応答して、当該音声コマンドに関連付けられた前記コードを実行するコマンド手段と、
を備える、システム。 A system for displaying a user interface on a headset computer,
Providing a headset computer with a user interface having at least one control, and further displaying a translucent overlay of at least one cue on the provided user interface in response to the utterance of the user's cue / toggle command Display means, each queue corresponding to a voice command associated with a code for executing at least one control in the user interface;
Command means for executing the code associated with the voice command in response to the utterance of the voice command of the user;
A system comprising:
前記ユーザインターフェース用のコントロールに、キューおよび音声コマンドを埋め込む過程と、
前記コントロールを前記ユーザインターフェースに提供する過程であって、当該ユーザインターフェースは、キュー・トグルコマンドに応答した前記キューの半透明のオーバーレイを表示する過程と、
を含む、方法。 A method of deploying a user interface on a headset computer,
Embedding cues and voice commands in the user interface controls;
Providing the control to the user interface, the user interface displaying a translucent overlay of the cue in response to a cue toggle command;
Including a method.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361749240P | 2013-01-04 | 2013-01-04 | |
US61/749,240 | 2013-01-04 | ||
US13/799,790 | 2013-03-13 | ||
US13/799,790 US10013976B2 (en) | 2010-09-20 | 2013-03-13 | Context sensitive overlays in voice controlled headset computer displays |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015551666A Division JP2016508271A (en) | 2013-01-04 | 2013-05-15 | Controllable headset computer display |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018032440A true JP2018032440A (en) | 2018-03-01 |
Family
ID=48614125
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015551666A Pending JP2016508271A (en) | 2013-01-04 | 2013-05-15 | Controllable headset computer display |
JP2017222885A Pending JP2018032440A (en) | 2013-01-04 | 2017-11-20 | Controllable headset computer displays |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015551666A Pending JP2016508271A (en) | 2013-01-04 | 2013-05-15 | Controllable headset computer display |
Country Status (4)
Country | Link |
---|---|
EP (1) | EP2941690A1 (en) |
JP (2) | JP2016508271A (en) |
CN (1) | CN104981767A (en) |
WO (1) | WO2014107186A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10474418B2 (en) | 2008-01-04 | 2019-11-12 | BlueRadios, Inc. | Head worn wireless computer having high-resolution display suitable for use as a mobile internet device |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105070288B (en) * | 2015-07-02 | 2018-08-07 | 百度在线网络技术(北京)有限公司 | Vehicle-mounted voice instruction identification method and device |
CN107832036B (en) * | 2017-11-22 | 2022-01-18 | 北京小米移动软件有限公司 | Voice control method, device and computer readable storage medium |
KR102509465B1 (en) | 2018-05-07 | 2023-03-14 | 구글 엘엘씨 | Method, system, and apparatus for providing a complex graphical assistant interface for controlling a connected device |
JP2022036352A (en) * | 2018-12-27 | 2022-03-08 | ソニーグループ株式会社 | Display control device, and display control method |
JP2022045262A (en) * | 2020-09-08 | 2022-03-18 | シャープ株式会社 | Speech processing system, speech processing method, and speech processing program |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0284686A (en) * | 1988-09-21 | 1990-03-26 | Matsushita Electric Ind Co Ltd | Image sound output device |
JP2000215022A (en) * | 1998-12-17 | 2000-08-04 | Internatl Business Mach Corp <Ibm> | Computer control interactive display system, voice command input method, and recording medium |
JP2004054879A (en) * | 2002-05-27 | 2004-02-19 | Sony Corp | Display device and display method |
JP2005352619A (en) * | 2004-06-09 | 2005-12-22 | Fujitsu Ten Ltd | Function selector |
JP2011511935A (en) * | 2008-01-14 | 2011-04-14 | ガーミン スウィッツァランド ゲーエムベーハー | Dynamic user interface for automatic speech recognition |
US20110187640A1 (en) * | 2009-05-08 | 2011-08-04 | Kopin Corporation | Wireless Hands-Free Computing Headset With Detachable Accessories Controllable by Motion, Body Gesture and/or Vocal Commands |
WO2012025956A1 (en) * | 2010-08-25 | 2012-03-01 | 三菱電機株式会社 | Navigation apparatus |
US20120068914A1 (en) * | 2010-09-20 | 2012-03-22 | Kopin Corporation | Miniature communications gateway for head mounted display |
WO2012040107A1 (en) * | 2010-09-20 | 2012-03-29 | Kopin Corporation | Advanced remote control of host application using motion and voice commands |
US20120110456A1 (en) * | 2010-11-01 | 2012-05-03 | Microsoft Corporation | Integrated voice command modal user interface |
JP2012174149A (en) * | 2011-02-24 | 2012-09-10 | Seiko Epson Corp | Information processor, control method of information processor, and transmission type head-mounted display device |
JP2012533055A (en) * | 2009-07-09 | 2012-12-20 | トムトム インターナショナル ベスローテン フエンノートシャップ | Navigation apparatus and method for time dependence of route calculation |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2388209C (en) * | 2001-12-20 | 2005-08-23 | Canon Kk | Control apparatus |
JP4135520B2 (en) * | 2003-01-29 | 2008-08-20 | トヨタ自動車株式会社 | Vehicle communication device |
WO2011097226A1 (en) * | 2010-02-02 | 2011-08-11 | Kopin Corporation | Wireless hands-free computing headset with detachable accessories controllable by motion, body gesture and/or vocal commands |
-
2013
- 2013-05-15 EP EP13728571.4A patent/EP2941690A1/en not_active Ceased
- 2013-05-15 JP JP2015551666A patent/JP2016508271A/en active Pending
- 2013-05-15 CN CN201380072806.5A patent/CN104981767A/en active Pending
- 2013-05-15 WO PCT/US2013/041070 patent/WO2014107186A1/en active Application Filing
-
2017
- 2017-11-20 JP JP2017222885A patent/JP2018032440A/en active Pending
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0284686A (en) * | 1988-09-21 | 1990-03-26 | Matsushita Electric Ind Co Ltd | Image sound output device |
JP2000215022A (en) * | 1998-12-17 | 2000-08-04 | Internatl Business Mach Corp <Ibm> | Computer control interactive display system, voice command input method, and recording medium |
JP2004054879A (en) * | 2002-05-27 | 2004-02-19 | Sony Corp | Display device and display method |
JP2005352619A (en) * | 2004-06-09 | 2005-12-22 | Fujitsu Ten Ltd | Function selector |
JP2011511935A (en) * | 2008-01-14 | 2011-04-14 | ガーミン スウィッツァランド ゲーエムベーハー | Dynamic user interface for automatic speech recognition |
US20110187640A1 (en) * | 2009-05-08 | 2011-08-04 | Kopin Corporation | Wireless Hands-Free Computing Headset With Detachable Accessories Controllable by Motion, Body Gesture and/or Vocal Commands |
JP2012533055A (en) * | 2009-07-09 | 2012-12-20 | トムトム インターナショナル ベスローテン フエンノートシャップ | Navigation apparatus and method for time dependence of route calculation |
WO2012025956A1 (en) * | 2010-08-25 | 2012-03-01 | 三菱電機株式会社 | Navigation apparatus |
WO2012040107A1 (en) * | 2010-09-20 | 2012-03-29 | Kopin Corporation | Advanced remote control of host application using motion and voice commands |
US20120068914A1 (en) * | 2010-09-20 | 2012-03-22 | Kopin Corporation | Miniature communications gateway for head mounted display |
JP2013541092A (en) * | 2010-09-20 | 2013-11-07 | コピン コーポレーション | Advanced remote control of host applications using movement and voice commands |
US20120110456A1 (en) * | 2010-11-01 | 2012-05-03 | Microsoft Corporation | Integrated voice command modal user interface |
JP2012174149A (en) * | 2011-02-24 | 2012-09-10 | Seiko Epson Corp | Information processor, control method of information processor, and transmission type head-mounted display device |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10474418B2 (en) | 2008-01-04 | 2019-11-12 | BlueRadios, Inc. | Head worn wireless computer having high-resolution display suitable for use as a mobile internet device |
US10579324B2 (en) | 2008-01-04 | 2020-03-03 | BlueRadios, Inc. | Head worn wireless computer having high-resolution display suitable for use as a mobile internet device |
Also Published As
Publication number | Publication date |
---|---|
WO2014107186A1 (en) | 2014-07-10 |
CN104981767A (en) | 2015-10-14 |
JP2016508271A (en) | 2016-03-17 |
EP2941690A1 (en) | 2015-11-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10013976B2 (en) | Context sensitive overlays in voice controlled headset computer displays | |
JP6419262B2 (en) | Headset computer (HSC) as an auxiliary display with ASR and HT inputs | |
US9122307B2 (en) | Advanced remote control of host application using motion and voice commands | |
US9134793B2 (en) | Headset computer with head tracking input used for inertial control | |
US9378028B2 (en) | Headset computer (HSC) with docking station and dual personality | |
US9383816B2 (en) | Text selection using HMD head-tracker and voice-command | |
US20180210544A1 (en) | Head Tracking Based Gesture Control Techniques For Head Mounted Displays | |
JP2018032440A (en) | Controllable headset computer displays | |
US9500867B2 (en) | Head-tracking based selection technique for head mounted displays (HMD) | |
US20150220142A1 (en) | Head-Tracking Based Technique for Moving On-Screen Objects on Head Mounted Displays (HMD) | |
US20110001699A1 (en) | Remote control of host application using motion and voice commands | |
JP6545174B2 (en) | User configurable speech commands | |
US20190279636A1 (en) | Context Sensitive Overlays in Voice Controlled Headset Computer Displays |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171121 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171121 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180823 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180828 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190402 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190620 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191029 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200526 |