[go: up one dir, main page]

JP2020502719A - Hands-free navigation of touch operation system - Google Patents

Hands-free navigation of touch operation system Download PDF

Info

Publication number
JP2020502719A
JP2020502719A JP2019555417A JP2019555417A JP2020502719A JP 2020502719 A JP2020502719 A JP 2020502719A JP 2019555417 A JP2019555417 A JP 2019555417A JP 2019555417 A JP2019555417 A JP 2019555417A JP 2020502719 A JP2020502719 A JP 2020502719A
Authority
JP
Japan
Prior art keywords
touch
hands
computing device
user interface
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019555417A
Other languages
Japanese (ja)
Other versions
JP2020502719A5 (en
JP7334120B2 (en
Inventor
パーキンソン,クリストファー・イアン
Original Assignee
リアルウェア,インコーポレーテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by リアルウェア,インコーポレーテッド filed Critical リアルウェア,インコーポレーテッド
Publication of JP2020502719A publication Critical patent/JP2020502719A/en
Publication of JP2020502719A5 publication Critical patent/JP2020502719A5/ja
Application granted granted Critical
Publication of JP7334120B2 publication Critical patent/JP7334120B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/3287Power saving characterised by the action undertaken by switching off individual functional units in the computer system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本発明の態様は、タッチ式オペレーティングシステムのハンズフリーナビゲーションを可能にする。システムは、タッチ式オペレーティングシステムと自動的に相互作用し、タッチ式コマンドに関連付けられたハンズフリーコマンドを生成できる。実施形態は、モーションおよび/または音声入力を利用して、タッチ式オペレーティングシステムとのハンズフリー対話を促進することができる。【選択図】図1Aspects of the invention allow for hands-free navigation of a touch-based operating system. The system can automatically interact with the touch-based operating system and generate a hands-free command associated with the touch-based command. Embodiments can utilize motion and / or voice input to facilitate hands-free interaction with a touch-based operating system. [Selection diagram] Fig. 1

Description

スマートフォン、タブレット、ラップトップなどのタッチ式デバイスは、日常生活のいたるところにある側面となっている。たとえば、スマートフォンやタブレット上のアプリケーションを使用して、人が社会的交流を組織して指揮することが一般的になっている。さらに、企業は、従業員とのコミュニケーション、仕事の監視、およびプロジェクトデータのレビューなど、他のさまざまな用途の中でも、タッチ式デバイスにしばしば頼っている。タッチ式デバイスは典型的に、タッチ式オペレーティングシステム(Andoroid(登録商標)又はiOS(登録商標)など)を実行する。これは本質的に、タッチ式入力に依存してオペレーティングシステムとの対話を制御する。これらのデバイスは便利で価値があるが、すべて同じ制限がある。つまり、根本的に、ユーザは、デバイスと直接手動で対話する必要がある。   Touch devices such as smartphones, tablets, and laptops are aspects of everyday life. For example, it has become common for people to organize and direct social interaction using applications on smartphones and tablets. In addition, companies often rely on touch devices, among other various applications, such as communicating with employees, monitoring work, and reviewing project data. Touch devices typically run a touch operating system (such as Android® or iOS®). It essentially relies on touch-based input to control interaction with the operating system. These devices are convenient and valuable, but all have the same limitations. In essence, the user needs to manually interact directly with the device.

たとえば、タッチ式オペレーティングシステムは現在、テキスト入力を受け付けるために仮想キーボードに主に依存している。仮想キーボードは、単語を一度に1文字ずつ入力しなければならない比較的小さなボタンを持つことが多く、中程度の長さでさえメッセージを入力するには時間がかかり、実用的ではないことがある。いくつかのタッチ式オペレーティングシステムは、テキストを単語に翻訳するための音声認識を提供するが、そうした音声認識はしばしばインターネット接続を必要とし、それは常に利用可能であるとは限らない。さらに、たとえ音声認識が利用可能であっても、それは一般にテキスト入力に限定され、タッチ式オペレーティングシステムは、アプリケーション内のユーザインターフェースをナビゲートして複数のアプリケーション間をナビゲートするためのメカニズムをほとんど提供しない。例えば、タッチ式オペレーティングシステムにおいて複数ページの文書をナビゲートするには、一般に、水平にナビゲートするためにスクロールバーでスクリーンに触れること、またはスクロールするためにスクリーンを「スワイプ」することをユーザに要求する。   For example, touch-based operating systems currently rely primarily on virtual keyboards to accept text input. Virtual keyboards often have relatively small buttons that require you to enter words one character at a time, and entering a message even at a medium length can be time consuming and impractical . Some touch-based operating systems provide speech recognition for translating text into words, but such speech recognition often requires an Internet connection, which is not always available. In addition, even if speech recognition is available, it is generally limited to text input, and touch-based operating systems provide a mechanism for navigating the user interface within an application and navigating between multiple applications. Do not provide. For example, navigating a multi-page document in a touch-based operating system typically requires the user to touch the screen with a scroll bar to navigate horizontally or to "swipe" the screen to scroll. Request.

しかしながら、ユーザは、手動でのタッチ式の対話ができない、困難、または不可能である期間中にこれらの装置を使用することを望む(または必要とする)かもしれない。例えば、多くの個人は、そうすることを必要とする又は望んだとしても、タッチ式デバイスと物理的に対話する能力を持っていないかもしれない。さらに、ユーザがタッチ式デバイスと物理的に対話できる場合でも、環境上の制限により、安全または快適な方法でデバイスとの手動の対話が制限される場合がある。さらに、ユーザが自分の手を必要とするタスクに従事している間に、タッチ式デバイスの機能にアクセスすることが望ましい場合がある。   However, a user may wish (or need) to use these devices during periods when manual touch interaction is not possible, difficult, or impossible. For example, many individuals may not have the ability to physically interact with a touch-sensitive device if they need or want to do so. Further, even if a user can physically interact with the touch-sensitive device, environmental restrictions may limit manual interaction with the device in a safe or comfortable manner. Further, it may be desirable to access the features of the touch-sensitive device while the user is engaged in a task that requires his or her hand.

これらの問題を解決するためのこれまでの試みは、煩雑で柔軟性のないユーザ経験を提供する、高度に特殊化された専用デバイスまたはプロセスにしばしば依存していた。さらに、以前の解決策は、アプリケーションがハンズフリー入力源と調和するように、タッチ式オペレーティングシステム用に設計された既存のアプリケーションからのソースコードの修正を必要とした。また、タッチフリーの解決策を利用にするために、すべてのタッチ式アプリケーションを変更することは現実的ではない。したがって、既存の解決策は、いくつかの選択されたタッチ式アプリケーションとしか協調できなかった。さらに、従来の解決策は、タッチ式オペレーティングシステム自体との対話を可能にしておらず、代わりにオペレーティングシステムに頼っていた。結果として、従来の解決策は、一般に、既存のおよび広く採用されているタッチ式オペレーティングシステムとの対話を可能にするのではなく、まったく新しいオペレーティング環境を学習しなければならないことをユーザに要求していた。   Previous attempts to solve these problems have often relied on highly specialized specialized devices or processes that provide a cumbersome and inflexible user experience. In addition, previous solutions required modification of source code from existing applications designed for touch-based operating systems so that the applications would be compatible with hands-free input sources. Also, it is not practical to change all touch-based applications to take advantage of touch-free solutions. Therefore, existing solutions could only work with some selected touch-based applications. Further, prior solutions did not allow interaction with the touch-based operating system itself, but instead relied on the operating system. As a result, conventional solutions generally require users to learn an entirely new operating environment, rather than enable interaction with existing and widely adopted touch-based operating systems. I was

この概要は、本開示の詳細な説明の節で以下にさらに説明される概念の抜粋を簡略化された形で紹介することを意図している。この概要は、特許請求の範囲に記載された主題の重要なまたは本質的な特徴を特定することを意図しておらず、特許請求の範囲に記載の主題の範囲を判断する際の補助として使用することも意図していない。   This summary is intended to introduce, in a simplified form, an excerpt of the concepts further described below in the Detailed Description section of the present disclosure. This summary is not intended to identify key or essential features of the claimed subject matter and is intended to be used as an aid in determining the scope of the claimed subject matter. It is not intended to be.

これらの問題に対処するために、本発明は概して、タッチ式オペレーティングシステムのハンズフリーナビゲーションを提供するシステムおよび方法を対象とする。さらに、本明細書で説明する態様は、ソースコードの変更を必要とせずに、タッチ式オペレーティングシステムおよびアプリケーションとのハンズフリー対話を促進する。つまり、本明細書で説明するシステムおよび/または方法の実装とは別に、ユーザは、ハンズフリー対話の利点を享受するために、異なるアプリケーションに変更したり、使い慣れたタッチ式オペレーティングシステムを放棄したりする必要がない。さらに、必須ではないが、実施形態では、ユーザは、ハンズフリーナビゲーションをカスタマイズして、ユーザのニーズおよび要望に基づいて調整された機能を提供することができる。   To address these issues, the present invention is generally directed to systems and methods for providing hands-free navigation of a touch-based operating system. Further, aspects described herein facilitate hands-free interaction with touch-based operating systems and applications without requiring source code changes. That is, apart from implementing the systems and / or methods described herein, the user may switch to a different application or abandon the familiar touch-based operating system to enjoy the benefits of hands-free interaction. No need to do. Further, although not required, in embodiments, the user can customize the hands-free navigation to provide features tailored based on the needs and desires of the user.

したがって、本明細書で説明する技術の態様は、タッチ式オペレーティングシステムのハンズフリーナビゲーションを促進するシステムおよび方法を提供する。一態様では、ハンズフリーナビゲーションシステムは、タッチ式オペレーティングシステムのタッチ式ユーザインターフェースを分析して、タッチ式スクロール機能を識別し、スクロール機能をハンズフリーコマンドに関連付け、ユーザへのディスプレイにタッチ式ユーザインターフェースを提示する。次に、システムが3D空間で回転、変換、または移動すると、システムはそれらの移動を検出し、タッチ式オペレーティングシステムのタッチ式ユーザインターフェースでタッチ式コマンドに変換する。言い換えれば、システムは、タッチ式スクロール機能をモーション式コマンドに変換し、モーションを検出し、モーションをスクロールコマンドに変換する。このように、タッチ式オペレーティングシステムは、モーション式ユーザコマンドを利用できるハンズフリーオペレーティングシステムに変換できる。   Accordingly, aspects of the technology described herein provide systems and methods that facilitate hands-free navigation of a touch-based operating system. In one aspect, a hands-free navigation system analyzes a touch-based user interface of a touch-based operating system to identify touch-based scrolling features, associate scrolling features with hands-free commands, and provide a touch-based user interface to a display to a user. Is presented. Then, as the system rotates, translates, or moves in 3D space, the system detects those movements and translates them into touch commands at the touch user interface of the touch operating system. In other words, the system converts the touch scroll function into a motion command, detects the motion, and converts the motion into a scroll command. In this way, a touch-based operating system can be converted to a hands-free operating system that can use motion-based user commands.

別の態様では、ハンズフリーシステムは、タッチ式オペレーティングシステムのタッチ式ユーザインターフェースを分析して、制御ダイアログ(コマンドに関連付けられたアイコンなど)を識別し、制御ダイアログをキーワードキューに関連付けて、ユーザへのディスプレイにタッチ式ユーザインターフェースを表示する。次いで、システムは、音声入力を処理し、音声入力内のキーワードキューを識別し、キーワードキューを関連するタッチ式オペレーティングシステムのタッチ式ユーザインターフェースにおけるタッチ式コマンドに変換し得る。言い換えれば、システムはタッチ式コマンドをキーワードキューに変換し、ユーザが発話すると、タッチ式環境で目的のコマンドの実行がなされる。このように、タッチ式オペレーティングシステムは、音声式ユーザコマンドを利用できるハンズフリーオペレーティングシステムに変換できる。ユーザとの対話を促進するために、別の態様では、システムはタッチ式ユーザインターフェースに重ねられたキーワードキューオーバーレイを表示してもよい。これらのオーバーレイは、ユーザが希望する制御ダイアログの選択を促進するためのキーワードキューを発行するのに役立つ視覚的なプロンプトを提供する。   In another aspect, a hands-free system analyzes a touch-based user interface of a touch-based operating system to identify a control dialog (such as an icon associated with a command), associates the control dialog with a keyword queue, and provides Display a touch-type user interface on the display. The system may then process the speech input, identify keyword cues in the speech input, and convert the keyword cues to touch commands in a touch user interface of an associated touch operating system. In other words, the system converts the touch-type command into a keyword queue, and when the user speaks, execution of the desired command is performed in the touch-type environment. In this manner, a touch-based operating system can be converted to a hands-free operating system that can utilize voiced user commands. To facilitate interaction with the user, in another aspect, the system may display a keyword cue overlay overlaid on the touch-based user interface. These overlays provide visual prompts to help publish keyword cues to facilitate selection of the desired control dialog by the user.

一態様では、本明細書で開示される様々なハンズフリー入力タイプは、同時にまたは互いに組み合わせて使用され得る。例えば、システムは、モーション式ユーザコマンドと音声式ユーザコマンドとの両方に同時に応答し得る。さらに、モーション式ユーザコマンド、音声式ユーザコマンド、およびモーションプラス音声式ユーザコマンドを使用したハンズフリーナビゲーションを促進する方法が提供される。   In one aspect, the various hands-free input types disclosed herein may be used simultaneously or in combination with one another. For example, the system may respond to both motion-based and voice-based user commands simultaneously. Further, a method is provided for facilitating hands-free navigation using motion-based user commands, voice-based user commands, and motion-plus-voice-based user commands.

本開示は、添付の図面を参照して以下に詳細に説明される。   The present disclosure is described in detail below with reference to the accompanying drawings.

図1は、本開示の実施形態を実施する際に使用するのに適した例示的なコンピューティング環境を示す図である。FIG. 1 is a diagram illustrating an exemplary computing environment suitable for use in implementing embodiments of the present disclosure. 図2は、本開示の形態による例示的なハンズフリーナビゲーションシステムを示す図である。FIG. 2 is a diagram illustrating an exemplary hands-free navigation system according to aspects of the present disclosure. 図3は、本開示の更なる形態による、図2に示す例示的なハンズフリーナビゲーションシステムを示す図である。FIG. 3 is a diagram illustrating the exemplary hands-free navigation system shown in FIG. 2 according to a further aspect of the present disclosure. 図4Aは、本開示の形態による例示的なモーション式ハンズフリー対話方法を示す図である。FIG. 4A illustrates an exemplary motion-based hands-free interaction method according to aspects of the present disclosure. 図4Bは、本開示の形態による例示的な音声式ハンズフリー対話方法を示す図である。FIG. 4B illustrates an exemplary spoken hands-free interaction method according to aspects of the present disclosure. 図4Cは、本開示の形態による例示的なモーション式および音声式ハンズフリー対話方法を示す図である。FIG. 4C illustrates an exemplary motion-based and audio-based hands-free interaction method according to aspects of the present disclosure. 図5は、本開示の形態による、多軸モーション式対話を判定するための例示的な方法を示す図である。FIG. 5 is a diagram illustrating an exemplary method for determining a multi-axis motion interaction in accordance with aspects of the present disclosure. 図6Aは、本開示の形態による例示的なユーザ対話を示す図である。FIG. 6A is a diagram illustrating an example user interaction according to aspects of the present disclosure. 図6Bは、本開示の形態による例示的なユーザ対話を示す図である。FIG. 6B is a diagram illustrating an example user interaction according to aspects of the present disclosure. 図7Aは、本開示の形態による音声式入力を判定するための例示的な方法を示す図である。FIG. 7A is a diagram illustrating an exemplary method for determining audio input according to aspects of the present disclosure. 図7Bは、図7Aの方法の拡大部分を示す図であり、本開示の形態による、音声式入力を判定するための例示的な方法を示す。FIG. 7B illustrates an enlarged portion of the method of FIG. 7A, illustrating an exemplary method for determining spoken input, according to aspects of the present disclosure. 図8Aは、本開示の形態による、例示的なタッチ式ユーザインターフェースにおける制御ダイアログの例示的な識別方法を示す図である。FIG. 8A illustrates an example method of identifying a control dialog in an example touch-based user interface, according to aspects of the present disclosure. 図8Bは、本開示の形態による、例示的なタッチ式ユーザインターフェースにおけるタッチ式制御ダイアログに関連する例示的なキーワードキューオーバーレイを示す図である。FIG. 8B is a diagram illustrating an example keyword cue overlay associated with a touch control dialog in an example touch user interface according to aspects of the present disclosure. 図9は、本開示の形態による、例示的な基準フレームを有する例示的なヘッドマウントコンピューティングデバイスを示す図である。FIG. 9 is a diagram illustrating an example head-mounted computing device having an example reference frame, according to aspects of the present disclosure. 図10は、本開示の形態による、例示的なコンピューティングデバイスを示す図である。FIG. 10 is a diagram illustrating an exemplary computing device according to aspects of the present disclosure.

本開示の主題は、法定要件を満たすために本明細書中に詳細に記載されている。しかしながら、本説明自体は、特許の範囲を限定することを意図していない。むしろ、本発明者らは、他の現在または将来の技術と共に、本明細書に記載されたものと同様の異なるステップまたはステップの組み合わせを含めて、特許請求の範囲に記載された主題は、他の方法で具体化され得ると考えている。さらに、「ステップ」および/または「ブロック」という用語は、使用される方法の異なる要素を示すために本明細書で使用されることがあるが、個々のステップの順序が明白に記載されている場合を除き、本明細書に記載の様々なステップの間、またはその内における何らかの特定の順序を示すものとして解釈されるべきではない。本明細書に記載の各方法は、ハードウェア、ファームウェア、および/またはソフトウェアの任意の組み合わせを使用して実行され得るコンピューティングプロセスを含み得る。例えば、メモリに格納された指令を実行するプロセッサによって様々な機能が実行され得る。方法はまた、コンピュータ記憶媒体に記憶されたコンピュータ使用可能指令として実施することもできる。方法は、いくつか例を挙げると、スタンドアロンアプリケーション、サービスもしくはホスト型サービス(スタンドアロン型、または他のホスト型サービスと組み合わせて)、または別の製品へのプラグインによって提供されてもよい。   The subject matter of this disclosure has been described in detail herein to meet statutory requirements. However, the description itself is not intended to limit the scope of the patent. Rather, we claim that the claimed subject matter, including different steps or combinations of steps similar to those described herein, as well as other current or future technologies, It can be embodied in the following way. Further, although the terms "step" and / or "block" may be used herein to indicate different elements of the method used, the order of the individual steps is explicitly described. Except where otherwise, it should not be construed as indicative of any particular order between or within the various steps described herein. Each of the methods described herein may include a computing process that may be performed using any combination of hardware, firmware, and / or software. For example, various functions may be performed by a processor that executes instructions stored in memory. The method may also be embodied as computer-usable instructions stored on a computer storage medium. The method may be provided by a stand-alone application, service or hosted service (stand-alone or in combination with other hosted services), or a plug-in to another product, to name a few.

概して、本明細書の形態は、タッチ式オペレーティングシステムとのハンズフリー対話を可能にするメカニズムに関する。理解されるように、タッチ式オペレーティングシステム(Andoroid(登録商標)、iOS(登録商標)など)は、タッチ式オペレーティングシステムを実行しているモバイルデバイスのタッチスクリーンを介して受信した入力に依存することが多い。しかしながら、タッチスクリーンとの対話は、ユーザの能力およびモバイル機器が使用される状況に応じて、不可能または望ましくない場合がある。例えば、ユーザが別のタスクを実行するために自分の手を使用しているとき、そのタスクを中止してタッチ式オペレーティングシステムと対話することは、しばしば不便で時間がかかる。したがって、本形態は、タッチ式オペレーティングシステムとのハンズフリー対話を促進するデバイス、方法、およびシステムに関する。   In general, aspects herein relate to mechanisms that enable hands-free interaction with a touch-based operating system. As will be appreciated, touch-based operating systems (such as Android®, iOS®) rely on input received via a touch screen of a mobile device running a touch-based operating system. There are many. However, interaction with the touch screen may be impossible or undesirable depending on the capabilities of the user and the circumstances in which the mobile device is used. For example, when a user is using his or her hand to perform another task, interrupting that task and interacting with the touch-based operating system is often inconvenient and time consuming. Accordingly, the embodiments relate to devices, methods, and systems that facilitate hands-free interaction with a touch-based operating system.

本明細書の一形態は、タッチ式オペレーティングシステムとのハンズフリー対話のための方法を実装するヘッドマウントコンピューティングデバイス(ヘッドセットなど)に関する。非限定的な例では、ヘッドセットは、ディスプレイ(ヘッドアップディスプレイ、接眼ディスプレイなど)、センサ(とりわけカメラ、マイクロフォン、加速度計、ジャイロスコープ、磁力計など)、1つ又は複数のプロセッサ、及びメモリを含むことができる。ヘッドセットは、タッチ式オペレーティングシステムを実行しているモバイルデバイスと通信可能に結合されてもよい。また、ヘッドセットは、例えばヘッドセットの接眼ディスプレイ上に、タッチ式オペレーティングシステムのユーザインターフェースのインスタンスを表示するように構成され得る。さらに、ヘッドセットは、センサを介して受信したハンズフリー入力を使用して、タッチ式オペレーティングシステムのユーザインターフェースとの対話を促進するハンズフリー対話モードを提供することができる。例えば、例示的な一形態は、ヘッドセットによって検出された移動を使用して、タッチ式オペレーティングシステムの動作を実行するためにナビゲートするための指令またはコマンドを判定する。   One aspect herein relates to a head-mounted computing device (such as a headset) that implements a method for hands-free interaction with a touch-based operating system. In a non-limiting example, the headset includes a display (head-up display, eyepiece display, etc.), sensors (camera, microphone, accelerometer, gyroscope, magnetometer, etc.), one or more processors, and memory. Can be included. The headset may be communicatively coupled to a mobile device running a touch-based operating system. Also, the headset may be configured to display an instance of a touch-based operating system user interface, for example, on an eyepiece display of the headset. Further, the headset can provide a hands-free interaction mode that facilitates interaction with a touch-based operating system user interface using hands-free input received via the sensor. For example, one exemplary form uses movement detected by the headset to determine a command or command to navigate to perform an operation of the touch-based operating system.

別の例示的な態様は、ヘッドセットによって検出された音声コマンドを使用して、タッチ式オペレーティングシステムの動作を実行するための命令またはコマンドを判定する。したがって、ヘッドセットはまた、含まれるセンサ(とりわけ、マイクなど)を監視し、センサによって受信された入力を分析し、入力に関連するタッチ式オペレーティングシステムの指令またはコマンドを判定し、タッチ式オペレーティングシステムのユーザインターフェース内でナビゲートするための指令またはコマンドを実行するように、構成され得る。さらに、ヘッドセットは、ヘッドセットコンポーネントまたはソフトウェアモジュールを使用して、タッチ式オペレーティングシステムのユーザインターフェースおよびタッチ式オペレーティングシステムに関連するコードをリアルタイムで分析して、ハンズフリー対話モードを促進するように構成され得る。   Another example aspect uses voice commands detected by the headset to determine instructions or commands to perform an operation of the touch-based operating system. Accordingly, the headset also monitors included sensors (such as microphones, among others), analyzes the inputs received by the sensors, determines touch operating system commands or commands associated with the inputs, May be configured to execute commands or commands for navigating within the user interface. Further, the headset is configured to use a headset component or software module to analyze the touch operating system user interface and code associated with the touch operating system in real time to facilitate a hands-free interactive mode. Can be done.

別の例示的な態様は、タッチ式オペレーティングシステムのユーザインターフェースをナビゲートし、タッチ式オペレーティングシステムの動作を実行するための指令またはコマンドを判定するために、ヘッドセットによって検出された音声コマンドおよび移動の両方を使用する。さらに、ヘッドセットは、ハンズフリー対話モードの使い勝手を向上させるために、環境固有のデータ(ユーザ固有の設定、ハンズフリーインターフェース固有の設定、キーワードキューライブラリ、タッチ式インターフェース固有の設定、場所固有の設定など)を含むカスタマイズされたデータベースを含むか、または当該データベースと通信してもよい。ヘッドセットは、ハンズフリー対話モードの使い勝手を向上させるために無線通信システム(Bluetooth(登録商標)、NFC、RFID、WIFI(登録商標)など)を含むことができる。例として、無線通信システムは、カスタマイズされたデータベースに格納されている環境固有データと相関し得る位置情報をヘッドセットに提供することによって、ハンズフリー対話モードの使い勝手を高め得る。ヘッドセットは、ハンズフリー対話モードの使い勝手を向上させるために、無線通信システムを備えた携帯機器と通信可能に結合されてもよい。さらに、ヘッドセットは、環境固有のデータを含むネットワーク式のカスタマイズされたデータベースを利用するように構成されてもよい。   Another exemplary aspect is a voice command and movement detected by a headset to navigate a user interface of a touch-based operating system and determine commands or commands to perform operations of the touch-based operating system. Use both. In addition, the headset uses environment-specific data (user-specific settings, hands-free interface-specific settings, keyword queue library, touch-type interface-specific settings, location-specific settings, to improve the usability of the hands-free interactive mode. Etc.) or may communicate with the database. The headset may include a wireless communication system (Bluetooth (registered trademark), NFC, RFID, WIFI (registered trademark), etc.) to enhance the usability of the hands-free interactive mode. By way of example, a wireless communication system may enhance the usability of a hands-free interactive mode by providing a headset with location information that may be correlated with environment-specific data stored in a customized database. The headset may be communicatively coupled to a mobile device having a wireless communication system to enhance the usability of the hands-free interactive mode. Further, the headset may be configured to utilize a networked, customized database containing environment-specific data.

次に図1を参照すると、本開示のいくつかの実施形態で採用され得る例示的な動作環境100を示すブロック図が提供されている。本明細書に記載されたこの構成および他の構成は例としてのみ記載されていることを理解されたい。示されたものに加えて、または代えて、他の配置および要素(例えば、機械、インターフェース、機能、順序、および機能のグループ化など)が使用されてもよく、いくつかの要素は明確さのために完全に省略されてもよい。さらに、本明細書で説明されている要素の多くは、個別のコンポーネントまたは分散されたコンポーネントとして、または他のコンポーネントと一緒に、ならびに任意の適切な組合せおよび場所で実装され得る機能存在である。本明細書で1つ又は複数の存在によって実行されるものとして説明されている様々な機能は、ハードウェア、ファームウェア、および/またはソフトウェアによって実行することができる。例えば、いくつかの機能は、メモリに格納された指令を実行するプロセッサによって実行され得る。   Referring now to FIG. 1, a block diagram is provided illustrating an exemplary operating environment 100 that may be employed in some embodiments of the present disclosure. It should be understood that this and other configurations described herein are described by way of example only. Other arrangements and elements (e.g., machines, interfaces, functions, sequences, and groupings of functions, etc.) may be used in addition to or in place of those shown, some elements having clarity, May be omitted entirely. In addition, many of the elements described herein are functional entities that can be implemented as discrete components or distributed components, or with other components, and in any suitable combination and location. Various functions described herein as being performed by one or more entities can be performed by hardware, firmware, and / or software. For example, some functions may be performed by a processor that executes instructions stored in memory.

他のコンポーネントは示していないが、例示的動作環境100は、ユーザデバイス102a−102nなどのいくつかのユーザデバイス、データソース104a、および104bから104nなどのいくつかのデータソース、サーバ106、センサ103a〜103n、及びネットワーク110を含む。図1に示される環境100は、適切な動作環境の一例であることを理解されたい。図1に示した各コンポーネントは、例えば、図10に関連して説明されるコンピューティングデバイス1000などの任意のタイプのコンピューティングデバイスを介して実装され得る。これらのコンポーネントは、限定はしないが、1つまたは複数のローカルエリアネットワーク(LAN)および/またはワイドエリアネットワーク(WAN)を含み得るネットワーク110を介して互いに通信することができる。例示的な実施態様では、ネットワーク110は、インターネットおよび/またはセルラーネットワークを含み、その中には、さまざまな可能な公衆および/または私設ネットワークが含まれる。   Although other components are not shown, the exemplary operating environment 100 includes several user devices, such as user devices 102a-102n, several data sources, such as data sources 104a and 104b through 104n, a server 106, a sensor 103a. To 103 n and the network 110. It should be understood that the environment 100 shown in FIG. 1 is an example of a suitable operating environment. Each of the components shown in FIG. 1 may be implemented via any type of computing device, such as, for example, computing device 1000 described in connection with FIG. These components can communicate with one another via a network 110, which can include, but is not limited to, one or more local area networks (LANs) and / or wide area networks (WANs). In the exemplary embodiment, network 110 includes the Internet and / or a cellular network, including various possible public and / or private networks.

本開示の範囲内で、任意の数のユーザデバイス、サーバ、およびデータソースを動作環境100内で採用することができることを理解されたい。各々は、単一の装置または分散環境において協働する複数の装置を含み得る。例えば、サーバ106は、本明細書に記載の機能を集合的に提供する分散環境に配置された複数の装置を介して提供されてもよい。さらに、図示されていない他のコンポーネントも分散環境内に含まれてもよい。   It should be understood that any number of user devices, servers, and data sources may be employed within operating environment 100 within the scope of the present disclosure. Each may include a single device or multiple devices working together in a distributed environment. For example, server 106 may be provided via a plurality of devices located in a distributed environment that collectively provide the functionality described herein. In addition, other components not shown may be included in the distributed environment.

ユーザデバイス102a〜102nは、ユーザが使用することができる任意の種類のコンピューティングデバイスを備え得る。例えば、一実施形態では、ユーザデバイス102a〜102nは、本明細書の図10に関して説明される種類のコンピューティングデバイスであり得る。限定ではなく例として、ユーザデバイスは、パーソナルコンピュータ(PC)、ラップトップコンピュータ、モバイルもしくはモバイルデバイス、スマートフォン、タブレットコンピュータ、スマートウォッチ、ウェアラブルコンピュータ、パーソナルデジタルアシスタント(PDA)、MP3プレーヤー、全地球測位システム(GPS)またはデバイス、ビデオプレーヤー、ハンドヘルド通信デバイス、ゲーミングデバイスまたはシステム、エンターテインメントシステム、車載コンピュータシステム、組み込みシステムコントローラ、カメラ、リモコン、バーコードスキャナ、コンピュータ化された測定装置、機器、家庭用電化製品、ワークステーション、ヘッドマウントコンピューティングデバイス、またはこれらの描写された装置の任意の組み合わせ、または任意の他の適切な装置であり得る。   User devices 102a-102n may comprise any type of computing device that can be used by a user. For example, in one embodiment, user devices 102a-102n may be computing devices of the type described with respect to FIG. 10 herein. By way of example, and not limitation, user devices include personal computers (PCs), laptop computers, mobile or mobile devices, smartphones, tablet computers, smart watches, wearable computers, personal digital assistants (PDAs), MP3 players, global positioning systems (GPS) or device, video player, handheld communication device, gaming device or system, entertainment system, in-vehicle computer system, embedded system controller, camera, remote control, barcode scanner, computerized measuring device, equipment, consumer electronics , Workstations, head-mounted computing devices, or these depicted devices The combination of meaning, or any other suitable device.

ユーザデバイス102a〜102nは、動作環境100のクライアント側のクライアント装置とすることができ、一方、サーバ106は、動作環境100のサーバ側とすることができる。サーバ106は、本開示で説明される特徴および機能の任意の組み合わせを実装するために、ユーザデバイス102a〜102nのクライアント側ソフトウェアと共に動作するように設計されたサーバ側ソフトウェアを備えてもよい。動作環境100のこの区分は適切な環境の一例を示すために提供されており、サーバ106とユーザデバイス102a−102nとの任意の組み合わせが別個の要素とされることは各実施態様について要件ではない。   User devices 102a-102n can be client devices on the client side of operating environment 100, while server 106 can be the server side of operating environment 100. Server 106 may comprise server-side software designed to work with client-side software of user devices 102a-102n to implement any combination of the features and functions described in this disclosure. This division of operating environment 100 is provided to illustrate one example of a suitable environment, and it is not a requirement for each embodiment that any combination of server 106 and user devices 102a-102n be a separate element. .

データソース104aおよび104bから104nは、データを動作環境100の様々なコンポーネントのいずれか、または図2に関連して説明されるハンズフリー対話システム200に利用可能にするように構成されたデータソースおよび/またはデータシステムを備え得る。例えば、一実施形態では、1つまたは複数のデータソース104aから104nが、図2のストレージ270に提供される(またはアクセス可能にする)。データソース104aおよび104bから104nは、ユーザデバイス102a〜102nおよびサーバ106とは別個であってもよいし、またはそれらに組み込まれるおよび/またはそれらと統合されてもよい。一実施形態では、データソース104aから104nのうちの1つまたは複数は、ユーザデバイス102a〜102nまたはサーバ106のうちの1つまたは複数に統合され得るかまたはそれらに関連付けられ得る1つまたは複数のセンサを備える。動作環境100は、図2および図3で説明される、モーション処理、サウンド処理、ならびにキーワードカスタムライブラリ、ユーザデータ、環境固有データなどのデータストレージ用のコンポーネントを含む、ハンズフリー対話システム200のコンポーネントのうちの1つまたは複数を実装するために利用することができる。   Data sources 104a and 104b through 104n may include data sources configured to make data available to any of the various components of operating environment 100, or to hands-free interaction system 200 described in connection with FIG. And / or a data system. For example, in one embodiment, one or more data sources 104a-104n are provided (or made accessible) to storage 270 of FIG. The data sources 104a and 104b through 104n may be separate from the user devices 102a-102n and the server 106 or may be incorporated therein and / or integrated therewith. In one embodiment, one or more of data sources 104a-104n may be integrated with or associated with one or more of user devices 102a-102n or server 106. It has a sensor. The operating environment 100 includes components of the hands-free interaction system 200 described in FIGS. It can be used to implement one or more of them.

次に図2を参照すると、本開示のいくつかの実施形態で採用することができるハンズフリー対話システム200の例示的な実施形態を示すブロック図が提供されている。ハンズフリー対話システム200は、概して、タッチ式オペレーティングシステム202のアプリケーションおよび機能とのハンズフリー対話を促進するように動作する。図2に示されるハンズフリー対話システムは、本開示の実施形態で採用することができる1つのシステムの例であることを理解されたい。図示される各コンポーネントは、図1を参照して説明された動作環境100と同様の1つまたは複数のコンピューティングデバイスを含み得る。ハンズフリー対話システム200は、図示されている任意の単一のモジュール/コンポーネントまたはモジュール/コンポーネントの組み合わせに関連した依存または要件を有すると解釈されるべきではない。例えば、ハンズフリー対話システム200は、本明細書に記載の機能を集合的に提供する分散環境において構成された複数の装置を含み得る。ハンズフリー対話システム200および/またはその様々なコンポーネントは、本開示の様々な実施形態に従って任意の場所に配置し得ることを理解されたい。   Referring now to FIG. 2, a block diagram is provided illustrating an exemplary embodiment of a hands-free interaction system 200 that may be employed in some embodiments of the present disclosure. The hands-free interaction system 200 generally operates to facilitate hands-free interaction with applications and features of the touch-based operating system 202. It should be understood that the hands-free interaction system shown in FIG. 2 is an example of one system that can be employed in embodiments of the present disclosure. Each illustrated component may include one or more computing devices similar to the operating environment 100 described with reference to FIG. The hands-free interaction system 200 should not be interpreted as having any dependency or requirement relating to any single module / component or combination of modules / components illustrated. For example, the hands-free interaction system 200 may include multiple devices configured in a distributed environment that collectively provide the functionality described herein. It should be understood that the hands-free interaction system 200 and / or its various components may be located anywhere according to various embodiments of the present disclosure.

ヘッドマウントコンピューティングデバイス220(図9を参照してより詳細に説明される)は、概して、タッチ式オペレーティングシステム202のタッチ式ユーザインターフェース206とのハンズフリー対話を促進する。ヘッドマウントコンピューティングデバイス220は、とりわけモーションセンサ、音声センサ、ディスプレイ、及び入力コントロールなど、さまざまなヘッドセットデバイスの入出力コンポーネントを備え得る。さらに、ヘッドマウントコンピューティングデバイス220は、ストレージ270などのコンピュータ記憶媒体に格納されたコンピュータ使用可能指令を含み得る。したがって、ヘッドマウントコンピューティングデバイス220は、ハードウェア、ファームウェア、および/またはソフトウェアの任意の組み合わせを使用して実行できるコンピューティングプロセスを実行するように構成できる。例えば、メモリに格納された指令を実行するプロセッサ(例えば、ヘッドセットプロセッサ280)によって様々な機能が実行され得る。こうした方法は、いくつか例を挙げると、スタンドアロンアプリケーション、サービスもしくはホスト型サービス(スタンドアロン型、または他のホスト型サービスと組み合わせて)、又は他の製品へのプラグインによって提供されてもよい。   Head-mounted computing device 220 (described in more detail with reference to FIG. 9) generally facilitates hands-free interaction with touch-based user interface 206 of touch-based operating system 202. Head-mounted computing device 220 may include the input / output components of various headset devices, such as motion sensors, audio sensors, displays, and input controls, among others. Further, head-mounted computing device 220 may include computer-enabled instructions stored on a computer storage medium, such as storage 270. Accordingly, the head-mounted computing device 220 can be configured to perform a computing process that can be performed using any combination of hardware, firmware, and / or software. For example, various functions may be performed by a processor (eg, headset processor 280) that executes instructions stored in memory. Such methods may be provided by stand-alone applications, services or hosted services (stand-alone or in combination with other hosted services), or plugins to other products, to name a few.

ハンズフリー対話システム200によって実行される機能およびプロセスは、アプリケーション、サービス、またはルーチン(ヘッドセットアプリケーション276など)に関連付けられてもよい。特に、そのようなアプリケーション、サービス、またはルーチンは、ヘッドマウントコンピューティングデバイス220上で動作してもよく、または複数のデバイスにわたって分散されてもよい。例えば、本明細書に記載されている機能およびプロセスは、タッチ式ユーザデバイス(ユーザデバイス102aなど)、サーバ(サーバ106など)上で実行されてもよいし、またはクラウド内に実装されてもよい。さらに、いくつかの実施形態では、ハンズフリー対話システム200のコンポーネントは、ネットワーク110にわたって分散され得る。加えて、これらのコンポーネント、これらのコンポーネントによって実行される機能、またはこれらのコンポーネントによって実行されるサービスは、コンピューティングシステムのオペレーティングシステム層、アプリケーション層、ハードウェア層など、適切な抽象化層で実装され得る。コンピューティングシステムの)。あるいは、または加えて、本明細書に記載のこれらのコンポーネントの機能および/または本発明の実施形態は、少なくとも部分的には、1つまたは複数のハードウェア論理コンポーネントによって実行することができる。例えば、限定ではなく、使用可能な例示的な種類のハードウェア論理コンポーネントには、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準製品(ASSP)、チップシステム上システム(SOCs)、複雑なプログラマブルロジックデバイス(CPLD)、が含まれる。さらに、本明細書では、例示的なハンズフリー対話システム200に示されている特定のコンポーネントに関して機能性を説明しているが、いくつかの実施形態では、これらのコンポーネントは他のコンポーネントと共有されるまたは分散されることが想定される。   The functions and processes performed by hands-free interaction system 200 may be associated with an application, service, or routine (such as headset application 276). In particular, such applications, services, or routines may run on head-mounted computing device 220 or may be distributed across multiple devices. For example, the functions and processes described herein may be executed on a touch-based user device (such as the user device 102a), a server (such as the server 106), or may be implemented in the cloud. . Further, in some embodiments, components of hands-free interaction system 200 may be distributed across network 110. In addition, these components, the functions performed by these components, or the services performed by these components, are implemented in the appropriate abstraction layers, such as the operating system, application, and hardware layers of the computing system. Can be done. Of computing systems). Alternatively or additionally, the functions of these components described herein and / or embodiments of the invention may be performed, at least in part, by one or more hardware logic components. For example, without limitation, exemplary types of hardware logic components that can be used include field programmable gate arrays (FPGAs), application specific integrated circuits (ASICs), application specific standard products (ASSPs), and on chip systems. Systems (SOCs), complex programmable logic devices (CPLDs). Further, although the functionality has been described herein with respect to certain components illustrated in the exemplary hands-free interaction system 200, in some embodiments, these components are shared with other components. Or distributed.

したがって、ヘッドマウントコンピューティングデバイス220は、ハンドフリー対話モードを提供するための指令(ヘッドセットアプリケーション276によって記憶され得る)を実行する1つまたは複数のヘッドセットプロセッサ280を含み得る。ハンズフリー対話モードは、ヘッドマウントコンピューティングデバイス220を介したタッチ式オペレーティングシステム202のプログラム、アプリケーション、および機能との対話を促進することができる。一形態では、ヘッドセットアプリケーション276は、タッチ式オペレーティングシステム202で動作する既存のバイナリアプリケーションとのハンズフリー対話を促進するための指令を含む。例えば、ハンズフリー対話システム200は、発行元、またはPlaystore、Appstore、及びタッチ式アプリケーションの他の供給源から利用可能なアプリケーションのような既存のバイナリを通じて、任意の数のアプリケーションと共に使用できるように構成され得る。さらに、ヘッドセットエンジン210は、タッチ式オペレーティングシステム202上で実行されているアプリケーション208に問い合わせて、とりわけタッチ式ユーザインターフェースに含まれる入力制御、フォーム要素、およびナビゲーションコマンドなどの画面コンポーネント/機能を判定し得る。例えば、ヘッドセットエンジン210は、タッチ式オペレーティングシステム202のユーザインターフェース層を分析して、様々な画面コンポーネント/機能が表示のためにいつ提供されているかを判断することができる。このようにして、タッチ式アプリケーションが実行されているときに、アプリケーションの様々な表示されたUIコンポーネントを判定することができる。下記で説明するように、画面コンポーネント/特徴を抽出または識別し、処理のためにハンズフリー対話システム200の他のコンポーネントに提供することができる。結果として、タッチ式オペレーティングシステム202で動作可能な実質的にあらゆるアプリケーションは、実行時に、ハンズフリー対話のために有効にすることができる。さらに、ハンズフリー対話システム200は、標準のハンズフリー対話モードの指令と互換性がないアプリケーション用のXMLファイルを含んでもよい。XMLファイルは、標準のハンズフリー対話モードの指示を無効にし、カスタマイズされた指示を提供し得る。加えて、XMLファイルは、既存のバイナリが修正されなくてもよいように、実行時にアプリケーション208の既存のバイナリと混合されてもよい。   Accordingly, head-mounted computing device 220 may include one or more headset processors 280 that execute instructions (which may be stored by headset application 276) to provide a hands-free interaction mode. The hands-free interaction mode can facilitate interaction with programs, applications, and features of the touch-based operating system 202 via the head-mounted computing device 220. In one form, the headset application 276 includes instructions to facilitate hands-free interaction with existing binary applications running on the touch-based operating system 202. For example, the hands-free interaction system 200 may be configured to be used with any number of applications through publishers or existing binaries, such as applications available from Playstore, Appsstore, and other sources of touch-based applications. Can be done. In addition, the headset engine 210 queries the application 208 running on the touch operating system 202 to determine screen components / functions, such as input controls, form elements, and navigation commands included in the touch user interface, among others. I can do it. For example, headset engine 210 may analyze the user interface layer of touch-based operating system 202 to determine when various screen components / functions are being provided for display. In this manner, when the touch-based application is running, various displayed UI components of the application can be determined. As described below, screen components / features can be extracted or identified and provided to other components of the hands-free interaction system 200 for processing. As a result, virtually any application operable on the touch-based operating system 202 can be enabled at runtime for hands-free interaction. Further, the hands-free interaction system 200 may include XML files for applications that are not compatible with standard hands-free interaction mode commands. The XML file may override the standard hands-free interactive mode instructions and provide customized instructions. In addition, the XML file may be mixed with the existing binaries of the application 208 at runtime so that the existing binaries need not be modified.

さらに、ヘッドマウントコンピューティングデバイス220は、様々なヘッドセットデバイスI/O222、例えば、ヘッドマウントコンピューティングデバイス220を介して受信されたハンズフリー入力を感知または検出することができるコンポーネントを含んでもよい。受信された入力は、例えばハンズフリー入力判定部240によって、1つまたは複数のハンズフリーコマンドを生成するために処理される。さらに、ハンズフリー対話システム200は、受信したハンズフリー入力に関連するコマンドを判定および/または生成するように構成され得る。生成されたハンズフリーコマンドは、(例えば、通信コンポーネント232によって)実行のためにタッチ式オペレーティングシステム202に通信され得る。判定されたコマンドは、あたかも対応するタッチ式入力を実行しているかのように、コマンドを実行するようにタッチ式オペレーティングシステム202にプログラム的に指示することができる。   Further, head-mounted computing device 220 may include various headset device I / Os 222, for example, components that can sense or detect hands-free input received via head-mounted computing device 220. The received input is processed, for example, by hands-free input determiner 240 to generate one or more hands-free commands. Further, hands-free interaction system 200 may be configured to determine and / or generate a command associated with the received hands-free input. The generated hands-free command may be communicated (eg, by communication component 232) to touch-based operating system 202 for execution. The determined command can programmatically instruct the touch-based operating system 202 to execute the command as if it were executing the corresponding touch-based input.

ヘッドセットエンジン210は、概して、タッチ式オペレーティングシステム202、タッチ式ユーザインターフェース206、モーション処理システム242、サウンド処理システム250、インターフェース分析部212、ストレージ270、ヘッドセットデバイス入出力部(I/O)222、及び他のそれぞれのサブコンポーネント間の通信を促進することを担当する。いくつかの形態では、ヘッドセットエンジン210は、ヘッドセットデバイスI/O222から信号を受信したことに応じて、ハンズフリー対話モードを開始する。例えば、(ボタン、スイッチなどの)物理的入力制御部238は、ハンズフリー対話モードを開始する入力を受けることができる。いくつかの形態では、ヘッドセットエンジン210は、判定されたタッチ式スクロール機能およびタッチ式制御ダイアログなど、タッチ式ユーザインターフェース206および/またはタッチ式オペレーティングシステム202の分析を開始する。いくつかの形態では、ヘッドセットエンジン210は、(たとえば、センサ226a〜226nから)モーションデータを受信し、情報をハンズフリー入力判定部240へ送信する。いくつかの形態では、ヘッドセットエンジン210は、ヘッドセットデバイスI/O222から音声入力部224を受信し、情報をハンズフリー入力判定部240へ送信する。   The headset engine 210 generally includes a touch operating system 202, a touch user interface 206, a motion processing system 242, a sound processing system 250, an interface analyzer 212, storage 270, a headset device input / output (I / O) 222. , And other respective sub-components. In some forms, headset engine 210 initiates a hands-free interactive mode in response to receiving a signal from headset device I / O 222. For example, a physical input control 238 (such as a button, switch, etc.) can receive an input to initiate a hands-free interaction mode. In some aspects, the headset engine 210 initiates an analysis of the touch-based user interface 206 and / or the touch-based operating system 202, such as the determined touch-sensitive scrolling features and touch-sensitive control dialogs. In some forms, headset engine 210 receives motion data (eg, from sensors 226a-226n) and sends information to hands-free input determiner 240. In some embodiments, headset engine 210 receives audio input 224 from headset device I / O 222 and sends information to hands-free input determiner 240.

タッチ式ユーザインターフェース206は、概して、ハンズフリー対話システム200におけるタッチ式オペレーティングシステム202とのユーザ対話を促進する。いくつかの形態では、タッチ式ユーザインターフェース206は、タッチ式スクロール機能(「スワイプ」機能、水平スクロールバー、垂直スクロールバーなど)を含み得る。いくつかの形態では、タッチ式ユーザインターフェース206は、(たとえば、テキストボックスまたはフィールド、チェックボックス、アプリケーションアイコン、文書ツール、ラジオボタンなどの)タッチ式制御ダイアログを含む。   Touch user interface 206 generally facilitates user interaction with touch operating system 202 in hands-free interaction system 200. In some forms, the touch-based user interface 206 may include a touch-based scrolling function (“swipe” function, horizontal scroll bar, vertical scroll bar, etc.). In some forms, the touch-sensitive user interface 206 includes a touch-sensitive control dialog (eg, a text box or field, a check box, an application icon, a document tool, a radio button, etc.).

いくつかの形態では、ストレージ270は、キーワードカスタムライブラリ272を含み得る。キーワードカスタムライブラリ272は、タッチ式制御ダイアログの関連付けに対するキーワードキューを含むデータベースを含み得る。一形態では、ストレージ270は、ユーザ固有の設定、好み、閾値、許可、または個人もしくは個人のグループに関連する任意のデータも含み得る。一形態では、ストレージ270は、ヘッドセットアプリケーション276であり得る。ストレージ270は、ハンズフリー対話システム200の任意のコンポーネントおよびサブコンポーネントと通信可能に結合され得る。   In some forms, storage 270 may include keyword custom library 272. The keyword custom library 272 may include a database containing keyword cues for touch control dialog associations. In one form, storage 270 may also include user-specific settings, preferences, thresholds, permissions, or any data associated with an individual or group of individuals. In one form, storage 270 may be headset application 276. Storage 270 may be communicatively coupled to any components and sub-components of hands-free interaction system 200.

音声入力部224は、概して、マイクロフォンなど(例えば指向性および全方向性マイクロフォン)のような、音声を取り込むためのコンポーネントを指す。実施形態では、音声入力部224は、周囲雑音を捕捉して最終的にユーザ音声入力の処理および分析を助けるために使用されるように構成されたヘッドマウントコンピューティングデバイス220の様々な地点に配置された複数のマイクロフォンを含み得る。音声入力部224は、本開示の範囲から逸脱することなく、音声入力を感知して音声入力を音声フィードに変換することができる任意のセンサまたはセンサのシステムとすることができることが理解されよう。音声出力部230は、概して、ユーザへのサウンド出力を促進する。本開示の範囲から逸脱することなく、電気的入力に応じてサウンドを生成することが可能な任意の音声出力コンポーネント(スピーカなど)を実施形態で使用することができることが理解されよう。実施形態では、音声出力部230は、少なくともヘッドセットデバイスI/O222と通信するように構成され得る。通信コンポーネント232は、概して、任意の適切な通信プロトコルを介してヘッドマウントコンピューティングデバイス220と他の装置との間の通信を促進する。実施形態では、通信コンポーネントは、図10を参照して上記または下記で説明された無線通信システムを備えることができる。   Audio input 224 generally refers to a component for capturing audio, such as a microphone (eg, a directional and omni-directional microphone). In embodiments, the audio input 224 is located at various points on the head-mounted computing device 220 that is configured to capture ambient noise and ultimately assist in processing and analyzing user audio input. May be included. It will be appreciated that the audio input 224 can be any sensor or system of sensors that can sense the audio input and convert the audio input into an audio feed without departing from the scope of the present disclosure. Audio output 230 generally facilitates sound output to the user. It will be appreciated that any audio output component (such as a speaker) capable of producing a sound in response to an electrical input may be used in embodiments without departing from the scope of the present disclosure. In embodiments, the audio output 230 may be configured to communicate with at least the headset device I / O 222. Communication component 232 generally facilitates communication between head-mounted computing device 220 and other devices via any suitable communication protocol. In embodiments, the communication component may comprise a wireless communication system as described above or below with reference to FIG.

ディスプレイ234は、概して、ユーザへのデータの視覚的提示を促進する。本開示の範囲から逸脱することなく、任意のディスプレイが様々な実施形態において使用され得ることが理解されるであろう。センサ226a〜226nは、とりわけ、カメラ、マイクロフォン、GPS、RFIDセンサ、赤外線センサ、光センサ、磁力計、ジャイロスコープ、容量トランスデューサ、ポテンショメータ、抵抗トランスデューサ、シンクロ、加速度計、およびマイクロジャイロスコープを含み得る。   Display 234 generally facilitates the visual presentation of data to a user. It will be appreciated that any display may be used in various embodiments without departing from the scope of the present disclosure. Sensors 226a-226n may include cameras, microphones, GPS, RFID sensors, infrared sensors, optical sensors, magnetometers, gyroscopes, capacitive transducers, potentiometers, resistance transducers, synchro, accelerometers, and micro gyroscopes, among others.

次に図3を参照すると、ハンズフリー対話システム200のさらなる態様を示すブロック図が提供されており、例示的なヘッドマウントコンピューティングデバイス220は、本開示のいくつかの実施形態を採用することができる。ヘッドマウントコンピューティングデバイス220は、本開示の実施形態を採用することができる、モーションキャプチャ、モーション分析、音声入力、音声分析、音声出力、画像キャプチャ、位置検出、方向判定、環境判定、インターフェース表示、位置検出、およびネットワーク接続のためのシステムと、ヘッドマウントコンピューティングデバイス220と通信可能に結合することができ、ネットワーク110と通信可能に結合することができるユーザデバイス102a〜102nと、図1に関連して説明されているネットワーク110と、サーバ106と、データソース104aと、を含み得る。ハンズフリー対話システム200のコンポーネントは、例えば、1組のコンパイルされたコンピュータ指令または機能、プログラムモジュール、コンピュータソフトウェアサービス、または、図10に関連して説明されるコンピューティングデバイスのように、1つまたは複数のコンピュータシステム上で実行されるプロセス構成として実施することができる。   Referring now to FIG. 3, a block diagram is provided that illustrates additional aspects of the hands-free interaction system 200, where an exemplary head-mounted computing device 220 may employ some embodiments of the present disclosure. it can. Head-mounted computing device 220 may employ embodiments of the present disclosure such as motion capture, motion analysis, audio input, audio analysis, audio output, image capture, position detection, orientation determination, environment determination, interface display, A system for location and networking, and user devices 102a-102n that can be communicatively coupled to the head-mounted computing device 220 and communicatively coupled to the network 110, with respect to FIG. And a data source 104a. The components of the hands-free interaction system 200 may be one or more, such as a set of compiled computer instructions or functions, program modules, computer software services, or a computing device described in connection with FIG. It can be implemented as a process configuration executed on a plurality of computer systems.

一実施形態では、ハンズフリー対話システム200のコンポーネントによって実行される機能は、変位をタッチ式指令、コマンド、またはタッチ式オペレーティングシステム内の入力に変換することに関連する。実施形態では、ハンズフリー対話システム200は、ヘッドマウントコンピューティングデバイスのヘッドセット入出力(I/O)222と、ヘッドセットエンジン210と、ハンズフリー対話システム内のシステムまたはサブシステムを、検出すること、処理すること、分散すること、監視すること、および/または作動すること、を担当することができるハンズフリー入力判定部240と、を含む。例えば、起動コマンドの受信に応じて、ヘッドセットエンジン210は、ヘッドマウントコンピューティングデバイス上でハンズフリー対話モードを開始し、ハンズフリー対話モードは、タッチ式オペレーティングシステム(OS)のユーザインターフェースとの対話を可能にしてもよい。ハンズフリー対話モードの開始の一部として、ヘッドセットエンジン210は、インターフェース分析部212、モーション処理システム242、サウンド処理システム250、および環境分析部214を起動することができる。   In one embodiment, the functions performed by the components of the hands-free interaction system 200 relate to translating the displacement into a touch command, a command, or an input in a touch operating system. In embodiments, the hands-free interaction system 200 may detect a headset input / output (I / O) 222 of the head-mounted computing device, a headset engine 210, and a system or subsystem within the hands-free interaction system. , Processing, distributing, monitoring, and / or operating. For example, in response to receiving the activation command, the headset engine 210 initiates a hands-free interactive mode on the head-mounted computing device, wherein the hands-free interactive mode interacts with a touch-based operating system (OS) user interface. May be enabled. As part of initiating the hands-free interaction mode, the headset engine 210 can activate the interface analyzer 212, the motion processing system 242, the sound processing system 250, and the environment analyzer 214.

モーション処理システム242は、概して、ヘッドセットデバイスI/O222によって検出されたモーション式入力データの処理を促進する。モーション処理システム242は、ヘッドマウントコンピューティングデバイス220、ユーザデバイス102a〜102n、サーバ106、又は例えばネットワーク110を介してハンズフリー対話システム200と通信可能に接続され得る任意の場所に存在してもよい。実施形態では、モーション処理システム242は、ヘッドセットエンジンのサブシステムであり得る。実施形態では、モーション処理システム242は、通信コンポーネント232を介してヘッドマウントコンピューティングデバイス220と通信可能に結合された1つまたは複数のユーザデバイス102a〜102nのサブシステムとすることができる。他の実施形態では、モーション処理システム242は、通信コンポーネント232を介してヘッドマウントコンピューティングデバイス220と通信可能に結合された1つまたは複数のネットワークデバイスのサブシステムとすることができる。   Motion processing system 242 generally facilitates processing of motion-based input data detected by headset device I / O 222. Motion processing system 242 may reside at head-mounted computing device 220, user devices 102a-102n, server 106, or any location that may be communicatively coupled to hands-free interaction system 200 via, for example, network 110. . In embodiments, the motion processing system 242 may be a subsystem of a headset engine. In embodiments, the motion processing system 242 may be a subsystem of one or more user devices 102a-102n communicatively coupled to the head mounted computing device 220 via the communication component 232. In other embodiments, motion processing system 242 may be a subsystem of one or more network devices communicatively coupled to head-mounted computing device 220 via communication component 232.

このように、センサ226a〜226nからのデータは、分析のためにモーション処理システム242に送信され得る。いくつかの実施形態では、モーション処理システム242は、モーション検出コンポーネント244、較正制御コンポーネント246、およびモーション変換コンポーネント248(以下でさらに詳細に説明される)を含むサブコンポーネントを含み得る。形態では、モーション処理システム242は、通信コンポーネント232を介してハンズフリー対話システム200と通信可能に接続され得る。ヘッドセットの横方向移動、並進移動、および回転移動は、センサ226a〜226nによって検出され、モーション処理システム242によって処理されて、ニュートラル位置および向きを判定する。例えば、センサデータは、モーション処理システム242によって処理されて3つの軸に対して9自由度でヘッドセットの位置および向きを検出してもよい。実施形態では、モーション処理システム242は、ハンズフリー対話モードの開始時にヘッドセットの向きを検出することによって、ハンズフリー対話モードの開始中にニュートラル位置を較正することができる。   Thus, data from sensors 226a-226n may be sent to motion processing system 242 for analysis. In some embodiments, the motion processing system 242 may include sub-components that include a motion detection component 244, a calibration control component 246, and a motion conversion component 248 (described in further detail below). In an aspect, the motion processing system 242 may be communicatively connected to the hands-free interaction system 200 via the communication component 232. Lateral, translational, and rotational movements of the headset are detected by sensors 226a-226n and processed by motion processing system 242 to determine neutral position and orientation. For example, the sensor data may be processed by the motion processing system 242 to detect the position and orientation of the headset with nine degrees of freedom about three axes. In embodiments, the motion processing system 242 may calibrate the neutral position during the start of the hands-free interaction mode by detecting the orientation of the headset at the start of the hands-free interaction mode.

形態では、閾値変位は、任意の軸において、ニュートラルから+/−10度だけヘッドセットを回転させるなど、ニュートラル位置からの所定の変位値であり得る。加えて、閾値変位は、ヘッドマウントコンピューティングデバイス220の角度変化、並進移動、回転、または任意の他の移動であり得る。理解され得るように、本説明では概して単数形を示しているが、任意の数の閾値変位を判定することができる。閾値変位は、タッチ式オペレーティングシステム202と対話するための任意の数のタッチ式入力に対応し得る。例えば、スクロールアップタッチ式入力は、ヘッドマウントコンピューティングデバイス220の上方への回転とする対応するハンズフリー入力を有し得る。したがって、ハンズフリー回転入力は、ニュートラル位置から上方に所定の度数の対応する閾値を有し得る。その結果、不注意によるハンズフリー入力を減少または排除することができる。   In an embodiment, the threshold displacement may be a predetermined displacement value from a neutral position, such as rotating the headset +/− 10 degrees from neutral in any axis. In addition, the threshold displacement may be an angular change, translation, rotation, or any other movement of the head mounted computing device 220. As can be appreciated, the description generally refers to the singular, but any number of threshold displacements can be determined. The threshold displacement may correspond to any number of touch-based inputs for interacting with the touch-based operating system 202. For example, a scroll-up touch-type input may have a corresponding hands-free input as turning the head-mounted computing device 220 upward. Thus, the hands-free rotation input may have a corresponding threshold of a predetermined degree above the neutral position. As a result, careless hands-free input can be reduced or eliminated.

他の形態では、閾値変位は、例えばモーション処理システム242および/またはヘッドセットエンジン210によって自動的かつ反復的に調整され得る。限定ではなく例として、ハンズフリー対話システム200は、以前のヘッドセットモーションデータに基づいて閾値変位を調整するためのハンズフリー入力(ユーザデータ274に格納されてもよい)を監視するコンピュータ学習または機械学習指令を含むことができる。他の形態では、閾値変位は、ヘッドマウントコンピューティングデバイス220に関連する(例えば、位置判定部216によって判定され得る)任意の数の場所に関連する使用データに基づいて自動的に調整され得る。他の形態では、変位閾値は、カスタマイズされた値であり得、これはユーザによって判定され得る。例えば、ユーザは、ハンズフリー対話アプリケーションのユーザインターフェースを介して閾値変位設定を調整することができ、これは、ハンズフリー対話システム200内に記憶され、本明細書に記載の任意の装置によって実行され得る。したがって、モーション処理システム242は、以下により詳細に説明されるように、検出された変位、またはヘッドセットの並進を、閾値変位と比較してもよい。   In other forms, the threshold displacement may be adjusted automatically and iteratively, for example, by the motion processing system 242 and / or the headset engine 210. By way of example, and not limitation, hands-free interaction system 200 may include a computer-learning or machine monitoring hands-free input (which may be stored in user data 274) to adjust the threshold displacement based on previous headset motion data. A learning instruction can be included. In other aspects, the threshold displacement may be automatically adjusted based on usage data associated with any number of locations associated with the head mounted computing device 220 (eg, may be determined by the position determiner 216). In another aspect, the displacement threshold may be a customized value, which may be determined by a user. For example, the user can adjust the threshold displacement setting via the user interface of the hands-free interaction application, which is stored in the hands-free interaction system 200 and executed by any of the devices described herein. obtain. Accordingly, motion processing system 242 may compare the detected displacement, or translation of the headset, to a threshold displacement, as described in more detail below.

モーション検出コンポーネント244は、ヘッドマウントコンピューティングデバイス220の変位を検出するためにモーション処理システム242を監視してもよい。例えば、モーション検出コンポーネント244は、較正制御コンポーネント246によって記憶された初期参照画像と、ヘッドマウントコンピューティングデバイス220の変位を検出するためのモーション処理システム242によって捕捉されるヘッドマウントコンピューティングデバイス220の初期位置に対する後続する画像と、を比較し得る。初期参照画像と後続する画像とを比較することによってヘッドマウントコンピューティングデバイス220の初期位置に対するヘッドマウントディスプレイの変位を検出するために任意の数の画像解析アルゴリズムを使用できることが理解されよう。さらに、閾値および/または検出された変位は、変位の期間を判定することを含み得る。例えば、閾値変位は、ハンズフリー入力として認識されるために、変位が5秒間持続されることを必要とし得る。さらに、モーション検出センサ(本明細書で説明されるように、加速度計、ジャイロスコープなどを含み得るセンサ226a〜226nなど)からの任意の種類のデータを使用して変位を測定または検出することができることを理解されたい。   Motion detection component 244 may monitor motion processing system 242 to detect displacement of head-mounted computing device 220. For example, the motion detection component 244 includes an initial reference image stored by the calibration control component 246 and an initial of the head mounted computing device 220 captured by the motion processing system 242 to detect displacement of the head mounted computing device 220. A subsequent image for the location can be compared. It will be appreciated that any number of image analysis algorithms can be used to detect displacement of the head mounted display with respect to the initial position of the head mounted computing device 220 by comparing the initial reference image with a subsequent image. Further, the threshold and / or detected displacement may include determining a duration of the displacement. For example, a threshold displacement may require that the displacement be sustained for 5 seconds to be recognized as a hands-free input. Further, any type of data from a motion detection sensor (such as sensors 226a-226n, which may include accelerometers, gyroscopes, etc., as described herein) can be used to measure or detect displacement. Please understand what you can do.

モーション検出コンポーネント244が閾値変位を超えるヘッドマウントコンピューティングデバイス220の変位を検出すると、モーション変換コンポーネント248は、角度変位を1つまたは複数のタッチ式入力に対応する命令に変換することができる。モーション変換コンポーネント248は、変位の種類に基づいて適切な命令を判定することができる。実施形態では、モーション変換コンポーネント248は修飾部を用いて指令を補強することができる。例えば、ページスクロール指令は、10ページスクロールのように、複数のページの修正部で補強されてもよい。修正部は、検出された変位の持続時間など、検出されたハンズフリー入力に関連する特徴に基づいてもよい。   When the motion detection component 244 detects a displacement of the head-mounted computing device 220 that exceeds a threshold displacement, the motion conversion component 248 can convert the angular displacement into an instruction corresponding to one or more touch-based inputs. Motion conversion component 248 can determine an appropriate command based on the type of displacement. In embodiments, the motion transform component 248 may use a modifier to augment the command. For example, the page scroll command may be reinforced by a plurality of page correction units, such as a 10-page scroll. The modifier may be based on a feature associated with the detected hands-free input, such as a duration of the detected displacement.

サウンド処理システム250は、概して、ヘッドセットデバイスI/O222によって検出された音声入力データの処理を促進する。したがって、センサ226a〜226nからのデータは分析のためにサウンド処理システム250に送信されてもよい。いくつかの形態では、音声入力部224からのデータは分析のためにサウンド処理システム250に送信されてもよい。いくつかの実施形態では、サウンド処理システム215、250は、インターフェース分析部212、252、音声処理コンポーネント254、および音声変換コンポーネント256を含む音声検出コンポーネントを含むサブコンポーネントを含むことができる。いくつかの形態では、サウンド処理システム250は、タッチ式制御ダイアログに関連するキーワードキューを検出された音声入力と比較することができる。いくつかの形態では、サウンド処理システム250は、通信コンポーネント232を介してハンズフリー対話システム200と通信可能に接続され得る。したがって、サウンド処理システム250は、ユーザデバイス、ネットワーク、サーバ、またはハンズフリー対話システム200と通信可能に接続されている任意の場所に配置され得る。   Sound processing system 250 generally facilitates processing of audio input data detected by headset device I / O 222. Accordingly, data from sensors 226a-226n may be sent to sound processing system 250 for analysis. In some forms, data from the audio input 224 may be sent to the sound processing system 250 for analysis. In some embodiments, the sound processing system 215, 250 may include sub-components including a sound detection component including an interface analyzer 212, 252, a sound processing component 254, and a sound conversion component 256. In some forms, the sound processing system 250 can compare the keyword cues associated with the touch control dialog with the detected speech input. In some forms, sound processing system 250 may be communicatively connected to hands-free interaction system 200 via communication component 232. Accordingly, sound processing system 250 may be located at a user device, a network, a server, or any location that is communicatively connected to hands-free interaction system 200.

実施形態では、タッチ式オペレーティングシステムは、サウンド処理システムの1つのアプリケーションのみへの音声入力を可能にするように構成されているので、音声共有コンポーネント(図示せず)をさらに含んでもよい。音声共有コンポーネントは、複数のプロセス、アプリケーション、コンポーネントなどが音声入力を同時に受信することを可能にし得る。言い換えれば、音声共有コンポーネントは、さらなる処理または分析なしで音声フィードがタッチ式オペレーティングシステムに継続し、音声検出コンポーネント252に継続することを可能にすることができる。他の方法で言うと、音声共有コンポーネントは、音声共有コンポーネントは、サウンド処理システムの機能を損なうことなく、タッチ式アプリケーションへの音声フィードの提供を促進する。   In embodiments, the touch-based operating system may further include a sound sharing component (not shown) because it is configured to allow voice input to only one application of the sound processing system. The audio sharing component may enable multiple processes, applications, components, etc. to receive audio input simultaneously. In other words, the audio sharing component may allow the audio feed to continue to the touch-based operating system and to the audio detection component 252 without further processing or analysis. Stated another way, the audio sharing component facilitates providing audio feeds to the touch-based application without compromising the functionality of the sound processing system.

例えば、ユーザは、ハンズフリーナビゲーションシステム内のタッチ式オペレーティングシステムと遠隔会議アプリケーションとを同時に実行することができ、音声共有コンポーネントは、音声フィードが遠隔会議アプリケーションに継続することを可能にすることができる。さらに、音声共有コンポーネントは、音声検出コンポーネント252に音声フィードを提供することができる。したがって、実施形態では、音声共有コンポーネントは音声フィードを複製することができる。   For example, a user can simultaneously run a touch-based operating system and a teleconferencing application in a hands-free navigation system, and an audio sharing component can allow audio feeds to continue to the teleconferencing application. . Further, the audio sharing component can provide an audio feed to the audio detection component 252. Thus, in embodiments, the audio sharing component can duplicate the audio feed.

音声検出コンポーネント252は、概して、音声フィードを検出するために音声入力部224および/またはセンサ226a〜226nを監視することを促進する。例えば、音声検出コンポーネント252は、信号がマイクロフォンによって受信されていることを検出するために、ヘッドマウントコンピューティングデバイス220のマイクロフォンを聴取してもよい。この例を続けると、音声検出コンポーネント252は、マイクロフォンによって受信された信号が所定の音量より上であると判定することを担当してもよく、それは、信号がハンズフリー可聴入力を判定するためにさらに処理されるべきことを示し得る。実施形態では、音声検出コンポーネント252は、検出した音声フィードを音声処理コンポーネント254に提供する。   The audio detection component 252 generally facilitates monitoring the audio input 224 and / or the sensors 226a-226n to detect an audio feed. For example, the audio detection component 252 may listen to the microphone of the head mounted computing device 220 to detect that a signal is being received by the microphone. Continuing with this example, the audio detection component 252 may be responsible for determining that the signal received by the microphone is above a predetermined volume, which is used to determine if the signal is a hands-free audible input. It may indicate that further processing is required. In embodiments, the audio detection component 252 provides the detected audio feed to the audio processing component 254.

音声処理コンポーネント254は、概して、ユーザの発話を識別、分離、および分析するために音声フィードの処理を促進する。実施形態では、音声処理コンポーネント254は、音声フィードを処理するために、音声認識アルゴリズム、ノイズ低減アルゴリズム、音声−文章アルゴリズム、機械学習アルゴリズムなどを使用することができる。いくつかの形態では、音声処理コンポーネント254は、音声検出コンポーネント252から複数の音声フィードを受信することができる。これらの実施形態では、音声処理コンポーネント254は複数の音声フィードを処理して、ユーザの音声を背景雑音から少なくとも部分的に分離することができる。ユーザの音声を背景から少なくとも部分的に分離するために、任意の雑音低減アルゴリズム、音声分離アルゴリズム、または任意の適切なアルゴリズムもしくは技法を使用することができることが理解されよう。実施形態では、音声処理コンポーネント254は、音声検出コンポーネント252から音声フィードを受信し、インターフェース分析部212によってタッチ式制御ダイアログに関連付けられた第1の可聴入力を識別することができる。実施形態では、音声処理コンポーネント254は、音声フィードを分析し、音声フィードをキーワードキューと比較して、処理された音声フィードがキーワードキューと一致するかどうかを判断する。   The audio processing component 254 generally facilitates processing of the audio feed to identify, separate, and analyze user utterances. In embodiments, the speech processing component 254 may use speech recognition algorithms, noise reduction algorithms, speech-sentence algorithms, machine learning algorithms, etc. to process the speech feed. In some forms, the audio processing component 254 can receive multiple audio feeds from the audio detection component 252. In these embodiments, the audio processing component 254 may process multiple audio feeds to at least partially separate the user's audio from background noise. It will be appreciated that any noise reduction algorithm, speech separation algorithm, or any suitable algorithm or technique may be used to at least partially separate the user's voice from the background. In embodiments, the audio processing component 254 may receive the audio feed from the audio detection component 252 and identify the first audible input associated with the touch-based control dialog by the interface analyzer 212. In an embodiment, the audio processing component 254 analyzes the audio feed and compares the audio feed with the keyword queue to determine whether the processed audio feed matches the keyword queue.

音声変換コンポーネント256は、概して、音声フィード−キーワードキュー一致の関連する制御ダイアログへの変換を促進する。したがって、音声変換コンポーネント256は、音声処理コンポーネント254から一致するキーワードキューを受け取り、そのキーワードキューに関連付けられている制御ダイアログを判定することができる。   The audio conversion component 256 generally facilitates the conversion of the audio feed-keyword cue match into an associated control dialog. Accordingly, the speech conversion component 256 can receive a matching keyword cue from the speech processing component 254 and determine the control dialog associated with the keyword cue.

インターフェース分析部212は、概して、タッチ式ユーザインターフェース206、タッチ式オペレーティングシステム202、タッチ式ユーザインターフェース206内のアプリケーション208、およびタッチ式ユーザインターフェース206内の文書204内のタッチ式ユーザ対話機能の検出を促進する。本明細書で使用するとき、タッチ式ユーザ対話機能は、タッチ式スクロール機能(「スワイプ」機能、水平スクロールバー、垂直スクロールバーなど)、タッチ式制御ダイアログ(テキストボックスまたはフィールド、チェックボックス、アプリケーションアイコン、文書ツール、放射状ボタンなど)、並びに、タッチ式ユーザインターフェース、オペレーティングシステム、アプリケーション、および/または文書内でのユーザ操作を促進する、より一般的な任意の要素、機能、アイコン、コマンド、コード、拡張子、マクロなどを含む。形態では、インターフェース分析部212は、タッチ式ユーザインターフェース206、タッチ式オペレーティングシステム202、および/またはタッチ式ユーザインターフェース206内のアプリケーション208のソースコードをスキャンすることによって、タッチ式ユーザ対話機能を検出および/または識別し得る。形態では、インターフェース分析部212は、環境固有の機能を促進するためにキーワードカスタムライブラリ272および/またはユーザデータ274を参照してもよい。   The interface analyzer 212 generally detects the detection of the touch user interface 206, the touch operating system 202, the application 208 in the touch user interface 206, and the touch user interaction in the document 204 in the touch user interface 206. Facilitate. As used herein, touch-based user interaction features include touch-based scrolling features (“swipe” feature, horizontal scroll bar, vertical scroll bar, etc.), touch-based control dialogs (text boxes or fields, checkboxes, application icons). , Writing tools, radial buttons, etc.) and any more common elements, functions, icons, commands, codes, etc. that facilitate user interaction within the touch-based user interface, operating system, applications, and / or documents. Including extensions, macros, etc. In an aspect, the interface analyzer 212 detects and detects touch user interactivity by scanning the source code of the touch user interface 206, the touch operating system 202, and / or the application 208 within the touch user interface 206. And / or may be identified. In an aspect, interface analyzer 212 may refer to keyword custom library 272 and / or user data 274 to facilitate environment-specific functions.

いくつかの実施形態では、環境分析部214は、概してハンズフリー対話システム200の環境データおよび環境固有の特徴の分析を促進する。環境データは、ヘッドセットエンジン210またはそのサブコンポーネントの動作に関連する任意のデータであり得る。非限定的な例として、環境データは、(ユーザデータ274などの)ユーザデータ、(アプリケーション208に関連付けられたなどの)アプリケーションデータ、または通信コンポーネント232もしくは位置判定部216から受信したデータであり得る。実施形態では、環境分析部214はさらに、インターフェース分析部212を監視し、カスタマイズされたデータがタッチ式ユーザインターフェースの現在のインスタンスに関連しているかどうかを判定する。実施形態では、環境分析部は、分析に応じて、ハンズフリー入力判定部240、ヘッドセットエンジン210、またはそれらのそれぞれのサブコンポーネントの機能を変更することができる。例えば、インターフェース分析部212がタッチ式ユーザインターフェースの特定のインスタンスを分析することに応じて、環境分析部214は、タッチ式ユーザインターフェースの特定のインスタンスに関連するカスタムキーワードキューライブラリ(カスタムキーワードライブラリ272など)を配置することができる。そして、環境分析部214は、カスタムキーワードキューライブラリをサウンド処理システム250に通信し得る   In some embodiments, environment analyzer 214 facilitates the analysis of environmental data and environment-specific characteristics of generally hands-free interaction system 200. Environmental data may be any data related to the operation of headset engine 210 or its subcomponents. By way of non-limiting example, environment data can be user data (such as user data 274), application data (such as associated with application 208), or data received from communication component 232 or location determiner 216. . In an embodiment, environment analyzer 214 further monitors interface analyzer 212 to determine whether the customized data is associated with the current instance of the touch-based user interface. In an embodiment, the environment analysis unit may change the function of the hands-free input determination unit 240, the headset engine 210, or their respective subcomponents in response to the analysis. For example, in response to the interface analyzer 212 analyzing a particular instance of the touch-based user interface, the environment analyzer 214 may determine a custom keyword queue library (such as the custom keyword library 272) associated with the particular instance of the touch-based user interface. ) Can be placed. The environment analyzer 214 may then communicate the custom keyword cue library to the sound processing system 250

実施形態では、環境分析部214は、ハンズフリー入力判定部240の機能を変更するために位置情報を使用し得る。例えば、環境分析部214は、特定のカスタムキーワードライブラリに関連する位置データ(位置判定部216によって検出されるBluetoothビーコン情報など)を分析することができる。実施形態では、環境分析部214は、特定のモーション式閾値が環境データの結果として示されることを判定し得る。   In an embodiment, the environment analysis unit 214 may use the location information to change the function of the hands-free input determination unit 240. For example, the environment analysis unit 214 can analyze position data (such as Bluetooth beacon information detected by the position determination unit 216) associated with a specific custom keyword library. In embodiments, the environment analyzer 214 may determine that a particular motion-based threshold is indicated as a result of the environment data.

実施形態では、インターフェース分析部212は、互換性のあるタッチ式ユーザインターフェース、例えば、Googole AndroidまたはAppleのiOSを検出し、タッチ式OSを分析して、ユーザインターフェースの第1のインスタンスに関連するタッチ式コマンドを検出する。インターフェース分析部は、例えば、ユーザインターフェースの第1のインスタンスがタッチ式スクロール機能を備えることを検出することができる。例えば、タッチ式スクロール機能は、タッチ式オペレーティングシステムの異なるメニュー画面に案内するための、タッチ式オペレーティングシステムに関連するタッチ式スクロール機能、アプリケーションの異なるメニュー画面に案内するための、アプリケーションに関連付けられたタッチ式スクロール機能、および/または文書の異なる部分に案内するための、文書に関連付けられたタッチ式スクロール機能を備え得る。   In embodiments, the interface analyzer 212 detects a compatible touch-based user interface, for example, a Google Android or Apple iOS, analyzes the touch-based OS, and detects touches associated with the first instance of the user interface. Detect expression commands. The interface analyzer may, for example, detect that the first instance of the user interface comprises a touch scroll function. For example, the touch scroll function may be associated with an application for guiding to a different menu screen of the touch operating system, a touch scroll function associated with the touch operating system, for guiding to a different menu screen of the application. A touch-sensitive scrolling function and / or a touch-sensitive scrolling function associated with the document for navigating to different parts of the document may be provided.

実施形態では、インターフェース分析部212がタッチ式スクロール機能を検出すると、ヘッドセットエンジン210は、モーションキャプチャシステムを較正し、変位を監視し、変位を関連するタッチ式スクロール機能に変換するモーション処理システム242を起動する。起動されると、モーション処理システム242は、較正制御コンポーネント246を作動させることができる。較正制御コンポーネント246は、ヘッドマウントコンピューティングデバイス220の初期位置を検出する。この初期位置は、1つ又は複数の軸に対するヘッドマウントコンピューティングデバイス220の配向を含む。実施形態では、較正制御コンポーネント246は、カメラ(例えば、センサ226a〜226nのうちの1つ)を使用してモーション検出コンポーネント244を作動させることによって、ヘッドマウントコンピューティングデバイスの初期位置を判定することができる。較正制御コンポーネント246は、ヘッドマウントコンピューティングデバイス220の相対移動を測定するために、後続の画像と比較するための初期参照画像として少なくとも一時的に画像を記憶し得る。   In an embodiment, when the interface analyzer 212 detects a touch scroll function, the headset engine 210 calibrates the motion capture system, monitors the displacement, and converts the displacement to an associated touch scroll function 242. Start When activated, the motion processing system 242 may activate the calibration control component 246. The calibration control component 246 detects the initial position of the head mounted computing device 220. This initial position includes the orientation of head-mounted computing device 220 with respect to one or more axes. In embodiments, the calibration control component 246 determines an initial position of the head mounted computing device by activating the motion detection component 244 using a camera (eg, one of the sensors 226a-226n). Can be. The calibration control component 246 may at least temporarily store the image as an initial reference image for comparison with a subsequent image to measure the relative movement of the head mounted computing device 220.

さらに、実施形態では、インターフェース分析部212は、検出されたタッチ式スクロール機能を対応する方向のヘッドマウントコンピューティングデバイス220の変位と関連付ける。例えば、インターフェース分析部212が、ユーザインターフェースの第1のインスタンス内で左から右への「スワイプ」に対応するタッチ式OSに関連するタッチ式スクロール機能を検出した場合。インターフェース分析部212は、ヘッドマウントコンピューティングデバイス220の初期位置に対する右への変位を、左から右へのタッチ式スワイプと関連付けることができる。別の例では、インターフェース分析部212がユーザインターフェースの第1のインスタンス内で垂直スクロールバーを検出した場合、インターフェース分析部212は、ヘッドマウントコンピューティングデバイス220の初期位置に対する角度変位「上」を、垂直スクロールバーを所定数のスクロール単位だけ上に移動させることへ、関連付けることができる。インターフェース分析部212がユーザインターフェースの第1のインスタンス内で水平スクロールバーを検出した場合。インターフェース分析部212は、ヘッドマウントコンピューティングデバイス220の初期位置に対する右への角度変位を、水平スクロールバーを所定数のスクロール単位だけ右に移動させることへ、関連付けることができる。   Further, in embodiments, the interface analyzer 212 associates the detected touch-based scroll function with a displacement of the head-mounted computing device 220 in a corresponding direction. For example, when the interface analyzer 212 detects a touch scroll function associated with a touch OS corresponding to a “swipe” from left to right in the first instance of the user interface. The interface analyzer 212 may associate the rightward displacement of the head mounted computing device 220 with respect to the initial position with a touch swipe from left to right. In another example, if the interface analyzer 212 detects a vertical scroll bar in the first instance of the user interface, the interface analyzer 212 determines the angular displacement “up” with respect to the initial position of the head-mounted computing device 220, This can be associated with moving the vertical scroll bar up a predetermined number of scroll units. When the interface analyzer 212 detects a horizontal scroll bar in the first instance of the user interface. The interface analyzer 212 can associate the rightward angular displacement of the head mounted computing device 220 with respect to the initial position to move the horizontal scroll bar rightward by a predetermined number of scroll units.

さらに、ヘッドセットエンジン210は、ディスプレイコンポーネント234を起動して、タッチ式オペレーティングシステムのユーザインターフェースの第1のインスタンスを、ヘッドマウントコンピューティングデバイス220のディスプレイに表示することができる(図2を参照してより詳細に説明され、参照番号234によって示される)。実施形態では、次いで、ヘッドセットエンジン210は、ヘッドマウントコンピューティングデバイスの第1の角変位を検出するモーション検出コンポーネント244を起動することができる。第1の角変位は第1の閾値角変位を上回るものであり、第1の閾値角変位は、初期位置に対する角変位である。   Further, the headset engine 210 can invoke the display component 234 to display a first instance of the touch-based operating system user interface on the display of the head-mounted computing device 220 (see FIG. 2). Described in more detail and indicated by reference numeral 234). In embodiments, the headset engine 210 may then invoke a motion detection component 244 that detects a first angular displacement of the head mounted computing device. The first angular displacement is greater than a first threshold angular displacement, and the first threshold angular displacement is an angular displacement with respect to an initial position.

さらに、インターフェース分析部212が、左から右へのスワイプに対応すると共にヘッドマウントコンピューティングデバイスの初期位置に対する右への角変位を左から右へのタッチ式スワイプに関連付けられたタッチ式スクロール機能を検出し、モーション検出コンポーネント244が、初期位置から閾値を上回る右へのヘッドマウントコンピューティングデバイスの角変位を検出し、モーション変換コンポーネント248は、左から右へスワイプする指令が求められていると判定することができる。次に、モーション変換コンポーネント248は、角変位を左から右へのスワイプに対応する命令に変換し、その命令をコマンド生成部213に渡すことができる。コマンド生成部213は、モーション変換コンポーネント248によって示される指令に対応するタッチ式入力を生成し、タッチ式ユーザインターフェース内で指令を実行する。任意の変位がシステムによって検出され、分析され、変換されてもよく、前述の例は例として意図されており、限定として意図されていないことが理解されよう。   Further, the interface analyzer 212 may include a touch-sensitive scroll function corresponding to the left-to-right swipe and the right-hand angular displacement relative to the initial position of the head-mounted computing device associated with the left-to-right touch-type swipe. The motion detection component 244 detects the angular displacement of the head-mounted computing device from the initial position to the right above a threshold, and the motion conversion component 248 determines that a command to swipe from left to right is required. can do. Next, the motion conversion component 248 can convert the angular displacement into a command corresponding to a swipe from left to right, and pass the command to the command generator 213. The command generator 213 generates a touch input corresponding to the command indicated by the motion conversion component 248, and executes the command in the touch user interface. It will be appreciated that any displacement may be detected, analyzed, and converted by the system, and the foregoing examples are intended as examples and not as limitations.

実施形態では、インターフェース分析部212は、互換性のあるタッチ式オペレーティングシステムを検出し、タッチ式ユーザインターフェースを分析して、ユーザインターフェースの第1のインスタンスに関連する少なくとも1つのタッチ式制御ダイアログを検出する。例えば、タッチ式制御ダイアログは、音声出力を可能にするため、または音声出力ボリュームを変更するための、タッチ式オペレーティングシステムに関連するタッチ式コマンド、および/または、例えば、アプリケーションを起動するための、またはアプリケーション要素、テキストフィールドもしくは「送信」要素を選択するための、アプリケーションに関連するタッチ式制御ダイアログを備えてもよい。前述の例は、潜在的なタッチ式制御ダイアログのほんの一部にすぎず、限定を意図するものではないことが理解されよう。   In an embodiment, the interface analyzer 212 detects a compatible touch operating system, analyzes the touch user interface, and detects at least one touch control dialog associated with the first instance of the user interface. I do. For example, the touch control dialog may include a touch command associated with a touch operating system to enable audio output or change the audio output volume, and / or, for example, to launch an application. Alternatively, there may be a touch control dialog associated with the application to select an application element, text field or "send" element. It will be appreciated that the above examples are only a few of the potential touch control dialogs and are not intended to be limiting.

実施形態では、インターフェース分析部212がタッチ式制御ダイアログを検出すると、ヘッドセットエンジン210は、音声入力を監視および処理し、音声入力を分析し、音声入力を関連するタッチ式制御ダイアログに変換するサウンド処理システム250を起動することができる。起動されると、サウンド処理システム250は、制御ダイアログオプションを検出し、識別し、そしてキーワードキューを関連付けるインターフェース分析部212を起動する。実施形態では、インターフェース分析部212は、実行時にユーザインターフェースの第1のインスタンスに関連付けられたソースコードをスキャンして特徴を抽出することによって、タッチ式制御ダイアログを検出する。例えば、インターフェース分析部212がユーザインターフェースの第1のインスタンスに埋め込まれた「ボタン」を検出した場合、インターフェース分析部212はボタンテキストをキーワードキューに関連付ける。実施形態では、インターフェース分析部212は、(ストレージ270などの)ハンズフリーコンピューティングデバイスのメモリに格納されているユーザインターフェースの第1のインスタンスに関連するカスタマイズされたキーワードキューライブラリを検出することができる。実施形態では、インターフェース分析部212は、通信的に結合されたユーザデバイス(ユーザデバイス102aなど)に格納されているカスタマイズされたキーワードキューライブラリを検出することができる。実施形態では、インターフェース分析部212は、(データソース104aなどの)通信可能に結合されたデータソースに格納されているカスタマイズされたキーワードキューライブラリを検出することができる。   In embodiments, when the interface analyzer 212 detects a touch control dialog, the headset engine 210 monitors and processes the audio input, analyzes the audio input, and converts the audio input into an associated touch control dialog. The processing system 250 can be activated. When activated, the sound processing system 250 activates the interface analyzer 212 to detect and identify control dialog options and associate keyword cues. In embodiments, the interface analyzer 212 detects the touch-based control dialog by scanning source code associated with the first instance of the user interface at runtime to extract features. For example, if the interface analyzer 212 detects a "button" embedded in the first instance of the user interface, the interface analyzer 212 associates the button text with the keyword queue. In an embodiment, the interface analyzer 212 may detect a customized keyword queue library associated with the first instance of the user interface stored in a hands-free computing device memory (such as the storage 270). . In embodiments, the interface analyzer 212 may detect a customized keyword queue library stored on a communicatively coupled user device (such as the user device 102a). In embodiments, the interface analyzer 212 may detect a customized keyword queue library stored in a communicatively coupled data source (such as the data source 104a).

ヘッドセットエンジン210は、ディスプレイコンポーネント234を起動して、タッチ式オペレーティングシステムのユーザインターフェースの第1のインスタンスをヘッドマウントコンピュータデバイスのディスプレイに表示する。実施形態では、ヘッドセットエンジン210は、次いで、音声検出コンポーネント252を起動して、例えば、センサ226a−226nまたは音声入力部224を介して受信された音声を検出し、音声入力を音声処理コンポーネント254に渡す。本明細書で使用される際に、音声フィードは、音声入力装置によって取り込まれた音響信号、または音声入力要素によって生成された電気信号のいずれかを指し得る。   The headset engine 210 activates the display component 234 to display a first instance of a touch-based operating system user interface on a display of the head-mounted computing device. In embodiments, the headset engine 210 then invokes the audio detection component 252 to detect audio received, for example, via the sensors 226a-226n or the audio input 224, and to convert the audio input to the audio processing component 254. Pass to As used herein, an audio feed may refer to either an acoustic signal captured by an audio input device or an electrical signal generated by an audio input element.

コマンド生成部213がタッチ式ユーザインターフェース内で指令を実行することに応じて、ヘッドセットエンジン210は次に、ディスプレイコンポーネント234に指示して、タッチ式オペレーティングシステムのユーザインターフェースの第2のインスタンスをヘッドマウントコンピューティングデバイスのディスプレイに表示させる。   In response to command generator 213 executing the command in the touch-based user interface, headset engine 210 then directs display component 234 to print a second instance of the touch-based operating system user interface. Display on the display of the mount computing device.

次に図4を参照すると、図3を参照して説明したヘッドセットによって少なくとも部分的に実施することができる例示的なモーション式ハンズフリー対話モード400を示すブロック図が提供されている。実施形態では、ヘッドセットエンジンは、モーション処理システム242に関連付けられたハンズフリー対話モード402を開始する。ハンズフリー対話モード402は、インターフェース分析部を起動して、ユーザインターフェースの第1のインスタンス内のタッチ式スクロール機能を検出し、タッチ式スクロール機能を第1の角変位と関連付けることを含み得る。ブロック404において、ハンズフリーコンピューティングデバイスの初期位置が検出され、初期基準配向が判定される。実施形態では、これは、図3を参照して説明したように、較正制御コンポーネント246によって行われてもよい。実施形態では、較正制御コンポーネント246は、基準配向をリセットするために任意の時点でユーザによって再起動されてもよい。例えば、ユーザは、最初の基準配向が判定された時点で、ハンズフリーナビゲーション中にその位置を維持することは望ましくないであろう奇妙なまたは不快な位置に頭をおくことがあるので、ユーザは、基準配向が再判定され得るように、較正制御コンポーネント246を再起動し得る。実施形態では、ヘッドマウントコンピューティングデバイス220は、較正制御コンポーネント246を再起動することに関連するボタン(物理的入力要素238など)を有することができる。さらに、又は代替的に、一実施形態では、所定の音声コマンドが、較正制御コンポーネントを再起動することに関連付けられる。   Referring now to FIG. 4, a block diagram is provided illustrating an exemplary motion-based hands-free interaction mode 400 that may be implemented, at least in part, by the headset described with reference to FIG. In an embodiment, the headset engine initiates a hands-free interaction mode 402 associated with the motion processing system 242. The hands-free interaction mode 402 may include launching an interface analyzer to detect a touch scroll function in a first instance of a user interface and associate the touch scroll function with a first angular displacement. At block 404, an initial position of the hands-free computing device is detected and an initial reference orientation is determined. In embodiments, this may be performed by the calibration control component 246, as described with reference to FIG. In embodiments, the calibration control component 246 may be restarted by the user at any time to reset the reference orientation. For example, the user may be headed to a strange or unpleasant position where it would not be desirable to maintain that position during hands-free navigation once the initial reference orientation has been determined, , The calibration control component 246 may be restarted so that the reference orientation may be re-determined. In embodiments, the head-mounted computing device 220 may have a button (such as a physical input element 238) associated with restarting the calibration control component 246. Additionally or alternatively, in one embodiment, a predetermined voice command is associated with restarting the calibration control component.

ブロック406で、ディスプレイはユーザインターフェースの第1のインスタンスを示す。実施形態では、これは、図3を参照して説明したようにヘッドセットエンジン210によって行われる。ブロック408で、図3を参照して説明したように、ヘッドマウントコンピューティングデバイスの移動がモーション検出コンポーネント244によって検出される。ブロック410で、検出された移動は、図3を参照して説明したように、モーション検出コンポーネント244によってタッチ式スクロール機能に関連する角度閾値を超えたと判定される。ブロック412で、検出された変位は、モーション変換コンポーネント248によって、タッチ式スクロール機能に関連するタッチ式スクロール指令に変換される。さらに、コマンドが、タッチ式インターフェースの第1のインスタンス内で生成され実行される。ブロック414で、タッチ式スクロールコマンドの実行に応じて、ユーザインターフェースの第2のインスタンスが表示される。方法400は、必要に応じて何度でも繰り返し方式で実行することができることが理解されよう。   At block 406, the display shows a first instance of the user interface. In an embodiment, this is performed by the headset engine 210 as described with reference to FIG. At block 408, movement of the head mounted computing device is detected by the motion detection component 244, as described with reference to FIG. At block 410, the detected movement is determined by the motion detection component 244 to have exceeded an angular threshold associated with the touch scrolling function, as described with reference to FIG. At block 412, the detected displacement is converted by the motion conversion component 248 into a touch scroll command associated with the touch scroll function. Further, a command is generated and executed within the first instance of the touch-based interface. At block 414, a second instance of the user interface is displayed in response to execution of the touch scroll command. It will be appreciated that the method 400 can be performed in an iterative manner as many times as necessary.

実施形態では、モーション式ハンズフリー対話モードのいくつかのプロセスは、図3を参照して説明したようにヘッドマウントコンピューティングデバイス302、220と通信可能に接続されたユーザデバイス(ユーザデバイス102aなど)によって少なくとも部分的に完了してもよい。   In an embodiment, some processes of the motion-based hands-free interaction mode may include a user device (such as user device 102a) communicatively connected to the head-mounted computing devices 302, 220 as described with reference to FIG. May be at least partially completed.

次に図4bを参照すると、図3に示されるヘッドセットによって少なくとも部分的に実施され得る例示的な音声式ハンズフリー対話モード416を示すブロック図が提供される。実施形態では、ヘッドセットエンジンは、サウンド処理システム250に関連するハンズフリー対話モード418を開始する。ハンズフリー対話モード418を開始することは、インターフェース分析部を起動して、ユーザインターフェースの第1のインスタンス内で、少なくとも1つのタッチ式制御ダイアログを検出することを含み得る。ブロック420で、少なくとも1つのタッチ式制御ダイアログが識別され、キーワードキューと関連付けられる。実施形態では、インターフェース分析部は、タッチ式ユーザインターフェース内で実行されているアプリケーションのソースコードを分析し、アプリケーションソースコード内のタッチ式制御ダイアログに関連付けられている名前を識別することができる。次いで、インターフェース分析部は、アプリケーションソースコードからの名前と実質的に同様のキーワードキューを生成し、生成されたキーワードキューをタッチ式制御ダイアログと関連付けることができる。たとえば、タッチ式ユーザインターフェースがアプリケーションの構造図を表示していて、アプリケーション内にズーム機能を開くタッチ式コントロールダイアログがある場合、インターフェース分析部はリアルタイムで、アプリケーションのソースコードにアクセスし、ズーム機能をエンコードしているコードの部分を識別し、その機能が「ズーム」と命名されていることを検出し、キーワードキュー「ズーム」を生成し、生成されたキーワードキュー「ズーム」を、ズーム機能を開くタッチ式制御ダイアログと関連付ける。実施形態では、インターフェース分析部は、図7Bを参照して詳細に説明するように、タッチ式制御ダイアログをキーワードキューと関連付けるときに、予め決められた又はカスタムキーワードキューライブラリを参照してもよい。   Referring now to FIG. 4b, there is provided a block diagram illustrating an exemplary spoken hands-free interaction mode 416 that may be implemented at least partially by the headset shown in FIG. In an embodiment, the headset engine initiates a hands-free interactive mode 418 associated with the sound processing system 250. Initiating the hands-free interaction mode 418 may include activating the interface analyzer to detect at least one touch-based control dialog within the first instance of the user interface. At block 420, at least one touch control dialog is identified and associated with a keyword cue. In embodiments, the interface analyzer may analyze the source code of an application running in the touch-based user interface and identify a name associated with the touch-based control dialog in the application source code. The interface analyzer may then generate a keyword cue substantially similar to the name from the application source code and associate the generated keyword cue with the touch control dialog. For example, if the touch-based user interface displays a structural view of the application and the application has a touch-based control dialog that opens a zoom function, the interface analyzer can access the application source code in real time and use the zoom function. Identify the part of the code that is encoding, detect that the function is named "Zoom", generate the keyword queue "Zoom", open the generated keyword queue "Zoom", and open the zoom function Associate with the touch control dialog. In embodiments, the interface analyzer may refer to a predetermined or custom keyword cue library when associating the touch control dialog with the keyword cue, as described in more detail with reference to FIG. 7B.

ブロック422で、ディスプレイはユーザインターフェースの最初のインスタンスを表示する。実施形態では、ヘッドセットエンジン210は、図3を参照して説明したようにユーザインターフェースの表示を調整する。実施形態では、ブロック424で、第1のユーザインターフェースでインターフェース分析部に識別されたキーワードキューの少なくとも1つの視覚的指標を含むグラフィカルオーバーレイを第1のユーザインターフェース上に同時に表示することができる。さらなる実施形態では、視覚的指標は、図
を参照して図示および説明したように、タッチ式制御ダイアログの位置に実質的に近接して配置され得る。
At block 422, the display displays a first instance of the user interface. In an embodiment, the headset engine 210 adjusts the display of the user interface as described with reference to FIG. In an embodiment, at block 424, a graphical overlay including at least one visual indicator of a keyword cue identified in the first user interface to the interface analyzer may be simultaneously displayed on the first user interface. In a further embodiment, the visual indicia may be located substantially proximate to the location of the touch control dialog, as shown and described with reference to the figures.

ブロック426で、可聴入力がヘッドセットによって検出される。実施形態では、可聴入力、例えばユーザによって話されたフレーズ「ズーム」によって、音声入力部224によって最初に検出されてもよい。次いで、音声入力部224は、話されたフレーズ「ズーム」を音声フィードに変換し、音声フィードを音声検出コンポーネント252に渡すことができる。音声検出コンポーネント252は、次に音声処理コンポーネント254を起動することができる。   At block 426, an audible input is detected by the headset. In embodiments, the audible input, for example, the phrase “zoom” spoken by the user, may be first detected by the voice input 224. The audio input 224 may then convert the spoken phrase “zoom” into an audio feed and pass the audio feed to the audio detection component 252. The audio detection component 252 can then invoke the audio processing component 254.

ブロック428で、音声入力が処理され分析されて、可聴入力がキーワードキュー、したがってタッチ式制御ダイアログと一致するかどうかが判定される。実施形態では、音声処理コンポーネント254は、音声フィードを処理するために、音声認識アルゴリズム、ノイズ低減アルゴリズム、スピーチからテキストへのアルゴリズム、機械学習アルゴリズムなどを使用することができる。例えば、音声フィードは、周囲の雑音、付随的な雑音、または背景雑音からユーザによって話されたフレーズ「ズーム」を分離するために処理され得る。次いで、音声処理コンポーネント254は、処理された音声フィードを分析し、処理された音声フィードをキーワードキューと比較して、処理された音声フィードがキーワードキューと一致するかどうかを判定することができる。   At block 428, the audio input is processed and analyzed to determine whether the audible input matches the keyword cue, and thus the touch control dialog. In embodiments, the speech processing component 254 may use speech recognition algorithms, noise reduction algorithms, speech-to-text algorithms, machine learning algorithms, etc. to process the speech feed. For example, the audio feed may be processed to separate the phrase "zoom" spoken by the user from ambient noise, incidental noise, or background noise. The audio processing component 254 can then analyze the processed audio feed and compare the processed audio feed to a keyword queue to determine whether the processed audio feed matches the keyword queue.

ブロック430で、検出されたキーワードキューに関連するタッチ式制御ダイアログに対応するタッチ式コマンドが生成され、コマンドはタッチ式ユーザインターフェースの第1のインスタンス内で実行される。言い換えれば、音声フィードがキーワードキューと一致すると音声処理コンポーネントが判断した場合、音声変換コンポーネントは、一致したキーワードキューを関連する制御ダイアログに変換する。次に、音声変換コンポーネントは、タッチ式制御ダイアログと同等のコマンドを生成コマンド生成部に制御ダイアログを渡す。生成されたコマンドは、その後、タッチ式ユーザインターフェース内のヘッドセットエンジンによって実行される。例えば、音声処理コンポーネントがフレーズ「ズーム」をキーワードキュー「ズーム」に一致させると、音声変換コンポーネントは、キーワードキュー「ズーム」を、ズーム制御ダイアログを選択することと等価な指令に変換する。その後、指令はコマンド生成部に渡され、コマンド生成部は、ズームタッチ式制御ダイアログのタッチ式ユーザ選択と等価なコマンドを生成する。次に、コマンドがタッチ式ユーザインターフェース内のヘッドセットエンジンによって実行され、ズーム機能が有効になる。方法416は、必要に応じて何度でも反復的に実行することができることが理解されよう。   At block 430, a touch-sensitive command corresponding to the touch-sensitive control dialog associated with the detected keyword cue is generated, and the command is executed within the first instance of the touch-sensitive user interface. In other words, if the audio processing component determines that the audio feed matches the keyword cue, the audio conversion component converts the matched keyword cue to an associated control dialog. Next, the voice conversion component passes the control dialog to the generation command generation unit a command equivalent to the touch type control dialog. The generated command is then executed by the headset engine in the touch-based user interface. For example, if the audio processing component matches the phrase "zoom" with the keyword queue "zoom", the audio conversion component converts the keyword queue "zoom" into a command equivalent to selecting a zoom control dialog. Thereafter, the command is passed to the command generator, and the command generator generates a command equivalent to the touch-type user selection of the zoom touch-type control dialog. Next, the command is executed by the headset engine in the touch-based user interface to enable the zoom function. It will be appreciated that the method 416 can be performed iteratively as many times as necessary.

ここで図4cを参照すると、図3に示すヘッドセットによって少なくとも部分的に実施することができる例示的なモーション式および音声式のハンズフリー対話モードを示すブロック図が提供されている。ブロック440において、ハンズフリー対話モードが開始される。図3に参照して説明したように、ユーザインターフェースの第1のインスタンスに関連する少なくとも1つのタッチ式コマンドを検出するためにタッチ式OSを分析する。例えば、インターフェース分析部は、例えばタッチ式オペレーティングシステムの異なるメニュー画面にナビゲートするためのユーザインターフェースの第1のインスタンスがタッチ式スクロール機能を備えることを検出してもよく、インターフェース分析部212は、ユーザインターフェースの第1のインスタンスが、例えば、タッチ式オペレーティングシステムにインストールされているアプリケーションを開くためのタッチ式制御ダイアログを備えることを検出してもよい。   Referring now to FIG. 4c, a block diagram is provided illustrating an exemplary motion-based and audio-based hands-free interaction mode that may be implemented at least partially by the headset shown in FIG. At block 440, a hands-free interaction mode is initiated. Analyze the touch-based OS to detect at least one touch-based command associated with the first instance of the user interface, as described with reference to FIG. For example, the interface analyzer may detect that the first instance of the user interface, for example for navigating to a different menu screen of the touch operating system, comprises a touch scroll function, and the interface analyzer 212 may include: The first instance of the user interface may, for example, detect that it comprises a touch control dialog for opening an application installed on the touch operating system.

次に、ヘッドセットエンジン210は、ハンズフリー移動プロトコル436を起動し、ハンズフリー音声プロトコル438を起動させることができる。実施形態では、ハンズフリー移動プロトコル436は、モーション式ハンズフリー対話モード400のプロセスの一部、または全部を備え得る。例えば、ヘッドセットエンジン210は、較正制御コンポーネント246を起動して、1つ又は複数の軸に対するヘッドマウントコンピューティングデバイスの向きを含むヘッドマウントコンピューティングデバイスの初期位置を判定することができる。実施形態では、ハンズフリー音声プロトコル438は、音声式ハンズフリー対話モード416の一部、全部、または代替的なプロセスを備え得る。例えば、ヘッドセットエンジンは、音声式ハンズフリーナビゲーションを可能にするために制御ダイアログ検出モジュールを起動することができる。ヘッドセットエンジンは、ハンズフリー移動プロトコル436およびハンズフリー音声プロトコル438を任意の順序でまたは同時に開始させることができることが理解されよう。   Next, the headset engine 210 can invoke the hands-free movement protocol 436 and activate the hands-free voice protocol 438. In embodiments, the hands-free movement protocol 436 may comprise some or all of the process of the motion-based hands-free interaction mode 400. For example, the headset engine 210 can invoke the calibration control component 246 to determine an initial position of the head mounted computing device, including the orientation of the head mounted computing device with respect to one or more axes. In embodiments, hands-free voice protocol 438 may comprise some, all, or an alternative process of voice-based hands-free interaction mode 416. For example, the headset engine can invoke a control dialog detection module to enable audio hands-free navigation. It will be appreciated that the headset engine may initiate the hands-free movement protocol 436 and the hands-free voice protocol 438 in any order or simultaneously.

ヘッドセットの初期基準方位が判定され、タッチ式制御ダイアログがキーワードキューに関連付けられると、ブロック440に示すように、タッチ式ユーザインターフェースの第1のインスタンスが表示される。ブロック442で、モーション検出コンポーネントおよび音声検出コンポーネントは、図4Aおよび図4Bを参照して説明したように、ヘッドセットI/Oシステムからの入力データを監視、検出、および分析する。   Once the initial reference heading of the headset has been determined and the touch control dialog has been associated with the keyword cue, a first instance of the touch user interface is displayed, as shown in block 440. At block 442, the motion detection component and the audio detection component monitor, detect, and analyze input data from the headset I / O system as described with reference to FIGS. 4A and 4B.

ブロック444で、移動が検出されると、モーション検出コンポーネントは、ブロック410を参照して説明したように、移動が関連閾値を超えているかどうかを判定する。関連閾値を超えた場合、ブロック412及び414で説明したように、ブロック446で表示が調整される。関連する閾値を超えていない場合、システムはブロック442に戻る。   At block 444, when a movement is detected, the motion detection component determines whether the movement has exceeded an associated threshold, as described with reference to block 410. If the associated threshold is exceeded, the display is adjusted at block 446, as described at blocks 412 and 414. If the associated threshold has not been exceeded, the system returns to block 442.

ブロック448で、音声入力が検出されると、音声処理コンポーネントは、ブロック428を参照して説明したように、音声入力がキーワードキューと一致するかどうかを判定する。音声入力がキーワードキューと一致する場合、ブロック430を参照して説明したように、関連する制御ダイアログに等価なタッチ式コマンドがブロック450で実行される。方法432は、必要に応じて何度でも反復的に実行することができることが理解されよう。   At block 448, if a speech input is detected, the speech processing component determines whether the speech input matches the keyword cue, as described with reference to block 428. If the voice input matches the keyword cue, a touch-sensitive command equivalent to the associated control dialog is executed at block 450, as described with reference to block 430. It will be appreciated that the method 432 can be performed iteratively as many times as necessary.

ここで図5を参照すると、タッチ式オペレーティングシステムとのハンズフリー対話を促進する例示的な多軸モーション式の方法500を示すブロック図が提供されている。言い換えれば、方法500は、互換性のあるヘッドセットと共に利用されるときに、タッチ式オペレーティングシステムとの単純で複雑なモーション式ハンズフリー対話を促進する。例示的な例として、ブロック510において、互換性のあるヘッドセットを装着しているユーザがハンズフリーナビゲーションインタフェースを開始させる。前述のように、ヘッドセットの初期基準方位は、中立位置で前方を向くことと等価であると判定される。ブロック512で、ヘッドセットは移動を検出する。例えば、ユーザは、頭を中立から右へ、そして同時に上に向ける。ブロック514で、システムは、移動が第1の軸内にあるかどうかを判定する。例えば、第1の軸における移動は、初期基準位置からx軸に向かって(ユーザの右に)z軸を中心にした回転であり得る。言い換えれば、システムは、ユーザが自分の頭を正面から右に向けた(回転)したことを検出することができる。また、ブロック516で、システムは、移動が第2の軸で発生したかどうかを判定する。例えば、第2の軸における移動は、初期基準位置からz軸に向かって(着用者の視点から見て上向きに)x軸を中心にした回転であり得る。言い換えれば、システムは、ユーザが自分の頭をy軸に実質的に平行な位置からz軸に向けた(回転)したことを検出することができる。   Referring now to FIG. 5, a block diagram is provided illustrating an exemplary multi-axis motion-based method 500 for facilitating hands-free interaction with a touch-based operating system. In other words, the method 500, when utilized with a compatible headset, facilitates a simple and complex motion-based hands-free interaction with a touch-based operating system. As an illustrative example, at block 510, a user wearing a compatible headset initiates a hands-free navigation interface. As described above, the initial reference orientation of the headset is determined to be equivalent to pointing forward at the neutral position. At block 512, the headset detects movement. For example, the user turns his head from neutral to right, and simultaneously up. At block 514, the system determines whether the movement is within the first axis. For example, the movement in the first axis can be a rotation about the z-axis from the initial reference position toward the x-axis (to the right of the user). In other words, the system can detect that the user has turned (turned) his head from the front to the right. Also, at block 516, the system determines whether the movement has occurred on the second axis. For example, the movement in the second axis may be a rotation about the x-axis from the initial reference position toward the z-axis (upward from the wearer's point of view). In other words, the system can detect that the user has turned (rotated) his head from a position substantially parallel to the y-axis to the z-axis.

ブロック518において、システムは、第1の軸における移動が第1の軸閾値を超えたかどうかを判定する。第1軸閾値は、例えば、初期基準位置から±10度であるように予め判定され得る。システムが最初の軸で±10度を超える変位を検出した場合、システムは閾値を超えたと判断する。システムが最初の軸で±10度以下の変位を検出した場合、システムは閾値を超えていないと判断する。例えば、ユーザが自分の頭を20度右に向けた場合、システムは第1軸閾値を超えたと判断するであろう。   At block 518, the system determines whether the movement in the first axis has exceeded a first axis threshold. The first axis threshold value may be determined in advance to be, for example, ± 10 degrees from the initial reference position. If the system detects a displacement in the first axis that exceeds ± 10 degrees, the system determines that the threshold has been exceeded. If the system detects a displacement of ± 10 degrees or less on the first axis, the system determines that the threshold has not been exceeded. For example, if the user turns his head 20 degrees to the right, the system will determine that the first axis threshold has been exceeded.

ブロック520において、システムは、第2の軸における移動が第2の軸閾値を超えたかどうかを判定する。第2軸閾値は、例えば、初期基準位置から±10度になるように予め定められ得る。システムが第2の軸において±10度を超える変位を検出した場合、システムは閾値を超えたと判断する。システムが±10度以下の第2の軸の変位を検出した場合、システムは閾値を超えていないと判断する。例えば、ユーザが頭を20度上に向けた場合、システムは第2の軸閾値を超えたと判断するであろう。   At block 520, the system determines whether the movement in the second axis has exceeded a second axis threshold. The second axis threshold value may be predetermined so as to be, for example, ± 10 degrees from the initial reference position. If the system detects a displacement in the second axis that exceeds ± 10 degrees, the system determines that the threshold has been exceeded. If the system detects a displacement of the second axis of less than ± 10 degrees, the system determines that the threshold has not been exceeded. For example, if the user turns his head up 20 degrees, the system will determine that the second axis threshold has been exceeded.

ブロック522で、システムは多軸入力に関連するタッチ式スクロール機能を実行し、タッチ式ユーザインターフェースの第2のインスタンスを表示する。実施形態では、多軸入力は、2つの独立したタッチ式スクロール機能を表してもよい。前の例を続けると、多軸入力(右および上)は、水平スクロールバーを右に所定の数のスクロール単位だけ動かすこと、および垂直スクロールバーを所定の数のスクロール単位だけ上に動かすことに対応し得る。実施形態では、多軸入力は単一のタッチ式スクロール機能を表してもよい。例えば、多軸入力(右上)は、垂直スクロールバーを表示されている文書の全ページに相当する数のスクロール単位だけ移動させることに対応し得る。   At block 522, the system performs a touch scroll function associated with the multi-axis input and displays a second instance of the touch user interface. In embodiments, the multi-axis input may represent two independent touch scroll functions. Continuing with the previous example, multi-axis input (right and up) involves moving the horizontal scroll bar to the right by a predetermined number of scroll units and moving the vertical scroll bar up by a predetermined number of scroll units. Can respond. In embodiments, the multi-axis input may represent a single touch scroll function. For example, multi-axis input (upper right) may correspond to moving the vertical scroll bar by a number of scroll units corresponding to all pages of the displayed document.

ブロック516に戻って、移動が第1の軸においてのみ検出される場合、システムは、ブロック524において、移動が第1の軸閾値を超えたかどうかを判定する。移動が第1の軸閾値を超えなかった場合、システムはブロック512に戻る。移動が第1の軸閾値を超えた場合、ブロック526において、システムは、第1の軸入力に関連付けられたタッチ式スクロール機能を実行し、タッチ式ユーザインターフェースの第2のインスタンスを表示する。   Returning to block 516, if movement is detected only on the first axis, the system determines at block 524 whether the movement has exceeded the first axis threshold. If the movement has not exceeded the first axis threshold, the system returns to block 512. If the movement exceeds the first axis threshold, at block 526, the system performs a touch scroll function associated with the first axis input and displays a second instance of the touch user interface.

ブロック518に戻って、検出された移動が第1の軸の閾値を超えない場合、システムはブロック528に進む。ブロック528で、システムは移動が第2の軸閾値を超えたかどうかを判定する。移動が第2の軸閾値を超えなかった場合、システムはブロック512に戻る。移動が第2の軸閾値を超えた場合、ブロック530において、システムは、第2の軸入力に関連するタッチ式スクロール機能を実行し、タッチ式ユーザインターフェースの第2のインスタンスを表示する。   Returning to block 518, if the detected movement does not exceed the first axis threshold, the system proceeds to block 528. At block 528, the system determines whether the movement has exceeded a second axis threshold. If the movement has not exceeded the second axis threshold, the system returns to block 512. If the movement exceeds the second axis threshold, at block 530, the system performs a touch scroll function associated with the second axis input and displays a second instance of the touch user interface.

例示的な方法500に関して提供された例は、本開示の範囲内の可能な多軸入力および関連するタッチ式スクロールコマンドのサブセットのみを表し、これらの実施例は単なる例示であって限定として解釈されることを意図するものではないことが理解されよう。   The examples provided with respect to the example method 500 represent only a subset of the possible multi-axis inputs and associated touch scroll commands within the scope of the present disclosure, and these examples are merely illustrative and are to be construed as limiting. It should be understood that this is not intended.

ここで図6Aを参照すると、開示された発明の実施形態と一致する可能なユースケースを示す例示的な図が提供されている。図6Aは、図の明瞭さを確保するために実施形態のシステムおよびコンポーネントのサブセットのみを含む。ハンズフリーナビゲーションインターフェースを開始した後、互換性のあるヘッドセットを装着しているユーザに、ディスプレイを介して、ユーザが構築している建物に関連するブループリント602の第1の部分が提示される。ブループリント602の第1の部分に関連する建物600の領域を検査した後、ユーザは自分の頭を左に向けることができる。604において、システムは、第1の軸、この場合はx軸における移動を検出し、第1の軸における移動が第1の軸閾値を超えたと判定する。次にシステムは、その移動を、左へのスクロールと等価のタッチ式スクロール機能に関連するコマンドに変換する。その後、システムはタッチ式ユーザインターフェース内でコマンドを実行する。次にシステムは、タッチ式ユーザインターフェースの第2のインスタンスを表示する。ここで、コマンドは、表示されたブループリント内を所定の距離だけ左にスクロールすることをもたらし、ディスプレイはブループリント606の第2の部分を示す。   Referring now to FIG. 6A, an exemplary diagram is provided illustrating possible use cases consistent with embodiments of the disclosed invention. FIG. 6A includes only a subset of the systems and components of the embodiments for clarity of the illustration. After initiating the hands-free navigation interface, a user wearing a compatible headset is presented, via a display, with a first portion of a blueprint 602 relating to the building the user is building. . After inspecting the area of the building 600 associated with the first portion of the blueprint 602, the user can turn his head to the left. At 604, the system detects movement in a first axis, in this case, the x-axis, and determines that movement in the first axis has exceeded a first axis threshold. The system then translates the movement into a command related to a touch-based scrolling function equivalent to scrolling to the left. Thereafter, the system executes the command within the touch-based user interface. Next, the system displays a second instance of the touch-based user interface. Here, the command causes the displayed blueprint to scroll left by a predetermined distance, and the display shows the second portion of blueprint 606.

ここで図6Bを参照すると、開示された発明の実施形態と一致する他の可能なユースケースを示す例示的な図が提供されている。図6Bは、図の明確さを確保するために実施形態のシステムおよびコンポーネントのサブセットのみを含む。ハンズフリーナビゲーションインターフェースを開始し、スクロールバー位置616aで垂直スクロールバーとスクロールバー位置614aで水平スクロールバーとを検出した後、互換性のあるヘッドセットを装着しているユーザに、ディスプレイを通してユーザが構築している建物に関連する経費報告書612の最初のページが表示される。経費報告書612の最初のページを検討した後、ユーザは自分の頭を下に回転させることができる。618において、ヘッドセットは、x軸周りの角変位を検出し、そして第1の軸におけるモーションが第1の軸閾値を超えると判定し得る。次にシステムは、その移動を、スクロールバー位置616aからスクロールバー位置616bまで所定の距離だけ下方に移動させることに関連するコマンドに変換する。その後、システムはタッチ式ユーザインターフェース内でコマンドを実行する。次にシステムは、タッチ式ユーザインターフェースの第2のインスタンスを表示する。ここで、ディスプレイは、経費報告書620の第2ページを表示する。   Referring now to FIG. 6B, an exemplary diagram illustrating another possible use case consistent with embodiments of the disclosed invention is provided. FIG. 6B includes only a subset of the systems and components of the embodiments for clarity of the illustration. After launching the hands-free navigation interface and detecting a vertical scroll bar at scroll bar position 616a and a horizontal scroll bar at scroll bar position 614a, the user is prompted through a display to a user wearing a compatible headset. The first page of expense report 612 relating to the building in question is displayed. After reviewing the first page of expense report 612, the user can rotate his head down. At 618, the headset may detect angular displacement about the x-axis and determine that motion in the first axis exceeds a first axis threshold. The system then translates the movement into a command associated with moving the scrollbar position 616a downward a predetermined distance from the scrollbar position 616b. Thereafter, the system executes the command within the touch-based user interface. Next, the system displays a second instance of the touch-based user interface. Here, the display displays the second page of the expense report 620.

ここで図7Aを参照すると、タッチ式オペレーティングシステムのタッチ式ユーザインターフェース内で実行されるコマンドへの音声入力の正確な変換を概して促進する方法700を示すフローダイアグラムが提供される。まず、ブロック701に示されるように、方法は、ヘッドセットセンサから入力データを受信することを含む。さらに、ブロック702で、方法は、受信した入力データが音声フィードであるかどうかを判定することを含み得る。例えば、タッチ式制御ダイアログに関連付けられた音声入力が検出され得る。いくつかの態様では、ブロック704で、方法は音声入力を分析することを含む。実施形態において、音声フィードは、コンピュータベースの音声認識技術を使用して処理され、音声入力を識別する。ブロック706で、方法は、分析された音声入力がキーワードキューと一致するかどうかを判定し得る。実施形態では、分析された音声入力は、制御ダイアログ検出部によるタッチ式制御ダイアログに関連付けられた生成されたキーワードキューと比較される。音声入力がキーワードキューに一致するかどうかを判断するために、1つまたは複数の音声―テキスト一致アルゴリズムを使用できることを理解されたい。実施形態では、タッチ式制御ダイアログは、タッチ式オペレーティングシステムで実行されるモバイルアプリケーションに関連付けられてもよい。実施形態では、ブロック708で、方法は、音声入力と一致するキーワードキューがハンズフリー対話モードを一時停止する命令に対応するかどうかを判定することを含む。例えば、方法は、キーワードキューが音声入力コンポーネントをパッシブモードに設定する命令に対応するかどうかを判定してもよい。これに関連して、パッシブモードとは、ハンズフリー対話モード内でヘッドセットセンサや音声入力システムの分析を(少なくとも一時的に)一時停止することを指す。しかし、実施形態では、ヘッドセットセンサおよび/または音声入力システムは、他のプロセスで使用するためにアクティブのままとされる。つまり、ヘッドセットセンサおよび/または音声入力システムは、タッチ式オペレーティングシステム内で実行されているアプリケーションにデータを送信し続ける可能性がある。たとえば、ハンズフリー対話モードを使用してビデオチャットアプリケーションからのビデオチャットリクエストに応答した後、ユーザはパッシブモードに関連付けられたキーワードキューを話すことで、ハンズフリー対話モードをパッシブモードにすることができるが、ビデオチャットアプリケーション内でヘッドセットのマイクとカメラを使用することは続けられる。   Referring now to FIG. 7A, a flow diagram is provided illustrating a method 700 that generally facilitates accurate conversion of speech input into commands executed within a touch-based user interface of a touch-based operating system. First, as shown at block 701, the method includes receiving input data from a headset sensor. Further, at block 702, the method may include determining whether the received input data is an audio feed. For example, a voice input associated with a touch control dialog may be detected. In some aspects, at block 704, the method includes analyzing the audio input. In embodiments, the audio feed is processed using computer-based speech recognition techniques to identify audio input. At block 706, the method may determine whether the analyzed speech input matches a keyword cue. In an embodiment, the analyzed speech input is compared to a generated keyword cue associated with the touch-based control dialog by the control dialog detector. It should be understood that one or more speech-text matching algorithms can be used to determine whether a speech input matches a keyword cue. In embodiments, the touch control dialog may be associated with a mobile application running on a touch operating system. In an embodiment, at block 708, the method includes determining whether a keyword cue that matches the voice input corresponds to an instruction to suspend the hands-free interaction mode. For example, the method may determine whether the keyword cue corresponds to an instruction to set the voice input component to passive mode. In this context, passive mode refers to pausing (at least temporarily) analyzing a headset sensor or voice input system within a hands-free interactive mode. However, in embodiments, the headset sensor and / or the voice input system remain active for use in other processes. That is, the headset sensor and / or voice input system may continue to transmit data to applications running within the touch-based operating system. For example, after responding to a video chat request from a video chat application using the hands-free interaction mode, the user can put the hands-free interaction mode into the passive mode by speaking the keyword queue associated with the passive mode. However, the use of headset microphones and cameras in video chat applications will continue.

本方法の実施形態では、ブロック710で、キーワードキューが音声入力をパッシブモードに設定するに指令に関連付けられていると判定されることに応じて、音声入力はパッシブモードに設定される。いくつかの実施形態では、ブロック712で、パッシブモードを解除するコマンドが受信され、方法はブロック702に戻る。実施形態では、パッシブモードを解除するコマンドは、ヘッドセットに配置された物理入力要素(ボタンなど)に関連付けられ得る。ブロック708に戻ると、実施形態では、キーワードキューがパッシブモード指令以外のものである場合、タッチ式制御ダイアログコマンドが生成され、タッチ式ユーザインターフェース内で実行される。   In an embodiment of the method, at block 710, the voice input is set to passive mode in response to determining that the keyword cue is associated with a command to set the voice input to passive mode. In some embodiments, at block 712, a command to exit passive mode is received, and the method returns to block 702. In embodiments, the command to exit passive mode may be associated with a physical input element (such as a button) located on the headset. Returning to block 708, in embodiments, if the keyword cue is other than a passive mode command, a touch control dialog command is generated and executed within the touch user interface.

ここで図7Bを参照すると、音声入力をキーワードキューと比較するための例示的な方法716を示す図7Aに示されるフローダイアグラムの一部が提供される。例示的な方法716は、概して、音声入力を、生成されたキーワードキュー、カスタムキーワードキュー、および補助キーワードキューと比較することを促進する。図7Aを参照して説明したように、ブロック704で、方法は、音声入力を分析することを含む。ブロック718で、分析された音声入力は、インターフェース分析部によって生成されたキーワードキューと比較され得る。前述のように、キーワードキューは、ユーザインターフェースの第1のインスタンスに関連付けられたソースコードを分析することにより、インターフェース分析部によって識別および生成され得る。   Referring now to FIG. 7B, a portion of the flow diagram shown in FIG. 7A is provided that illustrates an exemplary method 716 for comparing speech input to a keyword cue. The example method 716 generally facilitates comparing audio input with the generated keyword cues, custom keyword cues, and auxiliary keyword cues. As described with reference to FIG. 7A, at block 704, the method includes analyzing the audio input. At block 718, the analyzed speech input may be compared to a keyword cue generated by the interface analyzer. As described above, the keyword queue may be identified and generated by the interface analyzer by analyzing the source code associated with the first instance of the user interface.

いくつかの実施形態では、ブロック720で、分析された音声入力をカスタムキーワードキューライブラリ722と比較することができる。したがって、ユーザはカスタマイズされたキーワードキューを作成し、カスタマイズされたキーワードキューをタッチ式制御ダイアログに関連付けることができる。実施形態では、このカスタムキーワードライブラリは、少なくとも部分的に、インターフェース分析部によって生成されたキーワードキューに取って代わることができる。実施形態において、キーワードキューは、ユーザインターフェースの特定の第1のインスタンスに関連付けられたカスタマイズされたまたは所定のキーワードキュー制御ダイアログの組み合わせであり得る。   In some embodiments, the analyzed speech input may be compared to a custom keyword cue library 722 at block 720. Thus, a user can create a customized keyword cue and associate the customized keyword cue with the touch control dialog. In embodiments, the custom keyword library may at least partially replace a keyword cue generated by the interface analyzer. In embodiments, the keyword queue may be a combination of customized or predetermined keyword queue control dialogs associated with a particular first instance of the user interface.

実施形態において、ブロック724において、分析された音声入力は、補助キーワードキューライブラリ728と比較され得る。実施形態において、補助キーワードキューライブラリは、タッチ式制御ダイアログに関連する複数のキーワードキューを含むテーブルを含み得る。たとえば、インターフェース分析部が発音できないタッチ式コントロールダイアログを識別する場合、インターフェース分析部は、発音できないコントロールダイアログに関連付けられている補助キーワードキューライブラリから少なくとも1つの補助キーワードキューを自動的に置き換え得る。加えて、および/または代替として、タッチ式ユーザインターフェースの第1のインスタンスが、実質的に同様の生成されたキーワードキューをもたらす複数のタッチ式制御ダイアログを含む場合、補助キーワードキューライブラリは、同じように代替キーワードキューを提供し得る。   In an embodiment, at block 724, the analyzed speech input may be compared to an auxiliary keyword cue library 728. In embodiments, the auxiliary keyword cue library may include a table containing a plurality of keyword cues associated with the touch control dialog. For example, if the interface analyzer identifies a touch control dialog that cannot be pronounced, the interface analyzer may automatically replace at least one auxiliary keyword cue from the auxiliary keyword cue library associated with the non-pronounceable control dialog. Additionally and / or alternatively, if the first instance of the touch-based user interface includes a plurality of touch-based control dialogs that result in substantially similar generated keyword cues, the auxiliary keyword cue library may be similar. May be provided with an alternative keyword queue.

ここで図8Aを参照すると、検出された制御ダイアログの例示的なインスタンスを示す例示的なタッチ式ユーザインターフェースが提供されている。つまり、1〜28は、タッチ式コントロールダイアログとして識別されるインターフェース機能を示す。実施形態では、インターフェース分析部212は、ユーザインターフェースに関連付けられたソースコードを解析することにより、インターフェース機能1〜28を検出し得る。図示の例では、インターフェース分析部212は、タッチ式ユーザインターフェースによって現在提示されているタッチ式オペレーティングシステム内で実行されているアプリケーションに関連するソースコードを分析することができる。しかしながら、インターフェース分析部212は、タッチ式オペレーティングシステム自体に関連するソースコードまたは存在する他のコードも分析してもよい。   Referring now to FIG. 8A, an exemplary touch-based user interface showing an exemplary instance of a detected control dialog is provided. That is, 1 to 28 indicate interface functions identified as touch-type control dialogs. In embodiments, the interface analyzer 212 may detect the interface functions 1-28 by analyzing source code associated with the user interface. In the depicted example, interface analyzer 212 may analyze source code associated with an application running within the touch-based operating system currently presented by the touch-based user interface. However, the interface analyzer 212 may also analyze source code or other existing code associated with the touch-based operating system itself.

実施形態において、インターフェース機能(インターフェース機能1〜28など)がインターフェース分析部212によってタッチ式制御ダイアログとして識別されると、インターフェース分析部212は制御ダイアログを分析し、キーワードキューを生成し、キーワードキューを制御ダイアログに関連付けることができる。実施形態では、インターフェース分析部212は、関連するソースコードを再分析することができる。実施形態では、インターフェース分析部212は、関連するソースコードの少なくとも部分的な分析をインターフェース分析部212に提供してもよい。   In an embodiment, when an interface function (e.g., interface functions 1-28) is identified as a touch control dialog by the interface analyzer 212, the interface analyzer 212 analyzes the control dialog, generates a keyword queue, and creates a keyword queue. Can be associated with a control dialog. In embodiments, the interface analyzer 212 may re-analyze the relevant source code. In embodiments, interface analyzer 212 may provide at least a partial analysis of the relevant source code to interface analyzer 212.

ここで図8bを参照すると、キーワードキューオーバーレイを有する例示的なタッチ式ユーザインターフェースが示されている。言い換えれば、30〜38は、本開示の実施形態による音声式ハンズフリーナビゲーションの使用を支援するためにユーザに提示され得るディスプレイオーバーレイを示す。実施形態において、オーバーレイは、インターフェース分析部212によるタッチ式ユーザインターフェースの分析に基づいて、ヘッドセットエンジン210によって自動的に表示され得る。実施形態において、オーバーレイは、ヘッドセットエンジン210の複数のサブコンポーネントによって自動的に生成され得る。例えば、インターフェース分析部212は、インターフェース機能(図8Aのインターフェース機能1〜28など)を検出し、インターフェース機能を制御ダイアログとして識別し、音声検出コンポーネント252を開始させることができる。音声検出コンポーネント252は、制御ダイアログを分析し、キーワードキューを生成し、キーワードキューを制御ダイアログに関連付け、ヘッドセットエンジン210が関連付けを検出し、キーワードキューを含むオーバーレイを生成し、オーバーレイをタッチ式ユーザインターフェースのディスプレイ(オーバーレイ30〜38など)上に重ねさせ得る。上記は、本開示と一致するオーバーレイを作成するための例示的な方法として使用されているに過ぎず、限定を意味するものではないことを理解されたい。   Referring now to FIG. 8b, an exemplary touch-based user interface having a keyword cue overlay is shown. In other words, 30-38 show display overlays that may be presented to a user to assist in using audio hands-free navigation according to embodiments of the present disclosure. In embodiments, the overlay may be automatically displayed by the headset engine 210 based on an analysis of the touch-based user interface by the interface analyzer 212. In embodiments, the overlay may be automatically generated by multiple sub-components of headset engine 210. For example, the interface analyzer 212 can detect an interface function (such as the interface functions 1-28 in FIG. 8A), identify the interface function as a control dialog, and trigger the voice detection component 252. The voice detection component 252 analyzes the control dialog, generates a keyword cue, associates the keyword cue with the control dialog, the headset engine 210 detects the association, generates an overlay including the keyword cue, and touches the overlay to a touch-based user. It may be overlaid on the display of the interface (such as overlays 30-38). It should be understood that the above is used only as an exemplary method for creating an overlay consistent with the present disclosure and is not meant to be limiting.

ただし、オーバーレイの自動作成により、タッチ式ユーザインターフェースの特定のインスタンスでオーバーレイに表示される必要、有用、または望ましいものよりも多くの制御ダイアログが表示される場合がある。言い換えると、キーワードキューオーバーレイの純粋な自動生成は、タッチ式ユーザインターフェースのハンズフリーナビゲーションを不注意に妨げる可能性がある。したがって、実施形態において、オーバーレイは、カスタマイズされた好みに基づいてヘッドセットエンジン210によって自動的に表示されてもよい。こうした実施形態では、ヘッドセットエンジン210は、カスタムライブラリ内のタッチ式ユーザインターフェースのインスタンスに関連付けられた所定のオーバーレイテンプレートを識別することができる。   However, the automatic creation of the overlay may cause more control dialogs to be displayed than necessary, useful, or desirable to be displayed on the overlay for a particular instance of the touch-based user interface. In other words, purely automatic generation of keyword cue overlays can inadvertently impede hands-free navigation of the touch-based user interface. Thus, in embodiments, the overlay may be automatically displayed by the headset engine 210 based on the customized preferences. In such embodiments, headset engine 210 may identify a predetermined overlay template associated with an instance of the touch-based user interface in a custom library.

実施形態において、制御ダイアログの機能は、ヘッドセットエンジン210および/またはそのサブコンポーネントによって判定されてもよく、オーバーレイは、ユーザに関連すると判定された関連キーワードキューについてのみ生成されてもよい。実施形態では、この判定は、環境データに基づいて環境分析部214によって行われ得る。実施形態では、この判定は、少なくとも部分的に、ユーザ選好(例えば、ユーザデータ274に格納されたユーザ選好)に基づいて行われ得る。   In embodiments, the functionality of the control dialog may be determined by the headset engine 210 and / or its sub-components, and the overlay may be generated only for relevant keyword cues determined to be relevant to the user. In the embodiment, this determination may be made by the environment analysis unit 214 based on the environment data. In embodiments, the determination may be made based at least in part on user preferences (eg, user preferences stored in user data 274).

ここで図9を参照すると、本開示のいくつかの実施形態と一致する例示的なヘッドマウントコンピューティングデバイス900が示されている。ヘッドマウントコンピューティングデバイス900は、概して、タッチ式オペレーティングシステムのタッチ式ユーザインターフェースとのハンズフリー対話を促進する。例示的なヘッドマウントコンピューティングデバイス900が様々なセンサとともに示されているが、センサの位置および数は、本開示の範囲から逸脱することなく実施形態において異なり得ることが理解されるであろう。実施形態では、ヘッドマウントコンピューティングデバイス900は、モーションおよび音声を感知するための複数のセンサと、タッチ式ユーザインターフェースをユーザに表示するためのコンポーネントとを備えてもよい。例えば、典型的なディスプレイ902は概して、タッチ式ユーザインターフェースをユーザに表示することを促進する。実施形態では、ディスプレイ902は、ディスプレイ902がタッチ式ユーザインターフェースを表示するために存在するように、ヘッドマウントコンピューティングデバイス900で構成されてもよい。実施形態では、ディスプレイ902は、上述のように、キーワードキューオーバーレイを表示するようにさらに構成され得る。実施形態において、ディスプレイ902は、少なくとも部分的に半透明であり、ユーザがディスプレイ902を見て、表示されたタッチ式ユーザインターフェースと環境との両方を知覚できるようにすることができる。実施形態では、ディスプレイ902は単眼ディスプレイであってもよい。実施形態では、ディスプレイ902は両眼ディスプレイであってもよい。しかし、本開示の範囲から逸脱することなく、開示された発明の実施形態において任意のディスプレイを使用できることが理解されるであろう。実施形態では、ディスプレイ902は、少なくともヘッドセットデバイスI/O222と通信するように構成され得る。   Referring now to FIG. 9, an exemplary head mounted computing device 900 consistent with some embodiments of the present disclosure is shown. Head-mounted computing device 900 generally facilitates hands-free interaction with a touch-based user interface of a touch-based operating system. Although the exemplary head-mounted computing device 900 is shown with various sensors, it will be appreciated that the locations and numbers of the sensors may vary in embodiments without departing from the scope of the present disclosure. In an embodiment, the head-mounted computing device 900 may include multiple sensors for sensing motion and sound, and components for displaying a touch-based user interface to a user. For example, a typical display 902 generally facilitates displaying a touch-based user interface to a user. In an embodiment, display 902 may be configured with head-mounted computing device 900 such that display 902 is present for displaying a touch-based user interface. In embodiments, display 902 may be further configured to display a keyword cue overlay, as described above. In embodiments, the display 902 may be at least partially translucent, allowing a user to view the display 902 and perceive both the displayed touch-based user interface and the environment. In embodiments, display 902 may be a monocular display. In embodiments, display 902 may be a binocular display. However, it will be understood that any display may be used in embodiments of the disclosed invention without departing from the scope of the present disclosure. In embodiments, the display 902 may be configured to communicate with at least the headset device I / O 222.

例示的なセンサ904は、概して、音声入力のキャプチャを促進する。実施形態では、センサ904は指向性マイクロフォンであり得る。実施形態では、センサ904は、無指向性マイクロフォンであり得る。図示されていない実施形態では、センサ904は、周囲雑音をキャプチャし、最終的に使用してユーザ音声入力の処理および分析を支援するように構成された複数のマイクロフォンであって、ヘッドマウントコンピューティングデバイス900のさまざまなポイントに配置された複数のマイクロフォンをさらに備えてもよい。センサ904は、本開示の範囲から逸脱することなく、音声入力を知覚し、音声入力を音声フィードに変換することができる任意のセンサまたはセンサのシステムであり得ることが理解されよう。実施形態において、例示的なセンサ904は、ハンズフリー入力判定部240およびそのサブシステムと通信するように構成され得る。   The exemplary sensor 904 generally facilitates capturing audio input. In embodiments, sensor 904 may be a directional microphone. In embodiments, sensor 904 may be an omni-directional microphone. In an embodiment not shown, the sensor 904 is a plurality of microphones configured to capture and ultimately use ambient noise to assist in processing and analyzing user voice input, including head-mounted computing It may further include a plurality of microphones located at various points on the device 900. It will be appreciated that the sensor 904 can be any sensor or system of sensors that can sense an audio input and convert the audio input into an audio feed without departing from the scope of the present disclosure. In embodiments, the example sensor 904 may be configured to communicate with the hands-free input determiner 240 and its subsystems.

例示的な物理的入力センサ906は、概して、様々なハンズフリーナビゲーション機能の再起動を促進する入力コンポーネントを提供する。実施形態において、物理的入力センサ906は、図7Aに関して説明したように、パッシブコマンドが発令された後に、ハンズフリー入力判定部240に信号を送って音声式コマンドを再起動するように構成され得る。実施形態では、物理的入力部906は、上述のようにヘッドセットの基準配向を再較正するためにハンズフリー入力判定部240に信号を送るように構成され得る。実施形態では、物理的入力センサ906は、複数の物理入力センサを備えてもよく、第1センサがハンズフリー入力判定部240に信号を送って音声式コマンドを再起動するように構成され、第2センサがハンズフリー入力判定部240に信号を送って基準配向を再較正するように構成されてもよい。物理的入力センサ906は、本開示の範囲から逸脱することなく物理的相互作用を検出することができる任意のセンサであり得ることが理解されるであろう。   The example physical input sensor 906 generally provides an input component that facilitates restarting various hands-free navigation features. In embodiments, the physical input sensor 906 may be configured to send a signal to the hands-free input determiner 240 to restart the voice command after the passive command has been issued, as described with respect to FIG. 7A. . In embodiments, the physical input 906 may be configured to send a signal to the hands-free input determiner 240 to recalibrate the headset reference orientation as described above. In an embodiment, the physical input sensor 906 may include a plurality of physical input sensors, wherein the first sensor is configured to send a signal to the hands-free input determination unit 240 to restart the voice command, Two sensors may be configured to send a signal to the hands-free input determiner 240 to recalibrate the reference orientation. It will be appreciated that the physical input sensor 906 can be any sensor that can detect a physical interaction without departing from the scope of the present disclosure.

例示的な音声出力部908は、概して、ヘッドマウントコンピューティングデバイス900からの音声出力をユーザに提供する。本開示の範囲から逸脱することなく、実施形態では、電気入力に応じてサウンドを生成することができる任意の音声出力コンポーネント(スピーカーなど)を使用できることを理解されたい。実施形態では、音声出力部902は、少なくともヘッドセットデバイスI/O222と通信するように構成され得る。   The example audio output 908 generally provides audio output from the head mounted computing device 900 to a user. It is to be understood that embodiments may use any audio output component (such as a speaker) that can generate sound in response to an electrical input without departing from the scope of the present disclosure. In embodiments, the audio output 902 may be configured to communicate with at least the headset device I / O 222.

例示的なモーションセンサ910は、概して、上述のモーション処理システムのモーション検出を促進する。本明細書で使用されるように、モーションセンサは、少なくとも1つの加速度計、多軸加速度計、磁力計、ジャイロスコープ、容量性トランスデューサ、ポテンショメータ、抵抗性トランスデューサ、シンクロ、または少なくとも1つの軸におけるモーションを検出できる任意の同様のセンサを備えることができる。実施形態では、モーションセンサ910は、少なくとも1つのモーションセンサを備えてもよい。実施形態では、モーションセンサ910は、複数のモーションセンサを備えてもよい。実施形態では、モーションセンサ910は、ハンズフリー入力判定部240およびそのサブシステムと通信するように構成されてもよい。   The exemplary motion sensor 910 generally facilitates motion detection of the motion processing system described above. As used herein, a motion sensor may include at least one accelerometer, multi-axis accelerometer, magnetometer, gyroscope, capacitive transducer, potentiometer, resistive transducer, synchro, or motion in at least one axis. Any similar sensor that can detect the In embodiments, the motion sensor 910 may include at least one motion sensor. In an embodiment, the motion sensor 910 may include a plurality of motion sensors. In embodiments, motion sensor 910 may be configured to communicate with hands-free input determiner 240 and its subsystems.

実施形態では、例示的なセンサ912は概してモーションの判定を行う。実施形態では、センサ912は、定期的に(60フレーム/秒または任意の所定のレートなどで)画像をキャプチャするように構成された光に敏感なデジタルセンサであってもよい。実施形態では、画像キャプチャコンポーネント912は、画像を連続的にキャプチャするように構成された光に敏感なデジタルセンサであってもよい。実施形態では、センサ912は、ハンズフリー入力判定部240およびそのサブシステムと通信するように構成されてもよい。例示的なセンサ912は、本開示の範囲から逸脱することなく実施形態で使用され得るデジタル画像(カメラ、ビデオカメラなど)をキャプチャすることができる任意のセンサを含み得ることが理解されるであろう。   In embodiments, the example sensor 912 generally makes a motion determination. In embodiments, the sensor 912 may be a light-sensitive digital sensor configured to periodically capture images (such as at 60 frames / second or any predetermined rate). In embodiments, the image capture component 912 may be a light sensitive digital sensor configured to capture images continuously. In embodiments, sensor 912 may be configured to communicate with hands-free input determiner 240 and its subsystems. It is understood that the exemplary sensor 912 can include any sensor that can capture digital images (cameras, video cameras, etc.) that can be used in embodiments without departing from the scope of the present disclosure. Would.

本明細書で言及されるように、変位は、3つの軸に対する9つの自由度におけるヘッドセット(ヘッドマウントコンピューティングデバイス900など)の位置の任意の変化を指し得る。これには、3つの軸のいずれかでの平行移動または回転が含まれるが、これらに限定されない。3次元空間での変位に関連して使用される用語は、分野(航空、生体力学、コンピュータサイエンスなど)によって大きく異なり、一般的な使用法では大きく異なる場合があることに注意されたい。そのため、移動、変位、回転、および/または角変位を説明する記載部分を明確にし、簡素化するためのあらゆる試みが行われている。ただし、明示的に反対の記述がない限り、各例は状況を提供するものであり、本開示を限定するものではない。   As referred to herein, displacement may refer to any change in the position of a headset (such as head-mounted computing device 900) in nine degrees of freedom with respect to three axes. This includes, but is not limited to, translation or rotation in any of the three axes. Note that the terms used in relation to displacement in three-dimensional space vary widely from field to field (aviation, biomechanics, computer science, etc.) and may vary widely in common usage. For this reason, every attempt has been made to clarify and simplify the description that describes movement, displacement, rotation, and / or angular displacement. However, unless expressly stated to the contrary, each example provides a context and is not limiting of the disclosure.

たとえば、x軸の平行移動は、右に移動または左に移動すると言うことができる。ただし、これは、横軸での原点からの移動(正(右)または負(左))と同等と考えることもできることを理解されたい。x軸を中心とした回転(角度変位)は、上または下に回転すると言うことができる。ただし、これはピッチアップまたはピッチダウンと同等と考えることもできることを理解されたい。したがって、たとえば、上に回転しながら右に移動すると、ピッチアップしながら原点から横軸の正の値に向かって移動すると理解され得る。   For example, a translation of the x-axis can be said to move right or left. However, it should be understood that this can be considered equivalent to moving from the origin on the horizontal axis (positive (right) or negative (left)). Rotation about the x-axis (angular displacement) can be said to rotate up or down. However, it should be understood that this can be considered equivalent to pitch up or pitch down. Therefore, it can be understood that, for example, moving to the right while rotating upward moves from the origin toward a positive value on the horizontal axis while increasing the pitch.

y軸の平行移動は、前方または後方に移動すると言うことができる。ただし、これは、縦軸での原点からの移動(正(前方)または負(後方))と同等と考えることもできることを理解されたい。y軸を中心とした回転(角度変位)は、左または右に傾けると言うことができる。ただし、これは左(反時計回り)または右(時計回り)に回転するのと同等と考えることもできることを理解されたい。したがって、たとえば、左に傾けながら前方に移動すると、左に回転しながら原点から縦軸の正の値に向かって移動すると理解され得る。   Translation of the y-axis can be said to translate forward or backward. However, it should be understood that this can be considered equivalent to a movement from the origin on the vertical axis (positive (forward) or negative (back)). Rotation (angular displacement) about the y-axis can be said to tilt left or right. However, it should be understood that this can be considered equivalent to rotating left (counterclockwise) or right (clockwise). Thus, for example, when moving forward while tilting to the left, it can be understood that moving from the origin toward a positive value on the vertical axis while rotating to the left.

z軸の平行移動は、上下に移動すると言うことができる。ただし、これは、垂直軸の原点からの移動(正(上)または負(下))と同等と考えることもできることを理解されたい。z軸を中心とした回転(角度変位)は、左または右への回転と言うことができる。ただし、これは左または右に振ることと同等と考えることもできることを理解されたい。したがって、たとえば、左に回転しながら上に移動すると、左に振りながら原点から垂直軸の正の値に向かって移動すると理解され得る。   It can be said that the parallel movement of the z axis moves up and down. However, it should be understood that this can be considered equivalent to moving from the origin of the vertical axis (positive (up) or negative (down)). Rotation (angular displacement) about the z-axis can be referred to as left or right rotation. However, it should be understood that this can be considered equivalent to waving left or right. Thus, for example, moving up while rotating to the left may be understood as moving from the origin toward a positive value on the vertical axis while swinging to the left.

本開示の様々な実施形態を説明してきたが、本開示の実施形態を実装するのに適した例示的なコンピューティング環境について説明する。図10を参照して、例示的なコンピューティングデバイスが提供され、概してコンピューティングデバイス1000と呼称している。コンピューティングデバイス1000は、適切なコンピューティング環境の一例にすぎず、本開示の使用または機能の範囲に関する制限を示唆することを意図したものではない。また、コンピューティングデバイス1000は、図示されたコンポーネントのいずれかまたは組み合わせに関する依存性または要件を有すると解釈されるべきではない。   Having described various embodiments of the present disclosure, an exemplary computing environment suitable for implementing the embodiments of the present disclosure will now be described. Referring to FIG. 10, an exemplary computing device is provided and is generally referred to as a computing device 1000. Computing device 1000 is merely an example of a suitable computing environment and is not intended to imply limitations as to the scope of use or functionality of the present disclosure. Neither should the computing device 1000 be interpreted as having any dependency or requirement relating to any one or combination of the illustrated components.

本開示の実施形態は、パーソナルデータアシスタント、スマートフォン、タブレットPC、または他の形態デバイスなどのコンピュータまたは他の機械によって実行されるプログラムモジュールなどのコンピュータ使用可能またはコンピュータ実行可能指令を含むコンピュータコードまたは機械使用可能指令の一般的な状況で説明することができる。一般に、ルーチン、プログラム、オブジェクト、コンポーネント、データ構造などを含むプログラムモジュールは、特定のタスクを実行したり、特定の抽象データ型を実装したりするコードを参照する。本開示の実施形態は、ハンドヘルドデバイス、家庭用電化製品、汎用コンピュータ、より専門的なコンピューティングデバイスなどを含む様々なシステム構成で実施することができる。本開示の実施形態は、通信ネットワークを介してリンクされているリモート処理デバイスによってタスクが実行される分散コンピューティング環境で実施することもできる。分散コンピューティング環境では、プログラムモジュールは、メモリストレージデバイスを含むローカルおよびリモートのコンピューターストレージメディアの両方に配置され得る。   Embodiments of the present disclosure are directed to computer code or a machine that includes computer-usable or computer-executable instructions, such as program modules, that are executed by a computer or other machine, such as a personal data assistant, smartphone, tablet PC, or other form device. This can be explained in the general context of the enabling directive. Generally, program modules, including routines, programs, objects, components, data structures, etc., refer to code that performs particular tasks or implements particular abstract data types. Embodiments of the present disclosure may be implemented in various system configurations, including handheld devices, consumer electronics, general purpose computers, more specialized computing devices, and the like. Embodiments of the present disclosure may also be practiced in distributed computing environments where tasks are performed by remote processing devices that are linked through a communications network. In a distributed computing environment, program modules may be located on both local and remote computer storage media, including memory storage devices.

図10を参照し、コンピューティングデバイス1000は、以下のデバイスを直接的または間接的に結合するバス1010を含む。つまり、バス1010は、メモリ1012、1つまたは複数のプロセッサ1014、1つまたは複数の表示コンポーネント1016、1つまたは複数の入出力(I/O)ポート1018、1つまたは複数のI/Oコンポーネント1020、および例示的な電源1022を結合する。バス1010は、1つまたは複数のバス(アドレスバス、データバス、またはそれらの組み合わせなど)であり得るものを表す。図10の様々なブロックは、明確にするために線で示されているが、実際には、これらのブロックは論理的な、必ずしも実際のコンポーネントではない。たとえば、ディスプレイデバイスなどの表示コンポーネントをI/Oコンポーネントと見なすこともできる。また、プロセッサはメモリを備えているため、メモリ1012および1つまたは複数のプロセッサ1014は、別個のコンポーネントまたは分散したコンポーネントを含んでもよいし含まなくてもよい。本発明の発明者は、それが当技術分野の性質であることを認識し、図10のダイアグラムが、1つまたは複数の実施形態に関連して使用できる例示的なコンピューティングデバイスの単なる例示であることを繰り返し述べている。「ワークステーション」、「サーバ」、「ラップトップ」、「ハンドヘルドデバイス」などのカテゴリ間で区別はされず、すべて図10の範囲内および「コンピューティングデバイス」を参照して考えられる。   Referring to FIG. 10, a computing device 1000 includes a bus 1010 that directly or indirectly couples the following devices. That is, bus 1010 includes memory 1012, one or more processors 1014, one or more display components 1016, one or more input / output (I / O) ports 1018, one or more I / O components. 1020 and the exemplary power supply 1022. Bus 1010 represents what may be one or more buses (such as an address bus, a data bus, or a combination thereof). Although the various blocks in FIG. 10 are shown by lines for clarity, in reality these blocks are not logical, but necessarily actual components. For example, a display component such as a display device may be considered an I / O component. Also, because the processor comprises a memory, the memory 1012 and the one or more processors 1014 may or may not include separate or distributed components. The inventor of the present invention recognizes that it is a property of the art, and the diagram of FIG. 10 is merely an example of an exemplary computing device that may be used in connection with one or more embodiments. He reiterates a certain thing. No distinction is made between categories such as “workstation”, “server”, “laptop”, “handheld device”, etc., all within the scope of FIG. 10 and with reference to “computing devices”.

コンピューティングデバイス1000は、典型的に、さまざまなコンピュータ可読媒体を含む。コンピュータ可読媒体は、コンピューティングデバイス1000がアクセスできる任意の利用可能な媒体とすることができ、揮発性および不揮発性媒体、取り外し可能および取り外し不能媒体の両方を含む。例として、限定ではなく、コンピュータ可読媒体は、コンピュータ記憶媒体および通信媒体を含み得る。コンピュータ記憶媒体には、コンピュータ可読命令、データ構造、プログラムモジュール、またはその他のデータなどの情報を保存するための任意の方法または技術で実装される揮発性および不揮発性、取り外し可能および取り外し不能な媒体の両方が含まれる。コンピュータ記憶媒体には、RAM、ROMEEPROM、フラッシュメモリもしくはその他のメモリテクノロジ、CD−ROM、デジタル多用途ディスク(DVD)もしくはその他の光ディスクストレージ、磁気カセット、磁気テープ、磁気ディスクストレージ、磁気記憶装置、または所望の情報を記録するために使用できてコンピューティングデバイス1000がアクセス可能な他の任意の記録媒体が含まれるが、これらに限定されない。コンピュータ記憶媒体はそれ自体信号を含まない。通信媒体は、典型的に、コンピュータ読み取り可能命令、データ構造、プログラムモジュール、または他のデータを、搬送波やその他のトランスポートメカニズムなどの変調データ信号に組み込んでおり、任意の情報配信メディアを含む。「変調データ信号」という用語は、信号内の情報をエンコードするように設定または変更された特性の1つまたは複数を持つ信号を意味する。一例として、限定ではなく、通信媒体には、有線ネットワークまたは直接有線接続などの有線媒体、および音波、RF、赤外線、およびその他の無線媒体などの無線媒体が含まれる。上記のいずれかの組み合わせも、コンピュータ読み取り可能媒体の範囲内に含まれる。   Computing device 1000 typically includes a variety of computer readable media. Computer readable media can be any available media that can be accessed by computing device 1000 and includes both volatile and nonvolatile media, removable and non-removable media. By way of example, and not limitation, computer readable media may include computer storage media and communication media. Computer storage media includes volatile and nonvolatile, removable and non-removable media implemented in any method or technique for storing information such as computer readable instructions, data structures, program modules or other data. Both are included. Computer storage media includes RAM, ROMEEPROM, flash memory or other memory technology, CD-ROM, digital versatile disk (DVD) or other optical disk storage, magnetic cassette, magnetic tape, magnetic disk storage, magnetic storage, or Includes, but is not limited to, any other storage media that can be used to record the desired information and accessible by the computing device 1000. A computer storage medium does not itself contain signals. Communication media typically embodies computer readable instructions, data structures, program modules or other data in a modulated data signal such as a carrier wave or other transport mechanism and includes any information delivery media. The term "modulated data signal" means a signal that has one or more of its characteristics set or changed in such a manner as to encode information in the signal. By way of example, and not limitation, communication media includes wired media such as a wired network or direct-wired connection, and wireless media such as acoustic, RF, infrared and other wireless media. Combinations of any of the above also fall within the scope of computer readable media.

メモリ1012は、揮発性および/または不揮発性メモリの形態のコンピュータ記憶媒体を含む。メモリは、取り外し可能、取り外し不能、またはそれらの組み合わせであり得る。例示的なハードウェアデバイスには、ソリッドステートメモリ、ハードドライブ、光ディスクドライブなどが含まれる。コンピューティングデバイス1000は、メモリ1012またはI/Oコンポーネント1020などの様々な実在物からデータを読み取る1つまたは複数のプロセッサ1014を含む。表示コンポーネント1016は、データ表示をユーザまたは他のデバイスに提示する。例示的な表示コンポーネントには、ディスプレイデバイス、スピーカ、印刷コンポーネント、振動コンポーネントなどが含まれる。   Memory 1012 includes computer storage media in the form of volatile and / or non-volatile memory. The memory may be removable, non-removable, or a combination thereof. Exemplary hardware devices include solid state memory, hard drives, optical disk drives, and the like. Computing device 1000 includes one or more processors 1014 that read data from various entities, such as memory 1012 or I / O components 1020. Display component 1016 presents the data display to a user or other device. Exemplary display components include display devices, speakers, printing components, vibration components, and the like.

I/Oポート1018により、コンピューティングデバイス1000は、I/Oコンポーネント1020を含む他のデバイスに論理的に結合されることが可能になり、その一部が組み込まれ得る。例示的なコンポーネントには、マイクロフォン、ジョイスティック、ゲームパッド、衛星放送受信アンテナ、スキャナ、プリンタ、無線デバイスなどが含まれる。I/Oコンポーネント1020は、空気ジェスチャ、音声、またはユーザによって生成された他の生理学的入力を処理する自然なユーザインターフェース(NUI)を提供し得る。場合によっては、入力は適切なネットワーク要素に送信され、さらに処理される。NUIは、音声認識、タッチおよびスタイラス認識、顔認識、生体認証、画面上、並びに画面に隣接した空気ジェスチャ、頭、および目の追跡によるジェスチャ認識、およびコンピューティングデバイス1000のディスプレイに関連付けられたタッチ認識の任意の組み合わせを実装し得る。コンピューティングデバイス1000は、ジェスチャ検出および認識のために、立体視カメラシステム、赤外線カメラシステム、RGBカメラシステム、およびこれらの組み合わせなどの深度(Depth)カメラを備え得る。加えて、コンピューティングデバイス600は、モーションの検出を可能にする加速度計またはジャイロスコープを備えてもよい。加速度計またはジャイロスコープの出力は、没入型拡張現実または仮想現実を描写するために、コンピューティングデバイス1000のディスプレイに提供されてもよい。   I / O ports 1018 allow computing device 1000 to be logically coupled to, and may incorporate portions of, other devices, including I / O components 1020. Exemplary components include a microphone, joystick, game pad, satellite dish, scanner, printer, wireless device, and the like. The I / O component 1020 may provide a natural user interface (NUI) for processing air gestures, voice, or other physiological input generated by a user. In some cases, the input is sent to the appropriate network element for further processing. The NUI includes voice recognition, touch and stylus recognition, face recognition, biometrics, air gestures on the screen and adjacent to the screen, gesture recognition by head and eye tracking, and touches associated with the display of the computing device 1000. Any combination of recognition may be implemented. Computing device 1000 may include a depth camera, such as a stereoscopic camera system, an infrared camera system, an RGB camera system, and combinations thereof, for gesture detection and recognition. In addition, computing device 600 may include an accelerometer or gyroscope that allows for the detection of motion. The output of the accelerometer or gyroscope may be provided on a display of the computing device 1000 to depict immersive augmented or virtual reality.

コンピューティングデバイス1000のいくつかの実施形態は、1つまたは複数の無線機1024(または同様の無線通信コンポーネント)を含み得る。無線機1024は、無線電信または無線通信を送受信する。コンピューティングデバイス1000は、様々なワイヤレスネットワークを介して通信およびメディアを受信するように適合されたワイヤレス端末であり得る。コンピューティングデバイス1000は、コード分割多重アクセス(「CDMA」)、モバイル用グローバルシステム(「GSM(登録商標)」)、または時分割多重アクセス(「TDMA」)などの他の装置と通信するための無線プロトコルを介して通信することができる。無線通信は、短距離接続、長距離接続、または短距離無線通信接続と長距離無線通信接続の両方の組み合わせであり得る。「短」タイプと「長」タイプの接続を言う場合、2つのデバイス間の空間的な関係を指すわけではない。代わりに、概して、短距離と長距離を異なるカテゴリまたはタイプの接続(つまり、プライマリ接続とセカンダリ接続)と言う。短距離接続には、限定ではなく例として、802.11プロトコルを使用したWLAN接続などの無線通信ネットワークへのアクセスを提供するデバイス(モバイルホットスポットなど)へのWi−Fi(登録商標)接続が含まれる。別のコンピューティングデバイスへのBluetooth(登録商標)接続は、短距離接続または近距離通信接続の2番目の例である。長距離接続は、限定ではなく例として、CDMA、GPRS、GSM、TDMA、および802.16プロトコルの1つまたは複数を使用する接続を含み得る。   Some embodiments of the computing device 1000 may include one or more radios 1024 (or similar wireless communication components). The wireless device 1024 transmits and receives wireless telecommunications or wireless communication. Computing device 1000 may be a wireless terminal adapted to receive communications and media over various wireless networks. Computing device 1000 may communicate with other devices, such as code division multiple access (“CDMA”), a global system for mobile (“GSM®”), or time division multiple access (“TDMA”). It can communicate via wireless protocols. The wireless communication may be a short-range connection, a long-range connection, or a combination of both short-range and long-range wireless communication connections. References to "short" and "long" type connections do not refer to the spatial relationship between the two devices. Instead, short-range and long-range are generally referred to as different categories or types of connections (ie, primary and secondary connections). A short-range connection includes, by way of example and not limitation, a Wi-Fi connection to a device (such as a mobile hotspot) that provides access to a wireless communication network, such as a WLAN connection using the 802.11 protocol. included. A Bluetooth® connection to another computing device is a second example of a short-range or short-range communication connection. Long distance connections may include, by way of example and not limitation, connections that use one or more of the CDMA, GPRS, GSM, TDMA, and 802.16 protocols.

特許請求の範囲から逸脱することなく、図示されていないコンポーネントと同様に、図示されている様々なコンポーネントの多くの異なる配置が可能である。本開示の実施形態は、限定的ではなく例示的であることを意図して説明されている。代替実施形態は、本明細書を読んだ後、および読むことによって、本開示の読者に明らかになるであろう。前述した内容を実施する代替手段は、特許請求の範囲から逸脱することなく想定され得る。特定の機能およびサブコンビネーションは有用であり、他の機能およびサブコンビネーションを参照せずに使用することができ、特許請求の範囲内で想定されている。

Many different arrangements of the various components shown are possible, as are the components not shown, without departing from the scope of the claims. The embodiments of the present disclosure have been described for purposes of illustration and not limitation. Alternative embodiments will become apparent to the reader of the present disclosure after and after reading this specification. Alternatives for implementing the foregoing may be envisaged without departing from the scope of the claims. Certain features and sub-combinations are useful and can be used without reference to other features and sub-combinations and are contemplated within the scope of the claims.

Claims (20)

ヘッドマウントコンピューティングデバイスのハンズフリーナビゲーションのためのコンピュータ実装方法であって、前記ヘッドマウントコンピューティングデバイス上で、タッチ式オペレーティングシステムのユーザインターフェースとの対話が可能になるハンズフリー対話モードを開始するステップと、1つまたは複数の軸に対する前記ヘッドマウントコンピューティングデバイスの位置を含む前記ヘッドマウントコンピューティングデバイスの初期位置を検出するステップと、前記ヘッドマウントコンピューティングデバイスのディスプレイに前記タッチ式オペレーティングシステムの前記ユーザインターフェースの第1のインスタンスを表示するステップと、前記ヘッドマウントコンピューティングデバイスの第1の変位を検出するステップであって、前記第1の変位は、前記初期位置に対する変位である第1の閾値変位を超える変位であるステップと、前記第1の変位に基づいて、1つまたは複数のタッチ式入力に対応する第1の指令を判定するステップと、前記タッチ式オペレーティングシステムに前記第1の指令を伝えるステップと、を含む方法。   A computer-implemented method for hands-free navigation of a head-mounted computing device, wherein initiating a hands-free interaction mode on the head-mounted computing device that enables interaction with a user interface of a touch-based operating system. Detecting an initial position of the head-mounted computing device including a position of the head-mounted computing device with respect to one or more axes; and displaying the touch-based operating system on a display of the head-mounted computing device. Displaying a first instance of a user interface; and detecting a first displacement of the head mounted computing device. Step, wherein the first displacement is a displacement that exceeds a first threshold displacement that is a displacement with respect to the initial position, and one or more touch-based inputs based on the first displacement. A method comprising: determining a corresponding first command; and communicating the first command to the touch-based operating system. 前記タッチ式オペレーティングシステムの前記ユーザインターフェースに関連付けられた第1の可聴入力を受け付けるステップと、前記第1の可聴入力に基づいて第2の指令を判定するステップと、をさらに含む請求項1に記載のコンピュータ実装方法。   The method of claim 1, further comprising: receiving a first audible input associated with the user interface of the touch-based operating system; and determining a second command based on the first audible input. Computer implementation method. 前記ユーザインターフェースが、前記タッチ式オペレーティングシステムにおける電子文書に関連付けられる、請求項1に記載のコンピュータ実装方法。   The computer-implemented method of claim 1, wherein the user interface is associated with an electronic document on the touch-based operating system. 前記第1の指令が、固定数のスクロールユニットを有するスクロール指令を備える、請求項2に記載のコンピュータ実装方法。   The computer-implemented method of claim 2, wherein the first command comprises a scroll command having a fixed number of scroll units. 前記第1の閾値変位は、前記1つまたは複数の軸に対する前記ヘッドマウントコンピューティングデバイスの最小角変位に対応する、請求項1に記載のコンピュータ実装方法。   The computer-implemented method of claim 1, wherein the first threshold displacement corresponds to a minimum angular displacement of the head mounted computing device with respect to the one or more axes. 前記第1の変位は、前記ヘッドマウントコンピューティングデバイスの1つまたは複数のセンサによって検出される、請求項1に記載のコンピュータ実装方法。   The computer-implemented method of claim 1, wherein the first displacement is detected by one or more sensors of the head mounted computing device. 前記第1の変位を検出するステップは、前記第1の変位の持続時間を判定することを含む、請求項1に記載のコンピュータ実装方法。   The computer-implemented method of claim 1, wherein detecting the first displacement comprises determining a duration of the first displacement. 前記ヘッドマウントコンピューティングデバイスのディスプレイに前記タッチ式オペレーティングシステムの前記ユーザインターフェースの第2のインスタンスを表示するステップをさらに含む、請求項1に記載のコンピュータ実装方法。   The computer-implemented method of claim 1, further comprising displaying a second instance of the user interface of the touch-based operating system on a display of the head-mounted computing device. 前記ヘッドマウントコンピューティングデバイスの第2の変位を検出するステップであって、前記第2の変位は、第2の閾値変位を超える変位であるステップと、前記第2の変位に基づいて、1つまたは複数のタッチ式入力に対応する第2の指令を判定し、前記ヘッドマウントコンピューティングデバイスの前記ディスプレイに前記タッチ式オペレーティングシステムの前記ユーザインターフェースの第3のインスタンスを表示するステップと、をさらに含む、請求項8に記載のコンピュータ実装方法。   Detecting a second displacement of the head mounted computing device, wherein the second displacement is a displacement that exceeds a second threshold displacement, and one based on the second displacement. Or determining a second command corresponding to the plurality of touch-based inputs and displaying a third instance of the user interface of the touch-based operating system on the display of the head-mounted computing device. A computer-implemented method according to claim 8. 1つまたは複数のコンピューティングデバイスによって使用されることにより、前記1つまたは複数のコンピューティングデバイスに、前記ヘッドマウントコンピューティングデバイス上で、タッチ式オペレーティングシステムのユーザインターフェースとの対話が可能になるハンズフリー対話モードを開始するステップと、前記タッチ式オペレーティングシステムの前記ユーザインターフェースにおける少なくとも1つのタッチ式制御ダイアログを識別するステップと、前記ヘッドマウントコンピューティングデバイスのディスプレイに前記タッチ式オペレーティングシステムの前記ユーザインターフェースの第1のインスタンスを表示するステップと、前記少なくとも1つのタッチ式制御ダイアログに関連付けられた第1の可聴入力を受け付けるステップと、前記第1の可聴入力に応じて前記ヘッドマウントコンピューティングデバイスに前記タッチ式オペレーティングシステムの前記ユーザインターフェースの第2のインスタンスを表示するステップと、を含む動作を実行させる、コンピュータ使用可能命令を記憶する非一時的なコンピュータ記憶媒体デバイス。   Hands used by one or more computing devices to enable the one or more computing devices to interact with a touch-based operating system user interface on the head-mounted computing device Initiating a free interactive mode; identifying at least one touch control dialog in the user interface of the touch operating system; and displaying the user interface of the touch operating system on a display of the head mounted computing device. Displaying a first instance of a first audible input associated with the at least one touch control dialog. Attaching to the head-mounted computing device in response to the first audible input and displaying a second instance of the user interface of the touch-based operating system. A non-transitory computer storage media device that stores instructions. 前記ヘッドマウントコンピューティングデバイスのディスプレイに、前記ユーザインターフェースの前記第1のインスタンスに重ねて少なくとも1つのグラフィカルオーバーレイコントロールを表示するステップをさらに含む、請求項10に記載のコンピュータ記憶媒体。   The computer storage medium of claim 10, further comprising displaying at least one graphical overlay control on a display of the head mounted computing device over the first instance of the user interface. 前記少なくとも1つのグラフィカルオーバーレイコントロールは、前記少なくとも1つのタッチ式制御ダイアログに対応する可聴入力を表す視覚的指標を含む、請求項11に記載のコンピュータ記憶媒体。   The computer storage medium of claim 11, wherein the at least one graphical overlay control comprises a visual indicator representing an audible input corresponding to the at least one touch control dialog. 前記少なくとも1つのタッチ式制御ダイアログに関連する複数の所定のグラフィカルオーバーレイコントロールのうちのグラフィカルオーバーレイコントロールの識別に基づいて、前記少なくとも1つのグラフィカルオーバーレイコントロールを選択するステップをさらに含む、請求項10に記載のコンピュータ記憶媒体。   The method of claim 10, further comprising selecting the at least one graphical overlay control based on an identification of a graphical overlay control of the plurality of predetermined graphical overlay controls associated with the at least one touch control dialog. Computer storage media. 前記ハンズフリー対話モードを一時停止する指令に対応する第2の可聴入力を受けつけるステップをさらに含む、請求項10に記載のコンピュータ記憶媒体。   The computer storage medium of claim 10, further comprising receiving a second audible input corresponding to a command to suspend the hands-free interactive mode. 前記第1の可聴入力からテキストを認識するために音声認識を実行するステップをさらに含む、請求項10に記載のコンピュータ記憶媒体。   The computer storage medium of claim 10, further comprising performing speech recognition to recognize text from the first audible input. 前記ユーザインターフェースは、前記タッチ式オペレーティングシステムで実行されるモバイルアプリケーションに関連付けられている、請求項10に記載のコンピュータ記憶媒体。   The computer storage medium of claim 10, wherein the user interface is associated with a mobile application running on the touch-based operating system. ヘッドマウントコンピューティングデバイスのハンズフリーナビゲーションのためのシステムであって、1つまたは複数のプロセッサと、1つまたは複数のコンピュータ記録媒体と、を備え、前記1つまたは複数のコンピュータ記録媒体は、前記1つまたは複数のプロセッサによって実行されることにより、前記ヘッドマウントコンピューティングデバイス上で、タッチ式オペレーティングシステムのユーザインターフェースとの対話が可能になるハンズフリー対話モードを開始するステップと、前記ヘッドマウントコンピューティングデバイスのディスプレイに前記タッチ式オペレーティングシステムの前記ユーザインターフェースの第1のインスタンスを表示するステップと、前記ヘッドマウントコンピューティングデバイスの閾値変位を超える第1の変位と、前記ユーザインターフェースの前記第1のインスタンスに含まれるタッチ式制御ダイアログに関連付けられた第1の可聴入力と、のうち1つまたは複数を備える第1のハンズフリー入力を検出するステップと、前記ハンズフリー入力に基づいて、1つまたは複数のタッチ式入力に対応する第1指令を判定するステップと、前記ヘッドマウントコンピューティングデバイスの前記ディスプレイに前記タッチ式オペレーティングシステムの前記ユーザインターフェースの第2のインスタンスを表示するステップと、を含む方法を指令するコンピュータ使用可能命令を記憶する、システム。   A system for hands-free navigation of a head-mounted computing device, comprising: one or more processors; and one or more computer storage media, wherein the one or more computer storage media comprises: Initiating a hands-free interaction mode that is executed by one or more processors to enable interaction with a touch-based operating system user interface on the head-mounted computing device; Displaying a first instance of the user interface of the touch-based operating system on a display of a touching device; and a threshold displacement of the head mounted computing device. Detecting a first hands-free input comprising one or more of a first displacement exceeding and a first audible input associated with a touch-based control dialog included in the first instance of the user interface. And determining a first command corresponding to one or more touch-based inputs based on the hands-free input; and displaying the user of the touch-based operating system on the display of the head-mounted computing device. Displaying a second instance of the interface; storing computer-usable instructions that direct the method. 前記第1のハンズフリー入力は、前記第1の変位および前記第1の可聴入力を含む、請求項17に記載のシステム。   The system of claim 17, wherein the first hands-free input includes the first displacement and the first audible input. 前記実装された方法は、第2のハンズフリー入力を検出するステップと、前記第2のハンズフリー入力に基づいて、1つまたは複数のタッチ式入力に対応する第2の指令を判定するステップと、前記ヘッドマウントコンピューティングデバイスの前記ディスプレイに前記タッチ式オペレーティングシステムの前記ユーザインターフェースの第3のインスタンスを表示するステップと、をさらに含む、請求項17に記載のシステム。   The implemented method comprises: detecting a second hands-free input; and determining a second command corresponding to one or more touch-based inputs based on the second hands-free input. 18. The system of claim 17, further comprising: displaying a third instance of the user interface of the touch-based operating system on the display of the head-mounted computing device. 前記実装された方法は、ハンズフリー開始入力を検出するステップと、前記ヘッドマウントコンピューティングデバイス上で前記ハンズフリー対話モードを開始する指令を生成するステップと、をさらに含む、請求項17に記載のシステム。
The method of claim 17, wherein the implemented method further comprises: detecting a hands-free start input; and generating a command to start the hands-free interactive mode on the head-mounted computing device. system.
JP2019555417A 2016-12-23 2017-12-06 Hands-free navigation with touch control system Active JP7334120B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/390,191 2016-12-23
US15/390,191 US10620910B2 (en) 2016-12-23 2016-12-23 Hands-free navigation of touch-based operating systems
PCT/US2017/064905 WO2018118435A1 (en) 2016-12-23 2017-12-06 Hands-free navigation of touch-based operating systems

Publications (3)

Publication Number Publication Date
JP2020502719A true JP2020502719A (en) 2020-01-23
JP2020502719A5 JP2020502719A5 (en) 2021-01-21
JP7334120B2 JP7334120B2 (en) 2023-08-28

Family

ID=62627148

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019555417A Active JP7334120B2 (en) 2016-12-23 2017-12-06 Hands-free navigation with touch control system

Country Status (5)

Country Link
US (2) US10620910B2 (en)
EP (1) EP3559935B1 (en)
JP (1) JP7334120B2 (en)
CN (1) CN110291576B (en)
WO (1) WO2018118435A1 (en)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US20130339859A1 (en) 2012-06-15 2013-12-19 Muzik LLC Interactive networked headphones
KR102103057B1 (en) 2013-02-07 2020-04-21 애플 인크. Voice trigger for a digital assistant
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
CN108027664B (en) 2015-09-28 2021-05-28 微软技术许可有限责任公司 Unified virtual reality platform
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US12197817B2 (en) 2016-06-11 2025-01-14 Apple Inc. Intelligent device arbitration and control
US11086593B2 (en) 2016-08-26 2021-08-10 Bragi GmbH Voice assistant for wireless earpieces
US10437343B2 (en) * 2017-01-06 2019-10-08 Samsung Electronics Co., Ltd. Augmented reality control of internet of things devices
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770428A1 (en) * 2017-05-12 2019-02-18 Apple Inc. Low-latency intelligent automated assistant
US20180336275A1 (en) 2017-05-16 2018-11-22 Apple Inc. Intelligent automated assistant for media exploration
US11029834B2 (en) * 2017-12-20 2021-06-08 International Business Machines Corporation Utilizing biometric feedback to allow users to scroll content into a viewable display area
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. Virtual assistant operation in multi-device environments
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US10643592B1 (en) * 2018-10-30 2020-05-05 Perspective VR Virtual / augmented reality display and control of digital audio workstation parameters
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11227599B2 (en) 2019-06-01 2022-01-18 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
US11317156B2 (en) 2019-09-27 2022-04-26 Honeywell International Inc. Video analytics for modifying training videos for use with head-mounted displays
US11875823B2 (en) 2020-04-06 2024-01-16 Honeywell International Inc. Hypermedia enabled procedures for industrial workflows on a voice driven platform
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
US11984124B2 (en) 2020-11-13 2024-05-14 Apple Inc. Speculative task flow execution
US11792364B2 (en) 2021-05-28 2023-10-17 Microsoft Technology Licensing, Llc Headset virtual presence
US11669294B2 (en) * 2021-05-28 2023-06-06 Microsoft Technology Licensing, Llc Computing device headset input
KR102521821B1 (en) * 2022-08-26 2023-04-13 백남칠 Unmanned terminal controller for a blind person

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009122476A (en) * 2007-11-16 2009-06-04 Nikon Corp Controller, head-mounted display device, program and control method
JP2013093705A (en) * 2011-10-25 2013-05-16 Olympus Corp Head-mounted type display device, program and image processing system
JP2013541092A (en) * 2010-09-20 2013-11-07 コピン コーポレーション Advanced remote control of host applications using movement and voice commands

Family Cites Families (312)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE8703414L (en) 1987-09-02 1989-03-03 Kompositprodukter Sk Fm Ab HOERSELSKYDD
US5046192A (en) 1989-09-26 1991-09-10 Ryder International Corporation Headset sun visor
US5185807A (en) 1991-05-08 1993-02-09 David Clark Company Incorporated Headset with multi-position stirrup assemblies
JP3163701B2 (en) 1991-12-27 2001-05-08 ソニー株式会社 Glasses-type image display device
DE69434851T2 (en) * 1993-08-12 2007-04-19 Seiko Epson Corp. Head-mounted image display device and data processing device containing the same
US6061064A (en) * 1993-08-31 2000-05-09 Sun Microsystems, Inc. System and method for providing and using a computer user interface with a view space having discrete portions
US5815126A (en) 1993-10-22 1998-09-29 Kopin Corporation Monocular portable communication and display system
US5806079A (en) 1993-11-19 1998-09-08 Smartpatents, Inc. System, method, and computer program product for using intelligent notes to organize, link, and manipulate disparate data objects
US6587700B1 (en) 1994-06-23 2003-07-01 At&T Wireless Services, Inc. Personal communicator with flip element display
US6198462B1 (en) * 1994-10-14 2001-03-06 Hughes Electronics Corporation Virtual display screen system
US5694562A (en) 1995-01-17 1997-12-02 Fisher; Thomas A. Closely integrated key icons in a graphical interface
US5767820A (en) 1995-05-09 1998-06-16 Virtual Research Systems Head-mounted visual display apparatus
US7453451B1 (en) * 1999-03-16 2008-11-18 Maguire Francis J Jr Moveable headrest for viewing images from different directions
JPH09130705A (en) 1995-10-31 1997-05-16 Olympus Optical Co Ltd Head mounted video display device
US5796374A (en) 1996-03-08 1998-08-18 Virtual Vision, Inc. Support for a head mounted display system
DE19625351C1 (en) 1996-06-25 1997-11-20 Lemfoerder Metallwaren Ag Process for producing a low-friction ball joint, as well as low-friction ball joint
US5850211A (en) * 1996-06-26 1998-12-15 Sun Microsystems, Inc. Eyetrack-driven scrolling
US5796404A (en) 1996-07-01 1998-08-18 Sun Microsystems, Inc. Computer system having alphanumeric keyboard access to objects in graphical user interface
US6222583B1 (en) 1997-03-27 2001-04-24 Nippon Telegraph And Telephone Corporation Device and system for labeling sight images
US6754361B1 (en) 1997-04-17 2004-06-22 3M Innovative Properties Company Ergonomic headset assembly
US6600480B2 (en) 1998-12-31 2003-07-29 Anthony James Francis Natoli Virtual reality keyboard system and method
US6388657B1 (en) 1997-12-31 2002-05-14 Anthony James Francis Natoli Virtual reality keyboard system and method
US6114978A (en) 1998-01-14 2000-09-05 Lucent Technologies Inc. Method and apparatus for assignment of shortcut key combinations in a computer software application
US6911969B1 (en) 1998-05-01 2005-06-28 Honeywell International Inc. Handheld computer apparatus
US7121946B2 (en) * 1998-08-10 2006-10-17 Cybernet Systems Corporation Real-time head tracking system for computer games and other applications
DE19839461C1 (en) 1998-08-29 1999-11-04 Flm Gmbh Foto Licht Und Mestec Stative head for camera
US6867752B1 (en) * 1998-08-31 2005-03-15 Semiconductor Energy Laboratory Co., Ltd. Portable information processing system
US6489976B1 (en) 1998-12-15 2002-12-03 International Business Machines Corporation System and method for displaying pop-up symbols for indicating accelerator keys for implementing computer software options
US7107539B2 (en) 1998-12-18 2006-09-12 Tangis Corporation Thematic response to a computer user's context, such as by a wearable personal computer
US6434250B1 (en) 1999-03-05 2002-08-13 Parker I. Tsuhako Stereo headset with angled speakers
US7124425B1 (en) 1999-03-08 2006-10-17 Immersion Entertainment, L.L.C. Audio/video system and method utilizing a head mounted apparatus with noise attenuation
WO2000055673A1 (en) 1999-03-17 2000-09-21 Colorado Microdisplay, Inc. Headset boom for image display module
US6496842B1 (en) 1999-05-28 2002-12-17 Survol Interactive Technologies Navigating heirarchically organized information
US6466198B1 (en) 1999-11-05 2002-10-15 Innoventions, Inc. View navigation and magnification of a hand-held device with a display
US6456262B1 (en) * 2000-05-09 2002-09-24 Intel Corporation Microdisplay with eye gaze detection
WO2002005081A1 (en) 2000-05-11 2002-01-17 Nes Stewart Irvine Zeroclick
AU2000242834A1 (en) * 2000-05-16 2001-11-26 Swisscom Mobile Ag Method and terminal for inputting instructions
JP2002032212A (en) 2000-07-14 2002-01-31 Toshiba Corp Computer system and headset type display device
US6747611B1 (en) 2000-07-27 2004-06-08 International Business Machines Corporation Compact optical system and packaging for head mounted display
US20020044152A1 (en) * 2000-10-16 2002-04-18 Abbott Kenneth H. Dynamic integration of computer generated and real world images
US6774869B2 (en) 2000-12-22 2004-08-10 Board Of Trustees Operating Michigan State University Teleportal face-to-face system
US8065620B2 (en) 2001-01-31 2011-11-22 Computer Associates Think, Inc. System and method for defining and presenting a composite web page
FI20010958A0 (en) * 2001-05-08 2001-05-08 Nokia Corp Procedure and Arrangements for Designing an Extended User Interface
GB2377147A (en) * 2001-06-27 2002-12-31 Nokia Corp A virtual reality user interface
US7246063B2 (en) * 2002-02-15 2007-07-17 Sap Aktiengesellschaft Adapting a user interface for voice control
US6882974B2 (en) * 2002-02-15 2005-04-19 Sap Aktiengesellschaft Voice-control for a user interface
AR035939A1 (en) 2002-03-04 2004-07-28 Rolla Jose Maria IMPROVEMENTS IN FOLDING HEADPHONES
KR100833229B1 (en) 2002-03-16 2008-05-28 삼성전자주식회사 Multi-layer focusing method and apparatus
US6941521B2 (en) 2002-03-29 2005-09-06 Intel Corporation Method for dynamically generating a user interface from XML-based documents
US7353464B1 (en) 2002-04-01 2008-04-01 Microsoft Corporation Hierarchical data navigation tool populated by a web service
TW594658B (en) 2002-07-01 2004-06-21 Leadtek Research Inc Helmet-mounted display
WO2004015543A2 (en) 2002-08-09 2004-02-19 Recare, Inc. Method and system for context-sensitive recognition of human input
US7243309B2 (en) 2002-12-03 2007-07-10 Intel Corporation Interface accelerator
JP3843951B2 (en) 2003-02-13 2006-11-08 株式会社ニコン Image display device
US6637883B1 (en) * 2003-01-23 2003-10-28 Vishwas V. Tengshe Gaze tracking system and method
ITMI20030121A1 (en) 2003-01-27 2004-07-28 Giuseppe Donato MODULAR SURVEILLANCE SYSTEM FOR MONITORING OF CRITICAL ENVIRONMENTS.
US7290220B2 (en) 2003-04-03 2007-10-30 International Business Machines Corporation Method and apparatus for non-sequential access of form fields
US6708339B1 (en) 2003-04-22 2004-03-23 James Smith, Jr. Sport helmet face guard
EP1472944B1 (en) 2003-05-02 2009-06-17 Jose Maria Rolla Ear protector for helmet and helmet including said ear protector
US8046705B2 (en) 2003-05-08 2011-10-25 Hillcrest Laboratories, Inc. Systems and methods for resolution consistent semantic zooming
JP2004363718A (en) 2003-06-02 2004-12-24 Sanyo Electric Co Ltd Antenna system
US20050015730A1 (en) 2003-07-14 2005-01-20 Srimanth Gunturi Systems, methods and computer program products for identifying tab order sequence of graphically represented elements
US7389236B2 (en) * 2003-09-29 2008-06-17 Sap Aktiengesellschaft Navigation and data entry for open interaction elements
US7389235B2 (en) 2003-09-30 2008-06-17 Motorola, Inc. Method and system for unified speech and graphic user interfaces
EP1688014A4 (en) 2003-11-13 2009-07-22 Logitech Europ Sa Behind-the-head mounted personal audio set
US7315988B2 (en) 2004-02-02 2008-01-01 International Business Machines Corporation System and method for using short captions to map user interfaces
US9116890B2 (en) 2004-04-01 2015-08-25 Google Inc. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
JPWO2005098698A1 (en) * 2004-04-08 2008-02-28 株式会社ジャストシステム Document processing device
KR100800859B1 (en) * 2004-08-27 2008-02-04 삼성전자주식회사 Apparatus and method for inputting keys in HMD information terminal
US20060074980A1 (en) 2004-09-29 2006-04-06 Sarkar Pte. Ltd. System for semantically disambiguating text information
US7519923B2 (en) 2004-10-20 2009-04-14 International Business Machines Corporation Method for generating a tree view of elements in a graphical user interface (GUI)
US8788271B2 (en) 2004-12-22 2014-07-22 Sap Aktiengesellschaft Controlling user interfaces with contextual voice commands
US7134094B2 (en) 2005-01-14 2006-11-07 Microsoft Corporation Automatic assigning of shortcut keys
CN101156104A (en) 2005-02-11 2008-04-02 奥克利有限公司 Eyeglasses with detachable adjustable electronics module
US7409344B2 (en) * 2005-03-08 2008-08-05 Sap Aktiengesellschaft XML based architecture for controlling user interfaces with contextual voice commands
JP4572737B2 (en) 2005-05-10 2010-11-04 株式会社島津製作所 Head mounted display
US20060256090A1 (en) * 2005-05-12 2006-11-16 Apple Computer, Inc. Mechanical overlay
CN1293446C (en) * 2005-06-02 2007-01-03 北京中星微电子有限公司 Non-contact type visual control operation system and method
US7661074B2 (en) 2005-07-01 2010-02-09 Microsoft Corporation Keyboard accelerator
JP4828181B2 (en) 2005-08-29 2011-11-30 三菱電機株式会社 Head mounted image display device
US20070052672A1 (en) * 2005-09-08 2007-03-08 Swisscom Mobile Ag Communication device, system and method
US7933900B2 (en) 2005-10-23 2011-04-26 Google Inc. Search over structured data
US20070130547A1 (en) * 2005-12-01 2007-06-07 Navisense, Llc Method and system for touchless user interface control
JP4957177B2 (en) 2006-01-20 2012-06-20 株式会社デンソー Display device
US7773767B2 (en) 2006-02-06 2010-08-10 Vocollect, Inc. Headset terminal with rear stability strap
US8793620B2 (en) * 2011-04-21 2014-07-29 Sony Computer Entertainment Inc. Gaze-assisted computer interface
US8334841B2 (en) * 2006-03-13 2012-12-18 Navisense Virtual user interface method and system thereof
US20070220108A1 (en) * 2006-03-15 2007-09-20 Whitaker Jerry M Mobile global virtual browser with heads-up display for browsing and interacting with the World Wide Web
US7928926B2 (en) * 2006-06-27 2011-04-19 Panasonic Corporation Display apparatus and method for hands free operation that selects a function when window is within field of view
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US7613292B2 (en) 2006-09-29 2009-11-03 Sony Ericsson Mobile Communications Ab Adjustable earpiece
US20170017464A1 (en) * 2006-11-03 2017-01-19 Philippe Roy Layered contextual configuration management system and method and minimized input speech recognition user interface interactions experience
US9471333B2 (en) * 2006-11-03 2016-10-18 Conceptual Speech, Llc Contextual speech-recognition user-interface driven system and method
US8051105B1 (en) 2007-01-10 2011-11-01 The Mathworks, Inc. Directing searches on tree data structures
CN101632033B (en) 2007-01-12 2013-07-31 寇平公司 Helmet type monocular display device
US7849397B1 (en) 2007-04-12 2010-12-07 Intuit Inc. System and method for providing electronic data entry forms with trainable data field sequencing
US8832557B2 (en) 2007-05-04 2014-09-09 Apple Inc. Adjusting media display in a personal display system based on perspective
US8855719B2 (en) 2009-05-08 2014-10-07 Kopin Corporation Wireless hands-free computing headset with detachable accessories controllable by motion, body gesture and/or vocal commands
US8620652B2 (en) * 2007-05-17 2013-12-31 Microsoft Corporation Speech recognition macro runtime
US7722358B2 (en) 2007-06-15 2010-05-25 Microsoft Corporation Electrical connection between devices
US7962344B2 (en) 2007-06-29 2011-06-14 Microsoft Corporation Depicting a speech user interface via graphical elements
JP2009033308A (en) 2007-07-25 2009-02-12 Nikon Corp Head-mounted display
US8825468B2 (en) 2007-07-31 2014-09-02 Kopin Corporation Mobile wireless display providing speech to speech translation and avatar simulating human attributes
FR2921991B1 (en) 2007-10-09 2011-05-06 Skf Aerospace France LIGHT JOINT ROD AND METHOD OF MANUFACTURING THE SAME
US20090100732A1 (en) 2007-10-19 2009-04-23 Concept Workshop Worldwide, Llc Magnetic display device
US8072393B2 (en) * 2007-11-15 2011-12-06 Symbol Technologies, Inc. User interface for a head mounted display
US20100259471A1 (en) * 2007-11-16 2010-10-14 Nikon Corporation Control device, head-mount display device, program, and control method
US9268580B2 (en) 2007-12-12 2016-02-23 International Business Machines Corporation Overlaying help, training, documentation, or translation over an existing application
US20090182562A1 (en) * 2008-01-14 2009-07-16 Garmin Ltd. Dynamic user interface for automated speech recognition
IL189251A0 (en) * 2008-02-05 2008-11-03 Ehud Gal A manned mobile platforms interactive virtual window vision system
US8726164B2 (en) 2008-05-30 2014-05-13 Microsoft Corporation Mark-up extensions for semantically more relevant thumbnails of content
US8645831B2 (en) 2008-07-03 2014-02-04 Cyberlink Corp. Translating user input in a user interface
US8321226B2 (en) 2008-08-08 2012-11-27 Hewlett-Packard Development Company, L.P. Generating speech-enabled user interfaces
US8478111B2 (en) * 2008-10-03 2013-07-02 3M Innovative Properties Company Systems and methods for optimizing a scene
EP2356631B1 (en) 2008-10-03 2019-05-01 3M Innovative Properties Company Systems and methods for evaluating robustness
US8706685B1 (en) 2008-10-29 2014-04-22 Amazon Technologies, Inc. Organizing collaborative annotations
US8432400B1 (en) 2008-12-02 2013-04-30 Adobe Systems Incorporated Transitional animation for generating tree maps
US8594467B2 (en) * 2008-12-19 2013-11-26 Microsoft Corporation Interactive virtual display system for ubiquitous devices
EP2427812A4 (en) * 2009-05-08 2016-06-08 Kopin Corp Remote control of host application using motion and voice commands
US20100315329A1 (en) * 2009-06-12 2010-12-16 Southwest Research Institute Wearable workspace
US20130169514A1 (en) * 2009-06-25 2013-07-04 The Boeing Company Method and apparatus for a virtual mission control station
US8773330B2 (en) * 2009-06-25 2014-07-08 The Boeing Company Method and apparatus for a virtual mission control station
JP5263049B2 (en) * 2009-07-21 2013-08-14 ソニー株式会社 Information processing apparatus, information processing method, and program
US20120272484A1 (en) 2009-10-02 2012-11-01 Willborn Inventstments Incorporated Multiposition visor adaptor system
US9292084B2 (en) * 2009-10-13 2016-03-22 Intel Corporation Control systems and methods for head-mounted information systems
CN101673161B (en) * 2009-10-15 2011-12-07 复旦大学 Visual, operable and non-solid touch screen system
US20110090135A1 (en) 2009-10-21 2011-04-21 Symbol Technologies, Inc. Interchangeable display device for a head-mounted display system
US20110096036A1 (en) * 2009-10-23 2011-04-28 Mcintosh Jason Method and device for an acoustic sensor switch
WO2011097226A1 (en) 2010-02-02 2011-08-11 Kopin Corporation Wireless hands-free computing headset with detachable accessories controllable by motion, body gesture and/or vocal commands
JP2011169449A (en) 2010-02-22 2011-09-01 Jtekt Corp Ball joint
US20150309316A1 (en) * 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US20130278631A1 (en) 2010-02-28 2013-10-24 Osterhout Group, Inc. 3d positioning of augmented reality information
US8908043B2 (en) 2010-04-12 2014-12-09 Symbol Technologies, Inc. System and method for location-based operation of a head mounted display
US20120002046A1 (en) 2010-06-30 2012-01-05 Raytheon Company Flip-Up Hands-Free Display Mount
US9916006B2 (en) * 2010-07-23 2018-03-13 Telepatheye Inc. Eye-wearable device user interface and method
US8593375B2 (en) * 2010-07-23 2013-11-26 Gregory A Maltz Eye gaze user interface and method
US8531355B2 (en) * 2010-07-23 2013-09-10 Gregory A. Maltz Unitized, vision-controlled, wireless eyeglass transceiver
US9977496B2 (en) * 2010-07-23 2018-05-22 Telepatheye Inc. Eye-wearable device user interface and augmented reality method
US8667421B2 (en) 2010-08-03 2014-03-04 Aaron Grunberger Method and system for revisiting prior navigated pages and prior edits
US9111498B2 (en) * 2010-08-25 2015-08-18 Eastman Kodak Company Head-mounted display with environmental state detection
US8619005B2 (en) * 2010-09-09 2013-12-31 Eastman Kodak Company Switchable head-mounted display transition
US9316827B2 (en) * 2010-09-20 2016-04-19 Kopin Corporation LifeBoard—series of home pages for head mounted displays (HMD) that respond to head tracking
US9377862B2 (en) 2010-09-20 2016-06-28 Kopin Corporation Searchlight navigation using headtracker to reveal hidden or extra document data
US8706170B2 (en) 2010-09-20 2014-04-22 Kopin Corporation Miniature communications gateway for head mounted display
US10013976B2 (en) 2010-09-20 2018-07-03 Kopin Corporation Context sensitive overlays in voice controlled headset computer displays
US8736516B2 (en) * 2010-09-20 2014-05-27 Kopin Corporation Bluetooth or other wireless interface with power management for head mounted display
US10036891B2 (en) 2010-10-12 2018-07-31 DISH Technologies L.L.C. Variable transparency heads up displays
JP5801545B2 (en) 2010-10-15 2015-10-28 キヤノン株式会社 Information processing apparatus, information processing method and program
US8994610B2 (en) 2010-11-08 2015-03-31 Symbol Technologies, Inc. User configurable headset
KR20120063982A (en) 2010-12-08 2012-06-18 한국전자통신연구원 Apparatus and method of man-machine interface for invisible user
US10365819B2 (en) 2011-01-24 2019-07-30 Apple Inc. Device, method, and graphical user interface for displaying a character input user interface
US9081550B2 (en) 2011-02-18 2015-07-14 Nuance Communications, Inc. Adding speech capabilities to existing computer applications with complex graphical user interfaces
WO2012154938A1 (en) * 2011-05-10 2012-11-15 Kopin Corporation Headset computer that uses motion and voice commands to control information display and remote devices
US20130007672A1 (en) * 2011-06-28 2013-01-03 Google Inc. Methods and Systems for Correlating Head Movement with Items Displayed on a User Interface
US8631371B2 (en) 2011-06-29 2014-01-14 International Business Machines Corporation Method, system and program storage device for modeling the capacitance associated with a diffusion region of a silicon-on-insulator device
US9727132B2 (en) * 2011-07-01 2017-08-08 Microsoft Technology Licensing, Llc Multi-visor: managing applications in augmented reality environments
US20130018659A1 (en) * 2011-07-12 2013-01-17 Google Inc. Systems and Methods for Speech Command Processing
US20130021269A1 (en) * 2011-07-20 2013-01-24 Google Inc. Dynamic Control of an Active Input Region of a User Interface
WO2013014709A1 (en) * 2011-07-27 2013-01-31 三菱電機株式会社 User interface device, onboard information device, information processing method, and information processing program
US8996510B2 (en) 2011-08-23 2015-03-31 Buckyball Mobile, Inc. Identifying digital content using bioresponse data
US9168176B2 (en) 2011-08-24 2015-10-27 Donald Scott Peebles Combination ear and eye protection system and related method
CN103858073B (en) 2011-09-19 2022-07-29 视力移动技术有限公司 Augmented reality device, method of operating augmented reality device, computer-readable medium
US8941560B2 (en) 2011-09-21 2015-01-27 Google Inc. Wearable computer with superimposed controls and instructions for external device
US9377852B1 (en) * 2013-08-29 2016-06-28 Rockwell Collins, Inc. Eye tracking as a method to improve the user interface
US20130117105A1 (en) * 2011-09-30 2013-05-09 Matthew G. Dyor Analyzing and distributing browsing futures in a gesture based user interface
US20130117111A1 (en) 2011-09-30 2013-05-09 Matthew G. Dyor Commercialization opportunities for informational searching in a gesture-based user interface
US9135914B1 (en) 2011-09-30 2015-09-15 Google Inc. Layered mobile application user interfaces
US8990682B1 (en) * 2011-10-05 2015-03-24 Google Inc. Methods and devices for rendering interactions between virtual and physical objects on a substantially transparent display
US8977205B2 (en) 2011-10-06 2015-03-10 Symbol Technologies, Inc. Head-mounted computer with peripheral expansion port
US8848940B2 (en) 2011-10-06 2014-09-30 Symbol Technologies, Inc. Modular headset computer
US8929589B2 (en) * 2011-11-07 2015-01-06 Eyefluence, Inc. Systems and methods for high-resolution gaze tracking
US8866852B2 (en) * 2011-11-28 2014-10-21 Google Inc. Method and system for input detection
WO2013101438A1 (en) 2011-12-29 2013-07-04 Kopin Corporation Wireless hands-free computing head mounted video eyewear for local/remote diagnosis and repair
US10013053B2 (en) * 2012-01-04 2018-07-03 Tobii Ab System for gaze interaction
US10025381B2 (en) * 2012-01-04 2018-07-17 Tobii Ab System for gaze interaction
US9024844B2 (en) * 2012-01-25 2015-05-05 Microsoft Technology Licensing, Llc Recognition of image on external display
US9705605B2 (en) 2012-02-09 2017-07-11 N2 Imaging Systems, LLC Intrapersonal data communication system
JP5880115B2 (en) * 2012-02-17 2016-03-08 ソニー株式会社 Head mounted display, head mounted display control program, and head mounted display control method
US9075249B2 (en) * 2012-03-07 2015-07-07 Google Inc. Eyeglass frame with input and output functionality
US20130246967A1 (en) * 2012-03-15 2013-09-19 Google Inc. Head-Tracked User Interaction with Graphical Interface
US20130241805A1 (en) * 2012-03-15 2013-09-19 Google Inc. Using Convergence Angle to Select Among Different UI Elements
US8643951B1 (en) * 2012-03-15 2014-02-04 Google Inc. Graphical menu and interaction therewith through a viewing window
US8922481B1 (en) 2012-03-16 2014-12-30 Google Inc. Content annotation
US20130246920A1 (en) 2012-03-19 2013-09-19 Research In Motion Limited Method of enabling voice input for a visually based interface
US10229222B2 (en) 2012-03-26 2019-03-12 Greyheller, Llc Dynamically optimized content display
US9417660B2 (en) 2012-04-25 2016-08-16 Kopin Corporation Collapsible head set computer
US8929954B2 (en) * 2012-04-25 2015-01-06 Kopin Corporation Headset computer (HSC) as auxiliary display with ASR and HT input
WO2013168173A1 (en) * 2012-05-11 2013-11-14 Umoove Services Ltd. Gaze-based automatic scrolling
US9823742B2 (en) * 2012-05-18 2017-11-21 Microsoft Technology Licensing, Llc Interaction and management of devices using gaze detection
JP5942586B2 (en) * 2012-05-18 2016-06-29 富士通株式会社 Tablet terminal and operation reception program
US9378028B2 (en) 2012-05-31 2016-06-28 Kopin Corporation Headset computer (HSC) with docking station and dual personality
US9583032B2 (en) 2012-06-05 2017-02-28 Microsoft Technology Licensing, Llc Navigating content using a physical object
US10139985B2 (en) 2012-06-22 2018-11-27 Matterport, Inc. Defining, displaying and interacting with tags in a three-dimensional model
US20140002357A1 (en) 2012-06-28 2014-01-02 Kopin Corporation Enabling and Disabling Features of a Headset Computer Based on Real-Time Image Analysis
US8917238B2 (en) * 2012-06-28 2014-12-23 Microsoft Corporation Eye-typing term recognition
JP5358725B1 (en) 2012-07-02 2013-12-04 株式会社アライヘルメット Microphone holding device and open face helmet
TWI498771B (en) * 2012-07-06 2015-09-01 Pixart Imaging Inc Gesture recognition system and glasses with gesture recognition function
US9602760B2 (en) 2012-07-25 2017-03-21 Dell Products, Lp Modular display monitor
US20140035819A1 (en) 2012-08-03 2014-02-06 Research In Motion Limited Method and Apparatus Pertaining to an Augmented-Reality Keyboard
KR101321157B1 (en) 2012-08-07 2013-10-23 한양대학교 산학협력단 Wearable display deice having sliding structure
WO2014024009A1 (en) * 2012-08-10 2014-02-13 Nokia Corporation Spatial audio user interface apparatus
US8868426B2 (en) 2012-08-23 2014-10-21 Freedom Scientific, Inc. Screen reader with focus-based speech verbosity
US20140092018A1 (en) * 2012-09-28 2014-04-03 Ralf Wolfgang Geithner Non-mouse cursor control including modified keyboard input
US9111383B2 (en) 2012-10-05 2015-08-18 Elwha Llc Systems and methods for obtaining and using augmentation data and for sharing usage data
KR20140052294A (en) 2012-10-24 2014-05-07 삼성전자주식회사 Method for providing user with virtual image in head-mounted display device, machine-readable storage medium and head-mounted display device
US10146316B2 (en) 2012-10-31 2018-12-04 Nokia Technologies Oy Method and apparatus for disambiguating a plurality of targets
US9658695B2 (en) * 2012-11-08 2017-05-23 Cuesta Technology Holdings, Llc Systems and methods for alternative control of touch-based devices
US9671874B2 (en) * 2012-11-08 2017-06-06 Cuesta Technology Holdings, Llc Systems and methods for extensions to alternative control of touch-based devices
US9298970B2 (en) 2012-11-27 2016-03-29 Nokia Technologies Oy Method and apparatus for facilitating interaction with an object viewable via a display
US9134793B2 (en) * 2013-01-04 2015-09-15 Kopin Corporation Headset computer with head tracking input used for inertial control
US9620144B2 (en) 2013-01-04 2017-04-11 Kopin Corporation Confirmation of speech commands for control of headset computers
US9164588B1 (en) * 2013-02-05 2015-10-20 Google Inc. Wearable computing device with gesture recognition
CN203233453U (en) * 2013-02-06 2013-10-09 周永业 Head-mounted wireless hands-free audio, display device and cloud-based communication system
US9791921B2 (en) 2013-02-19 2017-10-17 Microsoft Technology Licensing, Llc Context-aware augmented reality object commands
US9301085B2 (en) * 2013-02-20 2016-03-29 Kopin Corporation Computer headset with detachable 4G radio
US9395816B2 (en) * 2013-02-28 2016-07-19 Lg Electronics Inc. Display device for selectively outputting tactile feedback and visual feedback and method for controlling the same
US9864498B2 (en) * 2013-03-13 2018-01-09 Tobii Ab Automatic scrolling based on gaze detection
US20140253605A1 (en) 2013-03-05 2014-09-11 John N. Border Controlling brightness of a displayed image
KR20150103240A (en) * 2013-03-14 2015-09-09 인텔 코포레이션 Depth-based user interface gesture control
US9779517B2 (en) 2013-03-15 2017-10-03 Upskill, Inc. Method and system for representing and interacting with augmented reality content
US9239661B2 (en) 2013-03-15 2016-01-19 Qualcomm Incorporated Methods and apparatus for displaying images on a head mounted display
US20140282118A1 (en) 2013-03-15 2014-09-18 Konica Minolta Laboratory U.S.A., Inc. Graphical user interface displaying multi-branched browsing history tree for web navigation
US20140289641A1 (en) 2013-03-20 2014-09-25 Jerome Eymard Whitcroft Adaptive User Interface
JP5900393B2 (en) 2013-03-21 2016-04-06 ソニー株式会社 Information processing apparatus, operation control method, and program
KR102081930B1 (en) * 2013-03-21 2020-02-26 엘지전자 주식회사 Display device detecting gaze location and method for controlling thereof
US10514767B2 (en) 2013-04-02 2019-12-24 Sony Corporation Information processing apparatus and information processing method
US9530410B1 (en) * 2013-04-09 2016-12-27 Google Inc. Multi-mode guard for voice commands
US9615067B1 (en) 2013-04-24 2017-04-04 Rockwell Collins, Inc. Head mounted digital viewing system
WO2014201213A1 (en) 2013-06-12 2014-12-18 Oakley, Inc. Modular heads-up display system
US10025378B2 (en) * 2013-06-25 2018-07-17 Microsoft Technology Licensing, Llc Selecting user interface elements via position signal
US8988344B2 (en) 2013-06-25 2015-03-24 Microsoft Technology Licensing, Llc User interface navigation
US9563331B2 (en) 2013-06-28 2017-02-07 Microsoft Technology Licensing, Llc Web-like hierarchical menu display configuration for a near-eye display
KR20150020918A (en) 2013-08-19 2015-02-27 엘지전자 주식회사 Display device and control method thereof
CN103605208B (en) * 2013-08-30 2016-09-28 北京智谷睿拓技术服务有限公司 content projection system and method
WO2015030099A1 (en) 2013-08-30 2015-03-05 ブラザー工業株式会社 Image display device, and head-mounted display
JP6209906B2 (en) * 2013-09-05 2017-10-11 セイコーエプソン株式会社 Head-mounted display device, method for controlling head-mounted display device, and image display system
KR102083596B1 (en) 2013-09-05 2020-03-02 엘지전자 주식회사 Display device and operation method thereof
US9158115B1 (en) * 2013-09-16 2015-10-13 Amazon Technologies, Inc. Touch control for immersion in a tablet goggles accessory
US9575559B2 (en) * 2013-11-01 2017-02-21 Intel Corporation Gaze-assisted touchscreen inputs
US10209955B2 (en) 2013-11-15 2019-02-19 Kopin Corporation Automatic speech recognition (ASR) feedback for head mounted displays (HMD)
US20150138089A1 (en) 2013-11-15 2015-05-21 TabiTop, LLC Input devices and methods
US9500867B2 (en) * 2013-11-15 2016-11-22 Kopin Corporation Head-tracking based selection technique for head mounted displays (HMD)
US9690854B2 (en) 2013-11-27 2017-06-27 Nuance Communications, Inc. Voice-enabled dialog interaction with web pages
US9229235B2 (en) * 2013-12-01 2016-01-05 Apx Labs, Inc. Systems and methods for unlocking a wearable device
US9285872B1 (en) * 2013-12-12 2016-03-15 Google Inc. Using head gesture and eye position to wake a head mounted device
US9690763B1 (en) 2013-12-17 2017-06-27 Bryant Christopher Lee Display of webpage elements on a connected computer
JP6260255B2 (en) * 2013-12-18 2018-01-17 株式会社デンソー Display control apparatus and program
DK3094199T3 (en) 2014-01-14 2019-09-30 Gentex Corp Helmet-mounted swivel head unit
US9311718B2 (en) 2014-01-23 2016-04-12 Microsoft Technology Licensing, Llc Automated content scrolling
US9437159B2 (en) * 2014-01-25 2016-09-06 Sony Interactive Entertainment America Llc Environmental interrupt in a head-mounted display and utilization of non field of view real estate
US9442631B1 (en) * 2014-01-27 2016-09-13 Google Inc. Methods and systems for hands-free browsing in a wearable computing device
US20150220142A1 (en) * 2014-01-31 2015-08-06 Kopin Corporation Head-Tracking Based Technique for Moving On-Screen Objects on Head Mounted Displays (HMD)
US9913302B2 (en) * 2014-02-03 2018-03-06 Kopin Corporation Smart Bluetooth headset for speech command
US9401540B2 (en) 2014-02-11 2016-07-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
US9836192B2 (en) * 2014-02-25 2017-12-05 Evan Glenn Katsuranis Identifying and displaying overlay markers for voice command user interface
US10203762B2 (en) 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US9477888B1 (en) 2014-03-27 2016-10-25 Amazon Technologies, Inc. Providing computer-based instructions without displays
US10755217B2 (en) 2014-04-05 2020-08-25 Wearable Intelligence, Inc. Systems and methods for digital workflow and communication
WO2015171887A1 (en) 2014-05-07 2015-11-12 Tyco Electronics Corporation Hands-free asset identification, location and management system
KR102209511B1 (en) 2014-05-12 2021-01-29 엘지전자 주식회사 Wearable glass-type device and method of controlling the device
KR102209512B1 (en) 2014-06-30 2021-01-29 엘지전자 주식회사 Glasses type mobile terminal
EP3189398B1 (en) * 2014-09-02 2020-03-18 Tobii AB Gaze based text input systems and methods
JP6206366B2 (en) 2014-09-12 2017-10-04 ブラザー工業株式会社 Head mounted display
JP6281456B2 (en) 2014-09-12 2018-02-21 ブラザー工業株式会社 Head mounted display
WO2016039440A1 (en) 2014-09-12 2016-03-17 ブラザー工業株式会社 Head-mounted display, image display unit, and mounting fixture
US9547365B2 (en) * 2014-09-15 2017-01-17 Google Inc. Managing information display
US10691299B2 (en) * 2014-09-25 2020-06-23 Oracle International Corporation Display of hierarchical datasets using high-water mark scrolling
US9984505B2 (en) 2014-09-30 2018-05-29 Sony Interactive Entertainment Inc. Display of text information on a head-mounted display
US9746913B2 (en) 2014-10-31 2017-08-29 The United States Of America As Represented By The Secretary Of The Navy Secured mobile maintenance and operator system including wearable augmented reality interface, voice command interface, and visual recognition systems and related methods
US20180276896A1 (en) 2014-11-07 2018-09-27 Pcms Holdings, Inc. System and method for augmented reality annotations
US10248192B2 (en) 2014-12-03 2019-04-02 Microsoft Technology Licensing, Llc Gaze target application launcher
US10255101B2 (en) * 2014-12-11 2019-04-09 Sap Se Device emulator
JP5767386B1 (en) * 2014-12-15 2015-08-19 株式会社コロプラ Head mounted display system, method for displaying on head mounted display, and program
US20160179855A1 (en) 2014-12-23 2016-06-23 Yahoo! Inc. Ubiquitous content access and management
JP6380091B2 (en) 2014-12-26 2018-08-29 セイコーエプソン株式会社 Head-mounted display device, head-mounted display device control method, and computer program
US9674178B2 (en) * 2015-02-05 2017-06-06 Ca, Inc. Secure user input mode using randomized mapping between ordered sets of symbols
US9697296B2 (en) 2015-03-03 2017-07-04 Apollo Education Group, Inc. System generated context-based tagging of content items
US9715111B2 (en) 2015-03-27 2017-07-25 Ca, Inc. Secure user input mode for electronic devices using randomized locations of selection indicia
JP6115585B2 (en) 2015-03-31 2017-04-19 ブラザー工業株式会社 Head mounted display and image display device
JP6439935B2 (en) * 2015-05-07 2018-12-19 パナソニックIpマネジメント株式会社 Display control method, head-mounted display, and program
US9442575B1 (en) * 2015-05-15 2016-09-13 Atheer, Inc. Method and apparatus for applying free space input for surface constrained control
WO2016187348A1 (en) 2015-05-18 2016-11-24 Brian Mullins Biometric authentication in a head mounted device
US9977493B2 (en) 2015-06-17 2018-05-22 Microsoft Technology Licensing, Llc Hybrid display system
US10416835B2 (en) 2015-06-22 2019-09-17 Samsung Electronics Co., Ltd. Three-dimensional user interface for head-mountable display
US9240069B1 (en) * 2015-06-30 2016-01-19 Ariadne's Thread (Usa), Inc. Low-latency virtual reality display system
US9588593B2 (en) * 2015-06-30 2017-03-07 Ariadne's Thread (Usa), Inc. Virtual reality system with control command gestures
US10101803B2 (en) * 2015-08-26 2018-10-16 Google Llc Dynamic switching and merging of head, gesture and touch input in virtual reality
US20170092002A1 (en) * 2015-09-30 2017-03-30 Daqri, Llc User interface for augmented reality system
US9679497B2 (en) * 2015-10-09 2017-06-13 Microsoft Technology Licensing, Llc Proxies for speech generating devices
KR102400900B1 (en) * 2015-10-26 2022-05-23 엘지전자 주식회사 System
US20180321493A1 (en) * 2015-11-11 2018-11-08 Lg Electronics Inc. Hmd and method for controlling same
KR20170067058A (en) * 2015-12-07 2017-06-15 엘지전자 주식회사 Mobile terminal and method for controlling the same
KR20170067260A (en) * 2015-12-08 2017-06-16 삼성전자주식회사 Method of Operating web page and electronic device supporting the same
KR102524641B1 (en) * 2016-01-22 2023-04-21 삼성전자주식회사 Head mounted display device and method for controlling the same
US10275023B2 (en) * 2016-05-05 2019-04-30 Google Llc Combining gaze input and touch surface input for user interfaces in augmented and/or virtual reality
KR20170129509A (en) * 2016-05-17 2017-11-27 엘지전자 주식회사 Head mounted display device and method for controlling the same
US11599709B2 (en) 2016-05-19 2023-03-07 Palo Alto Research Center Incorporated Natural language web browser
US20170351778A1 (en) 2016-06-02 2017-12-07 vFLYER INC. Methods and systems for managing bookmarks
US10089000B2 (en) * 2016-06-03 2018-10-02 Microsoft Technology Licensing, Llc Auto targeting assistance for input devices
CN105848040A (en) 2016-06-08 2016-08-10 安徽理工大学 Smart head-mounted anti-noise earphone
US10489978B2 (en) 2016-07-26 2019-11-26 Rouslan Lyubomirov DIMITROV System and method for displaying computer-based content in a virtual or augmented environment
US9922254B1 (en) 2016-09-13 2018-03-20 Chi Fai Ho Apparatus and method to determine a distance of a visual object using a label
US10725720B2 (en) 2016-09-26 2020-07-28 Microsoft Technology Licensing, Llc Navigation in augmented reality via a transient user interface control
US10089159B2 (en) 2016-11-03 2018-10-02 Microsoft Technology Licensing, Llc Processing non-spatial input by multiple program elements of a computer program executed on a computer
US10735691B2 (en) 2016-11-08 2020-08-04 Rockwell Automation Technologies, Inc. Virtual reality and augmented reality for industrial automation
US20180150204A1 (en) * 2016-11-30 2018-05-31 Google Inc. Switching of active objects in an augmented and/or virtual reality environment
US10540064B1 (en) 2016-12-21 2020-01-21 Juniper Networks, Inc. Framework for creating hierarchical navigation trees using user interface plugins
US10140773B2 (en) 2017-02-01 2018-11-27 Accenture Global Solutions Limited Rendering virtual objects in 3D environments
CN108509824B (en) 2017-02-24 2020-08-18 亮风台(上海)信息科技有限公司 Article feature identification method based on AR equipment and system for checking article
US10621271B2 (en) 2017-05-25 2020-04-14 Microsoft Technology Licensing, Llc Reordering a multi-level layout using a hierarchical tree
US20180373325A1 (en) * 2017-06-22 2018-12-27 Immersion Corporation Haptic dimensions in a variable gaze orientation virtual environment
EP3797345A4 (en) 2018-05-22 2022-03-09 Magic Leap, Inc. Transmodal input fusion for a wearable system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009122476A (en) * 2007-11-16 2009-06-04 Nikon Corp Controller, head-mounted display device, program and control method
JP2013541092A (en) * 2010-09-20 2013-11-07 コピン コーポレーション Advanced remote control of host applications using movement and voice commands
JP2013093705A (en) * 2011-10-25 2013-05-16 Olympus Corp Head-mounted type display device, program and image processing system

Also Published As

Publication number Publication date
CN110291576B (en) 2022-11-29
EP3559935A1 (en) 2019-10-30
CN110291576A (en) 2019-09-27
US11409497B2 (en) 2022-08-09
WO2018118435A1 (en) 2018-06-28
JP7334120B2 (en) 2023-08-28
EP3559935A4 (en) 2020-08-05
EP3559935B1 (en) 2023-05-24
US20180181370A1 (en) 2018-06-28
US10620910B2 (en) 2020-04-14
US20200225910A1 (en) 2020-07-16

Similar Documents

Publication Publication Date Title
JP7334120B2 (en) Hands-free navigation with touch control system
US11947752B2 (en) Customizing user interfaces of binary applications
EP3612878B1 (en) Multimodal task execution and text editing for a wearable system
EP3120344B1 (en) Visual indication of a recognized voice-initiated action
US10777193B2 (en) System and device for selecting speech recognition model
DK179343B1 (en) Intelligent task discovery
US9601113B2 (en) System, device and method for processing interlaced multimodal user input
US20190013025A1 (en) Providing an ambient assist mode for computing devices
US11494472B2 (en) Voice activated authentication
US10353495B2 (en) Personalized operation of a mobile device using sensor signatures
EP3540565A1 (en) Control method for translation device, translation device, and program
CN115605948A (en) Arbitration between multiple potentially responsive electronic devices
US9772815B1 (en) Personalized operation of a mobile device using acoustic and non-acoustic information
KR20190134975A (en) Augmented realtity device for rendering a list of apps or skills of artificial intelligence system and method of operating the same
US20240169989A1 (en) Multimodal responses
US11308266B1 (en) Augmented reality assisted physical form completion
US20140288916A1 (en) Method and apparatus for function control based on speech recognition
US11164576B2 (en) Multimodal responses
US20120254736A1 (en) Ascertaining presentation format based on device primary control determination
JP7395513B2 (en) Customizing the user interface of binary applications
KR101944632B1 (en) Braille generating system and control method for the system
US12093440B2 (en) Direction of user input to virtual objects based on command metadata
US20240378232A1 (en) Systems and methods of generating new content for a presentation being prepared in a presentation application

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201202

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220615

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230816

R150 Certificate of patent or registration of utility model

Ref document number: 7334120

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150