JP2020502719A - Hands-free navigation of touch operation system - Google Patents
Hands-free navigation of touch operation system Download PDFInfo
- Publication number
- JP2020502719A JP2020502719A JP2019555417A JP2019555417A JP2020502719A JP 2020502719 A JP2020502719 A JP 2020502719A JP 2019555417 A JP2019555417 A JP 2019555417A JP 2019555417 A JP2019555417 A JP 2019555417A JP 2020502719 A JP2020502719 A JP 2020502719A
- Authority
- JP
- Japan
- Prior art keywords
- touch
- hands
- computing device
- user interface
- head
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003993 interaction Effects 0.000 claims abstract description 87
- 238000006073 displacement reaction Methods 0.000 claims description 74
- 238000000034 method Methods 0.000 claims description 74
- 230000002452 interceptive effect Effects 0.000 claims description 14
- 230000004044 response Effects 0.000 claims description 10
- 230000000977 initiatory effect Effects 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims description 5
- 238000010586 diagram Methods 0.000 abstract description 23
- 238000012545 processing Methods 0.000 description 63
- 230000006870 function Effects 0.000 description 55
- 238000001514 detection method Methods 0.000 description 33
- 238000004891 communication Methods 0.000 description 26
- 230000006854 communication Effects 0.000 description 26
- 230000008569 process Effects 0.000 description 16
- 238000004458 analytical method Methods 0.000 description 15
- 238000006243 chemical reaction Methods 0.000 description 15
- 230000000875 corresponding effect Effects 0.000 description 11
- 230000007935 neutral effect Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 238000013519 translation Methods 0.000 description 5
- 238000012544 monitoring process Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 230000003213 activating effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 239000003607 modifier Substances 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000010399 physical interaction Effects 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000003997 social interaction Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000002459 sustained effect Effects 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1694—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1686—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3206—Monitoring of events, devices or parameters that trigger a change in power modality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3234—Power saving characterised by the action undertaken
- G06F1/325—Power saving in peripheral device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3234—Power saving characterised by the action undertaken
- G06F1/3287—Power saving characterised by the action undertaken by switching off individual functional units in the computer system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0381—Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本発明の態様は、タッチ式オペレーティングシステムのハンズフリーナビゲーションを可能にする。システムは、タッチ式オペレーティングシステムと自動的に相互作用し、タッチ式コマンドに関連付けられたハンズフリーコマンドを生成できる。実施形態は、モーションおよび/または音声入力を利用して、タッチ式オペレーティングシステムとのハンズフリー対話を促進することができる。【選択図】図1Aspects of the invention allow for hands-free navigation of a touch-based operating system. The system can automatically interact with the touch-based operating system and generate a hands-free command associated with the touch-based command. Embodiments can utilize motion and / or voice input to facilitate hands-free interaction with a touch-based operating system. [Selection diagram] Fig. 1
Description
スマートフォン、タブレット、ラップトップなどのタッチ式デバイスは、日常生活のいたるところにある側面となっている。たとえば、スマートフォンやタブレット上のアプリケーションを使用して、人が社会的交流を組織して指揮することが一般的になっている。さらに、企業は、従業員とのコミュニケーション、仕事の監視、およびプロジェクトデータのレビューなど、他のさまざまな用途の中でも、タッチ式デバイスにしばしば頼っている。タッチ式デバイスは典型的に、タッチ式オペレーティングシステム(Andoroid(登録商標)又はiOS(登録商標)など)を実行する。これは本質的に、タッチ式入力に依存してオペレーティングシステムとの対話を制御する。これらのデバイスは便利で価値があるが、すべて同じ制限がある。つまり、根本的に、ユーザは、デバイスと直接手動で対話する必要がある。 Touch devices such as smartphones, tablets, and laptops are aspects of everyday life. For example, it has become common for people to organize and direct social interaction using applications on smartphones and tablets. In addition, companies often rely on touch devices, among other various applications, such as communicating with employees, monitoring work, and reviewing project data. Touch devices typically run a touch operating system (such as Android® or iOS®). It essentially relies on touch-based input to control interaction with the operating system. These devices are convenient and valuable, but all have the same limitations. In essence, the user needs to manually interact directly with the device.
たとえば、タッチ式オペレーティングシステムは現在、テキスト入力を受け付けるために仮想キーボードに主に依存している。仮想キーボードは、単語を一度に1文字ずつ入力しなければならない比較的小さなボタンを持つことが多く、中程度の長さでさえメッセージを入力するには時間がかかり、実用的ではないことがある。いくつかのタッチ式オペレーティングシステムは、テキストを単語に翻訳するための音声認識を提供するが、そうした音声認識はしばしばインターネット接続を必要とし、それは常に利用可能であるとは限らない。さらに、たとえ音声認識が利用可能であっても、それは一般にテキスト入力に限定され、タッチ式オペレーティングシステムは、アプリケーション内のユーザインターフェースをナビゲートして複数のアプリケーション間をナビゲートするためのメカニズムをほとんど提供しない。例えば、タッチ式オペレーティングシステムにおいて複数ページの文書をナビゲートするには、一般に、水平にナビゲートするためにスクロールバーでスクリーンに触れること、またはスクロールするためにスクリーンを「スワイプ」することをユーザに要求する。 For example, touch-based operating systems currently rely primarily on virtual keyboards to accept text input. Virtual keyboards often have relatively small buttons that require you to enter words one character at a time, and entering a message even at a medium length can be time consuming and impractical . Some touch-based operating systems provide speech recognition for translating text into words, but such speech recognition often requires an Internet connection, which is not always available. In addition, even if speech recognition is available, it is generally limited to text input, and touch-based operating systems provide a mechanism for navigating the user interface within an application and navigating between multiple applications. Do not provide. For example, navigating a multi-page document in a touch-based operating system typically requires the user to touch the screen with a scroll bar to navigate horizontally or to "swipe" the screen to scroll. Request.
しかしながら、ユーザは、手動でのタッチ式の対話ができない、困難、または不可能である期間中にこれらの装置を使用することを望む(または必要とする)かもしれない。例えば、多くの個人は、そうすることを必要とする又は望んだとしても、タッチ式デバイスと物理的に対話する能力を持っていないかもしれない。さらに、ユーザがタッチ式デバイスと物理的に対話できる場合でも、環境上の制限により、安全または快適な方法でデバイスとの手動の対話が制限される場合がある。さらに、ユーザが自分の手を必要とするタスクに従事している間に、タッチ式デバイスの機能にアクセスすることが望ましい場合がある。 However, a user may wish (or need) to use these devices during periods when manual touch interaction is not possible, difficult, or impossible. For example, many individuals may not have the ability to physically interact with a touch-sensitive device if they need or want to do so. Further, even if a user can physically interact with the touch-sensitive device, environmental restrictions may limit manual interaction with the device in a safe or comfortable manner. Further, it may be desirable to access the features of the touch-sensitive device while the user is engaged in a task that requires his or her hand.
これらの問題を解決するためのこれまでの試みは、煩雑で柔軟性のないユーザ経験を提供する、高度に特殊化された専用デバイスまたはプロセスにしばしば依存していた。さらに、以前の解決策は、アプリケーションがハンズフリー入力源と調和するように、タッチ式オペレーティングシステム用に設計された既存のアプリケーションからのソースコードの修正を必要とした。また、タッチフリーの解決策を利用にするために、すべてのタッチ式アプリケーションを変更することは現実的ではない。したがって、既存の解決策は、いくつかの選択されたタッチ式アプリケーションとしか協調できなかった。さらに、従来の解決策は、タッチ式オペレーティングシステム自体との対話を可能にしておらず、代わりにオペレーティングシステムに頼っていた。結果として、従来の解決策は、一般に、既存のおよび広く採用されているタッチ式オペレーティングシステムとの対話を可能にするのではなく、まったく新しいオペレーティング環境を学習しなければならないことをユーザに要求していた。 Previous attempts to solve these problems have often relied on highly specialized specialized devices or processes that provide a cumbersome and inflexible user experience. In addition, previous solutions required modification of source code from existing applications designed for touch-based operating systems so that the applications would be compatible with hands-free input sources. Also, it is not practical to change all touch-based applications to take advantage of touch-free solutions. Therefore, existing solutions could only work with some selected touch-based applications. Further, prior solutions did not allow interaction with the touch-based operating system itself, but instead relied on the operating system. As a result, conventional solutions generally require users to learn an entirely new operating environment, rather than enable interaction with existing and widely adopted touch-based operating systems. I was
この概要は、本開示の詳細な説明の節で以下にさらに説明される概念の抜粋を簡略化された形で紹介することを意図している。この概要は、特許請求の範囲に記載された主題の重要なまたは本質的な特徴を特定することを意図しておらず、特許請求の範囲に記載の主題の範囲を判断する際の補助として使用することも意図していない。 This summary is intended to introduce, in a simplified form, an excerpt of the concepts further described below in the Detailed Description section of the present disclosure. This summary is not intended to identify key or essential features of the claimed subject matter and is intended to be used as an aid in determining the scope of the claimed subject matter. It is not intended to be.
これらの問題に対処するために、本発明は概して、タッチ式オペレーティングシステムのハンズフリーナビゲーションを提供するシステムおよび方法を対象とする。さらに、本明細書で説明する態様は、ソースコードの変更を必要とせずに、タッチ式オペレーティングシステムおよびアプリケーションとのハンズフリー対話を促進する。つまり、本明細書で説明するシステムおよび/または方法の実装とは別に、ユーザは、ハンズフリー対話の利点を享受するために、異なるアプリケーションに変更したり、使い慣れたタッチ式オペレーティングシステムを放棄したりする必要がない。さらに、必須ではないが、実施形態では、ユーザは、ハンズフリーナビゲーションをカスタマイズして、ユーザのニーズおよび要望に基づいて調整された機能を提供することができる。 To address these issues, the present invention is generally directed to systems and methods for providing hands-free navigation of a touch-based operating system. Further, aspects described herein facilitate hands-free interaction with touch-based operating systems and applications without requiring source code changes. That is, apart from implementing the systems and / or methods described herein, the user may switch to a different application or abandon the familiar touch-based operating system to enjoy the benefits of hands-free interaction. No need to do. Further, although not required, in embodiments, the user can customize the hands-free navigation to provide features tailored based on the needs and desires of the user.
したがって、本明細書で説明する技術の態様は、タッチ式オペレーティングシステムのハンズフリーナビゲーションを促進するシステムおよび方法を提供する。一態様では、ハンズフリーナビゲーションシステムは、タッチ式オペレーティングシステムのタッチ式ユーザインターフェースを分析して、タッチ式スクロール機能を識別し、スクロール機能をハンズフリーコマンドに関連付け、ユーザへのディスプレイにタッチ式ユーザインターフェースを提示する。次に、システムが3D空間で回転、変換、または移動すると、システムはそれらの移動を検出し、タッチ式オペレーティングシステムのタッチ式ユーザインターフェースでタッチ式コマンドに変換する。言い換えれば、システムは、タッチ式スクロール機能をモーション式コマンドに変換し、モーションを検出し、モーションをスクロールコマンドに変換する。このように、タッチ式オペレーティングシステムは、モーション式ユーザコマンドを利用できるハンズフリーオペレーティングシステムに変換できる。 Accordingly, aspects of the technology described herein provide systems and methods that facilitate hands-free navigation of a touch-based operating system. In one aspect, a hands-free navigation system analyzes a touch-based user interface of a touch-based operating system to identify touch-based scrolling features, associate scrolling features with hands-free commands, and provide a touch-based user interface to a display to a user. Is presented. Then, as the system rotates, translates, or moves in 3D space, the system detects those movements and translates them into touch commands at the touch user interface of the touch operating system. In other words, the system converts the touch scroll function into a motion command, detects the motion, and converts the motion into a scroll command. In this way, a touch-based operating system can be converted to a hands-free operating system that can use motion-based user commands.
別の態様では、ハンズフリーシステムは、タッチ式オペレーティングシステムのタッチ式ユーザインターフェースを分析して、制御ダイアログ(コマンドに関連付けられたアイコンなど)を識別し、制御ダイアログをキーワードキューに関連付けて、ユーザへのディスプレイにタッチ式ユーザインターフェースを表示する。次いで、システムは、音声入力を処理し、音声入力内のキーワードキューを識別し、キーワードキューを関連するタッチ式オペレーティングシステムのタッチ式ユーザインターフェースにおけるタッチ式コマンドに変換し得る。言い換えれば、システムはタッチ式コマンドをキーワードキューに変換し、ユーザが発話すると、タッチ式環境で目的のコマンドの実行がなされる。このように、タッチ式オペレーティングシステムは、音声式ユーザコマンドを利用できるハンズフリーオペレーティングシステムに変換できる。ユーザとの対話を促進するために、別の態様では、システムはタッチ式ユーザインターフェースに重ねられたキーワードキューオーバーレイを表示してもよい。これらのオーバーレイは、ユーザが希望する制御ダイアログの選択を促進するためのキーワードキューを発行するのに役立つ視覚的なプロンプトを提供する。 In another aspect, a hands-free system analyzes a touch-based user interface of a touch-based operating system to identify a control dialog (such as an icon associated with a command), associates the control dialog with a keyword queue, and provides Display a touch-type user interface on the display. The system may then process the speech input, identify keyword cues in the speech input, and convert the keyword cues to touch commands in a touch user interface of an associated touch operating system. In other words, the system converts the touch-type command into a keyword queue, and when the user speaks, execution of the desired command is performed in the touch-type environment. In this manner, a touch-based operating system can be converted to a hands-free operating system that can utilize voiced user commands. To facilitate interaction with the user, in another aspect, the system may display a keyword cue overlay overlaid on the touch-based user interface. These overlays provide visual prompts to help publish keyword cues to facilitate selection of the desired control dialog by the user.
一態様では、本明細書で開示される様々なハンズフリー入力タイプは、同時にまたは互いに組み合わせて使用され得る。例えば、システムは、モーション式ユーザコマンドと音声式ユーザコマンドとの両方に同時に応答し得る。さらに、モーション式ユーザコマンド、音声式ユーザコマンド、およびモーションプラス音声式ユーザコマンドを使用したハンズフリーナビゲーションを促進する方法が提供される。 In one aspect, the various hands-free input types disclosed herein may be used simultaneously or in combination with one another. For example, the system may respond to both motion-based and voice-based user commands simultaneously. Further, a method is provided for facilitating hands-free navigation using motion-based user commands, voice-based user commands, and motion-plus-voice-based user commands.
本開示は、添付の図面を参照して以下に詳細に説明される。 The present disclosure is described in detail below with reference to the accompanying drawings.
本開示の主題は、法定要件を満たすために本明細書中に詳細に記載されている。しかしながら、本説明自体は、特許の範囲を限定することを意図していない。むしろ、本発明者らは、他の現在または将来の技術と共に、本明細書に記載されたものと同様の異なるステップまたはステップの組み合わせを含めて、特許請求の範囲に記載された主題は、他の方法で具体化され得ると考えている。さらに、「ステップ」および/または「ブロック」という用語は、使用される方法の異なる要素を示すために本明細書で使用されることがあるが、個々のステップの順序が明白に記載されている場合を除き、本明細書に記載の様々なステップの間、またはその内における何らかの特定の順序を示すものとして解釈されるべきではない。本明細書に記載の各方法は、ハードウェア、ファームウェア、および/またはソフトウェアの任意の組み合わせを使用して実行され得るコンピューティングプロセスを含み得る。例えば、メモリに格納された指令を実行するプロセッサによって様々な機能が実行され得る。方法はまた、コンピュータ記憶媒体に記憶されたコンピュータ使用可能指令として実施することもできる。方法は、いくつか例を挙げると、スタンドアロンアプリケーション、サービスもしくはホスト型サービス(スタンドアロン型、または他のホスト型サービスと組み合わせて)、または別の製品へのプラグインによって提供されてもよい。 The subject matter of this disclosure has been described in detail herein to meet statutory requirements. However, the description itself is not intended to limit the scope of the patent. Rather, we claim that the claimed subject matter, including different steps or combinations of steps similar to those described herein, as well as other current or future technologies, It can be embodied in the following way. Further, although the terms "step" and / or "block" may be used herein to indicate different elements of the method used, the order of the individual steps is explicitly described. Except where otherwise, it should not be construed as indicative of any particular order between or within the various steps described herein. Each of the methods described herein may include a computing process that may be performed using any combination of hardware, firmware, and / or software. For example, various functions may be performed by a processor that executes instructions stored in memory. The method may also be embodied as computer-usable instructions stored on a computer storage medium. The method may be provided by a stand-alone application, service or hosted service (stand-alone or in combination with other hosted services), or a plug-in to another product, to name a few.
概して、本明細書の形態は、タッチ式オペレーティングシステムとのハンズフリー対話を可能にするメカニズムに関する。理解されるように、タッチ式オペレーティングシステム(Andoroid(登録商標)、iOS(登録商標)など)は、タッチ式オペレーティングシステムを実行しているモバイルデバイスのタッチスクリーンを介して受信した入力に依存することが多い。しかしながら、タッチスクリーンとの対話は、ユーザの能力およびモバイル機器が使用される状況に応じて、不可能または望ましくない場合がある。例えば、ユーザが別のタスクを実行するために自分の手を使用しているとき、そのタスクを中止してタッチ式オペレーティングシステムと対話することは、しばしば不便で時間がかかる。したがって、本形態は、タッチ式オペレーティングシステムとのハンズフリー対話を促進するデバイス、方法、およびシステムに関する。 In general, aspects herein relate to mechanisms that enable hands-free interaction with a touch-based operating system. As will be appreciated, touch-based operating systems (such as Android®, iOS®) rely on input received via a touch screen of a mobile device running a touch-based operating system. There are many. However, interaction with the touch screen may be impossible or undesirable depending on the capabilities of the user and the circumstances in which the mobile device is used. For example, when a user is using his or her hand to perform another task, interrupting that task and interacting with the touch-based operating system is often inconvenient and time consuming. Accordingly, the embodiments relate to devices, methods, and systems that facilitate hands-free interaction with a touch-based operating system.
本明細書の一形態は、タッチ式オペレーティングシステムとのハンズフリー対話のための方法を実装するヘッドマウントコンピューティングデバイス(ヘッドセットなど)に関する。非限定的な例では、ヘッドセットは、ディスプレイ(ヘッドアップディスプレイ、接眼ディスプレイなど)、センサ(とりわけカメラ、マイクロフォン、加速度計、ジャイロスコープ、磁力計など)、1つ又は複数のプロセッサ、及びメモリを含むことができる。ヘッドセットは、タッチ式オペレーティングシステムを実行しているモバイルデバイスと通信可能に結合されてもよい。また、ヘッドセットは、例えばヘッドセットの接眼ディスプレイ上に、タッチ式オペレーティングシステムのユーザインターフェースのインスタンスを表示するように構成され得る。さらに、ヘッドセットは、センサを介して受信したハンズフリー入力を使用して、タッチ式オペレーティングシステムのユーザインターフェースとの対話を促進するハンズフリー対話モードを提供することができる。例えば、例示的な一形態は、ヘッドセットによって検出された移動を使用して、タッチ式オペレーティングシステムの動作を実行するためにナビゲートするための指令またはコマンドを判定する。 One aspect herein relates to a head-mounted computing device (such as a headset) that implements a method for hands-free interaction with a touch-based operating system. In a non-limiting example, the headset includes a display (head-up display, eyepiece display, etc.), sensors (camera, microphone, accelerometer, gyroscope, magnetometer, etc.), one or more processors, and memory. Can be included. The headset may be communicatively coupled to a mobile device running a touch-based operating system. Also, the headset may be configured to display an instance of a touch-based operating system user interface, for example, on an eyepiece display of the headset. Further, the headset can provide a hands-free interaction mode that facilitates interaction with a touch-based operating system user interface using hands-free input received via the sensor. For example, one exemplary form uses movement detected by the headset to determine a command or command to navigate to perform an operation of the touch-based operating system.
別の例示的な態様は、ヘッドセットによって検出された音声コマンドを使用して、タッチ式オペレーティングシステムの動作を実行するための命令またはコマンドを判定する。したがって、ヘッドセットはまた、含まれるセンサ(とりわけ、マイクなど)を監視し、センサによって受信された入力を分析し、入力に関連するタッチ式オペレーティングシステムの指令またはコマンドを判定し、タッチ式オペレーティングシステムのユーザインターフェース内でナビゲートするための指令またはコマンドを実行するように、構成され得る。さらに、ヘッドセットは、ヘッドセットコンポーネントまたはソフトウェアモジュールを使用して、タッチ式オペレーティングシステムのユーザインターフェースおよびタッチ式オペレーティングシステムに関連するコードをリアルタイムで分析して、ハンズフリー対話モードを促進するように構成され得る。 Another example aspect uses voice commands detected by the headset to determine instructions or commands to perform an operation of the touch-based operating system. Accordingly, the headset also monitors included sensors (such as microphones, among others), analyzes the inputs received by the sensors, determines touch operating system commands or commands associated with the inputs, May be configured to execute commands or commands for navigating within the user interface. Further, the headset is configured to use a headset component or software module to analyze the touch operating system user interface and code associated with the touch operating system in real time to facilitate a hands-free interactive mode. Can be done.
別の例示的な態様は、タッチ式オペレーティングシステムのユーザインターフェースをナビゲートし、タッチ式オペレーティングシステムの動作を実行するための指令またはコマンドを判定するために、ヘッドセットによって検出された音声コマンドおよび移動の両方を使用する。さらに、ヘッドセットは、ハンズフリー対話モードの使い勝手を向上させるために、環境固有のデータ(ユーザ固有の設定、ハンズフリーインターフェース固有の設定、キーワードキューライブラリ、タッチ式インターフェース固有の設定、場所固有の設定など)を含むカスタマイズされたデータベースを含むか、または当該データベースと通信してもよい。ヘッドセットは、ハンズフリー対話モードの使い勝手を向上させるために無線通信システム(Bluetooth(登録商標)、NFC、RFID、WIFI(登録商標)など)を含むことができる。例として、無線通信システムは、カスタマイズされたデータベースに格納されている環境固有データと相関し得る位置情報をヘッドセットに提供することによって、ハンズフリー対話モードの使い勝手を高め得る。ヘッドセットは、ハンズフリー対話モードの使い勝手を向上させるために、無線通信システムを備えた携帯機器と通信可能に結合されてもよい。さらに、ヘッドセットは、環境固有のデータを含むネットワーク式のカスタマイズされたデータベースを利用するように構成されてもよい。 Another exemplary aspect is a voice command and movement detected by a headset to navigate a user interface of a touch-based operating system and determine commands or commands to perform operations of the touch-based operating system. Use both. In addition, the headset uses environment-specific data (user-specific settings, hands-free interface-specific settings, keyword queue library, touch-type interface-specific settings, location-specific settings, to improve the usability of the hands-free interactive mode. Etc.) or may communicate with the database. The headset may include a wireless communication system (Bluetooth (registered trademark), NFC, RFID, WIFI (registered trademark), etc.) to enhance the usability of the hands-free interactive mode. By way of example, a wireless communication system may enhance the usability of a hands-free interactive mode by providing a headset with location information that may be correlated with environment-specific data stored in a customized database. The headset may be communicatively coupled to a mobile device having a wireless communication system to enhance the usability of the hands-free interactive mode. Further, the headset may be configured to utilize a networked, customized database containing environment-specific data.
次に図1を参照すると、本開示のいくつかの実施形態で採用され得る例示的な動作環境100を示すブロック図が提供されている。本明細書に記載されたこの構成および他の構成は例としてのみ記載されていることを理解されたい。示されたものに加えて、または代えて、他の配置および要素(例えば、機械、インターフェース、機能、順序、および機能のグループ化など)が使用されてもよく、いくつかの要素は明確さのために完全に省略されてもよい。さらに、本明細書で説明されている要素の多くは、個別のコンポーネントまたは分散されたコンポーネントとして、または他のコンポーネントと一緒に、ならびに任意の適切な組合せおよび場所で実装され得る機能存在である。本明細書で1つ又は複数の存在によって実行されるものとして説明されている様々な機能は、ハードウェア、ファームウェア、および/またはソフトウェアによって実行することができる。例えば、いくつかの機能は、メモリに格納された指令を実行するプロセッサによって実行され得る。
Referring now to FIG. 1, a block diagram is provided illustrating an
他のコンポーネントは示していないが、例示的動作環境100は、ユーザデバイス102a−102nなどのいくつかのユーザデバイス、データソース104a、および104bから104nなどのいくつかのデータソース、サーバ106、センサ103a〜103n、及びネットワーク110を含む。図1に示される環境100は、適切な動作環境の一例であることを理解されたい。図1に示した各コンポーネントは、例えば、図10に関連して説明されるコンピューティングデバイス1000などの任意のタイプのコンピューティングデバイスを介して実装され得る。これらのコンポーネントは、限定はしないが、1つまたは複数のローカルエリアネットワーク(LAN)および/またはワイドエリアネットワーク(WAN)を含み得るネットワーク110を介して互いに通信することができる。例示的な実施態様では、ネットワーク110は、インターネットおよび/またはセルラーネットワークを含み、その中には、さまざまな可能な公衆および/または私設ネットワークが含まれる。
Although other components are not shown, the
本開示の範囲内で、任意の数のユーザデバイス、サーバ、およびデータソースを動作環境100内で採用することができることを理解されたい。各々は、単一の装置または分散環境において協働する複数の装置を含み得る。例えば、サーバ106は、本明細書に記載の機能を集合的に提供する分散環境に配置された複数の装置を介して提供されてもよい。さらに、図示されていない他のコンポーネントも分散環境内に含まれてもよい。
It should be understood that any number of user devices, servers, and data sources may be employed within operating
ユーザデバイス102a〜102nは、ユーザが使用することができる任意の種類のコンピューティングデバイスを備え得る。例えば、一実施形態では、ユーザデバイス102a〜102nは、本明細書の図10に関して説明される種類のコンピューティングデバイスであり得る。限定ではなく例として、ユーザデバイスは、パーソナルコンピュータ(PC)、ラップトップコンピュータ、モバイルもしくはモバイルデバイス、スマートフォン、タブレットコンピュータ、スマートウォッチ、ウェアラブルコンピュータ、パーソナルデジタルアシスタント(PDA)、MP3プレーヤー、全地球測位システム(GPS)またはデバイス、ビデオプレーヤー、ハンドヘルド通信デバイス、ゲーミングデバイスまたはシステム、エンターテインメントシステム、車載コンピュータシステム、組み込みシステムコントローラ、カメラ、リモコン、バーコードスキャナ、コンピュータ化された測定装置、機器、家庭用電化製品、ワークステーション、ヘッドマウントコンピューティングデバイス、またはこれらの描写された装置の任意の組み合わせ、または任意の他の適切な装置であり得る。
ユーザデバイス102a〜102nは、動作環境100のクライアント側のクライアント装置とすることができ、一方、サーバ106は、動作環境100のサーバ側とすることができる。サーバ106は、本開示で説明される特徴および機能の任意の組み合わせを実装するために、ユーザデバイス102a〜102nのクライアント側ソフトウェアと共に動作するように設計されたサーバ側ソフトウェアを備えてもよい。動作環境100のこの区分は適切な環境の一例を示すために提供されており、サーバ106とユーザデバイス102a−102nとの任意の組み合わせが別個の要素とされることは各実施態様について要件ではない。
データソース104aおよび104bから104nは、データを動作環境100の様々なコンポーネントのいずれか、または図2に関連して説明されるハンズフリー対話システム200に利用可能にするように構成されたデータソースおよび/またはデータシステムを備え得る。例えば、一実施形態では、1つまたは複数のデータソース104aから104nが、図2のストレージ270に提供される(またはアクセス可能にする)。データソース104aおよび104bから104nは、ユーザデバイス102a〜102nおよびサーバ106とは別個であってもよいし、またはそれらに組み込まれるおよび/またはそれらと統合されてもよい。一実施形態では、データソース104aから104nのうちの1つまたは複数は、ユーザデバイス102a〜102nまたはサーバ106のうちの1つまたは複数に統合され得るかまたはそれらに関連付けられ得る1つまたは複数のセンサを備える。動作環境100は、図2および図3で説明される、モーション処理、サウンド処理、ならびにキーワードカスタムライブラリ、ユーザデータ、環境固有データなどのデータストレージ用のコンポーネントを含む、ハンズフリー対話システム200のコンポーネントのうちの1つまたは複数を実装するために利用することができる。
次に図2を参照すると、本開示のいくつかの実施形態で採用することができるハンズフリー対話システム200の例示的な実施形態を示すブロック図が提供されている。ハンズフリー対話システム200は、概して、タッチ式オペレーティングシステム202のアプリケーションおよび機能とのハンズフリー対話を促進するように動作する。図2に示されるハンズフリー対話システムは、本開示の実施形態で採用することができる1つのシステムの例であることを理解されたい。図示される各コンポーネントは、図1を参照して説明された動作環境100と同様の1つまたは複数のコンピューティングデバイスを含み得る。ハンズフリー対話システム200は、図示されている任意の単一のモジュール/コンポーネントまたはモジュール/コンポーネントの組み合わせに関連した依存または要件を有すると解釈されるべきではない。例えば、ハンズフリー対話システム200は、本明細書に記載の機能を集合的に提供する分散環境において構成された複数の装置を含み得る。ハンズフリー対話システム200および/またはその様々なコンポーネントは、本開示の様々な実施形態に従って任意の場所に配置し得ることを理解されたい。
Referring now to FIG. 2, a block diagram is provided illustrating an exemplary embodiment of a hands-
ヘッドマウントコンピューティングデバイス220(図9を参照してより詳細に説明される)は、概して、タッチ式オペレーティングシステム202のタッチ式ユーザインターフェース206とのハンズフリー対話を促進する。ヘッドマウントコンピューティングデバイス220は、とりわけモーションセンサ、音声センサ、ディスプレイ、及び入力コントロールなど、さまざまなヘッドセットデバイスの入出力コンポーネントを備え得る。さらに、ヘッドマウントコンピューティングデバイス220は、ストレージ270などのコンピュータ記憶媒体に格納されたコンピュータ使用可能指令を含み得る。したがって、ヘッドマウントコンピューティングデバイス220は、ハードウェア、ファームウェア、および/またはソフトウェアの任意の組み合わせを使用して実行できるコンピューティングプロセスを実行するように構成できる。例えば、メモリに格納された指令を実行するプロセッサ(例えば、ヘッドセットプロセッサ280)によって様々な機能が実行され得る。こうした方法は、いくつか例を挙げると、スタンドアロンアプリケーション、サービスもしくはホスト型サービス(スタンドアロン型、または他のホスト型サービスと組み合わせて)、又は他の製品へのプラグインによって提供されてもよい。
Head-mounted computing device 220 (described in more detail with reference to FIG. 9) generally facilitates hands-free interaction with touch-based
ハンズフリー対話システム200によって実行される機能およびプロセスは、アプリケーション、サービス、またはルーチン(ヘッドセットアプリケーション276など)に関連付けられてもよい。特に、そのようなアプリケーション、サービス、またはルーチンは、ヘッドマウントコンピューティングデバイス220上で動作してもよく、または複数のデバイスにわたって分散されてもよい。例えば、本明細書に記載されている機能およびプロセスは、タッチ式ユーザデバイス(ユーザデバイス102aなど)、サーバ(サーバ106など)上で実行されてもよいし、またはクラウド内に実装されてもよい。さらに、いくつかの実施形態では、ハンズフリー対話システム200のコンポーネントは、ネットワーク110にわたって分散され得る。加えて、これらのコンポーネント、これらのコンポーネントによって実行される機能、またはこれらのコンポーネントによって実行されるサービスは、コンピューティングシステムのオペレーティングシステム層、アプリケーション層、ハードウェア層など、適切な抽象化層で実装され得る。コンピューティングシステムの)。あるいは、または加えて、本明細書に記載のこれらのコンポーネントの機能および/または本発明の実施形態は、少なくとも部分的には、1つまたは複数のハードウェア論理コンポーネントによって実行することができる。例えば、限定ではなく、使用可能な例示的な種類のハードウェア論理コンポーネントには、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準製品(ASSP)、チップシステム上システム(SOCs)、複雑なプログラマブルロジックデバイス(CPLD)、が含まれる。さらに、本明細書では、例示的なハンズフリー対話システム200に示されている特定のコンポーネントに関して機能性を説明しているが、いくつかの実施形態では、これらのコンポーネントは他のコンポーネントと共有されるまたは分散されることが想定される。
The functions and processes performed by hands-
したがって、ヘッドマウントコンピューティングデバイス220は、ハンドフリー対話モードを提供するための指令(ヘッドセットアプリケーション276によって記憶され得る)を実行する1つまたは複数のヘッドセットプロセッサ280を含み得る。ハンズフリー対話モードは、ヘッドマウントコンピューティングデバイス220を介したタッチ式オペレーティングシステム202のプログラム、アプリケーション、および機能との対話を促進することができる。一形態では、ヘッドセットアプリケーション276は、タッチ式オペレーティングシステム202で動作する既存のバイナリアプリケーションとのハンズフリー対話を促進するための指令を含む。例えば、ハンズフリー対話システム200は、発行元、またはPlaystore、Appstore、及びタッチ式アプリケーションの他の供給源から利用可能なアプリケーションのような既存のバイナリを通じて、任意の数のアプリケーションと共に使用できるように構成され得る。さらに、ヘッドセットエンジン210は、タッチ式オペレーティングシステム202上で実行されているアプリケーション208に問い合わせて、とりわけタッチ式ユーザインターフェースに含まれる入力制御、フォーム要素、およびナビゲーションコマンドなどの画面コンポーネント/機能を判定し得る。例えば、ヘッドセットエンジン210は、タッチ式オペレーティングシステム202のユーザインターフェース層を分析して、様々な画面コンポーネント/機能が表示のためにいつ提供されているかを判断することができる。このようにして、タッチ式アプリケーションが実行されているときに、アプリケーションの様々な表示されたUIコンポーネントを判定することができる。下記で説明するように、画面コンポーネント/特徴を抽出または識別し、処理のためにハンズフリー対話システム200の他のコンポーネントに提供することができる。結果として、タッチ式オペレーティングシステム202で動作可能な実質的にあらゆるアプリケーションは、実行時に、ハンズフリー対話のために有効にすることができる。さらに、ハンズフリー対話システム200は、標準のハンズフリー対話モードの指令と互換性がないアプリケーション用のXMLファイルを含んでもよい。XMLファイルは、標準のハンズフリー対話モードの指示を無効にし、カスタマイズされた指示を提供し得る。加えて、XMLファイルは、既存のバイナリが修正されなくてもよいように、実行時にアプリケーション208の既存のバイナリと混合されてもよい。
Accordingly, head-mounted
さらに、ヘッドマウントコンピューティングデバイス220は、様々なヘッドセットデバイスI/O222、例えば、ヘッドマウントコンピューティングデバイス220を介して受信されたハンズフリー入力を感知または検出することができるコンポーネントを含んでもよい。受信された入力は、例えばハンズフリー入力判定部240によって、1つまたは複数のハンズフリーコマンドを生成するために処理される。さらに、ハンズフリー対話システム200は、受信したハンズフリー入力に関連するコマンドを判定および/または生成するように構成され得る。生成されたハンズフリーコマンドは、(例えば、通信コンポーネント232によって)実行のためにタッチ式オペレーティングシステム202に通信され得る。判定されたコマンドは、あたかも対応するタッチ式入力を実行しているかのように、コマンドを実行するようにタッチ式オペレーティングシステム202にプログラム的に指示することができる。
Further, head-mounted
ヘッドセットエンジン210は、概して、タッチ式オペレーティングシステム202、タッチ式ユーザインターフェース206、モーション処理システム242、サウンド処理システム250、インターフェース分析部212、ストレージ270、ヘッドセットデバイス入出力部(I/O)222、及び他のそれぞれのサブコンポーネント間の通信を促進することを担当する。いくつかの形態では、ヘッドセットエンジン210は、ヘッドセットデバイスI/O222から信号を受信したことに応じて、ハンズフリー対話モードを開始する。例えば、(ボタン、スイッチなどの)物理的入力制御部238は、ハンズフリー対話モードを開始する入力を受けることができる。いくつかの形態では、ヘッドセットエンジン210は、判定されたタッチ式スクロール機能およびタッチ式制御ダイアログなど、タッチ式ユーザインターフェース206および/またはタッチ式オペレーティングシステム202の分析を開始する。いくつかの形態では、ヘッドセットエンジン210は、(たとえば、センサ226a〜226nから)モーションデータを受信し、情報をハンズフリー入力判定部240へ送信する。いくつかの形態では、ヘッドセットエンジン210は、ヘッドセットデバイスI/O222から音声入力部224を受信し、情報をハンズフリー入力判定部240へ送信する。
The headset engine 210 generally includes a
タッチ式ユーザインターフェース206は、概して、ハンズフリー対話システム200におけるタッチ式オペレーティングシステム202とのユーザ対話を促進する。いくつかの形態では、タッチ式ユーザインターフェース206は、タッチ式スクロール機能(「スワイプ」機能、水平スクロールバー、垂直スクロールバーなど)を含み得る。いくつかの形態では、タッチ式ユーザインターフェース206は、(たとえば、テキストボックスまたはフィールド、チェックボックス、アプリケーションアイコン、文書ツール、ラジオボタンなどの)タッチ式制御ダイアログを含む。
いくつかの形態では、ストレージ270は、キーワードカスタムライブラリ272を含み得る。キーワードカスタムライブラリ272は、タッチ式制御ダイアログの関連付けに対するキーワードキューを含むデータベースを含み得る。一形態では、ストレージ270は、ユーザ固有の設定、好み、閾値、許可、または個人もしくは個人のグループに関連する任意のデータも含み得る。一形態では、ストレージ270は、ヘッドセットアプリケーション276であり得る。ストレージ270は、ハンズフリー対話システム200の任意のコンポーネントおよびサブコンポーネントと通信可能に結合され得る。
In some forms,
音声入力部224は、概して、マイクロフォンなど(例えば指向性および全方向性マイクロフォン)のような、音声を取り込むためのコンポーネントを指す。実施形態では、音声入力部224は、周囲雑音を捕捉して最終的にユーザ音声入力の処理および分析を助けるために使用されるように構成されたヘッドマウントコンピューティングデバイス220の様々な地点に配置された複数のマイクロフォンを含み得る。音声入力部224は、本開示の範囲から逸脱することなく、音声入力を感知して音声入力を音声フィードに変換することができる任意のセンサまたはセンサのシステムとすることができることが理解されよう。音声出力部230は、概して、ユーザへのサウンド出力を促進する。本開示の範囲から逸脱することなく、電気的入力に応じてサウンドを生成することが可能な任意の音声出力コンポーネント(スピーカなど)を実施形態で使用することができることが理解されよう。実施形態では、音声出力部230は、少なくともヘッドセットデバイスI/O222と通信するように構成され得る。通信コンポーネント232は、概して、任意の適切な通信プロトコルを介してヘッドマウントコンピューティングデバイス220と他の装置との間の通信を促進する。実施形態では、通信コンポーネントは、図10を参照して上記または下記で説明された無線通信システムを備えることができる。
ディスプレイ234は、概して、ユーザへのデータの視覚的提示を促進する。本開示の範囲から逸脱することなく、任意のディスプレイが様々な実施形態において使用され得ることが理解されるであろう。センサ226a〜226nは、とりわけ、カメラ、マイクロフォン、GPS、RFIDセンサ、赤外線センサ、光センサ、磁力計、ジャイロスコープ、容量トランスデューサ、ポテンショメータ、抵抗トランスデューサ、シンクロ、加速度計、およびマイクロジャイロスコープを含み得る。
次に図3を参照すると、ハンズフリー対話システム200のさらなる態様を示すブロック図が提供されており、例示的なヘッドマウントコンピューティングデバイス220は、本開示のいくつかの実施形態を採用することができる。ヘッドマウントコンピューティングデバイス220は、本開示の実施形態を採用することができる、モーションキャプチャ、モーション分析、音声入力、音声分析、音声出力、画像キャプチャ、位置検出、方向判定、環境判定、インターフェース表示、位置検出、およびネットワーク接続のためのシステムと、ヘッドマウントコンピューティングデバイス220と通信可能に結合することができ、ネットワーク110と通信可能に結合することができるユーザデバイス102a〜102nと、図1に関連して説明されているネットワーク110と、サーバ106と、データソース104aと、を含み得る。ハンズフリー対話システム200のコンポーネントは、例えば、1組のコンパイルされたコンピュータ指令または機能、プログラムモジュール、コンピュータソフトウェアサービス、または、図10に関連して説明されるコンピューティングデバイスのように、1つまたは複数のコンピュータシステム上で実行されるプロセス構成として実施することができる。
Referring now to FIG. 3, a block diagram is provided that illustrates additional aspects of the hands-
一実施形態では、ハンズフリー対話システム200のコンポーネントによって実行される機能は、変位をタッチ式指令、コマンド、またはタッチ式オペレーティングシステム内の入力に変換することに関連する。実施形態では、ハンズフリー対話システム200は、ヘッドマウントコンピューティングデバイスのヘッドセット入出力(I/O)222と、ヘッドセットエンジン210と、ハンズフリー対話システム内のシステムまたはサブシステムを、検出すること、処理すること、分散すること、監視すること、および/または作動すること、を担当することができるハンズフリー入力判定部240と、を含む。例えば、起動コマンドの受信に応じて、ヘッドセットエンジン210は、ヘッドマウントコンピューティングデバイス上でハンズフリー対話モードを開始し、ハンズフリー対話モードは、タッチ式オペレーティングシステム(OS)のユーザインターフェースとの対話を可能にしてもよい。ハンズフリー対話モードの開始の一部として、ヘッドセットエンジン210は、インターフェース分析部212、モーション処理システム242、サウンド処理システム250、および環境分析部214を起動することができる。
In one embodiment, the functions performed by the components of the hands-
モーション処理システム242は、概して、ヘッドセットデバイスI/O222によって検出されたモーション式入力データの処理を促進する。モーション処理システム242は、ヘッドマウントコンピューティングデバイス220、ユーザデバイス102a〜102n、サーバ106、又は例えばネットワーク110を介してハンズフリー対話システム200と通信可能に接続され得る任意の場所に存在してもよい。実施形態では、モーション処理システム242は、ヘッドセットエンジンのサブシステムであり得る。実施形態では、モーション処理システム242は、通信コンポーネント232を介してヘッドマウントコンピューティングデバイス220と通信可能に結合された1つまたは複数のユーザデバイス102a〜102nのサブシステムとすることができる。他の実施形態では、モーション処理システム242は、通信コンポーネント232を介してヘッドマウントコンピューティングデバイス220と通信可能に結合された1つまたは複数のネットワークデバイスのサブシステムとすることができる。
このように、センサ226a〜226nからのデータは、分析のためにモーション処理システム242に送信され得る。いくつかの実施形態では、モーション処理システム242は、モーション検出コンポーネント244、較正制御コンポーネント246、およびモーション変換コンポーネント248(以下でさらに詳細に説明される)を含むサブコンポーネントを含み得る。形態では、モーション処理システム242は、通信コンポーネント232を介してハンズフリー対話システム200と通信可能に接続され得る。ヘッドセットの横方向移動、並進移動、および回転移動は、センサ226a〜226nによって検出され、モーション処理システム242によって処理されて、ニュートラル位置および向きを判定する。例えば、センサデータは、モーション処理システム242によって処理されて3つの軸に対して9自由度でヘッドセットの位置および向きを検出してもよい。実施形態では、モーション処理システム242は、ハンズフリー対話モードの開始時にヘッドセットの向きを検出することによって、ハンズフリー対話モードの開始中にニュートラル位置を較正することができる。
Thus, data from
形態では、閾値変位は、任意の軸において、ニュートラルから+/−10度だけヘッドセットを回転させるなど、ニュートラル位置からの所定の変位値であり得る。加えて、閾値変位は、ヘッドマウントコンピューティングデバイス220の角度変化、並進移動、回転、または任意の他の移動であり得る。理解され得るように、本説明では概して単数形を示しているが、任意の数の閾値変位を判定することができる。閾値変位は、タッチ式オペレーティングシステム202と対話するための任意の数のタッチ式入力に対応し得る。例えば、スクロールアップタッチ式入力は、ヘッドマウントコンピューティングデバイス220の上方への回転とする対応するハンズフリー入力を有し得る。したがって、ハンズフリー回転入力は、ニュートラル位置から上方に所定の度数の対応する閾値を有し得る。その結果、不注意によるハンズフリー入力を減少または排除することができる。
In an embodiment, the threshold displacement may be a predetermined displacement value from a neutral position, such as rotating the headset +/− 10 degrees from neutral in any axis. In addition, the threshold displacement may be an angular change, translation, rotation, or any other movement of the head mounted
他の形態では、閾値変位は、例えばモーション処理システム242および/またはヘッドセットエンジン210によって自動的かつ反復的に調整され得る。限定ではなく例として、ハンズフリー対話システム200は、以前のヘッドセットモーションデータに基づいて閾値変位を調整するためのハンズフリー入力(ユーザデータ274に格納されてもよい)を監視するコンピュータ学習または機械学習指令を含むことができる。他の形態では、閾値変位は、ヘッドマウントコンピューティングデバイス220に関連する(例えば、位置判定部216によって判定され得る)任意の数の場所に関連する使用データに基づいて自動的に調整され得る。他の形態では、変位閾値は、カスタマイズされた値であり得、これはユーザによって判定され得る。例えば、ユーザは、ハンズフリー対話アプリケーションのユーザインターフェースを介して閾値変位設定を調整することができ、これは、ハンズフリー対話システム200内に記憶され、本明細書に記載の任意の装置によって実行され得る。したがって、モーション処理システム242は、以下により詳細に説明されるように、検出された変位、またはヘッドセットの並進を、閾値変位と比較してもよい。
In other forms, the threshold displacement may be adjusted automatically and iteratively, for example, by the
モーション検出コンポーネント244は、ヘッドマウントコンピューティングデバイス220の変位を検出するためにモーション処理システム242を監視してもよい。例えば、モーション検出コンポーネント244は、較正制御コンポーネント246によって記憶された初期参照画像と、ヘッドマウントコンピューティングデバイス220の変位を検出するためのモーション処理システム242によって捕捉されるヘッドマウントコンピューティングデバイス220の初期位置に対する後続する画像と、を比較し得る。初期参照画像と後続する画像とを比較することによってヘッドマウントコンピューティングデバイス220の初期位置に対するヘッドマウントディスプレイの変位を検出するために任意の数の画像解析アルゴリズムを使用できることが理解されよう。さらに、閾値および/または検出された変位は、変位の期間を判定することを含み得る。例えば、閾値変位は、ハンズフリー入力として認識されるために、変位が5秒間持続されることを必要とし得る。さらに、モーション検出センサ(本明細書で説明されるように、加速度計、ジャイロスコープなどを含み得るセンサ226a〜226nなど)からの任意の種類のデータを使用して変位を測定または検出することができることを理解されたい。
モーション検出コンポーネント244が閾値変位を超えるヘッドマウントコンピューティングデバイス220の変位を検出すると、モーション変換コンポーネント248は、角度変位を1つまたは複数のタッチ式入力に対応する命令に変換することができる。モーション変換コンポーネント248は、変位の種類に基づいて適切な命令を判定することができる。実施形態では、モーション変換コンポーネント248は修飾部を用いて指令を補強することができる。例えば、ページスクロール指令は、10ページスクロールのように、複数のページの修正部で補強されてもよい。修正部は、検出された変位の持続時間など、検出されたハンズフリー入力に関連する特徴に基づいてもよい。
When the
サウンド処理システム250は、概して、ヘッドセットデバイスI/O222によって検出された音声入力データの処理を促進する。したがって、センサ226a〜226nからのデータは分析のためにサウンド処理システム250に送信されてもよい。いくつかの形態では、音声入力部224からのデータは分析のためにサウンド処理システム250に送信されてもよい。いくつかの実施形態では、サウンド処理システム215、250は、インターフェース分析部212、252、音声処理コンポーネント254、および音声変換コンポーネント256を含む音声検出コンポーネントを含むサブコンポーネントを含むことができる。いくつかの形態では、サウンド処理システム250は、タッチ式制御ダイアログに関連するキーワードキューを検出された音声入力と比較することができる。いくつかの形態では、サウンド処理システム250は、通信コンポーネント232を介してハンズフリー対話システム200と通信可能に接続され得る。したがって、サウンド処理システム250は、ユーザデバイス、ネットワーク、サーバ、またはハンズフリー対話システム200と通信可能に接続されている任意の場所に配置され得る。
実施形態では、タッチ式オペレーティングシステムは、サウンド処理システムの1つのアプリケーションのみへの音声入力を可能にするように構成されているので、音声共有コンポーネント(図示せず)をさらに含んでもよい。音声共有コンポーネントは、複数のプロセス、アプリケーション、コンポーネントなどが音声入力を同時に受信することを可能にし得る。言い換えれば、音声共有コンポーネントは、さらなる処理または分析なしで音声フィードがタッチ式オペレーティングシステムに継続し、音声検出コンポーネント252に継続することを可能にすることができる。他の方法で言うと、音声共有コンポーネントは、音声共有コンポーネントは、サウンド処理システムの機能を損なうことなく、タッチ式アプリケーションへの音声フィードの提供を促進する。
In embodiments, the touch-based operating system may further include a sound sharing component (not shown) because it is configured to allow voice input to only one application of the sound processing system. The audio sharing component may enable multiple processes, applications, components, etc. to receive audio input simultaneously. In other words, the audio sharing component may allow the audio feed to continue to the touch-based operating system and to the
例えば、ユーザは、ハンズフリーナビゲーションシステム内のタッチ式オペレーティングシステムと遠隔会議アプリケーションとを同時に実行することができ、音声共有コンポーネントは、音声フィードが遠隔会議アプリケーションに継続することを可能にすることができる。さらに、音声共有コンポーネントは、音声検出コンポーネント252に音声フィードを提供することができる。したがって、実施形態では、音声共有コンポーネントは音声フィードを複製することができる。
For example, a user can simultaneously run a touch-based operating system and a teleconferencing application in a hands-free navigation system, and an audio sharing component can allow audio feeds to continue to the teleconferencing application. . Further, the audio sharing component can provide an audio feed to the
音声検出コンポーネント252は、概して、音声フィードを検出するために音声入力部224および/またはセンサ226a〜226nを監視することを促進する。例えば、音声検出コンポーネント252は、信号がマイクロフォンによって受信されていることを検出するために、ヘッドマウントコンピューティングデバイス220のマイクロフォンを聴取してもよい。この例を続けると、音声検出コンポーネント252は、マイクロフォンによって受信された信号が所定の音量より上であると判定することを担当してもよく、それは、信号がハンズフリー可聴入力を判定するためにさらに処理されるべきことを示し得る。実施形態では、音声検出コンポーネント252は、検出した音声フィードを音声処理コンポーネント254に提供する。
The
音声処理コンポーネント254は、概して、ユーザの発話を識別、分離、および分析するために音声フィードの処理を促進する。実施形態では、音声処理コンポーネント254は、音声フィードを処理するために、音声認識アルゴリズム、ノイズ低減アルゴリズム、音声−文章アルゴリズム、機械学習アルゴリズムなどを使用することができる。いくつかの形態では、音声処理コンポーネント254は、音声検出コンポーネント252から複数の音声フィードを受信することができる。これらの実施形態では、音声処理コンポーネント254は複数の音声フィードを処理して、ユーザの音声を背景雑音から少なくとも部分的に分離することができる。ユーザの音声を背景から少なくとも部分的に分離するために、任意の雑音低減アルゴリズム、音声分離アルゴリズム、または任意の適切なアルゴリズムもしくは技法を使用することができることが理解されよう。実施形態では、音声処理コンポーネント254は、音声検出コンポーネント252から音声フィードを受信し、インターフェース分析部212によってタッチ式制御ダイアログに関連付けられた第1の可聴入力を識別することができる。実施形態では、音声処理コンポーネント254は、音声フィードを分析し、音声フィードをキーワードキューと比較して、処理された音声フィードがキーワードキューと一致するかどうかを判断する。
The
音声変換コンポーネント256は、概して、音声フィード−キーワードキュー一致の関連する制御ダイアログへの変換を促進する。したがって、音声変換コンポーネント256は、音声処理コンポーネント254から一致するキーワードキューを受け取り、そのキーワードキューに関連付けられている制御ダイアログを判定することができる。
The
インターフェース分析部212は、概して、タッチ式ユーザインターフェース206、タッチ式オペレーティングシステム202、タッチ式ユーザインターフェース206内のアプリケーション208、およびタッチ式ユーザインターフェース206内の文書204内のタッチ式ユーザ対話機能の検出を促進する。本明細書で使用するとき、タッチ式ユーザ対話機能は、タッチ式スクロール機能(「スワイプ」機能、水平スクロールバー、垂直スクロールバーなど)、タッチ式制御ダイアログ(テキストボックスまたはフィールド、チェックボックス、アプリケーションアイコン、文書ツール、放射状ボタンなど)、並びに、タッチ式ユーザインターフェース、オペレーティングシステム、アプリケーション、および/または文書内でのユーザ操作を促進する、より一般的な任意の要素、機能、アイコン、コマンド、コード、拡張子、マクロなどを含む。形態では、インターフェース分析部212は、タッチ式ユーザインターフェース206、タッチ式オペレーティングシステム202、および/またはタッチ式ユーザインターフェース206内のアプリケーション208のソースコードをスキャンすることによって、タッチ式ユーザ対話機能を検出および/または識別し得る。形態では、インターフェース分析部212は、環境固有の機能を促進するためにキーワードカスタムライブラリ272および/またはユーザデータ274を参照してもよい。
The interface analyzer 212 generally detects the detection of the
いくつかの実施形態では、環境分析部214は、概してハンズフリー対話システム200の環境データおよび環境固有の特徴の分析を促進する。環境データは、ヘッドセットエンジン210またはそのサブコンポーネントの動作に関連する任意のデータであり得る。非限定的な例として、環境データは、(ユーザデータ274などの)ユーザデータ、(アプリケーション208に関連付けられたなどの)アプリケーションデータ、または通信コンポーネント232もしくは位置判定部216から受信したデータであり得る。実施形態では、環境分析部214はさらに、インターフェース分析部212を監視し、カスタマイズされたデータがタッチ式ユーザインターフェースの現在のインスタンスに関連しているかどうかを判定する。実施形態では、環境分析部は、分析に応じて、ハンズフリー入力判定部240、ヘッドセットエンジン210、またはそれらのそれぞれのサブコンポーネントの機能を変更することができる。例えば、インターフェース分析部212がタッチ式ユーザインターフェースの特定のインスタンスを分析することに応じて、環境分析部214は、タッチ式ユーザインターフェースの特定のインスタンスに関連するカスタムキーワードキューライブラリ(カスタムキーワードライブラリ272など)を配置することができる。そして、環境分析部214は、カスタムキーワードキューライブラリをサウンド処理システム250に通信し得る
In some embodiments,
実施形態では、環境分析部214は、ハンズフリー入力判定部240の機能を変更するために位置情報を使用し得る。例えば、環境分析部214は、特定のカスタムキーワードライブラリに関連する位置データ(位置判定部216によって検出されるBluetoothビーコン情報など)を分析することができる。実施形態では、環境分析部214は、特定のモーション式閾値が環境データの結果として示されることを判定し得る。
In an embodiment, the
実施形態では、インターフェース分析部212は、互換性のあるタッチ式ユーザインターフェース、例えば、Googole AndroidまたはAppleのiOSを検出し、タッチ式OSを分析して、ユーザインターフェースの第1のインスタンスに関連するタッチ式コマンドを検出する。インターフェース分析部は、例えば、ユーザインターフェースの第1のインスタンスがタッチ式スクロール機能を備えることを検出することができる。例えば、タッチ式スクロール機能は、タッチ式オペレーティングシステムの異なるメニュー画面に案内するための、タッチ式オペレーティングシステムに関連するタッチ式スクロール機能、アプリケーションの異なるメニュー画面に案内するための、アプリケーションに関連付けられたタッチ式スクロール機能、および/または文書の異なる部分に案内するための、文書に関連付けられたタッチ式スクロール機能を備え得る。 In embodiments, the interface analyzer 212 detects a compatible touch-based user interface, for example, a Google Android or Apple iOS, analyzes the touch-based OS, and detects touches associated with the first instance of the user interface. Detect expression commands. The interface analyzer may, for example, detect that the first instance of the user interface comprises a touch scroll function. For example, the touch scroll function may be associated with an application for guiding to a different menu screen of the touch operating system, a touch scroll function associated with the touch operating system, for guiding to a different menu screen of the application. A touch-sensitive scrolling function and / or a touch-sensitive scrolling function associated with the document for navigating to different parts of the document may be provided.
実施形態では、インターフェース分析部212がタッチ式スクロール機能を検出すると、ヘッドセットエンジン210は、モーションキャプチャシステムを較正し、変位を監視し、変位を関連するタッチ式スクロール機能に変換するモーション処理システム242を起動する。起動されると、モーション処理システム242は、較正制御コンポーネント246を作動させることができる。較正制御コンポーネント246は、ヘッドマウントコンピューティングデバイス220の初期位置を検出する。この初期位置は、1つ又は複数の軸に対するヘッドマウントコンピューティングデバイス220の配向を含む。実施形態では、較正制御コンポーネント246は、カメラ(例えば、センサ226a〜226nのうちの1つ)を使用してモーション検出コンポーネント244を作動させることによって、ヘッドマウントコンピューティングデバイスの初期位置を判定することができる。較正制御コンポーネント246は、ヘッドマウントコンピューティングデバイス220の相対移動を測定するために、後続の画像と比較するための初期参照画像として少なくとも一時的に画像を記憶し得る。
In an embodiment, when the interface analyzer 212 detects a touch scroll function, the headset engine 210 calibrates the motion capture system, monitors the displacement, and converts the displacement to an associated
さらに、実施形態では、インターフェース分析部212は、検出されたタッチ式スクロール機能を対応する方向のヘッドマウントコンピューティングデバイス220の変位と関連付ける。例えば、インターフェース分析部212が、ユーザインターフェースの第1のインスタンス内で左から右への「スワイプ」に対応するタッチ式OSに関連するタッチ式スクロール機能を検出した場合。インターフェース分析部212は、ヘッドマウントコンピューティングデバイス220の初期位置に対する右への変位を、左から右へのタッチ式スワイプと関連付けることができる。別の例では、インターフェース分析部212がユーザインターフェースの第1のインスタンス内で垂直スクロールバーを検出した場合、インターフェース分析部212は、ヘッドマウントコンピューティングデバイス220の初期位置に対する角度変位「上」を、垂直スクロールバーを所定数のスクロール単位だけ上に移動させることへ、関連付けることができる。インターフェース分析部212がユーザインターフェースの第1のインスタンス内で水平スクロールバーを検出した場合。インターフェース分析部212は、ヘッドマウントコンピューティングデバイス220の初期位置に対する右への角度変位を、水平スクロールバーを所定数のスクロール単位だけ右に移動させることへ、関連付けることができる。
Further, in embodiments, the interface analyzer 212 associates the detected touch-based scroll function with a displacement of the head-mounted
さらに、ヘッドセットエンジン210は、ディスプレイコンポーネント234を起動して、タッチ式オペレーティングシステムのユーザインターフェースの第1のインスタンスを、ヘッドマウントコンピューティングデバイス220のディスプレイに表示することができる(図2を参照してより詳細に説明され、参照番号234によって示される)。実施形態では、次いで、ヘッドセットエンジン210は、ヘッドマウントコンピューティングデバイスの第1の角変位を検出するモーション検出コンポーネント244を起動することができる。第1の角変位は第1の閾値角変位を上回るものであり、第1の閾値角変位は、初期位置に対する角変位である。
Further, the headset engine 210 can invoke the
さらに、インターフェース分析部212が、左から右へのスワイプに対応すると共にヘッドマウントコンピューティングデバイスの初期位置に対する右への角変位を左から右へのタッチ式スワイプに関連付けられたタッチ式スクロール機能を検出し、モーション検出コンポーネント244が、初期位置から閾値を上回る右へのヘッドマウントコンピューティングデバイスの角変位を検出し、モーション変換コンポーネント248は、左から右へスワイプする指令が求められていると判定することができる。次に、モーション変換コンポーネント248は、角変位を左から右へのスワイプに対応する命令に変換し、その命令をコマンド生成部213に渡すことができる。コマンド生成部213は、モーション変換コンポーネント248によって示される指令に対応するタッチ式入力を生成し、タッチ式ユーザインターフェース内で指令を実行する。任意の変位がシステムによって検出され、分析され、変換されてもよく、前述の例は例として意図されており、限定として意図されていないことが理解されよう。
Further, the interface analyzer 212 may include a touch-sensitive scroll function corresponding to the left-to-right swipe and the right-hand angular displacement relative to the initial position of the head-mounted computing device associated with the left-to-right touch-type swipe. The
実施形態では、インターフェース分析部212は、互換性のあるタッチ式オペレーティングシステムを検出し、タッチ式ユーザインターフェースを分析して、ユーザインターフェースの第1のインスタンスに関連する少なくとも1つのタッチ式制御ダイアログを検出する。例えば、タッチ式制御ダイアログは、音声出力を可能にするため、または音声出力ボリュームを変更するための、タッチ式オペレーティングシステムに関連するタッチ式コマンド、および/または、例えば、アプリケーションを起動するための、またはアプリケーション要素、テキストフィールドもしくは「送信」要素を選択するための、アプリケーションに関連するタッチ式制御ダイアログを備えてもよい。前述の例は、潜在的なタッチ式制御ダイアログのほんの一部にすぎず、限定を意図するものではないことが理解されよう。 In an embodiment, the interface analyzer 212 detects a compatible touch operating system, analyzes the touch user interface, and detects at least one touch control dialog associated with the first instance of the user interface. I do. For example, the touch control dialog may include a touch command associated with a touch operating system to enable audio output or change the audio output volume, and / or, for example, to launch an application. Alternatively, there may be a touch control dialog associated with the application to select an application element, text field or "send" element. It will be appreciated that the above examples are only a few of the potential touch control dialogs and are not intended to be limiting.
実施形態では、インターフェース分析部212がタッチ式制御ダイアログを検出すると、ヘッドセットエンジン210は、音声入力を監視および処理し、音声入力を分析し、音声入力を関連するタッチ式制御ダイアログに変換するサウンド処理システム250を起動することができる。起動されると、サウンド処理システム250は、制御ダイアログオプションを検出し、識別し、そしてキーワードキューを関連付けるインターフェース分析部212を起動する。実施形態では、インターフェース分析部212は、実行時にユーザインターフェースの第1のインスタンスに関連付けられたソースコードをスキャンして特徴を抽出することによって、タッチ式制御ダイアログを検出する。例えば、インターフェース分析部212がユーザインターフェースの第1のインスタンスに埋め込まれた「ボタン」を検出した場合、インターフェース分析部212はボタンテキストをキーワードキューに関連付ける。実施形態では、インターフェース分析部212は、(ストレージ270などの)ハンズフリーコンピューティングデバイスのメモリに格納されているユーザインターフェースの第1のインスタンスに関連するカスタマイズされたキーワードキューライブラリを検出することができる。実施形態では、インターフェース分析部212は、通信的に結合されたユーザデバイス(ユーザデバイス102aなど)に格納されているカスタマイズされたキーワードキューライブラリを検出することができる。実施形態では、インターフェース分析部212は、(データソース104aなどの)通信可能に結合されたデータソースに格納されているカスタマイズされたキーワードキューライブラリを検出することができる。
In embodiments, when the interface analyzer 212 detects a touch control dialog, the headset engine 210 monitors and processes the audio input, analyzes the audio input, and converts the audio input into an associated touch control dialog. The
ヘッドセットエンジン210は、ディスプレイコンポーネント234を起動して、タッチ式オペレーティングシステムのユーザインターフェースの第1のインスタンスをヘッドマウントコンピュータデバイスのディスプレイに表示する。実施形態では、ヘッドセットエンジン210は、次いで、音声検出コンポーネント252を起動して、例えば、センサ226a−226nまたは音声入力部224を介して受信された音声を検出し、音声入力を音声処理コンポーネント254に渡す。本明細書で使用される際に、音声フィードは、音声入力装置によって取り込まれた音響信号、または音声入力要素によって生成された電気信号のいずれかを指し得る。
The headset engine 210 activates the
コマンド生成部213がタッチ式ユーザインターフェース内で指令を実行することに応じて、ヘッドセットエンジン210は次に、ディスプレイコンポーネント234に指示して、タッチ式オペレーティングシステムのユーザインターフェースの第2のインスタンスをヘッドマウントコンピューティングデバイスのディスプレイに表示させる。
In response to
次に図4を参照すると、図3を参照して説明したヘッドセットによって少なくとも部分的に実施することができる例示的なモーション式ハンズフリー対話モード400を示すブロック図が提供されている。実施形態では、ヘッドセットエンジンは、モーション処理システム242に関連付けられたハンズフリー対話モード402を開始する。ハンズフリー対話モード402は、インターフェース分析部を起動して、ユーザインターフェースの第1のインスタンス内のタッチ式スクロール機能を検出し、タッチ式スクロール機能を第1の角変位と関連付けることを含み得る。ブロック404において、ハンズフリーコンピューティングデバイスの初期位置が検出され、初期基準配向が判定される。実施形態では、これは、図3を参照して説明したように、較正制御コンポーネント246によって行われてもよい。実施形態では、較正制御コンポーネント246は、基準配向をリセットするために任意の時点でユーザによって再起動されてもよい。例えば、ユーザは、最初の基準配向が判定された時点で、ハンズフリーナビゲーション中にその位置を維持することは望ましくないであろう奇妙なまたは不快な位置に頭をおくことがあるので、ユーザは、基準配向が再判定され得るように、較正制御コンポーネント246を再起動し得る。実施形態では、ヘッドマウントコンピューティングデバイス220は、較正制御コンポーネント246を再起動することに関連するボタン(物理的入力要素238など)を有することができる。さらに、又は代替的に、一実施形態では、所定の音声コマンドが、較正制御コンポーネントを再起動することに関連付けられる。
Referring now to FIG. 4, a block diagram is provided illustrating an exemplary motion-based hands-
ブロック406で、ディスプレイはユーザインターフェースの第1のインスタンスを示す。実施形態では、これは、図3を参照して説明したようにヘッドセットエンジン210によって行われる。ブロック408で、図3を参照して説明したように、ヘッドマウントコンピューティングデバイスの移動がモーション検出コンポーネント244によって検出される。ブロック410で、検出された移動は、図3を参照して説明したように、モーション検出コンポーネント244によってタッチ式スクロール機能に関連する角度閾値を超えたと判定される。ブロック412で、検出された変位は、モーション変換コンポーネント248によって、タッチ式スクロール機能に関連するタッチ式スクロール指令に変換される。さらに、コマンドが、タッチ式インターフェースの第1のインスタンス内で生成され実行される。ブロック414で、タッチ式スクロールコマンドの実行に応じて、ユーザインターフェースの第2のインスタンスが表示される。方法400は、必要に応じて何度でも繰り返し方式で実行することができることが理解されよう。
At
実施形態では、モーション式ハンズフリー対話モードのいくつかのプロセスは、図3を参照して説明したようにヘッドマウントコンピューティングデバイス302、220と通信可能に接続されたユーザデバイス(ユーザデバイス102aなど)によって少なくとも部分的に完了してもよい。
In an embodiment, some processes of the motion-based hands-free interaction mode may include a user device (such as
次に図4bを参照すると、図3に示されるヘッドセットによって少なくとも部分的に実施され得る例示的な音声式ハンズフリー対話モード416を示すブロック図が提供される。実施形態では、ヘッドセットエンジンは、サウンド処理システム250に関連するハンズフリー対話モード418を開始する。ハンズフリー対話モード418を開始することは、インターフェース分析部を起動して、ユーザインターフェースの第1のインスタンス内で、少なくとも1つのタッチ式制御ダイアログを検出することを含み得る。ブロック420で、少なくとも1つのタッチ式制御ダイアログが識別され、キーワードキューと関連付けられる。実施形態では、インターフェース分析部は、タッチ式ユーザインターフェース内で実行されているアプリケーションのソースコードを分析し、アプリケーションソースコード内のタッチ式制御ダイアログに関連付けられている名前を識別することができる。次いで、インターフェース分析部は、アプリケーションソースコードからの名前と実質的に同様のキーワードキューを生成し、生成されたキーワードキューをタッチ式制御ダイアログと関連付けることができる。たとえば、タッチ式ユーザインターフェースがアプリケーションの構造図を表示していて、アプリケーション内にズーム機能を開くタッチ式コントロールダイアログがある場合、インターフェース分析部はリアルタイムで、アプリケーションのソースコードにアクセスし、ズーム機能をエンコードしているコードの部分を識別し、その機能が「ズーム」と命名されていることを検出し、キーワードキュー「ズーム」を生成し、生成されたキーワードキュー「ズーム」を、ズーム機能を開くタッチ式制御ダイアログと関連付ける。実施形態では、インターフェース分析部は、図7Bを参照して詳細に説明するように、タッチ式制御ダイアログをキーワードキューと関連付けるときに、予め決められた又はカスタムキーワードキューライブラリを参照してもよい。
Referring now to FIG. 4b, there is provided a block diagram illustrating an exemplary spoken hands-
ブロック422で、ディスプレイはユーザインターフェースの最初のインスタンスを表示する。実施形態では、ヘッドセットエンジン210は、図3を参照して説明したようにユーザインターフェースの表示を調整する。実施形態では、ブロック424で、第1のユーザインターフェースでインターフェース分析部に識別されたキーワードキューの少なくとも1つの視覚的指標を含むグラフィカルオーバーレイを第1のユーザインターフェース上に同時に表示することができる。さらなる実施形態では、視覚的指標は、図
を参照して図示および説明したように、タッチ式制御ダイアログの位置に実質的に近接して配置され得る。
At
ブロック426で、可聴入力がヘッドセットによって検出される。実施形態では、可聴入力、例えばユーザによって話されたフレーズ「ズーム」によって、音声入力部224によって最初に検出されてもよい。次いで、音声入力部224は、話されたフレーズ「ズーム」を音声フィードに変換し、音声フィードを音声検出コンポーネント252に渡すことができる。音声検出コンポーネント252は、次に音声処理コンポーネント254を起動することができる。
At
ブロック428で、音声入力が処理され分析されて、可聴入力がキーワードキュー、したがってタッチ式制御ダイアログと一致するかどうかが判定される。実施形態では、音声処理コンポーネント254は、音声フィードを処理するために、音声認識アルゴリズム、ノイズ低減アルゴリズム、スピーチからテキストへのアルゴリズム、機械学習アルゴリズムなどを使用することができる。例えば、音声フィードは、周囲の雑音、付随的な雑音、または背景雑音からユーザによって話されたフレーズ「ズーム」を分離するために処理され得る。次いで、音声処理コンポーネント254は、処理された音声フィードを分析し、処理された音声フィードをキーワードキューと比較して、処理された音声フィードがキーワードキューと一致するかどうかを判定することができる。
At
ブロック430で、検出されたキーワードキューに関連するタッチ式制御ダイアログに対応するタッチ式コマンドが生成され、コマンドはタッチ式ユーザインターフェースの第1のインスタンス内で実行される。言い換えれば、音声フィードがキーワードキューと一致すると音声処理コンポーネントが判断した場合、音声変換コンポーネントは、一致したキーワードキューを関連する制御ダイアログに変換する。次に、音声変換コンポーネントは、タッチ式制御ダイアログと同等のコマンドを生成コマンド生成部に制御ダイアログを渡す。生成されたコマンドは、その後、タッチ式ユーザインターフェース内のヘッドセットエンジンによって実行される。例えば、音声処理コンポーネントがフレーズ「ズーム」をキーワードキュー「ズーム」に一致させると、音声変換コンポーネントは、キーワードキュー「ズーム」を、ズーム制御ダイアログを選択することと等価な指令に変換する。その後、指令はコマンド生成部に渡され、コマンド生成部は、ズームタッチ式制御ダイアログのタッチ式ユーザ選択と等価なコマンドを生成する。次に、コマンドがタッチ式ユーザインターフェース内のヘッドセットエンジンによって実行され、ズーム機能が有効になる。方法416は、必要に応じて何度でも反復的に実行することができることが理解されよう。
At
ここで図4cを参照すると、図3に示すヘッドセットによって少なくとも部分的に実施することができる例示的なモーション式および音声式のハンズフリー対話モードを示すブロック図が提供されている。ブロック440において、ハンズフリー対話モードが開始される。図3に参照して説明したように、ユーザインターフェースの第1のインスタンスに関連する少なくとも1つのタッチ式コマンドを検出するためにタッチ式OSを分析する。例えば、インターフェース分析部は、例えばタッチ式オペレーティングシステムの異なるメニュー画面にナビゲートするためのユーザインターフェースの第1のインスタンスがタッチ式スクロール機能を備えることを検出してもよく、インターフェース分析部212は、ユーザインターフェースの第1のインスタンスが、例えば、タッチ式オペレーティングシステムにインストールされているアプリケーションを開くためのタッチ式制御ダイアログを備えることを検出してもよい。
Referring now to FIG. 4c, a block diagram is provided illustrating an exemplary motion-based and audio-based hands-free interaction mode that may be implemented at least partially by the headset shown in FIG. At
次に、ヘッドセットエンジン210は、ハンズフリー移動プロトコル436を起動し、ハンズフリー音声プロトコル438を起動させることができる。実施形態では、ハンズフリー移動プロトコル436は、モーション式ハンズフリー対話モード400のプロセスの一部、または全部を備え得る。例えば、ヘッドセットエンジン210は、較正制御コンポーネント246を起動して、1つ又は複数の軸に対するヘッドマウントコンピューティングデバイスの向きを含むヘッドマウントコンピューティングデバイスの初期位置を判定することができる。実施形態では、ハンズフリー音声プロトコル438は、音声式ハンズフリー対話モード416の一部、全部、または代替的なプロセスを備え得る。例えば、ヘッドセットエンジンは、音声式ハンズフリーナビゲーションを可能にするために制御ダイアログ検出モジュールを起動することができる。ヘッドセットエンジンは、ハンズフリー移動プロトコル436およびハンズフリー音声プロトコル438を任意の順序でまたは同時に開始させることができることが理解されよう。
Next, the headset engine 210 can invoke the hands-
ヘッドセットの初期基準方位が判定され、タッチ式制御ダイアログがキーワードキューに関連付けられると、ブロック440に示すように、タッチ式ユーザインターフェースの第1のインスタンスが表示される。ブロック442で、モーション検出コンポーネントおよび音声検出コンポーネントは、図4Aおよび図4Bを参照して説明したように、ヘッドセットI/Oシステムからの入力データを監視、検出、および分析する。
Once the initial reference heading of the headset has been determined and the touch control dialog has been associated with the keyword cue, a first instance of the touch user interface is displayed, as shown in
ブロック444で、移動が検出されると、モーション検出コンポーネントは、ブロック410を参照して説明したように、移動が関連閾値を超えているかどうかを判定する。関連閾値を超えた場合、ブロック412及び414で説明したように、ブロック446で表示が調整される。関連する閾値を超えていない場合、システムはブロック442に戻る。
At block 444, when a movement is detected, the motion detection component determines whether the movement has exceeded an associated threshold, as described with reference to block 410. If the associated threshold is exceeded, the display is adjusted at
ブロック448で、音声入力が検出されると、音声処理コンポーネントは、ブロック428を参照して説明したように、音声入力がキーワードキューと一致するかどうかを判定する。音声入力がキーワードキューと一致する場合、ブロック430を参照して説明したように、関連する制御ダイアログに等価なタッチ式コマンドがブロック450で実行される。方法432は、必要に応じて何度でも反復的に実行することができることが理解されよう。
At
ここで図5を参照すると、タッチ式オペレーティングシステムとのハンズフリー対話を促進する例示的な多軸モーション式の方法500を示すブロック図が提供されている。言い換えれば、方法500は、互換性のあるヘッドセットと共に利用されるときに、タッチ式オペレーティングシステムとの単純で複雑なモーション式ハンズフリー対話を促進する。例示的な例として、ブロック510において、互換性のあるヘッドセットを装着しているユーザがハンズフリーナビゲーションインタフェースを開始させる。前述のように、ヘッドセットの初期基準方位は、中立位置で前方を向くことと等価であると判定される。ブロック512で、ヘッドセットは移動を検出する。例えば、ユーザは、頭を中立から右へ、そして同時に上に向ける。ブロック514で、システムは、移動が第1の軸内にあるかどうかを判定する。例えば、第1の軸における移動は、初期基準位置からx軸に向かって(ユーザの右に)z軸を中心にした回転であり得る。言い換えれば、システムは、ユーザが自分の頭を正面から右に向けた(回転)したことを検出することができる。また、ブロック516で、システムは、移動が第2の軸で発生したかどうかを判定する。例えば、第2の軸における移動は、初期基準位置からz軸に向かって(着用者の視点から見て上向きに)x軸を中心にした回転であり得る。言い換えれば、システムは、ユーザが自分の頭をy軸に実質的に平行な位置からz軸に向けた(回転)したことを検出することができる。
Referring now to FIG. 5, a block diagram is provided illustrating an exemplary multi-axis motion-based
ブロック518において、システムは、第1の軸における移動が第1の軸閾値を超えたかどうかを判定する。第1軸閾値は、例えば、初期基準位置から±10度であるように予め判定され得る。システムが最初の軸で±10度を超える変位を検出した場合、システムは閾値を超えたと判断する。システムが最初の軸で±10度以下の変位を検出した場合、システムは閾値を超えていないと判断する。例えば、ユーザが自分の頭を20度右に向けた場合、システムは第1軸閾値を超えたと判断するであろう。
At
ブロック520において、システムは、第2の軸における移動が第2の軸閾値を超えたかどうかを判定する。第2軸閾値は、例えば、初期基準位置から±10度になるように予め定められ得る。システムが第2の軸において±10度を超える変位を検出した場合、システムは閾値を超えたと判断する。システムが±10度以下の第2の軸の変位を検出した場合、システムは閾値を超えていないと判断する。例えば、ユーザが頭を20度上に向けた場合、システムは第2の軸閾値を超えたと判断するであろう。
At
ブロック522で、システムは多軸入力に関連するタッチ式スクロール機能を実行し、タッチ式ユーザインターフェースの第2のインスタンスを表示する。実施形態では、多軸入力は、2つの独立したタッチ式スクロール機能を表してもよい。前の例を続けると、多軸入力(右および上)は、水平スクロールバーを右に所定の数のスクロール単位だけ動かすこと、および垂直スクロールバーを所定の数のスクロール単位だけ上に動かすことに対応し得る。実施形態では、多軸入力は単一のタッチ式スクロール機能を表してもよい。例えば、多軸入力(右上)は、垂直スクロールバーを表示されている文書の全ページに相当する数のスクロール単位だけ移動させることに対応し得る。
At
ブロック516に戻って、移動が第1の軸においてのみ検出される場合、システムは、ブロック524において、移動が第1の軸閾値を超えたかどうかを判定する。移動が第1の軸閾値を超えなかった場合、システムはブロック512に戻る。移動が第1の軸閾値を超えた場合、ブロック526において、システムは、第1の軸入力に関連付けられたタッチ式スクロール機能を実行し、タッチ式ユーザインターフェースの第2のインスタンスを表示する。
Returning to block 516, if movement is detected only on the first axis, the system determines at
ブロック518に戻って、検出された移動が第1の軸の閾値を超えない場合、システムはブロック528に進む。ブロック528で、システムは移動が第2の軸閾値を超えたかどうかを判定する。移動が第2の軸閾値を超えなかった場合、システムはブロック512に戻る。移動が第2の軸閾値を超えた場合、ブロック530において、システムは、第2の軸入力に関連するタッチ式スクロール機能を実行し、タッチ式ユーザインターフェースの第2のインスタンスを表示する。
Returning to block 518, if the detected movement does not exceed the first axis threshold, the system proceeds to block 528. At
例示的な方法500に関して提供された例は、本開示の範囲内の可能な多軸入力および関連するタッチ式スクロールコマンドのサブセットのみを表し、これらの実施例は単なる例示であって限定として解釈されることを意図するものではないことが理解されよう。
The examples provided with respect to the
ここで図6Aを参照すると、開示された発明の実施形態と一致する可能なユースケースを示す例示的な図が提供されている。図6Aは、図の明瞭さを確保するために実施形態のシステムおよびコンポーネントのサブセットのみを含む。ハンズフリーナビゲーションインターフェースを開始した後、互換性のあるヘッドセットを装着しているユーザに、ディスプレイを介して、ユーザが構築している建物に関連するブループリント602の第1の部分が提示される。ブループリント602の第1の部分に関連する建物600の領域を検査した後、ユーザは自分の頭を左に向けることができる。604において、システムは、第1の軸、この場合はx軸における移動を検出し、第1の軸における移動が第1の軸閾値を超えたと判定する。次にシステムは、その移動を、左へのスクロールと等価のタッチ式スクロール機能に関連するコマンドに変換する。その後、システムはタッチ式ユーザインターフェース内でコマンドを実行する。次にシステムは、タッチ式ユーザインターフェースの第2のインスタンスを表示する。ここで、コマンドは、表示されたブループリント内を所定の距離だけ左にスクロールすることをもたらし、ディスプレイはブループリント606の第2の部分を示す。
Referring now to FIG. 6A, an exemplary diagram is provided illustrating possible use cases consistent with embodiments of the disclosed invention. FIG. 6A includes only a subset of the systems and components of the embodiments for clarity of the illustration. After initiating the hands-free navigation interface, a user wearing a compatible headset is presented, via a display, with a first portion of a
ここで図6Bを参照すると、開示された発明の実施形態と一致する他の可能なユースケースを示す例示的な図が提供されている。図6Bは、図の明確さを確保するために実施形態のシステムおよびコンポーネントのサブセットのみを含む。ハンズフリーナビゲーションインターフェースを開始し、スクロールバー位置616aで垂直スクロールバーとスクロールバー位置614aで水平スクロールバーとを検出した後、互換性のあるヘッドセットを装着しているユーザに、ディスプレイを通してユーザが構築している建物に関連する経費報告書612の最初のページが表示される。経費報告書612の最初のページを検討した後、ユーザは自分の頭を下に回転させることができる。618において、ヘッドセットは、x軸周りの角変位を検出し、そして第1の軸におけるモーションが第1の軸閾値を超えると判定し得る。次にシステムは、その移動を、スクロールバー位置616aからスクロールバー位置616bまで所定の距離だけ下方に移動させることに関連するコマンドに変換する。その後、システムはタッチ式ユーザインターフェース内でコマンドを実行する。次にシステムは、タッチ式ユーザインターフェースの第2のインスタンスを表示する。ここで、ディスプレイは、経費報告書620の第2ページを表示する。
Referring now to FIG. 6B, an exemplary diagram illustrating another possible use case consistent with embodiments of the disclosed invention is provided. FIG. 6B includes only a subset of the systems and components of the embodiments for clarity of the illustration. After launching the hands-free navigation interface and detecting a vertical scroll bar at
ここで図7Aを参照すると、タッチ式オペレーティングシステムのタッチ式ユーザインターフェース内で実行されるコマンドへの音声入力の正確な変換を概して促進する方法700を示すフローダイアグラムが提供される。まず、ブロック701に示されるように、方法は、ヘッドセットセンサから入力データを受信することを含む。さらに、ブロック702で、方法は、受信した入力データが音声フィードであるかどうかを判定することを含み得る。例えば、タッチ式制御ダイアログに関連付けられた音声入力が検出され得る。いくつかの態様では、ブロック704で、方法は音声入力を分析することを含む。実施形態において、音声フィードは、コンピュータベースの音声認識技術を使用して処理され、音声入力を識別する。ブロック706で、方法は、分析された音声入力がキーワードキューと一致するかどうかを判定し得る。実施形態では、分析された音声入力は、制御ダイアログ検出部によるタッチ式制御ダイアログに関連付けられた生成されたキーワードキューと比較される。音声入力がキーワードキューに一致するかどうかを判断するために、1つまたは複数の音声―テキスト一致アルゴリズムを使用できることを理解されたい。実施形態では、タッチ式制御ダイアログは、タッチ式オペレーティングシステムで実行されるモバイルアプリケーションに関連付けられてもよい。実施形態では、ブロック708で、方法は、音声入力と一致するキーワードキューがハンズフリー対話モードを一時停止する命令に対応するかどうかを判定することを含む。例えば、方法は、キーワードキューが音声入力コンポーネントをパッシブモードに設定する命令に対応するかどうかを判定してもよい。これに関連して、パッシブモードとは、ハンズフリー対話モード内でヘッドセットセンサや音声入力システムの分析を(少なくとも一時的に)一時停止することを指す。しかし、実施形態では、ヘッドセットセンサおよび/または音声入力システムは、他のプロセスで使用するためにアクティブのままとされる。つまり、ヘッドセットセンサおよび/または音声入力システムは、タッチ式オペレーティングシステム内で実行されているアプリケーションにデータを送信し続ける可能性がある。たとえば、ハンズフリー対話モードを使用してビデオチャットアプリケーションからのビデオチャットリクエストに応答した後、ユーザはパッシブモードに関連付けられたキーワードキューを話すことで、ハンズフリー対話モードをパッシブモードにすることができるが、ビデオチャットアプリケーション内でヘッドセットのマイクとカメラを使用することは続けられる。
Referring now to FIG. 7A, a flow diagram is provided illustrating a
本方法の実施形態では、ブロック710で、キーワードキューが音声入力をパッシブモードに設定するに指令に関連付けられていると判定されることに応じて、音声入力はパッシブモードに設定される。いくつかの実施形態では、ブロック712で、パッシブモードを解除するコマンドが受信され、方法はブロック702に戻る。実施形態では、パッシブモードを解除するコマンドは、ヘッドセットに配置された物理入力要素(ボタンなど)に関連付けられ得る。ブロック708に戻ると、実施形態では、キーワードキューがパッシブモード指令以外のものである場合、タッチ式制御ダイアログコマンドが生成され、タッチ式ユーザインターフェース内で実行される。
In an embodiment of the method, at block 710, the voice input is set to passive mode in response to determining that the keyword cue is associated with a command to set the voice input to passive mode. In some embodiments, at
ここで図7Bを参照すると、音声入力をキーワードキューと比較するための例示的な方法716を示す図7Aに示されるフローダイアグラムの一部が提供される。例示的な方法716は、概して、音声入力を、生成されたキーワードキュー、カスタムキーワードキュー、および補助キーワードキューと比較することを促進する。図7Aを参照して説明したように、ブロック704で、方法は、音声入力を分析することを含む。ブロック718で、分析された音声入力は、インターフェース分析部によって生成されたキーワードキューと比較され得る。前述のように、キーワードキューは、ユーザインターフェースの第1のインスタンスに関連付けられたソースコードを分析することにより、インターフェース分析部によって識別および生成され得る。
Referring now to FIG. 7B, a portion of the flow diagram shown in FIG. 7A is provided that illustrates an
いくつかの実施形態では、ブロック720で、分析された音声入力をカスタムキーワードキューライブラリ722と比較することができる。したがって、ユーザはカスタマイズされたキーワードキューを作成し、カスタマイズされたキーワードキューをタッチ式制御ダイアログに関連付けることができる。実施形態では、このカスタムキーワードライブラリは、少なくとも部分的に、インターフェース分析部によって生成されたキーワードキューに取って代わることができる。実施形態において、キーワードキューは、ユーザインターフェースの特定の第1のインスタンスに関連付けられたカスタマイズされたまたは所定のキーワードキュー制御ダイアログの組み合わせであり得る。
In some embodiments, the analyzed speech input may be compared to a custom
実施形態において、ブロック724において、分析された音声入力は、補助キーワードキューライブラリ728と比較され得る。実施形態において、補助キーワードキューライブラリは、タッチ式制御ダイアログに関連する複数のキーワードキューを含むテーブルを含み得る。たとえば、インターフェース分析部が発音できないタッチ式コントロールダイアログを識別する場合、インターフェース分析部は、発音できないコントロールダイアログに関連付けられている補助キーワードキューライブラリから少なくとも1つの補助キーワードキューを自動的に置き換え得る。加えて、および/または代替として、タッチ式ユーザインターフェースの第1のインスタンスが、実質的に同様の生成されたキーワードキューをもたらす複数のタッチ式制御ダイアログを含む場合、補助キーワードキューライブラリは、同じように代替キーワードキューを提供し得る。
In an embodiment, at
ここで図8Aを参照すると、検出された制御ダイアログの例示的なインスタンスを示す例示的なタッチ式ユーザインターフェースが提供されている。つまり、1〜28は、タッチ式コントロールダイアログとして識別されるインターフェース機能を示す。実施形態では、インターフェース分析部212は、ユーザインターフェースに関連付けられたソースコードを解析することにより、インターフェース機能1〜28を検出し得る。図示の例では、インターフェース分析部212は、タッチ式ユーザインターフェースによって現在提示されているタッチ式オペレーティングシステム内で実行されているアプリケーションに関連するソースコードを分析することができる。しかしながら、インターフェース分析部212は、タッチ式オペレーティングシステム自体に関連するソースコードまたは存在する他のコードも分析してもよい。 Referring now to FIG. 8A, an exemplary touch-based user interface showing an exemplary instance of a detected control dialog is provided. That is, 1 to 28 indicate interface functions identified as touch-type control dialogs. In embodiments, the interface analyzer 212 may detect the interface functions 1-28 by analyzing source code associated with the user interface. In the depicted example, interface analyzer 212 may analyze source code associated with an application running within the touch-based operating system currently presented by the touch-based user interface. However, the interface analyzer 212 may also analyze source code or other existing code associated with the touch-based operating system itself.
実施形態において、インターフェース機能(インターフェース機能1〜28など)がインターフェース分析部212によってタッチ式制御ダイアログとして識別されると、インターフェース分析部212は制御ダイアログを分析し、キーワードキューを生成し、キーワードキューを制御ダイアログに関連付けることができる。実施形態では、インターフェース分析部212は、関連するソースコードを再分析することができる。実施形態では、インターフェース分析部212は、関連するソースコードの少なくとも部分的な分析をインターフェース分析部212に提供してもよい。 In an embodiment, when an interface function (e.g., interface functions 1-28) is identified as a touch control dialog by the interface analyzer 212, the interface analyzer 212 analyzes the control dialog, generates a keyword queue, and creates a keyword queue. Can be associated with a control dialog. In embodiments, the interface analyzer 212 may re-analyze the relevant source code. In embodiments, interface analyzer 212 may provide at least a partial analysis of the relevant source code to interface analyzer 212.
ここで図8bを参照すると、キーワードキューオーバーレイを有する例示的なタッチ式ユーザインターフェースが示されている。言い換えれば、30〜38は、本開示の実施形態による音声式ハンズフリーナビゲーションの使用を支援するためにユーザに提示され得るディスプレイオーバーレイを示す。実施形態において、オーバーレイは、インターフェース分析部212によるタッチ式ユーザインターフェースの分析に基づいて、ヘッドセットエンジン210によって自動的に表示され得る。実施形態において、オーバーレイは、ヘッドセットエンジン210の複数のサブコンポーネントによって自動的に生成され得る。例えば、インターフェース分析部212は、インターフェース機能(図8Aのインターフェース機能1〜28など)を検出し、インターフェース機能を制御ダイアログとして識別し、音声検出コンポーネント252を開始させることができる。音声検出コンポーネント252は、制御ダイアログを分析し、キーワードキューを生成し、キーワードキューを制御ダイアログに関連付け、ヘッドセットエンジン210が関連付けを検出し、キーワードキューを含むオーバーレイを生成し、オーバーレイをタッチ式ユーザインターフェースのディスプレイ(オーバーレイ30〜38など)上に重ねさせ得る。上記は、本開示と一致するオーバーレイを作成するための例示的な方法として使用されているに過ぎず、限定を意味するものではないことを理解されたい。
Referring now to FIG. 8b, an exemplary touch-based user interface having a keyword cue overlay is shown. In other words, 30-38 show display overlays that may be presented to a user to assist in using audio hands-free navigation according to embodiments of the present disclosure. In embodiments, the overlay may be automatically displayed by the headset engine 210 based on an analysis of the touch-based user interface by the interface analyzer 212. In embodiments, the overlay may be automatically generated by multiple sub-components of headset engine 210. For example, the interface analyzer 212 can detect an interface function (such as the interface functions 1-28 in FIG. 8A), identify the interface function as a control dialog, and trigger the
ただし、オーバーレイの自動作成により、タッチ式ユーザインターフェースの特定のインスタンスでオーバーレイに表示される必要、有用、または望ましいものよりも多くの制御ダイアログが表示される場合がある。言い換えると、キーワードキューオーバーレイの純粋な自動生成は、タッチ式ユーザインターフェースのハンズフリーナビゲーションを不注意に妨げる可能性がある。したがって、実施形態において、オーバーレイは、カスタマイズされた好みに基づいてヘッドセットエンジン210によって自動的に表示されてもよい。こうした実施形態では、ヘッドセットエンジン210は、カスタムライブラリ内のタッチ式ユーザインターフェースのインスタンスに関連付けられた所定のオーバーレイテンプレートを識別することができる。 However, the automatic creation of the overlay may cause more control dialogs to be displayed than necessary, useful, or desirable to be displayed on the overlay for a particular instance of the touch-based user interface. In other words, purely automatic generation of keyword cue overlays can inadvertently impede hands-free navigation of the touch-based user interface. Thus, in embodiments, the overlay may be automatically displayed by the headset engine 210 based on the customized preferences. In such embodiments, headset engine 210 may identify a predetermined overlay template associated with an instance of the touch-based user interface in a custom library.
実施形態において、制御ダイアログの機能は、ヘッドセットエンジン210および/またはそのサブコンポーネントによって判定されてもよく、オーバーレイは、ユーザに関連すると判定された関連キーワードキューについてのみ生成されてもよい。実施形態では、この判定は、環境データに基づいて環境分析部214によって行われ得る。実施形態では、この判定は、少なくとも部分的に、ユーザ選好(例えば、ユーザデータ274に格納されたユーザ選好)に基づいて行われ得る。
In embodiments, the functionality of the control dialog may be determined by the headset engine 210 and / or its sub-components, and the overlay may be generated only for relevant keyword cues determined to be relevant to the user. In the embodiment, this determination may be made by the
ここで図9を参照すると、本開示のいくつかの実施形態と一致する例示的なヘッドマウントコンピューティングデバイス900が示されている。ヘッドマウントコンピューティングデバイス900は、概して、タッチ式オペレーティングシステムのタッチ式ユーザインターフェースとのハンズフリー対話を促進する。例示的なヘッドマウントコンピューティングデバイス900が様々なセンサとともに示されているが、センサの位置および数は、本開示の範囲から逸脱することなく実施形態において異なり得ることが理解されるであろう。実施形態では、ヘッドマウントコンピューティングデバイス900は、モーションおよび音声を感知するための複数のセンサと、タッチ式ユーザインターフェースをユーザに表示するためのコンポーネントとを備えてもよい。例えば、典型的なディスプレイ902は概して、タッチ式ユーザインターフェースをユーザに表示することを促進する。実施形態では、ディスプレイ902は、ディスプレイ902がタッチ式ユーザインターフェースを表示するために存在するように、ヘッドマウントコンピューティングデバイス900で構成されてもよい。実施形態では、ディスプレイ902は、上述のように、キーワードキューオーバーレイを表示するようにさらに構成され得る。実施形態において、ディスプレイ902は、少なくとも部分的に半透明であり、ユーザがディスプレイ902を見て、表示されたタッチ式ユーザインターフェースと環境との両方を知覚できるようにすることができる。実施形態では、ディスプレイ902は単眼ディスプレイであってもよい。実施形態では、ディスプレイ902は両眼ディスプレイであってもよい。しかし、本開示の範囲から逸脱することなく、開示された発明の実施形態において任意のディスプレイを使用できることが理解されるであろう。実施形態では、ディスプレイ902は、少なくともヘッドセットデバイスI/O222と通信するように構成され得る。
Referring now to FIG. 9, an exemplary head mounted
例示的なセンサ904は、概して、音声入力のキャプチャを促進する。実施形態では、センサ904は指向性マイクロフォンであり得る。実施形態では、センサ904は、無指向性マイクロフォンであり得る。図示されていない実施形態では、センサ904は、周囲雑音をキャプチャし、最終的に使用してユーザ音声入力の処理および分析を支援するように構成された複数のマイクロフォンであって、ヘッドマウントコンピューティングデバイス900のさまざまなポイントに配置された複数のマイクロフォンをさらに備えてもよい。センサ904は、本開示の範囲から逸脱することなく、音声入力を知覚し、音声入力を音声フィードに変換することができる任意のセンサまたはセンサのシステムであり得ることが理解されよう。実施形態において、例示的なセンサ904は、ハンズフリー入力判定部240およびそのサブシステムと通信するように構成され得る。
The
例示的な物理的入力センサ906は、概して、様々なハンズフリーナビゲーション機能の再起動を促進する入力コンポーネントを提供する。実施形態において、物理的入力センサ906は、図7Aに関して説明したように、パッシブコマンドが発令された後に、ハンズフリー入力判定部240に信号を送って音声式コマンドを再起動するように構成され得る。実施形態では、物理的入力部906は、上述のようにヘッドセットの基準配向を再較正するためにハンズフリー入力判定部240に信号を送るように構成され得る。実施形態では、物理的入力センサ906は、複数の物理入力センサを備えてもよく、第1センサがハンズフリー入力判定部240に信号を送って音声式コマンドを再起動するように構成され、第2センサがハンズフリー入力判定部240に信号を送って基準配向を再較正するように構成されてもよい。物理的入力センサ906は、本開示の範囲から逸脱することなく物理的相互作用を検出することができる任意のセンサであり得ることが理解されるであろう。
The example
例示的な音声出力部908は、概して、ヘッドマウントコンピューティングデバイス900からの音声出力をユーザに提供する。本開示の範囲から逸脱することなく、実施形態では、電気入力に応じてサウンドを生成することができる任意の音声出力コンポーネント(スピーカーなど)を使用できることを理解されたい。実施形態では、音声出力部902は、少なくともヘッドセットデバイスI/O222と通信するように構成され得る。
The example
例示的なモーションセンサ910は、概して、上述のモーション処理システムのモーション検出を促進する。本明細書で使用されるように、モーションセンサは、少なくとも1つの加速度計、多軸加速度計、磁力計、ジャイロスコープ、容量性トランスデューサ、ポテンショメータ、抵抗性トランスデューサ、シンクロ、または少なくとも1つの軸におけるモーションを検出できる任意の同様のセンサを備えることができる。実施形態では、モーションセンサ910は、少なくとも1つのモーションセンサを備えてもよい。実施形態では、モーションセンサ910は、複数のモーションセンサを備えてもよい。実施形態では、モーションセンサ910は、ハンズフリー入力判定部240およびそのサブシステムと通信するように構成されてもよい。
The
実施形態では、例示的なセンサ912は概してモーションの判定を行う。実施形態では、センサ912は、定期的に(60フレーム/秒または任意の所定のレートなどで)画像をキャプチャするように構成された光に敏感なデジタルセンサであってもよい。実施形態では、画像キャプチャコンポーネント912は、画像を連続的にキャプチャするように構成された光に敏感なデジタルセンサであってもよい。実施形態では、センサ912は、ハンズフリー入力判定部240およびそのサブシステムと通信するように構成されてもよい。例示的なセンサ912は、本開示の範囲から逸脱することなく実施形態で使用され得るデジタル画像(カメラ、ビデオカメラなど)をキャプチャすることができる任意のセンサを含み得ることが理解されるであろう。
In embodiments, the
本明細書で言及されるように、変位は、3つの軸に対する9つの自由度におけるヘッドセット(ヘッドマウントコンピューティングデバイス900など)の位置の任意の変化を指し得る。これには、3つの軸のいずれかでの平行移動または回転が含まれるが、これらに限定されない。3次元空間での変位に関連して使用される用語は、分野(航空、生体力学、コンピュータサイエンスなど)によって大きく異なり、一般的な使用法では大きく異なる場合があることに注意されたい。そのため、移動、変位、回転、および/または角変位を説明する記載部分を明確にし、簡素化するためのあらゆる試みが行われている。ただし、明示的に反対の記述がない限り、各例は状況を提供するものであり、本開示を限定するものではない。 As referred to herein, displacement may refer to any change in the position of a headset (such as head-mounted computing device 900) in nine degrees of freedom with respect to three axes. This includes, but is not limited to, translation or rotation in any of the three axes. Note that the terms used in relation to displacement in three-dimensional space vary widely from field to field (aviation, biomechanics, computer science, etc.) and may vary widely in common usage. For this reason, every attempt has been made to clarify and simplify the description that describes movement, displacement, rotation, and / or angular displacement. However, unless expressly stated to the contrary, each example provides a context and is not limiting of the disclosure.
たとえば、x軸の平行移動は、右に移動または左に移動すると言うことができる。ただし、これは、横軸での原点からの移動(正(右)または負(左))と同等と考えることもできることを理解されたい。x軸を中心とした回転(角度変位)は、上または下に回転すると言うことができる。ただし、これはピッチアップまたはピッチダウンと同等と考えることもできることを理解されたい。したがって、たとえば、上に回転しながら右に移動すると、ピッチアップしながら原点から横軸の正の値に向かって移動すると理解され得る。 For example, a translation of the x-axis can be said to move right or left. However, it should be understood that this can be considered equivalent to moving from the origin on the horizontal axis (positive (right) or negative (left)). Rotation about the x-axis (angular displacement) can be said to rotate up or down. However, it should be understood that this can be considered equivalent to pitch up or pitch down. Therefore, it can be understood that, for example, moving to the right while rotating upward moves from the origin toward a positive value on the horizontal axis while increasing the pitch.
y軸の平行移動は、前方または後方に移動すると言うことができる。ただし、これは、縦軸での原点からの移動(正(前方)または負(後方))と同等と考えることもできることを理解されたい。y軸を中心とした回転(角度変位)は、左または右に傾けると言うことができる。ただし、これは左(反時計回り)または右(時計回り)に回転するのと同等と考えることもできることを理解されたい。したがって、たとえば、左に傾けながら前方に移動すると、左に回転しながら原点から縦軸の正の値に向かって移動すると理解され得る。 Translation of the y-axis can be said to translate forward or backward. However, it should be understood that this can be considered equivalent to a movement from the origin on the vertical axis (positive (forward) or negative (back)). Rotation (angular displacement) about the y-axis can be said to tilt left or right. However, it should be understood that this can be considered equivalent to rotating left (counterclockwise) or right (clockwise). Thus, for example, when moving forward while tilting to the left, it can be understood that moving from the origin toward a positive value on the vertical axis while rotating to the left.
z軸の平行移動は、上下に移動すると言うことができる。ただし、これは、垂直軸の原点からの移動(正(上)または負(下))と同等と考えることもできることを理解されたい。z軸を中心とした回転(角度変位)は、左または右への回転と言うことができる。ただし、これは左または右に振ることと同等と考えることもできることを理解されたい。したがって、たとえば、左に回転しながら上に移動すると、左に振りながら原点から垂直軸の正の値に向かって移動すると理解され得る。 It can be said that the parallel movement of the z axis moves up and down. However, it should be understood that this can be considered equivalent to moving from the origin of the vertical axis (positive (up) or negative (down)). Rotation (angular displacement) about the z-axis can be referred to as left or right rotation. However, it should be understood that this can be considered equivalent to waving left or right. Thus, for example, moving up while rotating to the left may be understood as moving from the origin toward a positive value on the vertical axis while swinging to the left.
本開示の様々な実施形態を説明してきたが、本開示の実施形態を実装するのに適した例示的なコンピューティング環境について説明する。図10を参照して、例示的なコンピューティングデバイスが提供され、概してコンピューティングデバイス1000と呼称している。コンピューティングデバイス1000は、適切なコンピューティング環境の一例にすぎず、本開示の使用または機能の範囲に関する制限を示唆することを意図したものではない。また、コンピューティングデバイス1000は、図示されたコンポーネントのいずれかまたは組み合わせに関する依存性または要件を有すると解釈されるべきではない。
Having described various embodiments of the present disclosure, an exemplary computing environment suitable for implementing the embodiments of the present disclosure will now be described. Referring to FIG. 10, an exemplary computing device is provided and is generally referred to as a
本開示の実施形態は、パーソナルデータアシスタント、スマートフォン、タブレットPC、または他の形態デバイスなどのコンピュータまたは他の機械によって実行されるプログラムモジュールなどのコンピュータ使用可能またはコンピュータ実行可能指令を含むコンピュータコードまたは機械使用可能指令の一般的な状況で説明することができる。一般に、ルーチン、プログラム、オブジェクト、コンポーネント、データ構造などを含むプログラムモジュールは、特定のタスクを実行したり、特定の抽象データ型を実装したりするコードを参照する。本開示の実施形態は、ハンドヘルドデバイス、家庭用電化製品、汎用コンピュータ、より専門的なコンピューティングデバイスなどを含む様々なシステム構成で実施することができる。本開示の実施形態は、通信ネットワークを介してリンクされているリモート処理デバイスによってタスクが実行される分散コンピューティング環境で実施することもできる。分散コンピューティング環境では、プログラムモジュールは、メモリストレージデバイスを含むローカルおよびリモートのコンピューターストレージメディアの両方に配置され得る。 Embodiments of the present disclosure are directed to computer code or a machine that includes computer-usable or computer-executable instructions, such as program modules, that are executed by a computer or other machine, such as a personal data assistant, smartphone, tablet PC, or other form device. This can be explained in the general context of the enabling directive. Generally, program modules, including routines, programs, objects, components, data structures, etc., refer to code that performs particular tasks or implements particular abstract data types. Embodiments of the present disclosure may be implemented in various system configurations, including handheld devices, consumer electronics, general purpose computers, more specialized computing devices, and the like. Embodiments of the present disclosure may also be practiced in distributed computing environments where tasks are performed by remote processing devices that are linked through a communications network. In a distributed computing environment, program modules may be located on both local and remote computer storage media, including memory storage devices.
図10を参照し、コンピューティングデバイス1000は、以下のデバイスを直接的または間接的に結合するバス1010を含む。つまり、バス1010は、メモリ1012、1つまたは複数のプロセッサ1014、1つまたは複数の表示コンポーネント1016、1つまたは複数の入出力(I/O)ポート1018、1つまたは複数のI/Oコンポーネント1020、および例示的な電源1022を結合する。バス1010は、1つまたは複数のバス(アドレスバス、データバス、またはそれらの組み合わせなど)であり得るものを表す。図10の様々なブロックは、明確にするために線で示されているが、実際には、これらのブロックは論理的な、必ずしも実際のコンポーネントではない。たとえば、ディスプレイデバイスなどの表示コンポーネントをI/Oコンポーネントと見なすこともできる。また、プロセッサはメモリを備えているため、メモリ1012および1つまたは複数のプロセッサ1014は、別個のコンポーネントまたは分散したコンポーネントを含んでもよいし含まなくてもよい。本発明の発明者は、それが当技術分野の性質であることを認識し、図10のダイアグラムが、1つまたは複数の実施形態に関連して使用できる例示的なコンピューティングデバイスの単なる例示であることを繰り返し述べている。「ワークステーション」、「サーバ」、「ラップトップ」、「ハンドヘルドデバイス」などのカテゴリ間で区別はされず、すべて図10の範囲内および「コンピューティングデバイス」を参照して考えられる。
Referring to FIG. 10, a
コンピューティングデバイス1000は、典型的に、さまざまなコンピュータ可読媒体を含む。コンピュータ可読媒体は、コンピューティングデバイス1000がアクセスできる任意の利用可能な媒体とすることができ、揮発性および不揮発性媒体、取り外し可能および取り外し不能媒体の両方を含む。例として、限定ではなく、コンピュータ可読媒体は、コンピュータ記憶媒体および通信媒体を含み得る。コンピュータ記憶媒体には、コンピュータ可読命令、データ構造、プログラムモジュール、またはその他のデータなどの情報を保存するための任意の方法または技術で実装される揮発性および不揮発性、取り外し可能および取り外し不能な媒体の両方が含まれる。コンピュータ記憶媒体には、RAM、ROMEEPROM、フラッシュメモリもしくはその他のメモリテクノロジ、CD−ROM、デジタル多用途ディスク(DVD)もしくはその他の光ディスクストレージ、磁気カセット、磁気テープ、磁気ディスクストレージ、磁気記憶装置、または所望の情報を記録するために使用できてコンピューティングデバイス1000がアクセス可能な他の任意の記録媒体が含まれるが、これらに限定されない。コンピュータ記憶媒体はそれ自体信号を含まない。通信媒体は、典型的に、コンピュータ読み取り可能命令、データ構造、プログラムモジュール、または他のデータを、搬送波やその他のトランスポートメカニズムなどの変調データ信号に組み込んでおり、任意の情報配信メディアを含む。「変調データ信号」という用語は、信号内の情報をエンコードするように設定または変更された特性の1つまたは複数を持つ信号を意味する。一例として、限定ではなく、通信媒体には、有線ネットワークまたは直接有線接続などの有線媒体、および音波、RF、赤外線、およびその他の無線媒体などの無線媒体が含まれる。上記のいずれかの組み合わせも、コンピュータ読み取り可能媒体の範囲内に含まれる。
メモリ1012は、揮発性および/または不揮発性メモリの形態のコンピュータ記憶媒体を含む。メモリは、取り外し可能、取り外し不能、またはそれらの組み合わせであり得る。例示的なハードウェアデバイスには、ソリッドステートメモリ、ハードドライブ、光ディスクドライブなどが含まれる。コンピューティングデバイス1000は、メモリ1012またはI/Oコンポーネント1020などの様々な実在物からデータを読み取る1つまたは複数のプロセッサ1014を含む。表示コンポーネント1016は、データ表示をユーザまたは他のデバイスに提示する。例示的な表示コンポーネントには、ディスプレイデバイス、スピーカ、印刷コンポーネント、振動コンポーネントなどが含まれる。
I/Oポート1018により、コンピューティングデバイス1000は、I/Oコンポーネント1020を含む他のデバイスに論理的に結合されることが可能になり、その一部が組み込まれ得る。例示的なコンポーネントには、マイクロフォン、ジョイスティック、ゲームパッド、衛星放送受信アンテナ、スキャナ、プリンタ、無線デバイスなどが含まれる。I/Oコンポーネント1020は、空気ジェスチャ、音声、またはユーザによって生成された他の生理学的入力を処理する自然なユーザインターフェース(NUI)を提供し得る。場合によっては、入力は適切なネットワーク要素に送信され、さらに処理される。NUIは、音声認識、タッチおよびスタイラス認識、顔認識、生体認証、画面上、並びに画面に隣接した空気ジェスチャ、頭、および目の追跡によるジェスチャ認識、およびコンピューティングデバイス1000のディスプレイに関連付けられたタッチ認識の任意の組み合わせを実装し得る。コンピューティングデバイス1000は、ジェスチャ検出および認識のために、立体視カメラシステム、赤外線カメラシステム、RGBカメラシステム、およびこれらの組み合わせなどの深度(Depth)カメラを備え得る。加えて、コンピューティングデバイス600は、モーションの検出を可能にする加速度計またはジャイロスコープを備えてもよい。加速度計またはジャイロスコープの出力は、没入型拡張現実または仮想現実を描写するために、コンピューティングデバイス1000のディスプレイに提供されてもよい。
I /
コンピューティングデバイス1000のいくつかの実施形態は、1つまたは複数の無線機1024(または同様の無線通信コンポーネント)を含み得る。無線機1024は、無線電信または無線通信を送受信する。コンピューティングデバイス1000は、様々なワイヤレスネットワークを介して通信およびメディアを受信するように適合されたワイヤレス端末であり得る。コンピューティングデバイス1000は、コード分割多重アクセス(「CDMA」)、モバイル用グローバルシステム(「GSM(登録商標)」)、または時分割多重アクセス(「TDMA」)などの他の装置と通信するための無線プロトコルを介して通信することができる。無線通信は、短距離接続、長距離接続、または短距離無線通信接続と長距離無線通信接続の両方の組み合わせであり得る。「短」タイプと「長」タイプの接続を言う場合、2つのデバイス間の空間的な関係を指すわけではない。代わりに、概して、短距離と長距離を異なるカテゴリまたはタイプの接続(つまり、プライマリ接続とセカンダリ接続)と言う。短距離接続には、限定ではなく例として、802.11プロトコルを使用したWLAN接続などの無線通信ネットワークへのアクセスを提供するデバイス(モバイルホットスポットなど)へのWi−Fi(登録商標)接続が含まれる。別のコンピューティングデバイスへのBluetooth(登録商標)接続は、短距離接続または近距離通信接続の2番目の例である。長距離接続は、限定ではなく例として、CDMA、GPRS、GSM、TDMA、および802.16プロトコルの1つまたは複数を使用する接続を含み得る。
Some embodiments of the
特許請求の範囲から逸脱することなく、図示されていないコンポーネントと同様に、図示されている様々なコンポーネントの多くの異なる配置が可能である。本開示の実施形態は、限定的ではなく例示的であることを意図して説明されている。代替実施形態は、本明細書を読んだ後、および読むことによって、本開示の読者に明らかになるであろう。前述した内容を実施する代替手段は、特許請求の範囲から逸脱することなく想定され得る。特定の機能およびサブコンビネーションは有用であり、他の機能およびサブコンビネーションを参照せずに使用することができ、特許請求の範囲内で想定されている。
Many different arrangements of the various components shown are possible, as are the components not shown, without departing from the scope of the claims. The embodiments of the present disclosure have been described for purposes of illustration and not limitation. Alternative embodiments will become apparent to the reader of the present disclosure after and after reading this specification. Alternatives for implementing the foregoing may be envisaged without departing from the scope of the claims. Certain features and sub-combinations are useful and can be used without reference to other features and sub-combinations and are contemplated within the scope of the claims.
Claims (20)
The method of claim 17, wherein the implemented method further comprises: detecting a hands-free start input; and generating a command to start the hands-free interactive mode on the head-mounted computing device. system.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/390,191 | 2016-12-23 | ||
US15/390,191 US10620910B2 (en) | 2016-12-23 | 2016-12-23 | Hands-free navigation of touch-based operating systems |
PCT/US2017/064905 WO2018118435A1 (en) | 2016-12-23 | 2017-12-06 | Hands-free navigation of touch-based operating systems |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020502719A true JP2020502719A (en) | 2020-01-23 |
JP2020502719A5 JP2020502719A5 (en) | 2021-01-21 |
JP7334120B2 JP7334120B2 (en) | 2023-08-28 |
Family
ID=62627148
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019555417A Active JP7334120B2 (en) | 2016-12-23 | 2017-12-06 | Hands-free navigation with touch control system |
Country Status (5)
Country | Link |
---|---|
US (2) | US10620910B2 (en) |
EP (1) | EP3559935B1 (en) |
JP (1) | JP7334120B2 (en) |
CN (1) | CN110291576B (en) |
WO (1) | WO2018118435A1 (en) |
Families Citing this family (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US20130339859A1 (en) | 2012-06-15 | 2013-12-19 | Muzik LLC | Interactive networked headphones |
KR102103057B1 (en) | 2013-02-07 | 2020-04-21 | 애플 인크. | Voice trigger for a digital assistant |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
CN108027664B (en) | 2015-09-28 | 2021-05-28 | 微软技术许可有限责任公司 | Unified virtual reality platform |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US12197817B2 (en) | 2016-06-11 | 2025-01-14 | Apple Inc. | Intelligent device arbitration and control |
US11086593B2 (en) | 2016-08-26 | 2021-08-10 | Bragi GmbH | Voice assistant for wireless earpieces |
US10437343B2 (en) * | 2017-01-06 | 2019-10-08 | Samsung Electronics Co., Ltd. | Augmented reality control of internet of things devices |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770428A1 (en) * | 2017-05-12 | 2019-02-18 | Apple Inc. | Low-latency intelligent automated assistant |
US20180336275A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Intelligent automated assistant for media exploration |
US11029834B2 (en) * | 2017-12-20 | 2021-06-08 | International Business Machines Corporation | Utilizing biometric feedback to allow users to scroll content into a viewable display area |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | Virtual assistant operation in multi-device environments |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US10643592B1 (en) * | 2018-10-30 | 2020-05-05 | Perspective VR | Virtual / augmented reality display and control of digital audio workstation parameters |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
US11227599B2 (en) | 2019-06-01 | 2022-01-18 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
US11317156B2 (en) | 2019-09-27 | 2022-04-26 | Honeywell International Inc. | Video analytics for modifying training videos for use with head-mounted displays |
US11875823B2 (en) | 2020-04-06 | 2024-01-16 | Honeywell International Inc. | Hypermedia enabled procedures for industrial workflows on a voice driven platform |
US11061543B1 (en) | 2020-05-11 | 2021-07-13 | Apple Inc. | Providing relevant data items based on context |
US11490204B2 (en) | 2020-07-20 | 2022-11-01 | Apple Inc. | Multi-device audio adjustment coordination |
US11438683B2 (en) | 2020-07-21 | 2022-09-06 | Apple Inc. | User identification using headphones |
US11984124B2 (en) | 2020-11-13 | 2024-05-14 | Apple Inc. | Speculative task flow execution |
US11792364B2 (en) | 2021-05-28 | 2023-10-17 | Microsoft Technology Licensing, Llc | Headset virtual presence |
US11669294B2 (en) * | 2021-05-28 | 2023-06-06 | Microsoft Technology Licensing, Llc | Computing device headset input |
KR102521821B1 (en) * | 2022-08-26 | 2023-04-13 | 백남칠 | Unmanned terminal controller for a blind person |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009122476A (en) * | 2007-11-16 | 2009-06-04 | Nikon Corp | Controller, head-mounted display device, program and control method |
JP2013093705A (en) * | 2011-10-25 | 2013-05-16 | Olympus Corp | Head-mounted type display device, program and image processing system |
JP2013541092A (en) * | 2010-09-20 | 2013-11-07 | コピン コーポレーション | Advanced remote control of host applications using movement and voice commands |
Family Cites Families (312)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SE8703414L (en) | 1987-09-02 | 1989-03-03 | Kompositprodukter Sk Fm Ab | HOERSELSKYDD |
US5046192A (en) | 1989-09-26 | 1991-09-10 | Ryder International Corporation | Headset sun visor |
US5185807A (en) | 1991-05-08 | 1993-02-09 | David Clark Company Incorporated | Headset with multi-position stirrup assemblies |
JP3163701B2 (en) | 1991-12-27 | 2001-05-08 | ソニー株式会社 | Glasses-type image display device |
DE69434851T2 (en) * | 1993-08-12 | 2007-04-19 | Seiko Epson Corp. | Head-mounted image display device and data processing device containing the same |
US6061064A (en) * | 1993-08-31 | 2000-05-09 | Sun Microsystems, Inc. | System and method for providing and using a computer user interface with a view space having discrete portions |
US5815126A (en) | 1993-10-22 | 1998-09-29 | Kopin Corporation | Monocular portable communication and display system |
US5806079A (en) | 1993-11-19 | 1998-09-08 | Smartpatents, Inc. | System, method, and computer program product for using intelligent notes to organize, link, and manipulate disparate data objects |
US6587700B1 (en) | 1994-06-23 | 2003-07-01 | At&T Wireless Services, Inc. | Personal communicator with flip element display |
US6198462B1 (en) * | 1994-10-14 | 2001-03-06 | Hughes Electronics Corporation | Virtual display screen system |
US5694562A (en) | 1995-01-17 | 1997-12-02 | Fisher; Thomas A. | Closely integrated key icons in a graphical interface |
US5767820A (en) | 1995-05-09 | 1998-06-16 | Virtual Research Systems | Head-mounted visual display apparatus |
US7453451B1 (en) * | 1999-03-16 | 2008-11-18 | Maguire Francis J Jr | Moveable headrest for viewing images from different directions |
JPH09130705A (en) | 1995-10-31 | 1997-05-16 | Olympus Optical Co Ltd | Head mounted video display device |
US5796374A (en) | 1996-03-08 | 1998-08-18 | Virtual Vision, Inc. | Support for a head mounted display system |
DE19625351C1 (en) | 1996-06-25 | 1997-11-20 | Lemfoerder Metallwaren Ag | Process for producing a low-friction ball joint, as well as low-friction ball joint |
US5850211A (en) * | 1996-06-26 | 1998-12-15 | Sun Microsystems, Inc. | Eyetrack-driven scrolling |
US5796404A (en) | 1996-07-01 | 1998-08-18 | Sun Microsystems, Inc. | Computer system having alphanumeric keyboard access to objects in graphical user interface |
US6222583B1 (en) | 1997-03-27 | 2001-04-24 | Nippon Telegraph And Telephone Corporation | Device and system for labeling sight images |
US6754361B1 (en) | 1997-04-17 | 2004-06-22 | 3M Innovative Properties Company | Ergonomic headset assembly |
US6600480B2 (en) | 1998-12-31 | 2003-07-29 | Anthony James Francis Natoli | Virtual reality keyboard system and method |
US6388657B1 (en) | 1997-12-31 | 2002-05-14 | Anthony James Francis Natoli | Virtual reality keyboard system and method |
US6114978A (en) | 1998-01-14 | 2000-09-05 | Lucent Technologies Inc. | Method and apparatus for assignment of shortcut key combinations in a computer software application |
US6911969B1 (en) | 1998-05-01 | 2005-06-28 | Honeywell International Inc. | Handheld computer apparatus |
US7121946B2 (en) * | 1998-08-10 | 2006-10-17 | Cybernet Systems Corporation | Real-time head tracking system for computer games and other applications |
DE19839461C1 (en) | 1998-08-29 | 1999-11-04 | Flm Gmbh Foto Licht Und Mestec | Stative head for camera |
US6867752B1 (en) * | 1998-08-31 | 2005-03-15 | Semiconductor Energy Laboratory Co., Ltd. | Portable information processing system |
US6489976B1 (en) | 1998-12-15 | 2002-12-03 | International Business Machines Corporation | System and method for displaying pop-up symbols for indicating accelerator keys for implementing computer software options |
US7107539B2 (en) | 1998-12-18 | 2006-09-12 | Tangis Corporation | Thematic response to a computer user's context, such as by a wearable personal computer |
US6434250B1 (en) | 1999-03-05 | 2002-08-13 | Parker I. Tsuhako | Stereo headset with angled speakers |
US7124425B1 (en) | 1999-03-08 | 2006-10-17 | Immersion Entertainment, L.L.C. | Audio/video system and method utilizing a head mounted apparatus with noise attenuation |
WO2000055673A1 (en) | 1999-03-17 | 2000-09-21 | Colorado Microdisplay, Inc. | Headset boom for image display module |
US6496842B1 (en) | 1999-05-28 | 2002-12-17 | Survol Interactive Technologies | Navigating heirarchically organized information |
US6466198B1 (en) | 1999-11-05 | 2002-10-15 | Innoventions, Inc. | View navigation and magnification of a hand-held device with a display |
US6456262B1 (en) * | 2000-05-09 | 2002-09-24 | Intel Corporation | Microdisplay with eye gaze detection |
WO2002005081A1 (en) | 2000-05-11 | 2002-01-17 | Nes Stewart Irvine | Zeroclick |
AU2000242834A1 (en) * | 2000-05-16 | 2001-11-26 | Swisscom Mobile Ag | Method and terminal for inputting instructions |
JP2002032212A (en) | 2000-07-14 | 2002-01-31 | Toshiba Corp | Computer system and headset type display device |
US6747611B1 (en) | 2000-07-27 | 2004-06-08 | International Business Machines Corporation | Compact optical system and packaging for head mounted display |
US20020044152A1 (en) * | 2000-10-16 | 2002-04-18 | Abbott Kenneth H. | Dynamic integration of computer generated and real world images |
US6774869B2 (en) | 2000-12-22 | 2004-08-10 | Board Of Trustees Operating Michigan State University | Teleportal face-to-face system |
US8065620B2 (en) | 2001-01-31 | 2011-11-22 | Computer Associates Think, Inc. | System and method for defining and presenting a composite web page |
FI20010958A0 (en) * | 2001-05-08 | 2001-05-08 | Nokia Corp | Procedure and Arrangements for Designing an Extended User Interface |
GB2377147A (en) * | 2001-06-27 | 2002-12-31 | Nokia Corp | A virtual reality user interface |
US7246063B2 (en) * | 2002-02-15 | 2007-07-17 | Sap Aktiengesellschaft | Adapting a user interface for voice control |
US6882974B2 (en) * | 2002-02-15 | 2005-04-19 | Sap Aktiengesellschaft | Voice-control for a user interface |
AR035939A1 (en) | 2002-03-04 | 2004-07-28 | Rolla Jose Maria | IMPROVEMENTS IN FOLDING HEADPHONES |
KR100833229B1 (en) | 2002-03-16 | 2008-05-28 | 삼성전자주식회사 | Multi-layer focusing method and apparatus |
US6941521B2 (en) | 2002-03-29 | 2005-09-06 | Intel Corporation | Method for dynamically generating a user interface from XML-based documents |
US7353464B1 (en) | 2002-04-01 | 2008-04-01 | Microsoft Corporation | Hierarchical data navigation tool populated by a web service |
TW594658B (en) | 2002-07-01 | 2004-06-21 | Leadtek Research Inc | Helmet-mounted display |
WO2004015543A2 (en) | 2002-08-09 | 2004-02-19 | Recare, Inc. | Method and system for context-sensitive recognition of human input |
US7243309B2 (en) | 2002-12-03 | 2007-07-10 | Intel Corporation | Interface accelerator |
JP3843951B2 (en) | 2003-02-13 | 2006-11-08 | 株式会社ニコン | Image display device |
US6637883B1 (en) * | 2003-01-23 | 2003-10-28 | Vishwas V. Tengshe | Gaze tracking system and method |
ITMI20030121A1 (en) | 2003-01-27 | 2004-07-28 | Giuseppe Donato | MODULAR SURVEILLANCE SYSTEM FOR MONITORING OF CRITICAL ENVIRONMENTS. |
US7290220B2 (en) | 2003-04-03 | 2007-10-30 | International Business Machines Corporation | Method and apparatus for non-sequential access of form fields |
US6708339B1 (en) | 2003-04-22 | 2004-03-23 | James Smith, Jr. | Sport helmet face guard |
EP1472944B1 (en) | 2003-05-02 | 2009-06-17 | Jose Maria Rolla | Ear protector for helmet and helmet including said ear protector |
US8046705B2 (en) | 2003-05-08 | 2011-10-25 | Hillcrest Laboratories, Inc. | Systems and methods for resolution consistent semantic zooming |
JP2004363718A (en) | 2003-06-02 | 2004-12-24 | Sanyo Electric Co Ltd | Antenna system |
US20050015730A1 (en) | 2003-07-14 | 2005-01-20 | Srimanth Gunturi | Systems, methods and computer program products for identifying tab order sequence of graphically represented elements |
US7389236B2 (en) * | 2003-09-29 | 2008-06-17 | Sap Aktiengesellschaft | Navigation and data entry for open interaction elements |
US7389235B2 (en) | 2003-09-30 | 2008-06-17 | Motorola, Inc. | Method and system for unified speech and graphic user interfaces |
EP1688014A4 (en) | 2003-11-13 | 2009-07-22 | Logitech Europ Sa | Behind-the-head mounted personal audio set |
US7315988B2 (en) | 2004-02-02 | 2008-01-01 | International Business Machines Corporation | System and method for using short captions to map user interfaces |
US9116890B2 (en) | 2004-04-01 | 2015-08-25 | Google Inc. | Triggering actions in response to optically or acoustically capturing keywords from a rendered document |
JPWO2005098698A1 (en) * | 2004-04-08 | 2008-02-28 | 株式会社ジャストシステム | Document processing device |
KR100800859B1 (en) * | 2004-08-27 | 2008-02-04 | 삼성전자주식회사 | Apparatus and method for inputting keys in HMD information terminal |
US20060074980A1 (en) | 2004-09-29 | 2006-04-06 | Sarkar Pte. Ltd. | System for semantically disambiguating text information |
US7519923B2 (en) | 2004-10-20 | 2009-04-14 | International Business Machines Corporation | Method for generating a tree view of elements in a graphical user interface (GUI) |
US8788271B2 (en) | 2004-12-22 | 2014-07-22 | Sap Aktiengesellschaft | Controlling user interfaces with contextual voice commands |
US7134094B2 (en) | 2005-01-14 | 2006-11-07 | Microsoft Corporation | Automatic assigning of shortcut keys |
CN101156104A (en) | 2005-02-11 | 2008-04-02 | 奥克利有限公司 | Eyeglasses with detachable adjustable electronics module |
US7409344B2 (en) * | 2005-03-08 | 2008-08-05 | Sap Aktiengesellschaft | XML based architecture for controlling user interfaces with contextual voice commands |
JP4572737B2 (en) | 2005-05-10 | 2010-11-04 | 株式会社島津製作所 | Head mounted display |
US20060256090A1 (en) * | 2005-05-12 | 2006-11-16 | Apple Computer, Inc. | Mechanical overlay |
CN1293446C (en) * | 2005-06-02 | 2007-01-03 | 北京中星微电子有限公司 | Non-contact type visual control operation system and method |
US7661074B2 (en) | 2005-07-01 | 2010-02-09 | Microsoft Corporation | Keyboard accelerator |
JP4828181B2 (en) | 2005-08-29 | 2011-11-30 | 三菱電機株式会社 | Head mounted image display device |
US20070052672A1 (en) * | 2005-09-08 | 2007-03-08 | Swisscom Mobile Ag | Communication device, system and method |
US7933900B2 (en) | 2005-10-23 | 2011-04-26 | Google Inc. | Search over structured data |
US20070130547A1 (en) * | 2005-12-01 | 2007-06-07 | Navisense, Llc | Method and system for touchless user interface control |
JP4957177B2 (en) | 2006-01-20 | 2012-06-20 | 株式会社デンソー | Display device |
US7773767B2 (en) | 2006-02-06 | 2010-08-10 | Vocollect, Inc. | Headset terminal with rear stability strap |
US8793620B2 (en) * | 2011-04-21 | 2014-07-29 | Sony Computer Entertainment Inc. | Gaze-assisted computer interface |
US8334841B2 (en) * | 2006-03-13 | 2012-12-18 | Navisense | Virtual user interface method and system thereof |
US20070220108A1 (en) * | 2006-03-15 | 2007-09-20 | Whitaker Jerry M | Mobile global virtual browser with heads-up display for browsing and interacting with the World Wide Web |
US7928926B2 (en) * | 2006-06-27 | 2011-04-19 | Panasonic Corporation | Display apparatus and method for hands free operation that selects a function when window is within field of view |
US8564544B2 (en) | 2006-09-06 | 2013-10-22 | Apple Inc. | Touch screen device, method, and graphical user interface for customizing display of content category icons |
US7613292B2 (en) | 2006-09-29 | 2009-11-03 | Sony Ericsson Mobile Communications Ab | Adjustable earpiece |
US20170017464A1 (en) * | 2006-11-03 | 2017-01-19 | Philippe Roy | Layered contextual configuration management system and method and minimized input speech recognition user interface interactions experience |
US9471333B2 (en) * | 2006-11-03 | 2016-10-18 | Conceptual Speech, Llc | Contextual speech-recognition user-interface driven system and method |
US8051105B1 (en) | 2007-01-10 | 2011-11-01 | The Mathworks, Inc. | Directing searches on tree data structures |
CN101632033B (en) | 2007-01-12 | 2013-07-31 | 寇平公司 | Helmet type monocular display device |
US7849397B1 (en) | 2007-04-12 | 2010-12-07 | Intuit Inc. | System and method for providing electronic data entry forms with trainable data field sequencing |
US8832557B2 (en) | 2007-05-04 | 2014-09-09 | Apple Inc. | Adjusting media display in a personal display system based on perspective |
US8855719B2 (en) | 2009-05-08 | 2014-10-07 | Kopin Corporation | Wireless hands-free computing headset with detachable accessories controllable by motion, body gesture and/or vocal commands |
US8620652B2 (en) * | 2007-05-17 | 2013-12-31 | Microsoft Corporation | Speech recognition macro runtime |
US7722358B2 (en) | 2007-06-15 | 2010-05-25 | Microsoft Corporation | Electrical connection between devices |
US7962344B2 (en) | 2007-06-29 | 2011-06-14 | Microsoft Corporation | Depicting a speech user interface via graphical elements |
JP2009033308A (en) | 2007-07-25 | 2009-02-12 | Nikon Corp | Head-mounted display |
US8825468B2 (en) | 2007-07-31 | 2014-09-02 | Kopin Corporation | Mobile wireless display providing speech to speech translation and avatar simulating human attributes |
FR2921991B1 (en) | 2007-10-09 | 2011-05-06 | Skf Aerospace France | LIGHT JOINT ROD AND METHOD OF MANUFACTURING THE SAME |
US20090100732A1 (en) | 2007-10-19 | 2009-04-23 | Concept Workshop Worldwide, Llc | Magnetic display device |
US8072393B2 (en) * | 2007-11-15 | 2011-12-06 | Symbol Technologies, Inc. | User interface for a head mounted display |
US20100259471A1 (en) * | 2007-11-16 | 2010-10-14 | Nikon Corporation | Control device, head-mount display device, program, and control method |
US9268580B2 (en) | 2007-12-12 | 2016-02-23 | International Business Machines Corporation | Overlaying help, training, documentation, or translation over an existing application |
US20090182562A1 (en) * | 2008-01-14 | 2009-07-16 | Garmin Ltd. | Dynamic user interface for automated speech recognition |
IL189251A0 (en) * | 2008-02-05 | 2008-11-03 | Ehud Gal | A manned mobile platforms interactive virtual window vision system |
US8726164B2 (en) | 2008-05-30 | 2014-05-13 | Microsoft Corporation | Mark-up extensions for semantically more relevant thumbnails of content |
US8645831B2 (en) | 2008-07-03 | 2014-02-04 | Cyberlink Corp. | Translating user input in a user interface |
US8321226B2 (en) | 2008-08-08 | 2012-11-27 | Hewlett-Packard Development Company, L.P. | Generating speech-enabled user interfaces |
US8478111B2 (en) * | 2008-10-03 | 2013-07-02 | 3M Innovative Properties Company | Systems and methods for optimizing a scene |
EP2356631B1 (en) | 2008-10-03 | 2019-05-01 | 3M Innovative Properties Company | Systems and methods for evaluating robustness |
US8706685B1 (en) | 2008-10-29 | 2014-04-22 | Amazon Technologies, Inc. | Organizing collaborative annotations |
US8432400B1 (en) | 2008-12-02 | 2013-04-30 | Adobe Systems Incorporated | Transitional animation for generating tree maps |
US8594467B2 (en) * | 2008-12-19 | 2013-11-26 | Microsoft Corporation | Interactive virtual display system for ubiquitous devices |
EP2427812A4 (en) * | 2009-05-08 | 2016-06-08 | Kopin Corp | Remote control of host application using motion and voice commands |
US20100315329A1 (en) * | 2009-06-12 | 2010-12-16 | Southwest Research Institute | Wearable workspace |
US20130169514A1 (en) * | 2009-06-25 | 2013-07-04 | The Boeing Company | Method and apparatus for a virtual mission control station |
US8773330B2 (en) * | 2009-06-25 | 2014-07-08 | The Boeing Company | Method and apparatus for a virtual mission control station |
JP5263049B2 (en) * | 2009-07-21 | 2013-08-14 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
US20120272484A1 (en) | 2009-10-02 | 2012-11-01 | Willborn Inventstments Incorporated | Multiposition visor adaptor system |
US9292084B2 (en) * | 2009-10-13 | 2016-03-22 | Intel Corporation | Control systems and methods for head-mounted information systems |
CN101673161B (en) * | 2009-10-15 | 2011-12-07 | 复旦大学 | Visual, operable and non-solid touch screen system |
US20110090135A1 (en) | 2009-10-21 | 2011-04-21 | Symbol Technologies, Inc. | Interchangeable display device for a head-mounted display system |
US20110096036A1 (en) * | 2009-10-23 | 2011-04-28 | Mcintosh Jason | Method and device for an acoustic sensor switch |
WO2011097226A1 (en) | 2010-02-02 | 2011-08-11 | Kopin Corporation | Wireless hands-free computing headset with detachable accessories controllable by motion, body gesture and/or vocal commands |
JP2011169449A (en) | 2010-02-22 | 2011-09-01 | Jtekt Corp | Ball joint |
US20150309316A1 (en) * | 2011-04-06 | 2015-10-29 | Microsoft Technology Licensing, Llc | Ar glasses with predictive control of external device based on event input |
US20130278631A1 (en) | 2010-02-28 | 2013-10-24 | Osterhout Group, Inc. | 3d positioning of augmented reality information |
US8908043B2 (en) | 2010-04-12 | 2014-12-09 | Symbol Technologies, Inc. | System and method for location-based operation of a head mounted display |
US20120002046A1 (en) | 2010-06-30 | 2012-01-05 | Raytheon Company | Flip-Up Hands-Free Display Mount |
US9916006B2 (en) * | 2010-07-23 | 2018-03-13 | Telepatheye Inc. | Eye-wearable device user interface and method |
US8593375B2 (en) * | 2010-07-23 | 2013-11-26 | Gregory A Maltz | Eye gaze user interface and method |
US8531355B2 (en) * | 2010-07-23 | 2013-09-10 | Gregory A. Maltz | Unitized, vision-controlled, wireless eyeglass transceiver |
US9977496B2 (en) * | 2010-07-23 | 2018-05-22 | Telepatheye Inc. | Eye-wearable device user interface and augmented reality method |
US8667421B2 (en) | 2010-08-03 | 2014-03-04 | Aaron Grunberger | Method and system for revisiting prior navigated pages and prior edits |
US9111498B2 (en) * | 2010-08-25 | 2015-08-18 | Eastman Kodak Company | Head-mounted display with environmental state detection |
US8619005B2 (en) * | 2010-09-09 | 2013-12-31 | Eastman Kodak Company | Switchable head-mounted display transition |
US9316827B2 (en) * | 2010-09-20 | 2016-04-19 | Kopin Corporation | LifeBoard—series of home pages for head mounted displays (HMD) that respond to head tracking |
US9377862B2 (en) | 2010-09-20 | 2016-06-28 | Kopin Corporation | Searchlight navigation using headtracker to reveal hidden or extra document data |
US8706170B2 (en) | 2010-09-20 | 2014-04-22 | Kopin Corporation | Miniature communications gateway for head mounted display |
US10013976B2 (en) | 2010-09-20 | 2018-07-03 | Kopin Corporation | Context sensitive overlays in voice controlled headset computer displays |
US8736516B2 (en) * | 2010-09-20 | 2014-05-27 | Kopin Corporation | Bluetooth or other wireless interface with power management for head mounted display |
US10036891B2 (en) | 2010-10-12 | 2018-07-31 | DISH Technologies L.L.C. | Variable transparency heads up displays |
JP5801545B2 (en) | 2010-10-15 | 2015-10-28 | キヤノン株式会社 | Information processing apparatus, information processing method and program |
US8994610B2 (en) | 2010-11-08 | 2015-03-31 | Symbol Technologies, Inc. | User configurable headset |
KR20120063982A (en) | 2010-12-08 | 2012-06-18 | 한국전자통신연구원 | Apparatus and method of man-machine interface for invisible user |
US10365819B2 (en) | 2011-01-24 | 2019-07-30 | Apple Inc. | Device, method, and graphical user interface for displaying a character input user interface |
US9081550B2 (en) | 2011-02-18 | 2015-07-14 | Nuance Communications, Inc. | Adding speech capabilities to existing computer applications with complex graphical user interfaces |
WO2012154938A1 (en) * | 2011-05-10 | 2012-11-15 | Kopin Corporation | Headset computer that uses motion and voice commands to control information display and remote devices |
US20130007672A1 (en) * | 2011-06-28 | 2013-01-03 | Google Inc. | Methods and Systems for Correlating Head Movement with Items Displayed on a User Interface |
US8631371B2 (en) | 2011-06-29 | 2014-01-14 | International Business Machines Corporation | Method, system and program storage device for modeling the capacitance associated with a diffusion region of a silicon-on-insulator device |
US9727132B2 (en) * | 2011-07-01 | 2017-08-08 | Microsoft Technology Licensing, Llc | Multi-visor: managing applications in augmented reality environments |
US20130018659A1 (en) * | 2011-07-12 | 2013-01-17 | Google Inc. | Systems and Methods for Speech Command Processing |
US20130021269A1 (en) * | 2011-07-20 | 2013-01-24 | Google Inc. | Dynamic Control of an Active Input Region of a User Interface |
WO2013014709A1 (en) * | 2011-07-27 | 2013-01-31 | 三菱電機株式会社 | User interface device, onboard information device, information processing method, and information processing program |
US8996510B2 (en) | 2011-08-23 | 2015-03-31 | Buckyball Mobile, Inc. | Identifying digital content using bioresponse data |
US9168176B2 (en) | 2011-08-24 | 2015-10-27 | Donald Scott Peebles | Combination ear and eye protection system and related method |
CN103858073B (en) | 2011-09-19 | 2022-07-29 | 视力移动技术有限公司 | Augmented reality device, method of operating augmented reality device, computer-readable medium |
US8941560B2 (en) | 2011-09-21 | 2015-01-27 | Google Inc. | Wearable computer with superimposed controls and instructions for external device |
US9377852B1 (en) * | 2013-08-29 | 2016-06-28 | Rockwell Collins, Inc. | Eye tracking as a method to improve the user interface |
US20130117105A1 (en) * | 2011-09-30 | 2013-05-09 | Matthew G. Dyor | Analyzing and distributing browsing futures in a gesture based user interface |
US20130117111A1 (en) | 2011-09-30 | 2013-05-09 | Matthew G. Dyor | Commercialization opportunities for informational searching in a gesture-based user interface |
US9135914B1 (en) | 2011-09-30 | 2015-09-15 | Google Inc. | Layered mobile application user interfaces |
US8990682B1 (en) * | 2011-10-05 | 2015-03-24 | Google Inc. | Methods and devices for rendering interactions between virtual and physical objects on a substantially transparent display |
US8977205B2 (en) | 2011-10-06 | 2015-03-10 | Symbol Technologies, Inc. | Head-mounted computer with peripheral expansion port |
US8848940B2 (en) | 2011-10-06 | 2014-09-30 | Symbol Technologies, Inc. | Modular headset computer |
US8929589B2 (en) * | 2011-11-07 | 2015-01-06 | Eyefluence, Inc. | Systems and methods for high-resolution gaze tracking |
US8866852B2 (en) * | 2011-11-28 | 2014-10-21 | Google Inc. | Method and system for input detection |
WO2013101438A1 (en) | 2011-12-29 | 2013-07-04 | Kopin Corporation | Wireless hands-free computing head mounted video eyewear for local/remote diagnosis and repair |
US10013053B2 (en) * | 2012-01-04 | 2018-07-03 | Tobii Ab | System for gaze interaction |
US10025381B2 (en) * | 2012-01-04 | 2018-07-17 | Tobii Ab | System for gaze interaction |
US9024844B2 (en) * | 2012-01-25 | 2015-05-05 | Microsoft Technology Licensing, Llc | Recognition of image on external display |
US9705605B2 (en) | 2012-02-09 | 2017-07-11 | N2 Imaging Systems, LLC | Intrapersonal data communication system |
JP5880115B2 (en) * | 2012-02-17 | 2016-03-08 | ソニー株式会社 | Head mounted display, head mounted display control program, and head mounted display control method |
US9075249B2 (en) * | 2012-03-07 | 2015-07-07 | Google Inc. | Eyeglass frame with input and output functionality |
US20130246967A1 (en) * | 2012-03-15 | 2013-09-19 | Google Inc. | Head-Tracked User Interaction with Graphical Interface |
US20130241805A1 (en) * | 2012-03-15 | 2013-09-19 | Google Inc. | Using Convergence Angle to Select Among Different UI Elements |
US8643951B1 (en) * | 2012-03-15 | 2014-02-04 | Google Inc. | Graphical menu and interaction therewith through a viewing window |
US8922481B1 (en) | 2012-03-16 | 2014-12-30 | Google Inc. | Content annotation |
US20130246920A1 (en) | 2012-03-19 | 2013-09-19 | Research In Motion Limited | Method of enabling voice input for a visually based interface |
US10229222B2 (en) | 2012-03-26 | 2019-03-12 | Greyheller, Llc | Dynamically optimized content display |
US9417660B2 (en) | 2012-04-25 | 2016-08-16 | Kopin Corporation | Collapsible head set computer |
US8929954B2 (en) * | 2012-04-25 | 2015-01-06 | Kopin Corporation | Headset computer (HSC) as auxiliary display with ASR and HT input |
WO2013168173A1 (en) * | 2012-05-11 | 2013-11-14 | Umoove Services Ltd. | Gaze-based automatic scrolling |
US9823742B2 (en) * | 2012-05-18 | 2017-11-21 | Microsoft Technology Licensing, Llc | Interaction and management of devices using gaze detection |
JP5942586B2 (en) * | 2012-05-18 | 2016-06-29 | 富士通株式会社 | Tablet terminal and operation reception program |
US9378028B2 (en) | 2012-05-31 | 2016-06-28 | Kopin Corporation | Headset computer (HSC) with docking station and dual personality |
US9583032B2 (en) | 2012-06-05 | 2017-02-28 | Microsoft Technology Licensing, Llc | Navigating content using a physical object |
US10139985B2 (en) | 2012-06-22 | 2018-11-27 | Matterport, Inc. | Defining, displaying and interacting with tags in a three-dimensional model |
US20140002357A1 (en) | 2012-06-28 | 2014-01-02 | Kopin Corporation | Enabling and Disabling Features of a Headset Computer Based on Real-Time Image Analysis |
US8917238B2 (en) * | 2012-06-28 | 2014-12-23 | Microsoft Corporation | Eye-typing term recognition |
JP5358725B1 (en) | 2012-07-02 | 2013-12-04 | 株式会社アライヘルメット | Microphone holding device and open face helmet |
TWI498771B (en) * | 2012-07-06 | 2015-09-01 | Pixart Imaging Inc | Gesture recognition system and glasses with gesture recognition function |
US9602760B2 (en) | 2012-07-25 | 2017-03-21 | Dell Products, Lp | Modular display monitor |
US20140035819A1 (en) | 2012-08-03 | 2014-02-06 | Research In Motion Limited | Method and Apparatus Pertaining to an Augmented-Reality Keyboard |
KR101321157B1 (en) | 2012-08-07 | 2013-10-23 | 한양대학교 산학협력단 | Wearable display deice having sliding structure |
WO2014024009A1 (en) * | 2012-08-10 | 2014-02-13 | Nokia Corporation | Spatial audio user interface apparatus |
US8868426B2 (en) | 2012-08-23 | 2014-10-21 | Freedom Scientific, Inc. | Screen reader with focus-based speech verbosity |
US20140092018A1 (en) * | 2012-09-28 | 2014-04-03 | Ralf Wolfgang Geithner | Non-mouse cursor control including modified keyboard input |
US9111383B2 (en) | 2012-10-05 | 2015-08-18 | Elwha Llc | Systems and methods for obtaining and using augmentation data and for sharing usage data |
KR20140052294A (en) | 2012-10-24 | 2014-05-07 | 삼성전자주식회사 | Method for providing user with virtual image in head-mounted display device, machine-readable storage medium and head-mounted display device |
US10146316B2 (en) | 2012-10-31 | 2018-12-04 | Nokia Technologies Oy | Method and apparatus for disambiguating a plurality of targets |
US9658695B2 (en) * | 2012-11-08 | 2017-05-23 | Cuesta Technology Holdings, Llc | Systems and methods for alternative control of touch-based devices |
US9671874B2 (en) * | 2012-11-08 | 2017-06-06 | Cuesta Technology Holdings, Llc | Systems and methods for extensions to alternative control of touch-based devices |
US9298970B2 (en) | 2012-11-27 | 2016-03-29 | Nokia Technologies Oy | Method and apparatus for facilitating interaction with an object viewable via a display |
US9134793B2 (en) * | 2013-01-04 | 2015-09-15 | Kopin Corporation | Headset computer with head tracking input used for inertial control |
US9620144B2 (en) | 2013-01-04 | 2017-04-11 | Kopin Corporation | Confirmation of speech commands for control of headset computers |
US9164588B1 (en) * | 2013-02-05 | 2015-10-20 | Google Inc. | Wearable computing device with gesture recognition |
CN203233453U (en) * | 2013-02-06 | 2013-10-09 | 周永业 | Head-mounted wireless hands-free audio, display device and cloud-based communication system |
US9791921B2 (en) | 2013-02-19 | 2017-10-17 | Microsoft Technology Licensing, Llc | Context-aware augmented reality object commands |
US9301085B2 (en) * | 2013-02-20 | 2016-03-29 | Kopin Corporation | Computer headset with detachable 4G radio |
US9395816B2 (en) * | 2013-02-28 | 2016-07-19 | Lg Electronics Inc. | Display device for selectively outputting tactile feedback and visual feedback and method for controlling the same |
US9864498B2 (en) * | 2013-03-13 | 2018-01-09 | Tobii Ab | Automatic scrolling based on gaze detection |
US20140253605A1 (en) | 2013-03-05 | 2014-09-11 | John N. Border | Controlling brightness of a displayed image |
KR20150103240A (en) * | 2013-03-14 | 2015-09-09 | 인텔 코포레이션 | Depth-based user interface gesture control |
US9779517B2 (en) | 2013-03-15 | 2017-10-03 | Upskill, Inc. | Method and system for representing and interacting with augmented reality content |
US9239661B2 (en) | 2013-03-15 | 2016-01-19 | Qualcomm Incorporated | Methods and apparatus for displaying images on a head mounted display |
US20140282118A1 (en) | 2013-03-15 | 2014-09-18 | Konica Minolta Laboratory U.S.A., Inc. | Graphical user interface displaying multi-branched browsing history tree for web navigation |
US20140289641A1 (en) | 2013-03-20 | 2014-09-25 | Jerome Eymard Whitcroft | Adaptive User Interface |
JP5900393B2 (en) | 2013-03-21 | 2016-04-06 | ソニー株式会社 | Information processing apparatus, operation control method, and program |
KR102081930B1 (en) * | 2013-03-21 | 2020-02-26 | 엘지전자 주식회사 | Display device detecting gaze location and method for controlling thereof |
US10514767B2 (en) | 2013-04-02 | 2019-12-24 | Sony Corporation | Information processing apparatus and information processing method |
US9530410B1 (en) * | 2013-04-09 | 2016-12-27 | Google Inc. | Multi-mode guard for voice commands |
US9615067B1 (en) | 2013-04-24 | 2017-04-04 | Rockwell Collins, Inc. | Head mounted digital viewing system |
WO2014201213A1 (en) | 2013-06-12 | 2014-12-18 | Oakley, Inc. | Modular heads-up display system |
US10025378B2 (en) * | 2013-06-25 | 2018-07-17 | Microsoft Technology Licensing, Llc | Selecting user interface elements via position signal |
US8988344B2 (en) | 2013-06-25 | 2015-03-24 | Microsoft Technology Licensing, Llc | User interface navigation |
US9563331B2 (en) | 2013-06-28 | 2017-02-07 | Microsoft Technology Licensing, Llc | Web-like hierarchical menu display configuration for a near-eye display |
KR20150020918A (en) | 2013-08-19 | 2015-02-27 | 엘지전자 주식회사 | Display device and control method thereof |
CN103605208B (en) * | 2013-08-30 | 2016-09-28 | 北京智谷睿拓技术服务有限公司 | content projection system and method |
WO2015030099A1 (en) | 2013-08-30 | 2015-03-05 | ブラザー工業株式会社 | Image display device, and head-mounted display |
JP6209906B2 (en) * | 2013-09-05 | 2017-10-11 | セイコーエプソン株式会社 | Head-mounted display device, method for controlling head-mounted display device, and image display system |
KR102083596B1 (en) | 2013-09-05 | 2020-03-02 | 엘지전자 주식회사 | Display device and operation method thereof |
US9158115B1 (en) * | 2013-09-16 | 2015-10-13 | Amazon Technologies, Inc. | Touch control for immersion in a tablet goggles accessory |
US9575559B2 (en) * | 2013-11-01 | 2017-02-21 | Intel Corporation | Gaze-assisted touchscreen inputs |
US10209955B2 (en) | 2013-11-15 | 2019-02-19 | Kopin Corporation | Automatic speech recognition (ASR) feedback for head mounted displays (HMD) |
US20150138089A1 (en) | 2013-11-15 | 2015-05-21 | TabiTop, LLC | Input devices and methods |
US9500867B2 (en) * | 2013-11-15 | 2016-11-22 | Kopin Corporation | Head-tracking based selection technique for head mounted displays (HMD) |
US9690854B2 (en) | 2013-11-27 | 2017-06-27 | Nuance Communications, Inc. | Voice-enabled dialog interaction with web pages |
US9229235B2 (en) * | 2013-12-01 | 2016-01-05 | Apx Labs, Inc. | Systems and methods for unlocking a wearable device |
US9285872B1 (en) * | 2013-12-12 | 2016-03-15 | Google Inc. | Using head gesture and eye position to wake a head mounted device |
US9690763B1 (en) | 2013-12-17 | 2017-06-27 | Bryant Christopher Lee | Display of webpage elements on a connected computer |
JP6260255B2 (en) * | 2013-12-18 | 2018-01-17 | 株式会社デンソー | Display control apparatus and program |
DK3094199T3 (en) | 2014-01-14 | 2019-09-30 | Gentex Corp | Helmet-mounted swivel head unit |
US9311718B2 (en) | 2014-01-23 | 2016-04-12 | Microsoft Technology Licensing, Llc | Automated content scrolling |
US9437159B2 (en) * | 2014-01-25 | 2016-09-06 | Sony Interactive Entertainment America Llc | Environmental interrupt in a head-mounted display and utilization of non field of view real estate |
US9442631B1 (en) * | 2014-01-27 | 2016-09-13 | Google Inc. | Methods and systems for hands-free browsing in a wearable computing device |
US20150220142A1 (en) * | 2014-01-31 | 2015-08-06 | Kopin Corporation | Head-Tracking Based Technique for Moving On-Screen Objects on Head Mounted Displays (HMD) |
US9913302B2 (en) * | 2014-02-03 | 2018-03-06 | Kopin Corporation | Smart Bluetooth headset for speech command |
US9401540B2 (en) | 2014-02-11 | 2016-07-26 | Osterhout Group, Inc. | Spatial location presentation in head worn computing |
US9836192B2 (en) * | 2014-02-25 | 2017-12-05 | Evan Glenn Katsuranis | Identifying and displaying overlay markers for voice command user interface |
US10203762B2 (en) | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US9477888B1 (en) | 2014-03-27 | 2016-10-25 | Amazon Technologies, Inc. | Providing computer-based instructions without displays |
US10755217B2 (en) | 2014-04-05 | 2020-08-25 | Wearable Intelligence, Inc. | Systems and methods for digital workflow and communication |
WO2015171887A1 (en) | 2014-05-07 | 2015-11-12 | Tyco Electronics Corporation | Hands-free asset identification, location and management system |
KR102209511B1 (en) | 2014-05-12 | 2021-01-29 | 엘지전자 주식회사 | Wearable glass-type device and method of controlling the device |
KR102209512B1 (en) | 2014-06-30 | 2021-01-29 | 엘지전자 주식회사 | Glasses type mobile terminal |
EP3189398B1 (en) * | 2014-09-02 | 2020-03-18 | Tobii AB | Gaze based text input systems and methods |
JP6206366B2 (en) | 2014-09-12 | 2017-10-04 | ブラザー工業株式会社 | Head mounted display |
JP6281456B2 (en) | 2014-09-12 | 2018-02-21 | ブラザー工業株式会社 | Head mounted display |
WO2016039440A1 (en) | 2014-09-12 | 2016-03-17 | ブラザー工業株式会社 | Head-mounted display, image display unit, and mounting fixture |
US9547365B2 (en) * | 2014-09-15 | 2017-01-17 | Google Inc. | Managing information display |
US10691299B2 (en) * | 2014-09-25 | 2020-06-23 | Oracle International Corporation | Display of hierarchical datasets using high-water mark scrolling |
US9984505B2 (en) | 2014-09-30 | 2018-05-29 | Sony Interactive Entertainment Inc. | Display of text information on a head-mounted display |
US9746913B2 (en) | 2014-10-31 | 2017-08-29 | The United States Of America As Represented By The Secretary Of The Navy | Secured mobile maintenance and operator system including wearable augmented reality interface, voice command interface, and visual recognition systems and related methods |
US20180276896A1 (en) | 2014-11-07 | 2018-09-27 | Pcms Holdings, Inc. | System and method for augmented reality annotations |
US10248192B2 (en) | 2014-12-03 | 2019-04-02 | Microsoft Technology Licensing, Llc | Gaze target application launcher |
US10255101B2 (en) * | 2014-12-11 | 2019-04-09 | Sap Se | Device emulator |
JP5767386B1 (en) * | 2014-12-15 | 2015-08-19 | 株式会社コロプラ | Head mounted display system, method for displaying on head mounted display, and program |
US20160179855A1 (en) | 2014-12-23 | 2016-06-23 | Yahoo! Inc. | Ubiquitous content access and management |
JP6380091B2 (en) | 2014-12-26 | 2018-08-29 | セイコーエプソン株式会社 | Head-mounted display device, head-mounted display device control method, and computer program |
US9674178B2 (en) * | 2015-02-05 | 2017-06-06 | Ca, Inc. | Secure user input mode using randomized mapping between ordered sets of symbols |
US9697296B2 (en) | 2015-03-03 | 2017-07-04 | Apollo Education Group, Inc. | System generated context-based tagging of content items |
US9715111B2 (en) | 2015-03-27 | 2017-07-25 | Ca, Inc. | Secure user input mode for electronic devices using randomized locations of selection indicia |
JP6115585B2 (en) | 2015-03-31 | 2017-04-19 | ブラザー工業株式会社 | Head mounted display and image display device |
JP6439935B2 (en) * | 2015-05-07 | 2018-12-19 | パナソニックIpマネジメント株式会社 | Display control method, head-mounted display, and program |
US9442575B1 (en) * | 2015-05-15 | 2016-09-13 | Atheer, Inc. | Method and apparatus for applying free space input for surface constrained control |
WO2016187348A1 (en) | 2015-05-18 | 2016-11-24 | Brian Mullins | Biometric authentication in a head mounted device |
US9977493B2 (en) | 2015-06-17 | 2018-05-22 | Microsoft Technology Licensing, Llc | Hybrid display system |
US10416835B2 (en) | 2015-06-22 | 2019-09-17 | Samsung Electronics Co., Ltd. | Three-dimensional user interface for head-mountable display |
US9240069B1 (en) * | 2015-06-30 | 2016-01-19 | Ariadne's Thread (Usa), Inc. | Low-latency virtual reality display system |
US9588593B2 (en) * | 2015-06-30 | 2017-03-07 | Ariadne's Thread (Usa), Inc. | Virtual reality system with control command gestures |
US10101803B2 (en) * | 2015-08-26 | 2018-10-16 | Google Llc | Dynamic switching and merging of head, gesture and touch input in virtual reality |
US20170092002A1 (en) * | 2015-09-30 | 2017-03-30 | Daqri, Llc | User interface for augmented reality system |
US9679497B2 (en) * | 2015-10-09 | 2017-06-13 | Microsoft Technology Licensing, Llc | Proxies for speech generating devices |
KR102400900B1 (en) * | 2015-10-26 | 2022-05-23 | 엘지전자 주식회사 | System |
US20180321493A1 (en) * | 2015-11-11 | 2018-11-08 | Lg Electronics Inc. | Hmd and method for controlling same |
KR20170067058A (en) * | 2015-12-07 | 2017-06-15 | 엘지전자 주식회사 | Mobile terminal and method for controlling the same |
KR20170067260A (en) * | 2015-12-08 | 2017-06-16 | 삼성전자주식회사 | Method of Operating web page and electronic device supporting the same |
KR102524641B1 (en) * | 2016-01-22 | 2023-04-21 | 삼성전자주식회사 | Head mounted display device and method for controlling the same |
US10275023B2 (en) * | 2016-05-05 | 2019-04-30 | Google Llc | Combining gaze input and touch surface input for user interfaces in augmented and/or virtual reality |
KR20170129509A (en) * | 2016-05-17 | 2017-11-27 | 엘지전자 주식회사 | Head mounted display device and method for controlling the same |
US11599709B2 (en) | 2016-05-19 | 2023-03-07 | Palo Alto Research Center Incorporated | Natural language web browser |
US20170351778A1 (en) | 2016-06-02 | 2017-12-07 | vFLYER INC. | Methods and systems for managing bookmarks |
US10089000B2 (en) * | 2016-06-03 | 2018-10-02 | Microsoft Technology Licensing, Llc | Auto targeting assistance for input devices |
CN105848040A (en) | 2016-06-08 | 2016-08-10 | 安徽理工大学 | Smart head-mounted anti-noise earphone |
US10489978B2 (en) | 2016-07-26 | 2019-11-26 | Rouslan Lyubomirov DIMITROV | System and method for displaying computer-based content in a virtual or augmented environment |
US9922254B1 (en) | 2016-09-13 | 2018-03-20 | Chi Fai Ho | Apparatus and method to determine a distance of a visual object using a label |
US10725720B2 (en) | 2016-09-26 | 2020-07-28 | Microsoft Technology Licensing, Llc | Navigation in augmented reality via a transient user interface control |
US10089159B2 (en) | 2016-11-03 | 2018-10-02 | Microsoft Technology Licensing, Llc | Processing non-spatial input by multiple program elements of a computer program executed on a computer |
US10735691B2 (en) | 2016-11-08 | 2020-08-04 | Rockwell Automation Technologies, Inc. | Virtual reality and augmented reality for industrial automation |
US20180150204A1 (en) * | 2016-11-30 | 2018-05-31 | Google Inc. | Switching of active objects in an augmented and/or virtual reality environment |
US10540064B1 (en) | 2016-12-21 | 2020-01-21 | Juniper Networks, Inc. | Framework for creating hierarchical navigation trees using user interface plugins |
US10140773B2 (en) | 2017-02-01 | 2018-11-27 | Accenture Global Solutions Limited | Rendering virtual objects in 3D environments |
CN108509824B (en) | 2017-02-24 | 2020-08-18 | 亮风台(上海)信息科技有限公司 | Article feature identification method based on AR equipment and system for checking article |
US10621271B2 (en) | 2017-05-25 | 2020-04-14 | Microsoft Technology Licensing, Llc | Reordering a multi-level layout using a hierarchical tree |
US20180373325A1 (en) * | 2017-06-22 | 2018-12-27 | Immersion Corporation | Haptic dimensions in a variable gaze orientation virtual environment |
EP3797345A4 (en) | 2018-05-22 | 2022-03-09 | Magic Leap, Inc. | Transmodal input fusion for a wearable system |
-
2016
- 2016-12-23 US US15/390,191 patent/US10620910B2/en active Active
-
2017
- 2017-12-06 WO PCT/US2017/064905 patent/WO2018118435A1/en unknown
- 2017-12-06 CN CN201780086276.8A patent/CN110291576B/en active Active
- 2017-12-06 EP EP17882728.3A patent/EP3559935B1/en active Active
- 2017-12-06 JP JP2019555417A patent/JP7334120B2/en active Active
-
2020
- 2020-03-24 US US16/828,541 patent/US11409497B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009122476A (en) * | 2007-11-16 | 2009-06-04 | Nikon Corp | Controller, head-mounted display device, program and control method |
JP2013541092A (en) * | 2010-09-20 | 2013-11-07 | コピン コーポレーション | Advanced remote control of host applications using movement and voice commands |
JP2013093705A (en) * | 2011-10-25 | 2013-05-16 | Olympus Corp | Head-mounted type display device, program and image processing system |
Also Published As
Publication number | Publication date |
---|---|
CN110291576B (en) | 2022-11-29 |
EP3559935A1 (en) | 2019-10-30 |
CN110291576A (en) | 2019-09-27 |
US11409497B2 (en) | 2022-08-09 |
WO2018118435A1 (en) | 2018-06-28 |
JP7334120B2 (en) | 2023-08-28 |
EP3559935A4 (en) | 2020-08-05 |
EP3559935B1 (en) | 2023-05-24 |
US20180181370A1 (en) | 2018-06-28 |
US10620910B2 (en) | 2020-04-14 |
US20200225910A1 (en) | 2020-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7334120B2 (en) | Hands-free navigation with touch control system | |
US11947752B2 (en) | Customizing user interfaces of binary applications | |
EP3612878B1 (en) | Multimodal task execution and text editing for a wearable system | |
EP3120344B1 (en) | Visual indication of a recognized voice-initiated action | |
US10777193B2 (en) | System and device for selecting speech recognition model | |
DK179343B1 (en) | Intelligent task discovery | |
US9601113B2 (en) | System, device and method for processing interlaced multimodal user input | |
US20190013025A1 (en) | Providing an ambient assist mode for computing devices | |
US11494472B2 (en) | Voice activated authentication | |
US10353495B2 (en) | Personalized operation of a mobile device using sensor signatures | |
EP3540565A1 (en) | Control method for translation device, translation device, and program | |
CN115605948A (en) | Arbitration between multiple potentially responsive electronic devices | |
US9772815B1 (en) | Personalized operation of a mobile device using acoustic and non-acoustic information | |
KR20190134975A (en) | Augmented realtity device for rendering a list of apps or skills of artificial intelligence system and method of operating the same | |
US20240169989A1 (en) | Multimodal responses | |
US11308266B1 (en) | Augmented reality assisted physical form completion | |
US20140288916A1 (en) | Method and apparatus for function control based on speech recognition | |
US11164576B2 (en) | Multimodal responses | |
US20120254736A1 (en) | Ascertaining presentation format based on device primary control determination | |
JP7395513B2 (en) | Customizing the user interface of binary applications | |
KR101944632B1 (en) | Braille generating system and control method for the system | |
US12093440B2 (en) | Direction of user input to virtual objects based on command metadata | |
US20240378232A1 (en) | Systems and methods of generating new content for a presentation being prepared in a presentation application |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201202 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201202 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211022 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211027 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220615 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220914 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221212 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230411 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230414 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230726 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230816 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7334120 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |