JP5473520B2 - 入力装置及びその制御方法 - Google Patents
入力装置及びその制御方法 Download PDFInfo
- Publication number
- JP5473520B2 JP5473520B2 JP2009232406A JP2009232406A JP5473520B2 JP 5473520 B2 JP5473520 B2 JP 5473520B2 JP 2009232406 A JP2009232406 A JP 2009232406A JP 2009232406 A JP2009232406 A JP 2009232406A JP 5473520 B2 JP5473520 B2 JP 5473520B2
- Authority
- JP
- Japan
- Prior art keywords
- operation command
- information
- recognition
- recognition rate
- external environment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Position Input By Displaying (AREA)
- Details Of Television Systems (AREA)
Description
しかしながら、マイクロホンから入力される音声からユーザの声を認識して操作コマンドへ変換する場合、該入力される音声には、ユーザの声の他に、周囲の雑音(周りの人の声、自動車や電車の騒音、テレビ受信機の出力音声など)も含まれる虞がある。入力される音声にそのような雑音が含まれると、認識(音声認識)に失敗する可能性が高くなる。
また、デジタルカメラから入力される映像からジェスチャを認識して操作コマンドへ変換する場合、周囲の明るさが認識(ジェスチャ認識)に影響してしまう。例えば、暗い場所ではジェスチャ自体を認識することが困難となる。また、暗い場所でジェスチャを認識可能とするために、デジタルカメラの感度を上げると、撮影された映像中のノイズが増すため、認識に失敗する可能性が高くなる。
具体的には、特許文献2には、周囲の雑音を含む音声から音声認識が可能か否かを判定し、判定結果を文字列で表示する技術が開示されている。
特許文献3には、複数の特徴量(音声と唇の動きの特徴量)を、それぞれの信頼度(高いか低いか)に応じた重みで合成し、合成された特徴量を用いて認識処理を行う技術が開示されている。
しかしながら、上記特許文献2,3に開示の技術では、音声認識やジェスチャ認識などに成功する可能性(操作コマンドの認識に成功する可能性)がユーザに通知されないため
、ユーザは上述したような比較をすることができない。
また、本発明の入力装置は、電子機器に接続又は内蔵される入力装置であって、ユーザの発する音及びユーザの動きのうち少なくともいずれかを認識して前記電子機器に対する操作コマンドへ変換する入力装置において、操作コマンドの認識率に影響を与える、前記入力装置の現在の外部環境に関する情報を取得する第1の取得手段と、ユーザの位置を判定する判定手段と、外部環境と操作コマンドの認識率との対応関係に関する情報と、ユーザの位置と操作コマンドの認識率との対応関係に関する情報と、を記憶している記憶手段と、前記第1の取得手段により取得された情報と、前記記憶手段に記憶されている情報と、前記判定手段により判定された現在のユーザの位置と、に基づいて、現在の外部環境における操作コマンドの認識率を取得する第2の取得手段と、前記第2の取得手段で取得された認識率に関する情報を表示部に表示する表示手段と、を有する。
また、本発明の入力装置は、電子機器に接続又は内蔵される入力装置であって、ユーザの発する音及びユーザの動きのうち少なくともいずれかを認識して前記電子機器に対する操作コマンドへ変換し、消費電力の異なる複数の動作モードを有し、動作モードごとに操作コマンドの認識率が異なる入力装置において、操作コマンドの認識率に影響を与える、前記入力装置の現在の外部環境に関する情報を取得する第1の取得手段と、ユーザの位置を判定する判定手段と、外部環境と操作コマンドの認識率との対応関係に関する情報と、動作モードと操作コマンドの認識率との対応関係に関する情報と、ユーザの位置と操作コマンドの認識率との対応関係に関する情報と、を記憶している記憶手段と、前記第1の取得手段により取得された情報と、前記記憶手段に記憶されている情報と、現在の動作モードと、前記判定手段により判定された現在のユーザの位置と、に基づいて、現在の外部環境における操作コマンドの認識率を取得する第2の取得手段と、前記第2の取得手段で取得された認識率に関する情報を表示部に表示する表示手段と、を有する。
コマンドの認識率との対応関係に関する情報と、を記憶している記憶手段に記憶されている情報と、前記第1の取得ステップで取得された情報と、現在の動作モードと、に基づいて、現在の外部環境における操作コマンドの認識率を取得する第2の取得ステップと、前記第2の取得ステップで取得された認識率に関する情報を表示部に表示する表示ステップと、を有する。
また、本発明の入力装置の制御方法は、電子機器に接続又は内蔵される入力装置であって、ユーザの発する音及びユーザの動きのうち少なくともいずれかを認識して前記電子機器に対する操作コマンドへ変換する入力装置の制御方法において、操作コマンドの認識率に影響を与える、前記入力装置の現在の外部環境に関する情報を取得する第1の取得ステップと、ユーザの位置を判定する判定ステップと、外部環境と操作コマンドの認識率との対応関係に関する情報と、ユーザの位置と操作コマンドの認識率との対応関係に関する情報と、を記憶している記憶手段に記憶されている情報と、前記第1の取得ステップで取得された情報と、前記判定ステップで判定された現在のユーザの位置と、に基づいて、現在の外部環境における操作コマンドの認識率を取得する第2の取得ステップと、前記第2の取得ステップで取得された認識率に関する情報を表示部に表示する表示ステップと、を有する。
また、本発明の入力装置の制御方法は、電子機器に接続又は内蔵される入力装置であって、ユーザの発する音及びユーザの動きのうち少なくともいずれかを認識して前記電子機器に対する操作コマンドへ変換し、消費電力の異なる複数の動作モードを有し、動作モードごとに操作コマンドの認識率が異なる入力装置の制御方法において、操作コマンドの認識率に影響を与える、前記入力装置の現在の外部環境に関する情報を取得する第1の取得ステップと、ユーザの位置を判定する判定ステップと、外部環境と操作コマンドの認識率との対応関係に関する情報と、動作モードと操作コマンドの認識率との対応関係に関する情報と、ユーザの位置と操作コマンドの認識率との対応関係に関する情報と、を記憶している記憶手段に記憶されている情報と、前記第1の取得ステップで取得された情報と、現在の動作モードと、前記判定ステップで判定された現在のユーザの位置と、に基づいて、現在の外部環境における操作コマンドの認識率を取得する第2の取得ステップと、前記第2の取得ステップで取得された認識率に関する情報を表示部に表示する表示ステップと、を有する。
以下、本発明の実施例1に係る入力装置及びその制御方法について説明する。本発明に係る入力装置は電子機器に接続又は内蔵されるものであり、本実施例では、入力装置を内蔵するテレビ受信機1について説明する(図1)。ユーザは、テレビ受信機1で、例えば、テレビ放送のコンテンツ、ビデオレコーダ、インターネットなどから取得されるコンテンツなどを視聴できる。メインディスプレイ2は、コンテンツの映像を表示し、スピーカ3は、コンテンツの音声を出力する。
人感センサ6は、人が現れたり去ったりしたことを検出する。人感センサ6は、例えば、赤外線センサによって構成される。これによって、テレビ受信機1の各デバイスの通電を必要に応じて制御することができ、消費電力を削減することができる。例えば、人(ユーザ)が去ったとき(即ち、ユーザがテレビ受信機1の周囲にいないとき)に各デバイスへの通電を絶つことにより、消費電力を削減することができる。
サブディスプレイ7は、テレビ受信機1に関する情報を必要に応じて表示する。上記情報は、メインディスプレイ2に表示しても構わないが、サブディスプレイ7に表示することでコンテンツの視聴の邪魔にならずに情報を表示することができる。また、電源スタンバイモード(メインディスプレイ2が通電されていない状態)において、サブディスプレイ7に情報を表示することができる。
映像入力部13は、カメラ5(撮像装置)から入力される映像をデジタル信号(デジタル映像信号)としてジェスチャ認識部14へ出力する。
、その言葉が操作コマンドに誤変換されてしまう虞がある。ユーザの動きを認識する場合においても同様であり、日常の動きの中で操作コマンドに対応する動きと同じ(または類似する)動きが行われた場合に、その動きが操作コマンドに誤変換されてしまう虞がある。これを防ぐためには、入力装置が、自身の状態を、操作コマンド受け付け可能状態か操作コマンド受け付け不可能状態に切り換える機能(制御手段)を有していればよい。本実施例では、ユーザが開始操作を行うことで、後述の操作コマンド実行部15が、入力装置の状態を操作コマンド受け付け可能状態に切り換えるものとする。そして、ユーザの声やジェスチャは、入力装置の状態が操作コマンド受け付け可能状態のときにのみ操作コマンドへ変換される。開始操作は、例えば、「テレビ操作」などの声、「テレビに向かって指差し」などのジェスチャなどである。
なお、開始操作と操作コマンドの入力とは、同じ操作手段によって行われてもよいし、互いに異なる操作手段によって行われてもよい。例えば、開始操作と操作コマンドの入力の両方を音声認識で行ってもよいし、それら両方をジェスチャ認識で行ってもよい。開始操作と操作コマンドの入力の一方を音声認識で行い、他方をジェスチャ認識で行ってもよい。また、開始操作や操作コマンドの入力はリモコンを用いて行われてもよい。
認識結果表示部16は、サブディスプレイ7に認識された操作コマンドを表す文字列やアイコンを表示する。
ユーザは、操作コマンドの実行結果(操作コマンド実行後のテレビ受信機1の状態)や、サブディスプレイ7に表示された情報(認識された操作コマンドを表す文字列やアイコン)により、所望の操作コマンドが正しく実行されたか否かを判断することができる。所望の操作コマンドと異なる操作コマンドが実行されてしまった場合には、ユーザは、取消操作(例えば、「取り消し」などの音声、「手を横に振る」などのジェスチャなど)によって、テレビ受信機1の状態を操作コマンド実行前の状態に戻すことができる。
省電力動作モードでは、一部のセンサ(マイクロホン4やカメラ5)や回路が、低電圧や低動作クロックで動作する。それにより、通常動作モード時に比べ、センサの感度が低くなる(センサで生成される信号のレベルが小さくなったり、信号のサンプリング数が少なくなったりする)。そのため、操作コマンドの認識成功率(音声認識やジェスチャ認識に成功する可能性)が通常動作モード時よりも低くなる。
電源スタンバイモード(映像や音声を出力せず、電源オン操作を待っている状態)では、電源オン操作のみを受け付ける程度に消費電力が抑えられているため、操作コマンドの認識成功率が省電力動作モード時よりも低くなる。
即ち、上記複数の動作モードは、動作モードごとに操作コマンドの認識成功率が異なる。なお、動作モードの種類は3種類より少なくてもよいし、多くてもよい。
認識履歴記憶部19は、外部環境と動作モードの組み合わせごとに、操作コマンドの認識成功率を表す情報を記憶する。本実施例では、操作コマンドの認識成功率を表す情報と
して、操作コマンドの認識の成功及び失敗の履歴(認識成功数および認識失敗数)を記憶する。具体的には、図4に示すように、操作手段(音声認識、ジェスチャ認識)、動作モード、外部環境の組み合わせ毎に、認識成功数と認識失敗数を記憶する。認識成功数は、ユーザの声やジェスチャが正しく認識された回数であり、認識失敗数は、ユーザの声やジェスチャが正しく認識されなかった回数である。
また、本実施例では、操作コマンド実行部15が、操作コマンドの認識の成功及び失敗の履歴を、操作コマンドの認識成功率を表す情報として、外部環境と動作モードの組み合わせ毎に、認識履歴記憶部19に記録する機能(履歴記録手段)を有する。具体的には、操作コマンド実行部15は、認識成功数と認識失敗数を変更する。
ユーザの声やジェスチャを認識すればするほど、上記式の母数が増え、操作コマンドの認識成功率は或る値に収束する。しかし、母数が小さいうちは、操作コマンドの認識成功率は安定した値とならないため、工場出荷時の初期値として、複数のテストユーザの使用履歴に基づく値を認識履歴記憶部19に予め記憶しておくとよい。
認識成功率レベル表示部21は、認識成功率取得部20で取得された操作コマンドの認識成功率を表示部(サブディスプレイ7)に表示する。
本実施例では、第1の認識処理(音声認識)と第2の認識処理(ジェスチャ認識)のそれぞれについて、個別に、認識成功率を取得し、表示部に表示する。
まず、認識成功率取得部20が、現在の外部環境に関する情報及び動作モードの情報を取得する(ステップS101)。本実施例では、動作モード切換部17から現在の動作モードの情報を取得するとともに、外部環境取得部18から現在の外部環境に関する情報を取得する。具体的には、動作モードの情報として、通常動作モード、省電力動作モード、電源スタンバイモードのいずれかを表す識別子を取得する。外部環境に関する情報として、マイクロホン4から入力された音声の音量や、カメラ5から入力された映像の明るさに応じた値を取得する。ただし、音量や明るさはリアルタイムに刻々と変化するため、外部環境に関する情報として、ある程度の期間(数秒間〜数分間)における音量や明るさの積分値や平均値を用いるのが好ましい。そして、外部環境に関する情報は、その値に応じて、数段階の値(例えば、図4に示すように、良、中、悪の3段階)に分類される。なお、外部環境に関する情報は2段階の値であってもよいし、4段階以上の値であってもよい。
そして、認識成功率レベル表示部21が、ステップS102で算出された操作コマンドの認識成功率をサブディスプレイ7に表示する(ステップS103)。操作コマンドの認識成功率は、例えば、図1に示すように、レベルメータで表示(レベル表示)される。
ステップS104においてユーザの発声やジェスチャが行われたと判断されるまで、ステップS101〜S103の処理が繰り返される。なお、動作モードや外部環境が変化すると、ステップS102で算出される操作コマンドの認識成功率は変化し、ステップS103で表示されるレベルメータも変化する。
例えば、音声入力部11は、人間の話し声の周波数帯域の音声が所定値以上の音量で所定時間以上入力されたときに、発声が行われたと判断する。映像入力部13は、入力された映像から人物を抽出し、抽出された人物から手を検出する。そして、さらに手が動いたことが検出されたときに、ジェスチャが行われたと判断する。
次に、音声認識部12やジェスチャ認識部14が、入力装置の状態が操作コマンド受け付け可能状態か否かを判定する(ステップS106)。操作コマンド受け付け可能状態でない場合には(ステップS106:NO)、ステップS107へ進み、操作コマンド受け付け可能状態である場合には(ステップS106:YES)、ステップS109へ進む。
開始操作を示すものであると判定された場合には(ステップS107:YES)、ステップS108へ進む。ステップS108では、操作コマンド実行部15が、入力装置の状態を操作コマンド受け付け可能状態に切り換える。操作コマンド受け付け可能状態においては、サブディスプレイ7に該状態であることを示す文字列やアイコンが表示される。
開始操作を示すものでないと判定された場合には(ステップS107:NO)、ユーザの行った発声やジェスチャが日常の会話や動きの中で行われたものであるとみなし、何も行わず、ステップS101へ戻る。
なお、本実施例では、操作コマンド受け付け可能状態において、ユーザの発声や動きが行われない時間や操作コマンドの入力、開始操作、取消操作が行われない時間が所定時間以上になった場合には、操作コマンド受け付け可能状態は解除される。
認識結果が操作コマンドを示すものであると判定された場合には(ステップS110:YES)、操作コマンド実行部15が該操作コマンドを実行する(ステップS111)。また、認識結果表示部16が、サブディスプレイ7に該操作コマンドを表す文字列やアイコンを表示する。
そして、操作コマンド実行部15が、操作コマンドを入力するために利用された操作手段と、現在の外部環境及び動作モードとの組み合わせに対応する認識成功数を1カウントアップし(ステップS112)、ステップS101へ戻る。
直前に操作コマンドが実行されていない場合には(ステップS114:NO)、ステッ
プS101へ戻る。なお、この場合には、認識結果が取消操作と誤認識されたものである可能性が高いため、認識失敗数を1カウントアップしてもよい。
直前に操作コマンドが実行されていた場合には(ステップS114:YES)、操作コマンド実行部15が、該直前の操作コマンドの実行を取り消す(ステップS115)。
次に、取り消された操作コマンドを入力するために利用された操作手段と、該操作コマンドの実行時の外部環境及び動作モードとの組み合わせに対応する認識失敗数を1カウントアップし(ステップS117)、ステップS101へ戻る。このような構成にするのは、取り消された操作コマンドは誤認識された操作コマンドである可能性が高いからである。
なお、取り消された操作コマンドを入力するために利用された操作手段と取消操作のために利用された操作手段は同じであってもよいし異なっていてもよい。例えば、直前の音声認識による操作コマンドを取り消すための取消操作は、音声認識、ジェスチャ認識、リモコン操作など、どの操作手段による操作であってもよい。認識処理の必要がない操作手段(例えばリモコン操作など)で取消操作を行う場合には、図3の処理は実行されないが、ステップS115〜S117の処理は同様に実行される。
また、本実施例では外部環境の他に動作モードをさらに考慮したが、外部環境のみを考慮してもよい。外部環境のみを考慮しても上記効果を得ることができる。
また、音声認識の認識成功率をマイクロホン4に近接する位置に表示し、ジェスチャ認識の認識成功率をカメラ5に近接する位置に表示してもよい。具体的には、図6(B)に示すように、マイクロホン4付近にランプ8を配置し、カメラ5付近にランプ9を配置してもよい。それにより、操作手段と認識成功率との対応を文字などで表示しなくてもユーザに直感的に理解させやすくすることができる。
また、人感センサ6によって、人が現れたり去ったりしたことを検出して、適宜サブディスプレイ7やランプ8、ランプ9の点灯と消灯を切り換えるようにしてもよい。
なお、本実施例では、ユーザの声及びジェスチャを認識するものとしたが、いずれか一方を認識する構成であってもよいし、他の音や動き(ユーザの発する音やユーザの動き)を認識する構成であってもよい。例えば、ユーザの手叩きの音や、眼、口などの各器官の動きを検出してもよい。
なお、図3のステップS115で取り消される操作コマンドがリモコン操作によるものである可能性があるため、取り消される操作コマンドが音声認識やジェスチャ認識によるものか否かを判定してもよい。取り消された操作コマンドが、音声認識やジェスチャ認識によるものでない(リモコン操作などによるものである)場合には、認識成功数や認識失敗数を変更する必要はない。
次に、本発明の実施例2に係る入力装置及びその制御方法について説明する。図7は、本実施例に係る入力装置の機能構成を示すブロック図である。本実施例に係る入力装置は、図2の構成のほかに、ユーザ識別部22とユーザ位置判定部23をさらに有する。
ユーザ位置判定部23は、ユーザの位置を判定する。具体的には、赤外線センサやカメラを用いて、テレビ受信機1からユーザまでの距離や角度を測定する。上記測定に用いる赤外線センサやカメラは、カメラ5や人感センサ6が兼ねてもよいし、別途設けてもよい。
ステップS101では、認識成功率取得部20が、現在の外部環境に関する情報、動作モードの情報、ユーザの識別情報、及び、ユーザの位置情報を取得する。具体的には、実施例1と同様に、動作モード切換部17から現在の動作モードの情報を取得するとともに、外部環境取得部18から現在の外部環境に関する情報を取得する。更に、本実施例では、ユーザ識別部22から現在のユーザの識別情報を取得し、ユーザ位置判定部23から現在のユーザの位置情報を取得する。
。複数のユーザが識別された場合には、例えば、図9(A)に示すように、ユーザ毎の認識成功率を同時に表示する。ユーザ毎の認識成功率を同時に表示しきれない場合には、図9(B)に示すように、所定時間ごとに表示するユーザ及びそのユーザについての認識成功率を切り換えればよい。
なお、本実施例では、実施例1に比べ、ユーザとユーザの位置をさらに考慮したが、ユーザとユーザの位置のいずれか一方をさらに考慮した構成であってもよい。また、外部環境とユーザ、または、外部環境とユーザの位置を考慮した構成であってもよい。また、上慮するパラメータはこれらに限らない。操作コマンドの認識成功率に影響を与えるパラメータであればどのようなパラメータを考慮してもよい。
19 認識履歴記憶部
20 認識成功率取得部
21 認識成功率レベル表示部
Claims (28)
- 電子機器に接続又は内蔵される入力装置であって、ユーザの発する音及びユーザの動きのうち少なくともいずれかを認識して前記電子機器に対する操作コマンドへ変換し、消費電力の異なる複数の動作モードを有し、動作モードごとに操作コマンドの認識率が異なる入力装置において、
操作コマンドの認識率に影響を与える、前記入力装置の現在の外部環境に関する情報を取得する第1の取得手段と、
外部環境と操作コマンドの認識率との対応関係に関する情報と、動作モードと操作コマンドの認識率との対応関係に関する情報と、を記憶している記憶手段と、
前記第1の取得手段により取得された情報と、前記記憶手段に記憶されている情報と、現在の動作モードと、に基づいて、現在の外部環境における操作コマンドの認識率を取得する第2の取得手段と、
前記第2の取得手段で取得された認識率に関する情報を表示部に表示する表示手段と、を有することを特徴とする入力装置。 - 電子機器に接続又は内蔵される入力装置であって、ユーザの発する音及びユーザの動きのうち少なくともいずれかを認識して前記電子機器に対する操作コマンドへ変換する入力装置において、
操作コマンドの認識率に影響を与える、前記入力装置の現在の外部環境に関する情報を取得する第1の取得手段と、
ユーザの位置を判定する判定手段と、
外部環境と操作コマンドの認識率との対応関係に関する情報と、ユーザの位置と操作コマンドの認識率との対応関係に関する情報と、を記憶している記憶手段と、
前記第1の取得手段により取得された情報と、前記記憶手段に記憶されている情報と、前記判定手段により判定された現在のユーザの位置と、に基づいて、現在の外部環境における操作コマンドの認識率を取得する第2の取得手段と、
前記第2の取得手段で取得された認識率に関する情報を表示部に表示する表示手段と、を有することを特徴とする入力装置。 - 電子機器に接続又は内蔵される入力装置であって、ユーザの発する音及びユーザの動き
のうち少なくともいずれかを認識して前記電子機器に対する操作コマンドへ変換し、消費電力の異なる複数の動作モードを有し、動作モードごとに操作コマンドの認識率が異なる入力装置において、
操作コマンドの認識率に影響を与える、前記入力装置の現在の外部環境に関する情報を取得する第1の取得手段と、
ユーザの位置を判定する判定手段と、
外部環境と操作コマンドの認識率との対応関係に関する情報と、動作モードと操作コマンドの認識率との対応関係に関する情報と、ユーザの位置と操作コマンドの認識率との対応関係に関する情報と、を記憶している記憶手段と、
前記第1の取得手段により取得された情報と、前記記憶手段に記憶されている情報と、現在の動作モードと、前記判定手段により判定された現在のユーザの位置と、に基づいて、現在の外部環境における操作コマンドの認識率を取得する第2の取得手段と、
前記第2の取得手段で取得された認識率に関する情報を表示部に表示する表示手段と、を有することを特徴とする入力装置。 - 操作コマンドの認識の成功及び失敗の履歴を、操作コマンドの認識率に関する情報として、外部環境ごとに前記記憶手段に記録する記録手段をさらに有し、
前記第2の取得手段は、前記記録手段によって前記記憶手段に記録された前記外部環境ごとの履歴のうち、現在の外部環境に対応する履歴から、現在の外部環境における操作コマンドの認識率を算出する
ことを特徴とする請求項1に記載の入力装置。 - 操作コマンドの認識の成功及び失敗の履歴を、操作コマンドの認識率に関する情報として、外部環境ごとに前記記憶手段に記録する記録手段をさらに有し、
前記第2の取得手段は、前記記録手段によって前記記憶手段に記録された前記外部環境ごとの履歴のうち、現在の外部環境に対応する履歴から、現在の外部環境における操作コマンドの認識率を算出する
ことを特徴とする請求項2又は3に記載の入力装置。 - ユーザを識別する識別手段をさらに有し、
前記記憶手段は、ユーザと操作コマンドの認識率との対応関係に関する情報をさらに記憶しており、
前記第2の取得手段は、前記識別手段により識別された現在のユーザをさらに考慮して、現在の外部環境における操作コマンドの認識率を取得する
ことを特徴とする請求項1〜5のいずれか1項に記載の入力装置。 - 現在のユーザとして複数のユーザが存在する場合に、
前記第2の取得手段は、現在の外部環境における操作コマンドの認識率として、前記複数のユーザに対応する複数の認識率を取得し、
前記表示手段は、現在の外部環境における操作コマンドの認識率に関する情報として、前記複数のユーザに対応する複数の情報を前記表示部に表示する
ことを特徴とする請求項2,3,5または6のいずれか1項に記載の入力装置。 - 前記複数のユーザに対応する複数の情報を一度に表示できない場合に、前記表示手段は、当該複数の情報が複数回に分けて前記表示部に表示されるように、所定時間おきに表示する情報を切り換える
ことを特徴とする請求項7に記載の入力装置。 - マイクロホンから入力される音声からユーザの発する音を認識して操作コマンドへ変換する第1の認識処理を行う第1の認識手段と、
撮像装置から入力される映像からユーザの動きを認識して操作コマンドへ変換する第2の認識処理を行う第2の認識手段と、
をさらに有し、
前記第1の認識処理と第2の認識処理のそれぞれについて、個別に、現在の外部環境における操作コマンドの認識率に関する情報が表示される
ことを特徴とする請求項1〜8のいずれか1項に記載の入力装置。 - 前記第1の認識処理の認識率に関する情報は、前記マイクロホンに近接する位置に表示され、
前記第2の認識処理の認識率に関する情報は、前記撮像装置に近接する位置に表示される
ことを特徴とする請求項9に記載の入力装置。 - 前記入力装置の状態を、操作コマンド受け付け可能状態か操作コマンド受け付け不可能状態に切り換える制御手段をさらに有し、
前記表示手段は、前記入力装置の状態が前記操作コマンド受け付け可能状態であるときにのみ、現在の外部環境における認識率に関する情報を前記表示部に表示する
ことを特徴とする請求項1〜10のいずれか1項に記載の入力装置。 - マイクロホンから入力される音声からユーザの発する音を認識して操作コマンドへ変換する第1の認識処理を行う第1の認識手段をさらに有し、
前記第1の認識処理の認識率に影響を与える外部環境に関する情報は、前記マイクロホンから入力される音声の音量である
ことを特徴とする請求項1〜11のいずれか1項に記載の入力装置。 - 撮像装置から入力される映像からユーザの動きを認識して操作コマンドへ変換する第2の認識処理を行う第2の認識手段をさらに有し、
前記第2の認識処理の認識率に影響を与える外部環境に関する情報は、前記撮像装置から入力される映像の明るさである
ことを特徴とする請求項1〜12のいずれか1項に記載の入力装置。 - 現在の外部環境における操作コマンドの認識率に関する情報は、レベルメータ、数字、アイコンの図柄、及び、ランプの色のいずれかの形式の情報を含む
ことを特徴とする請求項1〜13のいずれか1項に記載の入力装置。 - 電子機器に接続又は内蔵される入力装置であって、ユーザの発する音及びユーザの動きのうち少なくともいずれかを認識して前記電子機器に対する操作コマンドへ変換し、消費電力の異なる複数の動作モードを有し、動作モードごとに操作コマンドの認識率が異なる入力装置の制御方法において、
操作コマンドの認識率に影響を与える、前記入力装置の現在の外部環境に関する情報を取得する第1の取得ステップと、
外部環境と操作コマンドの認識率との対応関係に関する情報と、動作モードと操作コマンドの認識率との対応関係に関する情報と、を記憶している記憶手段に記憶されている情報と、前記第1の取得ステップで取得された情報と、現在の動作モードと、に基づいて、現在の外部環境における操作コマンドの認識率を取得する第2の取得ステップと、
前記第2の取得ステップで取得された認識率に関する情報を表示部に表示する表示ステップと、を有することを特徴とする入力装置の制御方法。 - 電子機器に接続又は内蔵される入力装置であって、ユーザの発する音及びユーザの動きのうち少なくともいずれかを認識して前記電子機器に対する操作コマンドへ変換する入力
装置の制御方法において、
操作コマンドの認識率に影響を与える、前記入力装置の現在の外部環境に関する情報を取得する第1の取得ステップと、
ユーザの位置を判定する判定ステップと、
外部環境と操作コマンドの認識率との対応関係に関する情報と、ユーザの位置と操作コマンドの認識率との対応関係に関する情報と、を記憶している記憶手段に記憶されている情報と、前記第1の取得ステップで取得された情報と、前記判定ステップで判定された現在のユーザの位置と、に基づいて、現在の外部環境における操作コマンドの認識率を取得する第2の取得ステップと、
前記第2の取得ステップで取得された認識率に関する情報を表示部に表示する表示ステップと、を有することを特徴とする入力装置の制御方法。 - 電子機器に接続又は内蔵される入力装置であって、ユーザの発する音及びユーザの動きのうち少なくともいずれかを認識して前記電子機器に対する操作コマンドへ変換し、消費電力の異なる複数の動作モードを有し、動作モードごとに操作コマンドの認識率が異なる入力装置の制御方法において、
操作コマンドの認識率に影響を与える、前記入力装置の現在の外部環境に関する情報を取得する第1の取得ステップと、
ユーザの位置を判定する判定ステップと、
外部環境と操作コマンドの認識率との対応関係に関する情報と、動作モードと操作コマンドの認識率との対応関係に関する情報と、ユーザの位置と操作コマンドの認識率との対応関係に関する情報と、を記憶している記憶手段に記憶されている情報と、前記第1の取得ステップで取得された情報と、現在の動作モードと、前記判定ステップで判定された現在のユーザの位置と、に基づいて、現在の外部環境における操作コマンドの認識率を取得する第2の取得ステップと、
前記第2の取得ステップで取得された認識率に関する情報を表示部に表示する表示ステップと、を有することを特徴とする入力装置の制御方法。 - 操作コマンドの認識の成功及び失敗の履歴を、操作コマンドの認識率に関する情報として、外部環境ごとに前記記憶手段に記録する記録ステップをさらに有し、
前記第2の取得ステップでは、前記記録ステップによって前記記憶手段に記録された前記外部環境ごとの履歴のうち、現在の外部環境に対応する履歴から、現在の外部環境における操作コマンドの認識率が算出される
ことを特徴とする請求項15に記載の入力装置の制御方法。 - 操作コマンドの認識の成功及び失敗の履歴を、操作コマンドの認識率に関する情報として、外部環境ごとに前記記憶手段に記録する記録ステップをさらに有し、
前記第2の取得ステップでは、前記記録ステップによって前記記憶手段に記録された前記外部環境ごとの履歴のうち、現在の外部環境に対応する履歴から、現在の外部環境における操作コマンドの認識率が算出される
ことを特徴とする請求項16又は17に記載の入力装置の制御方法。 - ユーザを識別する識別ステップをさらに有し、
前記記憶手段は、ユーザと操作コマンドの認識率との対応関係に関する情報をさらに記憶しており、
前記第2の取得ステップでは、前記識別ステップで識別された現在のユーザをさらに考慮して、現在の外部環境における操作コマンドの認識率が取得される
ことを特徴とする請求項15〜19のいずれか1項に記載の入力装置の制御方法。 - 現在のユーザとして複数のユーザが存在する場合に、
前記第2の取得ステップでは、現在の外部環境における操作コマンドの認識率として、前記複数のユーザに対応する複数の認識率が取得され、
前記表示ステップでは、現在の外部環境における操作コマンドの認識率に関する情報として、前記複数のユーザに対応する複数の情報が前記表示部に表示される
ことを特徴とする請求項16,17,19または20のいずれか1項に記載の入力装置の制御方法。 - 前記複数のユーザに対応する複数の情報を一度に表示できない場合に、前記表示ステップでは、当該複数の情報が複数回に分けて前記表示部に表示されるように、所定時間おきに表示する情報が切り換えられる
ことを特徴とする請求項21に記載の入力装置の制御方法。 - マイクロホンから入力される音声からユーザの発する音を認識して操作コマンドへ変換する第1の認識処理を行う第1の認識ステップと、
撮像装置から入力される映像からユーザの動きを認識して操作コマンドへ変換する第2の認識処理を行う第2の認識ステップと、
をさらに有し、
前記第1の認識処理と第2の認識処理のそれぞれについて、個別に、現在の外部環境における操作コマンドの認識率に関する情報が表示される
ことを特徴とする請求項15〜22のいずれか1項に記載の入力装置の制御方法。 - 前記第1の認識処理の認識率に関する情報は、前記マイクロホンに近接する位置に表示され、
前記第2の認識処理の認識率に関する情報は、前記撮像装置に近接する位置に表示される
ことを特徴とする請求項23に記載の入力装置の制御方法。 - 前記入力装置の状態を、操作コマンド受け付け可能状態か操作コマンド受け付け不可能状態に切り換える制御ステップをさらに有し、
前記表示ステップでは、前記入力装置の状態が前記操作コマンド受け付け可能状態であるときにのみ、現在の外部環境における認識率に関する情報が前記表示部に表示される
ことを特徴とする請求項15〜24のいずれか1項に記載の入力装置の制御方法。 - マイクロホンから入力される音声からユーザの発する音を認識して操作コマンドへ変換する第1の認識処理を行う第1の認識ステップをさらに有し、
前記第1の認識処理の認識率に影響を与える外部環境に関する情報は、前記マイクロホンから入力される音声の音量である
ことを特徴とする請求項15〜25のいずれか1項に記載の入力装置の制御方法。 - 撮像装置から入力される映像からユーザの動きを認識して操作コマンドへ変換する第2の認識処理を行う第2の認識ステップをさらに有し、
前記第2の認識処理の認識率に影響を与える外部環境に関する情報は、前記撮像装置から入力される映像の明るさである
ことを特徴とする請求項15〜26のいずれか1項に記載の入力装置の制御方法。 - 現在の外部環境における操作コマンドの認識率に関する情報は、レベルメータ、数字、アイコンの図柄、及び、ランプの色のいずれかの形式の情報を含む
ことを特徴とする請求項15〜27のいずれか1項に記載の入力装置の制御方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009232406A JP5473520B2 (ja) | 2009-10-06 | 2009-10-06 | 入力装置及びその制御方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009232406A JP5473520B2 (ja) | 2009-10-06 | 2009-10-06 | 入力装置及びその制御方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2011081541A JP2011081541A (ja) | 2011-04-21 |
JP2011081541A5 JP2011081541A5 (ja) | 2012-11-08 |
JP5473520B2 true JP5473520B2 (ja) | 2014-04-16 |
Family
ID=44075547
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009232406A Expired - Fee Related JP5473520B2 (ja) | 2009-10-06 | 2009-10-06 | 入力装置及びその制御方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5473520B2 (ja) |
Families Citing this family (156)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US10002189B2 (en) | 2007-12-20 | 2018-06-19 | Apple Inc. | Method and apparatus for searching using an active ontology |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US10255566B2 (en) | 2011-06-03 | 2019-04-09 | Apple Inc. | Generating and processing task items that represent tasks to perform |
US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
WO2013022221A2 (en) * | 2011-08-05 | 2013-02-14 | Samsung Electronics Co., Ltd. | Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same |
JP2013037454A (ja) * | 2011-08-05 | 2013-02-21 | Ikutoku Gakuen | 姿勢判定方法、プログラム、装置、システム |
EP4235365A3 (en) * | 2011-08-05 | 2023-11-01 | Samsung Electronics Co., Ltd. | Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same |
WO2013022218A2 (en) * | 2011-08-05 | 2013-02-14 | Samsung Electronics Co., Ltd. | Electronic apparatus and method for providing user interface thereof |
US20130033644A1 (en) * | 2011-08-05 | 2013-02-07 | Samsung Electronics Co., Ltd. | Electronic apparatus and method for controlling thereof |
KR101228643B1 (ko) * | 2011-08-24 | 2013-01-31 | 한국과학기술원 | 움직임 검출 장치 및 방법, 이를 이용한 음향 및 영상 장치 |
JP2013080015A (ja) * | 2011-09-30 | 2013-05-02 | Toshiba Corp | 音声認識装置および音声認識方法 |
US8793136B2 (en) * | 2012-02-17 | 2014-07-29 | Lg Electronics Inc. | Method and apparatus for smart voice recognition |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
JP2014085954A (ja) | 2012-10-25 | 2014-05-12 | Kyocera Corp | 携帯端末装置、プログラムおよび入力操作受け付け方法 |
KR102516577B1 (ko) | 2013-02-07 | 2023-04-03 | 애플 인크. | 디지털 어시스턴트를 위한 음성 트리거 |
US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
US10748529B1 (en) | 2013-03-15 | 2020-08-18 | Apple Inc. | Voice activated device for use with a voice-based digital assistant |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
KR101959188B1 (ko) | 2013-06-09 | 2019-07-02 | 애플 인크. | 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스 |
CN105453026A (zh) | 2013-08-06 | 2016-03-30 | 苹果公司 | 基于来自远程设备的活动自动激活智能响应 |
US10296160B2 (en) | 2013-12-06 | 2019-05-21 | Apple Inc. | Method for extracting salient dialog usage from live data |
CN104735340A (zh) * | 2013-12-24 | 2015-06-24 | 索尼公司 | 备用的相机功能控制 |
WO2015118578A1 (ja) * | 2014-02-10 | 2015-08-13 | 三菱電機株式会社 | マルチモーダル入力装置、端末装置およびマルチモーダル入力装置のタイムアウト制御方法 |
KR102216048B1 (ko) | 2014-05-20 | 2021-02-15 | 삼성전자주식회사 | 음성 명령 인식 장치 및 방법 |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
TWI566107B (zh) | 2014-05-30 | 2017-01-11 | 蘋果公司 | 用於處理多部分語音命令之方法、非暫時性電腦可讀儲存媒體及電子裝置 |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US10152299B2 (en) | 2015-03-06 | 2018-12-11 | Apple Inc. | Reducing response latency of intelligent automated assistants |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10200824B2 (en) | 2015-05-27 | 2019-02-05 | Apple Inc. | Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US20160378747A1 (en) | 2015-06-29 | 2016-12-29 | Apple Inc. | Virtual assistant for media playback |
JP2015194766A (ja) * | 2015-06-29 | 2015-11-05 | 株式会社東芝 | 音声認識装置および音声認識方法 |
US10740384B2 (en) | 2015-09-08 | 2020-08-11 | Apple Inc. | Intelligent automated assistant for media search and playback |
US10331312B2 (en) | 2015-09-08 | 2019-06-25 | Apple Inc. | Intelligent automated assistant in a media environment |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10956666B2 (en) | 2015-11-09 | 2021-03-23 | Apple Inc. | Unconventional virtual assistant interactions |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
JP2017120609A (ja) * | 2015-12-24 | 2017-07-06 | カシオ計算機株式会社 | 感情推定装置、感情推定方法及びプログラム |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US11227589B2 (en) | 2016-06-06 | 2022-01-18 | Apple Inc. | Intelligent list reading |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
US12223282B2 (en) | 2016-06-09 | 2025-02-11 | Apple Inc. | Intelligent automated assistant in a home environment |
DK179309B1 (en) | 2016-06-09 | 2018-04-23 | Apple Inc | Intelligent automated assistant in a home environment |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
US10474753B2 (en) | 2016-09-07 | 2019-11-12 | Apple Inc. | Language identification using recurrent neural networks |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US11281993B2 (en) | 2016-12-05 | 2022-03-22 | Apple Inc. | Model and ensemble compression for metric learning |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
US10417266B2 (en) | 2017-05-09 | 2019-09-17 | Apple Inc. | Context-aware ranking of intelligent response suggestions |
DK201770383A1 (en) | 2017-05-09 | 2018-12-14 | Apple Inc. | USER INTERFACE FOR CORRECTING RECOGNITION ERRORS |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
US10395654B2 (en) | 2017-05-11 | 2019-08-27 | Apple Inc. | Text normalization based on a data-driven learning network |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770429A1 (en) | 2017-05-12 | 2018-12-14 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
US11301477B2 (en) | 2017-05-12 | 2022-04-12 | Apple Inc. | Feedback analysis of a digital assistant |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
US10403278B2 (en) | 2017-05-16 | 2019-09-03 | Apple Inc. | Methods and systems for phonetic matching in digital assistant services |
DK179560B1 (en) | 2017-05-16 | 2019-02-18 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
US20180336892A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Detecting a trigger of a digital assistant |
US10311144B2 (en) | 2017-05-16 | 2019-06-04 | Apple Inc. | Emoji word sense disambiguation |
US20180336275A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Intelligent automated assistant for media exploration |
US10657328B2 (en) | 2017-06-02 | 2020-05-19 | Apple Inc. | Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling |
US10445429B2 (en) | 2017-09-21 | 2019-10-15 | Apple Inc. | Natural language understanding using vocabularies with compressed serialized tries |
US10755051B2 (en) | 2017-09-29 | 2020-08-25 | Apple Inc. | Rule-based natural language processing |
US10636424B2 (en) | 2017-11-30 | 2020-04-28 | Apple Inc. | Multi-turn canned dialog |
US10733982B2 (en) | 2018-01-08 | 2020-08-04 | Apple Inc. | Multi-directional dialog |
US10733375B2 (en) | 2018-01-31 | 2020-08-04 | Apple Inc. | Knowledge-based framework for improving natural language understanding |
US10789959B2 (en) | 2018-03-02 | 2020-09-29 | Apple Inc. | Training speaker recognition models for digital assistants |
US10592604B2 (en) | 2018-03-12 | 2020-03-17 | Apple Inc. | Inverse text normalization for automatic speech recognition |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US10909331B2 (en) | 2018-03-30 | 2021-02-02 | Apple Inc. | Implicit identification of translation payload with neural machine translation |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US10984780B2 (en) | 2018-05-21 | 2021-04-20 | Apple Inc. | Global semantic word embeddings using bi-directional recurrent neural networks |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
US11386266B2 (en) | 2018-06-01 | 2022-07-12 | Apple Inc. | Text correction |
US11076039B2 (en) | 2018-06-03 | 2021-07-27 | Apple Inc. | Accelerated task performance |
US11010561B2 (en) | 2018-09-27 | 2021-05-18 | Apple Inc. | Sentiment prediction from textual data |
US11170166B2 (en) | 2018-09-28 | 2021-11-09 | Apple Inc. | Neural typographical error modeling via generative adversarial networks |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US10839159B2 (en) | 2018-09-28 | 2020-11-17 | Apple Inc. | Named entity normalization in a spoken dialog system |
US11475898B2 (en) | 2018-10-26 | 2022-10-18 | Apple Inc. | Low-latency multi-speaker speech recognition |
US11638059B2 (en) | 2019-01-04 | 2023-04-25 | Apple Inc. | Content playback on multiple devices |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11423908B2 (en) | 2019-05-06 | 2022-08-23 | Apple Inc. | Interpreting spoken requests |
US11475884B2 (en) | 2019-05-06 | 2022-10-18 | Apple Inc. | Reducing digital assistant latency when a language is incorrectly determined |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
DK180129B1 (en) | 2019-05-31 | 2020-06-02 | Apple Inc. | User activity shortcut suggestions |
US11496600B2 (en) | 2019-05-31 | 2022-11-08 | Apple Inc. | Remote execution of machine-learned models |
US11289073B2 (en) | 2019-05-31 | 2022-03-29 | Apple Inc. | Device text to speech |
DK201970510A1 (en) | 2019-05-31 | 2021-02-11 | Apple Inc | Voice identification in digital assistant systems |
US11360641B2 (en) | 2019-06-01 | 2022-06-14 | Apple Inc. | Increasing the relevance of new available information |
JP7242873B2 (ja) * | 2019-09-05 | 2023-03-20 | 三菱電機株式会社 | 音声認識補助装置および音声認識補助方法 |
WO2021056255A1 (en) | 2019-09-25 | 2021-04-01 | Apple Inc. | Text detection using global geometry estimators |
CN112786036B (zh) * | 2019-11-04 | 2023-08-08 | 海信视像科技股份有限公司 | 显示设备与内容显示方法 |
US11038934B1 (en) | 2020-05-11 | 2021-06-15 | Apple Inc. | Digital assistant hardware abstraction |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10240291A (ja) * | 1996-12-26 | 1998-09-11 | Seiko Epson Corp | 音声認識装置における音声入力可能状態報知方法及びその装置 |
JP2000338991A (ja) * | 1999-05-25 | 2000-12-08 | Nec Saitama Ltd | 認識率信頼性表示機能付き音声操作電話装置及びその音声認識方法 |
KR100948600B1 (ko) * | 2006-12-04 | 2010-03-24 | 한국전자통신연구원 | 제스처/음성 융합 인식 시스템 및 방법 |
WO2008069519A1 (en) * | 2006-12-04 | 2008-06-12 | Electronics And Telecommunications Research Institute | Gesture/speech integrated recognition system and method |
JP2009218910A (ja) * | 2008-03-11 | 2009-09-24 | Mega Chips Corp | 遠隔制御可能機器 |
-
2009
- 2009-10-06 JP JP2009232406A patent/JP5473520B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2011081541A (ja) | 2011-04-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5473520B2 (ja) | 入力装置及びその制御方法 | |
JP7425349B2 (ja) | 機器制御システム | |
JP6525496B2 (ja) | ディスプレイ装置、ディスプレイ装置を制御する遠隔制御装置、ディスプレイ装置の制御方法、サーバーの制御方法、及び遠隔制御装置の制御方法 | |
US6353764B1 (en) | Control method | |
JP6143975B1 (ja) | 画像の取り込みを支援するためにハプティックフィードバックを提供するためのシステムおよび方法 | |
WO2017134935A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US9824688B2 (en) | Method for controlling speech-recognition text-generation system and method for controlling mobile terminal | |
US20110254846A1 (en) | User adaptive display device and method thereof | |
JP2005284492A (ja) | 音声利用操作装置 | |
JPWO2017168936A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2009229899A (ja) | 音声認識装置および音声認識方法 | |
KR20150112337A (ko) | 디스플레이 장치 및 그 사용자 인터랙션 방법 | |
JPH11327753A (ja) | 制御方法及びプログラム記録媒体 | |
WO2017141530A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US11657821B2 (en) | Information processing apparatus, information processing system, and information processing method to execute voice response corresponding to a situation of a user | |
JP2018036902A (ja) | 機器操作システム、機器操作方法および機器操作プログラム | |
US20140152898A1 (en) | System and method capable of changing tv programs | |
JP2004303251A (ja) | 制御方法 | |
KR102729027B1 (ko) | 전자 장치 및 그 동작 방법 | |
US20190035420A1 (en) | Information processing device, information processing method, and program | |
JP2006048644A (ja) | 映像表示装置及び視聴意志判定装置 | |
KR20210155505A (ko) | 이동 가능한 전자장치 및 그 제어방법 | |
JP2004289850A (ja) | 制御方法、機器制御装置、及びプログラム記録媒体 | |
EP2793105A1 (en) | Controlling a user interface of an interactive device | |
KR20250039384A (ko) | 디스플레이 장치 및 그의 동작 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120926 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120926 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130529 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130604 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130805 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140204 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5473520 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |