[go: up one dir, main page]

JP2007171809A - 情報処理装置及び情報処理方法 - Google Patents

情報処理装置及び情報処理方法 Download PDF

Info

Publication number
JP2007171809A
JP2007171809A JP2005372428A JP2005372428A JP2007171809A JP 2007171809 A JP2007171809 A JP 2007171809A JP 2005372428 A JP2005372428 A JP 2005372428A JP 2005372428 A JP2005372428 A JP 2005372428A JP 2007171809 A JP2007171809 A JP 2007171809A
Authority
JP
Japan
Prior art keywords
information
voice
display
recognition
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005372428A
Other languages
English (en)
Inventor
Hiroki Yamamoto
寛樹 山本
Tsuyoshi Yagisawa
津義 八木沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005372428A priority Critical patent/JP2007171809A/ja
Priority to US11/614,242 priority patent/US8032382B2/en
Priority to EP06127077A priority patent/EP1811369A3/en
Priority to KR1020060132394A priority patent/KR100894457B1/ko
Priority to CNA2006101705522A priority patent/CN1991975A/zh
Publication of JP2007171809A publication Critical patent/JP2007171809A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephonic Communication Services (AREA)
  • Machine Translation (AREA)

Abstract

【課題】 認識語彙が提示されないと、音声認識を行うときに、何が入力できるかわからない場合がある。一方、常に認識語彙が提示されていると、音声認識を行わないユーザにとっては、冗長な画面表示になる。
【解決手段】 音声認識機能を備えた情報処理装置であって、上記目的を達成するために、本発明に係る情報処理装置は、音声処理開始指示操作を検出する検出手段と、情報の表示を制御する表示制御手段とを備え、前記表示制御手段は、前記検出手段による音声処理開始指示操作の検出に応じて、認識対象語を表示するように制御することを特徴とする。
【選択図】 図4

Description

本発明は、音声認識により認識可能な語彙を提示する情報処理装置に関する。
音声認識を用いた機器やアプリケーションでは、音声認識を使用する際にユーザが何を発話すればよいのか戸惑う場合があり、ユーザが音声認識を使いづらく感じる一因になっている。このような問題を解決するため、特許文献1、2、3にユーザに認識語彙を提示する技術が提案されている。
特許文献1に開示された音声認識装置は、GUIのウィンドウごとに異なる認識語彙をウィンドウ下部に表示し、そのウィンドウで発話できる語をユーザに通知している。また、特許文献2に開示された翻訳装置では、表示画面中の認識可能な語をアンダーラインなどで強調して表示している。また、特許文献3の音声認識装置では、画面中に含まれる単語の中に認識対象となる単語がある場合に、認識対象語を識別するため他の単語と異なる形態で表示するように画面表示を制御する。
特公平04−075540号公報 特開2004−295578号公報 特開2005−242183号公報
しかしながら、上記文献では、認識語彙の表示・非表示を切り替えたり、認識語彙を表示するタイミングについては開示されていない。音声認識を用いた機器やアプリケーションの中には、音声認識を使わなくても他の操作手段によって所望の処理を実現できるように構成されたものもある。これらの機器やアプリケーションに上記文献に開示された技術を適用した場合、音声認識が有効な時は常に認識語彙が表示されることになる。これは、音声認識以外の操作手段で操作するユーザにとっては冗長な表示形態であり、好ましい表示形態ではない。
本発明は上記課題を鑑みてなされたものであり、ユーザの音声入力操作に連動して認識語彙を提示することにより、音声認識による操作が有効な場合であっても音声入力を行わない場合は認識語彙の表示を行わないようにした情報処理方法の提供を目的とする。
上記目的を達成するために、本発明に係る情報処理装置は、音声処理開始指示操作を検出する検出手段と、情報の表示を制御する表示制御手段とを備え、前記表示制御手段は、前記検出手段による音声処理開始指示操作の検出に応じて、認識対象語を表示するように制御することを特徴とする。
また上記目的を達成するために、本発明に係る情報処理装置は、音声処理開始指示操作を検出する検出手段と、情報の表示を制御する表示制御手段とを備え、前記表示制御手段は、前記検出手段による音声処理開始指示操作の検出に応じて、表示中の情報のうちの認識対象情報を識別できるように表示を制御することを特徴とする。
また上記目的を達成するために、本発明に係る情報処理方法は、音声処理開始指示操作を検出する検出工程と、情報の表示を制御する表示制御工程とを備え、前記表示制御工程は、前記検出工程による音声処理開始指示操作の検出に応じて、認識対象語を表示するように制御することを特徴とする。
また上記目的を達成するために、本発明に係る情報処理方法は、音声処理開始指示操作を検出する検出工程と、情報の表示を制御する表示制御工程とを備え、前記表示制御工程は、前記検出工程による音声処理開始指示操作の検出に応じて、表示中の情報のうちの認識対象情報を識別できるように表示を制御することを特徴とする。
本発明によれば、音声処理の開始を指示する操作に連動して認識対象語を提示するので、認識対象語を提示するための特別な操作を必要としないという効果がある。
以下、図面を参照しながら本発明の好適な実施例について詳細に説明する。
本実施例では、ユーザが所望の音楽データを選択し、それを再生するアプリケーションを例にあげて説明する。図1は本実施例に係る音楽データの再生を行うアプリケーションを備えた情報処理装置の概略構成を示すブロック図である。該情報処理装置は、操作部101、音楽データ記憶部102、音声出力部103、認識辞書記憶部104、音声認識部105、音声入力部106、表示制御部107、表示部108、制御部109を備えている。
操作部101は、ボタン、マウス等のユーザが機器を操作するための入力装置を有している。操作部101で行われたユーザの操作内容は、制御部109で検出され、検出した操作内容にしたがって制御部109が所定の処理を実施する。本実施例では、ユーザが発話する際に、音声処理の開始を指示するための操作として、操作部が有する入力装置を用いて所定の操作を行うものとする。操作に用いる入力装置は、専用の入力装置を用いても良いし、キーボードやマウスなど汎用的な入力装置の特定のボタンにその機能を持たせるようにしてもよい。以下の説明では、音声処理の開始の指示に用いる入力装置にボタンを用いた場合を説明する。また、このボタンをここでは「発話ボタン」と記述する。
音楽データ記憶部102は音楽データを記憶している。音声出力部103は、スピーカなどの音声出力装置を有し、ユーザが再生操作を行うと音楽データを出力する。
認識辞書記憶部104は、認識辞書を記憶する記憶部である。認識辞書には、音声認識部105が認識可能な語(認識対象語)とその読みが記述されている。本実施例では、情報処理装置を操作するためのコマンドを認識対象語とする。図2に認識辞書の一例を示す。音声入力部106はマイクロフォンを有し、ユーザが発話した音声を取り込んで音声認識部105で処理可能なデジタルデータに変換する。音声認識部105は、音声入力部106で取り込んだユーザの発話のデータに音声認識処理を施し、認識辞書に記述された単語の中からユーザの発話に最も近い単語を認識結果として出力する。
表示部108は、液晶ディスプレイなどの表示装置を有し、本情報処理装置がユーザに提供する情報やGUI等を表示する。表示制御部107は、表示部108に表示する表示内容を制御する。本実施例の表示制御部107は、発話ボタンに所定の操作が行われたことを制御部109が検出した場合に、認識対象語を表示するよう表示内容を制御することに特徴がある。すなわち、ユーザが発話する際に、認識対象語を表示することにより、何が発話可能かをユーザに提示する。
制御部109は、操作部101で行われた操作内容を検出し、操作内容に応じた処理を実行する。また、本情報処理装置の各モジュールと連携し、音楽データの選択、音楽データの読み込み、音楽データの再生など、音楽データ再生に関わる処理を制御する。
以上のように構成された情報処理装置の動作について以下で説明する。
本実施例における音楽データの再生を行うアプリケーションでは、アプリケーションが起動されると、表示制御部107は図3に示すような表示内容を生成し、表示部108に表示する。同図において、301はメインウィンドウ、
302はファイルメニュー、303は音量メニュー、304は音楽データの再生を開始するボタン、305は音楽データの再生を停止するボタンである。
302、303のメニューは、一般的なGUIに用いられている階層型のメニューで、各メニューにはサブメニューが関連づけられており、メニューを選択すると関連したサブメニューが提示される。本実施例では、ファイルメニューのサブメニューに「開く」「閉じる」、音量メニューのサブメニューに「音量を上げる」「音量を下げる」がある(図示はしない)。
ユーザがこれらのGUIをマウスなどの入力装置で操作する場合については説明を省略する。以下では、音声認識を用いてこのアプリケーションを操作する場合について説明する。また、ユーザは発話ボタンを押してから発話を行う場合について説明する。
図4は音声認識により本情報処理装置を操作する場合の処理の流れを示すフローチャートである。該フローチャートを実現するためのプログラムは、不図示の記憶部に記憶されており、制御部109の制御のもと実行される。
ユーザは音声認識を行う際に、まず発話ボタンを押下する。制御部109が発話ボタン押下を検出する(S101 YES)と、表示制御部107が認識辞書記憶部104に記憶された認識辞書を参照して、発話可能なコマンド、すなわち認識対象語を表示するよう表示内容を制御する。例えば、図5に示すような内容を表示部108に表示する。図5は、表示制御部107の制御により、メインウィンドウ内に新たな領域306が追加され、認識対象語(例えば307)を表示している様子を示した図である。ここではメインウィンドウ内に認識対象語を表示しているが、メインウィンドウとは別にサブウィンドウを作成し、サブウィンドウに認識対象語を表示するようにしてもよい。
図4のフローチャートに戻り、S102の処理に続いて、音声入力部106で音声入力を開始する(S103)。なお、S102とS103の処理は同時に開始しても良い。
音声入力部106で取り込んだ音声データは、音声認識部が発話終了を検出するまで音声認識部105で音声認識処理する(S104、S105 NO)。
音声認識部105で発話終了を検出した時点で音声入力および音声認識処理を終了し(S105 YES)、表示制御部107は認識対象語の表示を終了するよう表示内容を制御する(S106)。すなわち、この時点で表示部108に表示される内容は、S102で認識対象語を表示する前の表示内容(図3)と同一になる。
続いて、S107において、ユーザが途中で発話を中断したり、発話ボタンを押した後も発話しなかったなどの理由で、音声認識部105で音声認識結果が得られない場合(S107 NO)は、そのまま終了する。
音声認識部105で認識結果が得られた場合(S107 YES)は、認識結果を制御部109に出力し、制御部109は認識結果に基づいた処理を実行する(S108)。例えば、認識結果が「音量」の場合、制御部109は音量メニュー303がマウス等で選択された場合と同じ処理を実行する。実行結果を図6に示す。同図は、「音量」が選択され(308)、「音量」のサブメニュー309が表示されている様子を示している。なお、認識結果と対応する処理の関係は、本情報処理装置を制御するプログラム中にあらかじめ記述されていても良いし、制御部109内に対応テーブルを保持するようにしておいてもよい。図7に対応テーブルの一例を示す。先の「音量」が認識された例では、図7のテーブル701を参照して、「音量」に対応する「VolumeMenuOpen」という処理(702)にしたがって制御部109が処理するものとする。
以上の説明では、発話終了を音声認識部105で判断するように構成しているが、これに限るものではなく、ユーザが明示的に発話終了を与えられるように構成しても良い。実現方法の一例として、例えば、発話ボタンを押している間に発話するように構成することも可能である。この場合、制御部109が発話ボタンが押下の状態から押されていない状態に戻った(リリース)という操作を検出すると発話終了(S105 YES)と判断する。このように構成すると、ユーザが発話ボタンを押すと認識対象語が表示され、発話ボタンを押しつづけている間は認識対象語の表示が維持される。ユーザが発話ボタンをリリースすると認識対象語の表示が終了する。
また、S102における認識対象の提示方法は、上記の説明以外にも様々な方法で実現可能である。図8乃至図12にその一例を示す。
図8は、発話ボタン押下時に画面に表示されている情報のうち、発話可能な情報を識別できるように表示した例である。同図では、ファイルメニュー310、音量メニュー311、再生ボタン312を太枠で囲むことで、これらが認識対象であることを提示した例である。逆に停止ボタン305は、現在発話できない、つまり認識できないことを意味している。このように画面に表示中の情報の中で、認識対象となる情報を識別できるように表示を制御することで、何が発話可能なのかを効果的にユーザに提示することができるようになる。
図9、図10は、図8の例に加え、記号やアイコンで表示されている認識対象に対して、それを認識するための語を提示するようにした例である。再生ボタン312に対して、このボタンを認識するための語「再生」を付与して提示した例が図9(313)、記号を語「再生」で置き換えて提示した例が図10(314)である。記号を記号やアイコンから連想される語はユーザによって異なったり、また記号によっては複数の呼び方があるため、どう発話して認識してよいのか迷う場合がある。例えば、312の再生ボタンは、ユーザによっては「プレイ」や「スタート」という語を思い浮かべる可能性がある。図9や図10に示した提示方法により、これらのあいまい性を解消することができ、ユーザが安心して発話できるようになる。
図11は、認識対象に対して、その認識対象を認識するために発話する読みを提示した例である。同図において、315は漢字表記に読みを付与した例、315は記号やアイコンに読みを付与した例である。このように、漢字や記号に読みを付与することで、ユーザの読み間違いを回避することができる。
図12は、画面内に表示されていない認識対象語をユーザに提示する例である。同図では、ファイルメニューおよび音量メニューのサブメニューを認識するための語をメインウインドウ301に追加して表示する様子を示している。このように表示を制御することで、画面内に表示されているもの以外に認識対象語があることをユーザに報知することができる。
以上で説明した実施例の構成によれば、ユーザの発話開始操作に連動して認識対象語が提示されるため、ユーザが音声認識を行う場合は、ユーザが特に意識することなく認識対象語を提示できるという効果がある。また、ユーザが音声認識を利用しない場合は、発話開始操作を行わないため、認識対象語は表示されない。すなわち、不要な情報のための冗長な表示がなされないという効果もある。以上のような効果を備える本情報処理装置によって、音声認識を利用する場合も、利用しない場合も、ユーザにとって使いやすい音声インターフェースが実現できる。
実施例1では、発話ボタンの押下を検出すると同時に認識対象語の提示と音声入力を開始するよう構成した。しかしながら、このような構成の場合、ユーザが認識対象語を見ながら何を発話するか考えている間に周辺雑音を音声と誤って認識してしまうという問題が起こり得る。そこで、本実施例では、実施例1と同じ構成の情報処理装置において、発話開始ボタンの操作によって、認識対象語を表示する処理と音声入力を開始する処理のタイミングをずらすことができるようにする。具体的には、発話ボタン押下とリリースを検出し、発話ボタン押下検出で認識対象を提示し、その後、発話ボタンリリースを検出すると音声入力を開始するようにする。
以下、本実施例の処理について図13のフローチャートを用いて説明する。同図において、S102とS103の処理の間に新たにS109の処理が加わった点が実施例1の処理(図4のフローチャート)とは異なる。それ以外の処理については、実施例1と同様の処理を行うため、適宜説明を省略する。
まず、制御部109が発話ボタン押下を検出する(S101 YES)と、表示制御部107が認識対象語を表示するよう表示内容を制御する(S102)。ここまでの処理は実施例1と同じである。
続くS109では、制御部109で発話ボタンリリースを検出するまで処理を進めない(S109 NO)。この間、音声入力は開始されない。制御部109が発話ボタンリリースを検出すると、音声入力部106で音声入力を開始する(S103)。以降の処理は、実施1と同様の処理を行うため説明を省略する。
以上で説明した実施例の構成によれば、認識対象語を表示するタイミングと音声入力を開始するタイミングをずらすことができるようになる。したがって、ユーザは認識対象語をゆっくり見てから音声入力を開始して、発話することができるようになり、さらにユーザの利便性が増す。
本実施例では、発話ボタンの半押し、発話ボタンの押下を区別して検出し、これらの操作の違いにより、認識対象語を表示する処理と音声入力を開始する処理のタイミングをずらすことができるようにする。ここで、半押しとは、一般的なオートフォーカスカメラのピント合わせ操作に用いられる、ボタンを浅く押した状態のことである。本実施例では、ユーザが発話ボタンを半押ししたら認識対象の提示を行い、その後、発話ボタンを半押し状態から押下したら音声入力を開始するようにする。また、半押し状態で発話ボタンがリリースされた場合は、認識対象の提示を終了する。
以下、本実施例の処理について図14のフローチャートを用いて説明する。
同図において、S101の替わりにS110、S102とS103の処理の間に新たにS111〜S113の処理が加わった点が実施例1の処理(図4のフローチャート)とは異なる。それ以外の処理については、実施例1と同様の処理を行うため、適宜説明を省略する。
まず、制御部109が発話ボタン半押しを検出する(S110 YES)と、表示制御部107が認識対象を提示するよう表示内容を制御する(S102)。
続くS111では、制御部109で発話ボタンリリースあるいは発話ボタン押下を検出するまで処理を進めない(S111 NO、S113 NO)。この間、音声入力は開始されない。S111において制御部109が発話ボタンリリースを検出する(S111 YES)と表示制御部107は認識対象の提示を終了するよう表示内容を制御する(S112)。
ユーザが半押しの状態からさらに、発話ボタンを押し込み、制御部109で発話ボタン押下を検出すると(S113 YES)、音声入力部106で音声入力を開始する(S103)。以降の処理は、実施例1と同様の処理を行うため説明を省略する。
以上で説明した実施例の構成によれば、認識対象語を表示するタイミングと音声入力を開始するタイミングをずらすことができるようになる。したがって、ユーザは認識対象語をゆっくり見てから音声入力を開始して、発話することができるようになり、ユーザの利便性が増す。
本実施例では、本発明を番組検索装置に適用した例について説明する。
図15は本発明の一実施例である番組の検索を行う情報処理装置の概略構成を示すブロック図である。該情報処理装置は、操作部401、番組情報記憶部402、言語処理部402、認識辞書作成部403、認識辞書記憶部404、音声認識部405、音声入力部406、表示制御部407、表示部408、制御部409を備えている。
操作部401は、実施例1の操作部101と同様に、ユーザがボタン、マウス等の機器を操作するための入力装置を有している。操作部401で行われたユーザの操作内容は、制御部409で検出され、検出した操作内容にしたがって制御部409が所定の処理を実施する。本実施例でも、実施例1と同様に、発話を行うために操作するボタンを「発話ボタン」と記述する。
番組情報記憶部402は、制御部409で受信したEPGなどの番組情報データを記憶する記憶部である。番組情報データ記憶部には例えば、図8に示すように「番組名」「放送局」「放送日時」「番組情報」が各番組ごとに記憶されている。また、図17に示すような放送局名や番組名の関連語のデータも合わせて記憶されている。これらの関連語データは、EPGデータに含まれていても良いし、EPGとは別のデータとして外部ネットワークから供給するようにしてもよい。
認識辞書記憶部404は、認識辞書を記憶する記憶部である。認識辞書には、音声認識部405が認識可能な語(認識対象語)とその読みが記述されている。認識対象語ごとに関連した付帯情報が記述されていても良い。本実施例では、情報処理装置を操作するためのコマンドおよび番組を検索するためのキーワードを認識対象語とする。図18、図19にそれぞれの認識辞書の一例を示す。701は本情報処理装置を操作するためにコマンドに関する認識辞書である。認識対象語ごとに読みに加え、その語が認識された際に実施する処理が付帯情報として記述されている。801は番組検索のキーワードに関する認識辞書の例である。付帯情報としてキーワードのカテゴリーが記述されている。
認識辞書作成部403は、番組情報データ501から、番組名、放送局名など番組を検索する際に必要なキーワードを抽出し、読みやキーワードのカテゴリーを付与して番組検索用の認識辞書を作成する。また、各キーワードについて、その関連語を関連語データ601から抽出し、認識辞書に加えても良い。例えば、番組情報データ501から番組名「なんでも探検隊」をキーワードとして抽出した場合、関連語データ601を参照して、「探検隊」を関連語として抽出し、認識辞書に加える。
音声入力部406はマイクロフォンを有し、ユーザが発話した音声を取り込んで音声認識部405で処理可能なデジタルデータに変換する。音声認識部405は、音声入力部406で取り込んだユーザの発話のデータに音声認識処理を施し、認識辞書に記述された単語の中からユーザの発話に最も近い単語を認識結果として出力する。
表示部408は、液晶ディスプレイなどの表示装置を有し、番組情報など本情報処理装置がユーザに提供する情報やGUI等を表示する。表示制御部407は、表示部408に表示する表示内容を制御する。本実施例の表示制御部407は、制御部409でユーザの音声入力開始操作を検出すると、ユーザが認識対象語を識別できるように表示内容を制御する。例えば、音声入力操作開始時の表示内容に認識対象となる単語やGUI部品が含まれる場合に、他の単語やGUI部品と識別できるように、該当部分のフォントや色、装飾などの表示形態を変えるよう表示内容を制御する。また、表示内容に含まれない認識対象語については、別ウィンドウを生成するなどして認識対象語を表示するように表示内容を制御する。音声認識結果が得られた場合は、制御部409から出力される番組情報を表示するよう制御する。音声入力中にタイムアウトやユーザの操作によって音声入力が中止された場合は、元の表示内容に戻すよう制御する。
制御部409は、本情報処理装置の各モジュールと連携し、番組検索全体の処理を制御する。また、制御部409は、外部ネットワークから配信される番組情報データを受信し、番組情報記憶部402に番組情報データを記憶する。また、マウスやキーボードなど入力機器の操作イベントを監視し、操作イベントに応じた処理を実行する。制御部409は、音声認識部405で認識された単語により番組情報記憶部402に記憶されている番組情報データを検索し、該当する番組に関する情報を出力する。また、外部から関連語辞書が提供される場合、制御部409はこれを受信する。
以上のように構成された情報処理装置の動作について以下で説明する。
本実施例の情報処理装置の処理の流れは実施例1で説明した情報処理装置と同じになる。したがって、図4のフローチャートにしたがって本情報処理装置の処理手順を説明する。
番組検索が開始されると、表示制御部407は番組情報記憶部402に記憶された番組情報データを基にして番組検索用の表示データを生成するよう制御し、表示部408に表示する。図20にその一例を示す。同図において、901は表示部408が有する表示装置の表示画面である。902は番組検索開始時の画面表示の一例で、放送局「テレビ日本」の番組を放送時間順に表示している様子を示している。ユーザは表示されている番組の中から番組情報を見たい番組を選択する。表示されている番組の中に所望の番組がない場合、画面をスクロールして表示する時間帯を変えるか、表示する放送局を変えて所望の番組を探す。以上の操作を、ユーザは音声認識または操作部401が有する入力装置を用いて行う。
音声認識を用いる場合、ユーザは、番組を選択する時は所望の番組名を、放送局を切り替える時は所望の放送局名を、画面をスクロールする場合は「下スクロール」などのコマンドを発話する。ユーザは発話の前に操作部401で音声入力を開始する所定の操作を行う。本実施例では、操作部401が有する入力装置の特定のボタンが音声入力を行うボタンに割り当てられており、このボタンを押すと音声入力を開始する場合について説明する。ユーザが発話ボタンを押すと、制御部409が当該操作を検出し、音声入力部406での音声の取り込みを開始する(S101 YES)。
また、表示制御部407は表示部408に表示中の画面内で認識対象となる部分が認識対象ではない部分と識別できるよう表示内容を変更する(S102)。この時、表示制御部407は、認識辞書記憶部404に記憶されている認識辞書を参照し、認識辞書に記述されている語が表示画面内に含まれる場合、フォントや色、文字装飾などの表示形態を変更する。同様に、認識辞書に記載されているコマンドに対応するGUI部品が表画面内に含まれる場合、その表示形態を変更する。その一例を図20の912に示す。912では、「番組名」、「放送局名」および番組表をスクロールするGUI部品を太枠で囲むことで認識対象であること示している。
音声入力部406で取り込まれた音声は順次デジタルデータに変換されて、音声認識部405で処理される(S103)。音声認識部405がユーザの発話の終了を検出した時点で音声認識処理および音声入力部406における音声入力の処理を終了する。音声入力を終了した時点(S104 YES)で、表示制御部407は認識対象語の表示を終了する。すなわち、S102で行った表示内容の変更を元の表示内容(図20の902)に戻す(S105)。
ユーザが途中で発話を中断したり、音声入力操作後発話しなかったなどの理由で、音声認識部405で音声認識結果が得られない場合(S106 NO)は、番組検索を終了する。
音声認識部405で音声認識結果が得られた場合(S106 YES)は、認識結果に基づいた処理を制御部409が実施して番組検索を終了する(S107)。例えば、音声認識結果として番組名が認識された場合は、制御部409により番組情報記憶部402に記憶されている番組情報データを検索する。検索の結果、該当する番組が番組情報データ内にある場合、表示制御部407は該当する番組の情報を、該当する番組がない場合は、その旨を表示部408に表示するよう制御して番組検索を終了する(S107)。
以上で説明した本実施例の構成によれば、ユーザの音声入力開始操作に連動して表示画面内の認識対象部分が提示される。ユーザが音声認識を行う場合は、音声入力開始操作を行うため、ユーザが特に意識することなく認識対象部分を提示できるという効果がある。また、音声認識を利用しない場合には、不要な情報のための冗長な表示がなされないという効果もある。以上のような効果を備える本情報処理装置によって、音声認識を利用する場合も、利用しない場合も、ユーザにとって使いやすい音声インターフェースが実現できる。
(その他の実施例)
実施例4では、S102で認識対象部分を提示する際に、表示画面内にある認識対象部分の表示形態を変更する場合について説明したが、これとは逆に認識対象部分以外の表示形態を変更して認識対象部が識別できるように表示内容を制御しても良い。その一例を図21に示す。図21は、認識対象以外の部分の表示を暗くして、認識対象部分と識別できるようにした例である。
また、S102で認識対象部分を提示する際に、表示画面内に表示されていない認識対象語を表示するようにしても良い。表示制御部407は、認識対象部分を提示する際に、認識辞書記憶部404に記憶された認識辞書に記述された語のうち、画面内に表示されていない語を表示するよう表示内容を制御する。図22にその一例を示す。図22では、画面内に表示されていなかった認識対象語を別ウィンドウ932にまとめて表示している。
さらに、S102で認識対象部分を提示する際に、関連語データ601や認識辞書701、801を参照して、表示する語を省略したり、あるいは逆に省略された名称を正式名称に戻して表示するように制御してもよい。これに加えて、認識辞書701、801を参照して、認識対象部分を認識するために発話する内容や読みを追加して表示するように制御してもよい。その一例を図23に示す。同図において、942は認識辞書801を参照して放送局名「VOWVOW」に読みを追加して表示した例である。これとは逆に944は関連データ601を参照して省略された番組名称「超うま」を正式名称「超うま グルメガイド」に置き換えて表示した例である。また、945は、関連データ601、認識辞書801を参照して番組名「徳田一郎のNEWS7」を省略名称に置き換えた上、その読みを付与して表示した例である。さらに、946は認識対象であるGUI部品に、その部品を認識するための語が「下スクロール」であることを吹き出しで表示した例である。これにより、ユーザは当該GUI部品を認識するための語を知ることができる。
以上のように、読みを付与したり、発話しにくい名称を置き換えたりすることで、単に認識対象部分を識別して表示する場合に比べ、使いやすいユーザインターフェースを提供できる。
なお、本発明は、前述した実施例の各機能を実現するプログラムを、システムまたは装置に直接または遠隔から供給し、そのシステムまたは装置に含まれるコンピュータがその供給されたプログラムコードを読み出して実行することによっても達成される。
従って、本発明の機能・処理をコンピュータで実現するために、そのコンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、上記機能・処理を実現するためのコンピュータプログラム自体も本発明の一つである。
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。
プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RWなどがある。また、記録媒体としては、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などもある。
また、プログラムは、クライアントコンピュータのブラウザを用いてインターネットのホームページからダウンロードしてもよい。すなわち、ホームページから本発明のコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードしてもよい。また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードする形態も考えられる。つまり、本発明の機能・処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明の構成要件となる場合がある。
また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布してもよい。この場合、所定条件をクリアしたユーザにのみ、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせ、その鍵情報で暗号化されたプログラムを復号して実行し、プログラムをコンピュータにインストールしてもよい。
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施例の機能が実現されてもよい。なお、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行ってもよい。もちろん、この場合も、前述した実施例の機能が実現され得る。
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれてもよい。そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行ってもよい。このようにして、前述した実施例の機能が実現されることもある。
実施例1乃至3で説明した情報処理装置の構成を示すブロック図である。 実施例1において、認識辞書の一例を説明する図である。 実施例1において、情報処理装置の画面表示を説明する図である。 実施例1で説明した情報処理装置の処理の流れを説明するフローチャートである。 実施例1において、認識対象語を表示する様子を説明する図である。 実施例1において、「音量」が認識された場合の処理を説明する図である。 実施例1において、認識結果と対応する処理を記述したテーブルの例を説明する図である。 実施例1において、表示画面内の認識対象部分を識別できるように表示した例を説明する図である。 実施例1において、アイコンや記号で表される認識対象を認識するための語を表示する第一の例を説明する図である。 実施例1において、アイコンや記号で表される認識対象を認識するための語を表示する第二の例を説明する図である。 実施例1において、認識対象の読みを表示した例を説明する図である。 実施例1において、画面内に表示されていない認識対象語を表示する例を説明する図である。 実施例2で説明した情報処理装置の処理の流れを説明するフローチャートである。 実施例3で説明した情報処理装置の処理の流れを説明するフローチャートである。 実施例4で説明した情報処理装置の構成を示すブロック図である。 実施例4で説明した情報処理装置が用いる番組情報データの一例を説明する図である。 実施例4で説明した情報処理装置が用いる関連語データの一例を説明する図である。 実施例4で説明した情報処理装置が用いる第一の認識辞書の一例を説明する図である。 実施例4で説明した情報処理装置が用いる第二の認識辞書の一例を説明する図である。 実施例4において、認識対象部分を識別できるよう表示する第一の例を説明する図である。 実施例4において、認識対象部を識別できるよう表示する第二の例を説明する図である。 実施例4において、表示画面内にない認識対象語を表示する一例を説明する図である。 実施例4において、認識対象部分の表示内容を変更する様々な例を説明する図である。
符号の説明
101 操作部
102 音楽データ記憶部
103 音声出力部
104 認識辞書記憶部
105 音声認識部
106 音声入力部
107 表示制御部
108 表示部
109 制御部

Claims (16)

  1. 音声認識機能を備えた情報処理装置であって、
    音声処理開始指示操作を検出する検出手段と、
    情報の表示を制御する表示制御手段とを備え、
    前記表示制御手段は、前記検出手段による音声処理開始指示操作の検出に応じて、認識対象語を表示するように制御することを特徴とする情報処理装置。
  2. 音声認識機能を備えた情報処理装置であって、
    音声処理開始指示操作を検出する検出手段と、
    情報の表示を制御する表示制御手段とを備え、
    前記表示制御手段は、前記検出手段による音声処理開始指示操作の検出に応じて、表示中の情報のうちの認識対象情報を識別できるように表示を制御することを特徴とする情報処理装置。
  3. 前記音声処理開始指示操作は音声認識開始位置指示ボタンの押下であることを特徴とする請求項1又は2に記載の情報処理装置。
  4. 前記検出手段による前記音声処理開始指示操作の検出に応じて、音声情報を取得する取得手段と、
    前記取得手段で取得した音声情報を音声認識する音声認識手段とを更に備えたことを特徴とする請求項1又は2に記載の情報処理装置。
  5. 前記検出手段は、前記音声認識開始位置指示ボタンの押下を検出し、
    前記表示制御手段は、前記音声認識開始位置指示ボタンの押下の検出に応じて、認識対象語を表示するように制御し、
    前記音声認識開始位置指示ボタンのリリースに応じて、音声情報を取得する取得手段と、
    前記取得手段で取得した音声情報を音声認識する音声認識手段を更に備えたことを特徴とする請求項1に記載の情報処理装置。
  6. 前記検出手段は、前記音声認識開始位置指示ボタンの押下を検出し、
    前記表示制御手段は、前記音声認識開始位置指示ボタンの押下の検出に応じて、表示中の情報のうちの認識対象情報を識別できるように表示を制御し、
    前記音声認識開始位置指示ボタンのリリースに応じて、音声情報を取得する取得手段と、
    前記取得手段で取得した音声情報を音声認識する音声認識手段を更に備えたことを特徴とする請求項1に記載の情報処理装置。
  7. 前記音声処理開始指示操作は、音声認識開始位置指示ボタンの半押しであり、
    前記表示制御手段は、前記検出手段による音声認識開始位置指示ボタンの半押しの検出に応じて、認識対象語を表示するように制御することを特徴とする情報処理装置。
  8. 前記音声処理開始指示操作は、音声認識開始位置指示ボタンの半押しであり、
    前記表示制御手段は、前記検出手段による音声認識開始位置指示ボタンの半押しの検出に応じて、表示中の情報のうちの認識対象情報を識別できるように表示を制御することを特徴とする情報処理装置。
  9. 前記音声認識開始位置指示ボタンの全押しを検出した場合に、音声情報を取得する取得手段を更に備えたことを特徴とする請求項7又は8に記載の情報処理装置。
  10. 前記表示制御手段は、表示中の情報以外に認識対象語がある場合に、それらの認識対象語を表示中の情報に加えて表示するよう制御することを特徴とする請求項2記載の情報処理装置。
  11. 前記表示制御手段は、表示中の情報のうち、認識対象となる部分がGUI部品である場合に、該GUI部品を認識するための名称を該GUI部品と関連付けて表示するよう制御することを特徴とする請求項2記載の情報処理装置。
  12. 表示中の情報に関連した語を記憶する関連語記憶手段を更に備え、
    前記表示制御手段は、表示中の情報の中で、音声認識の対象となる情報の関連語が記憶されている場合、当該情報を関連語に置き換えるか又は当該情報に加えて関連語を併せて表示するように制御することを特徴とする請求項1記載の情報処理装置。
  13. 前記表示制御手段は、認識対象語についてその語を認識するための読み情報を併せて表示することを特徴とする請求項1記載の情報処理装置。
  14. 音声認識機能を備えた情報処理装置における情報処理方法であって、
    音声処理開始指示操作を検出する検出工程と、
    情報の表示を制御する表示制御工程とを備え、
    前記表示制御工程は、前記検出工程による音声処理開始指示操作の検出に応じて、認識対象語を表示するように制御することを特徴とする情報処理方法。
  15. 音声認識機能を備えた情報処理装置における情報処理方法であって、
    音声処理開始指示操作を検出する検出工程と、
    情報の表示を制御する表示制御工程とを備え、
    前記表示制御工程は、前記検出工程による音声処理開始指示操作の検出に応じて、表示中の情報のうちの認識対象情報を識別できるように表示を制御することを特徴とする情報処理方法。
  16. 請求項14又は15に記載の情報処理方法をコンピュータに実行させるための制御プログラム。
JP2005372428A 2005-12-26 2005-12-26 情報処理装置及び情報処理方法 Withdrawn JP2007171809A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2005372428A JP2007171809A (ja) 2005-12-26 2005-12-26 情報処理装置及び情報処理方法
US11/614,242 US8032382B2 (en) 2005-12-26 2006-12-21 Information processing apparatus and information processing method
EP06127077A EP1811369A3 (en) 2005-12-26 2006-12-22 Speech information processing apparatus and speech information processing method
KR1020060132394A KR100894457B1 (ko) 2005-12-26 2006-12-22 정보처리장치 및 정보처리방법
CNA2006101705522A CN1991975A (zh) 2005-12-26 2006-12-26 语音信息处理设备和语音信息处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005372428A JP2007171809A (ja) 2005-12-26 2005-12-26 情報処理装置及び情報処理方法

Publications (1)

Publication Number Publication Date
JP2007171809A true JP2007171809A (ja) 2007-07-05

Family

ID=37891687

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005372428A Withdrawn JP2007171809A (ja) 2005-12-26 2005-12-26 情報処理装置及び情報処理方法

Country Status (5)

Country Link
US (1) US8032382B2 (ja)
EP (1) EP1811369A3 (ja)
JP (1) JP2007171809A (ja)
KR (1) KR100894457B1 (ja)
CN (1) CN1991975A (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009025411A (ja) * 2007-07-17 2009-02-05 Yamaha Corp 音声認識装置およびプログラム
JP2010091962A (ja) * 2008-10-10 2010-04-22 Denso Corp 情報処理装置,インタフェース提供方法およびプログラム
JP2014202857A (ja) * 2013-04-03 2014-10-27 ソニー株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
WO2018207485A1 (ja) * 2017-05-11 2018-11-15 株式会社村田製作所 情報処理システム、情報処理装置、コンピュータプログラム、及び辞書データベースの更新方法
WO2019098036A1 (ja) 2017-11-15 2019-05-23 ソニー株式会社 情報処理装置、情報処理端末、および情報処理方法
JP2020046564A (ja) * 2018-09-20 2020-03-26 東芝映像ソリューション株式会社 情報処理装置、情報処理システム、および映像装置
CN112602330A (zh) * 2019-10-29 2021-04-02 海信视像科技股份有限公司 电子设备及非易失性存储介质
JP2021071807A (ja) * 2019-10-29 2021-05-06 東芝映像ソリューション株式会社 電子機器およびプログラム
JP2022508176A (ja) * 2018-11-23 2022-01-19 華為技術有限公司 音声制御方法及び電子装置
JP7620975B2 (ja) 2021-02-09 2025-01-24 株式会社寺岡精工 オーダーシステム及びプログラム

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013019958A (ja) * 2011-07-07 2013-01-31 Denso Corp 音声認識装置
EP4235365A3 (en) 2011-08-05 2023-11-01 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
KR101262700B1 (ko) * 2011-08-05 2013-05-08 삼성전자주식회사 음성 인식 및 모션 인식을 이용하는 전자 장치의 제어 방법 및 이를 적용한 전자 장치
US8751800B1 (en) 2011-12-12 2014-06-10 Google Inc. DRM provider interoperability
KR102003267B1 (ko) * 2011-12-30 2019-10-02 삼성전자주식회사 전자 장치 및 그의 제어 방법
CN103336679B (zh) * 2013-06-18 2016-05-18 北京百度网讯科技有限公司 语音数据的连续输入方法及装置
CN105161106A (zh) * 2015-08-20 2015-12-16 深圳Tcl数字技术有限公司 智能终端的语音控制方法、装置及电视机系统
JP6659514B2 (ja) 2016-10-12 2020-03-04 東芝映像ソリューション株式会社 電子機器及びその制御方法
CN108538284A (zh) * 2017-03-06 2018-09-14 北京搜狗科技发展有限公司 同声翻译结果的展现方法及装置、同声翻译方法及装置
EP3910626A1 (en) * 2020-05-12 2021-11-17 Deutsche Telekom AG Presentation control

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6140639A (ja) 1984-08-01 1986-02-26 Matsushita Electric Ind Co Ltd 音声入力コンピユ−タシステム
US5890122A (en) * 1993-02-08 1999-03-30 Microsoft Corporation Voice-controlled computer simulateously displaying application menu and list of available commands
JP4279909B2 (ja) * 1997-08-08 2009-06-17 ドーサ アドバンスズ エルエルシー 音声認識装置における認識対象表示方式
US6363342B2 (en) 1998-12-18 2002-03-26 Matsushita Electric Industrial Co., Ltd. System for developing word-pronunciation pairs
US20020077830A1 (en) * 2000-12-19 2002-06-20 Nokia Corporation Method for activating context sensitive speech recognition in a terminal
JP2004295578A (ja) 2003-03-27 2004-10-21 Matsushita Electric Ind Co Ltd 翻訳装置
KR100567828B1 (ko) 2003-08-06 2006-04-05 삼성전자주식회사 향상된 음성인식 장치 및 방법
US20050075884A1 (en) 2003-10-01 2005-04-07 Badt Sig Harold Multi-modal input form with dictionary and grammar
JP2005242183A (ja) 2004-02-27 2005-09-08 Toshiba Corp 音声認識装置、表示制御装置、レコーダ装置、表示方法およびプログラム

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009025411A (ja) * 2007-07-17 2009-02-05 Yamaha Corp 音声認識装置およびプログラム
JP2010091962A (ja) * 2008-10-10 2010-04-22 Denso Corp 情報処理装置,インタフェース提供方法およびプログラム
JP2014202857A (ja) * 2013-04-03 2014-10-27 ソニー株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
WO2018207485A1 (ja) * 2017-05-11 2018-11-15 株式会社村田製作所 情報処理システム、情報処理装置、コンピュータプログラム、及び辞書データベースの更新方法
JPWO2018207485A1 (ja) * 2017-05-11 2020-02-27 株式会社村田製作所 情報処理システム、情報処理装置、コンピュータプログラム、及び辞書データベースの更新方法
WO2019098036A1 (ja) 2017-11-15 2019-05-23 ソニー株式会社 情報処理装置、情報処理端末、および情報処理方法
JP2020046564A (ja) * 2018-09-20 2020-03-26 東芝映像ソリューション株式会社 情報処理装置、情報処理システム、および映像装置
JP7009338B2 (ja) 2018-09-20 2022-01-25 Tvs Regza株式会社 情報処理装置、情報処理システム、および映像装置
JP2022508176A (ja) * 2018-11-23 2022-01-19 華為技術有限公司 音声制御方法及び電子装置
US11450322B2 (en) * 2018-11-23 2022-09-20 Huawei Technologies Co., Ltd. Speech control method and electronic device
JP7142783B2 (ja) 2018-11-23 2022-09-27 華為技術有限公司 音声制御方法及び電子装置
CN112602330A (zh) * 2019-10-29 2021-04-02 海信视像科技股份有限公司 电子设备及非易失性存储介质
JP2021071807A (ja) * 2019-10-29 2021-05-06 東芝映像ソリューション株式会社 電子機器およびプログラム
US12039228B2 (en) 2019-10-29 2024-07-16 Hisense Visual Technology Co., Ltd. Electronic device and non-transitory storage medium
JP7620975B2 (ja) 2021-02-09 2025-01-24 株式会社寺岡精工 オーダーシステム及びプログラム

Also Published As

Publication number Publication date
CN1991975A (zh) 2007-07-04
KR20070068269A (ko) 2007-06-29
EP1811369A3 (en) 2009-07-08
US20070150291A1 (en) 2007-06-28
US8032382B2 (en) 2011-10-04
EP1811369A2 (en) 2007-07-25
KR100894457B1 (ko) 2009-04-22

Similar Documents

Publication Publication Date Title
KR100894457B1 (ko) 정보처리장치 및 정보처리방법
JP6111030B2 (ja) 電子装置及びその制御方法
JP5819269B2 (ja) 電子装置及びその制御方法
JP5746111B2 (ja) 電子装置及びその制御方法
US9799375B2 (en) Method and device for adjusting playback progress of video file
JP2014532933A (ja) 電子装置及びその制御方法
KR20130018464A (ko) 전자 장치 및 그의 제어 방법
JP2013037689A (ja) 電子装置及びその制御方法
US9454964B2 (en) Interfacing device and method for supporting speech dialogue service
JP2014126600A (ja) 音声認識装置、音声認識方法、およびテレビ
KR20140089847A (ko) 전자 장치 및 그 제어 방법
US8725505B2 (en) Verb error recovery in speech recognition
US20060247925A1 (en) Virtual push-to-talk
CN112188249B (zh) 一种基于电子说明书的播放方法及显示设备
JP2008145769A (ja) 対話シナリオ生成システム,その方法およびプログラム
JP4781186B2 (ja) ユーザインタフェース提示装置および方法
JP7176272B2 (ja) 情報処理装置およびプログラム
US7970617B2 (en) Image processing apparatus and image processing method with speech registration
JP2002351652A (ja) 音声認識操作支援システム、音声認識操作支援方法、および、音声認識操作支援プログラム
JP4015495B2 (ja) 入力表示方法、入力表示装置、入力表示プログラム及び入力表示プログラムを記録した記録媒体
JP4175141B2 (ja) 音声認識機能を有する番組情報表示装置
JP2009282936A (ja) 選択式情報提示装置および選択式情報提示処理プログラム
JP7297266B2 (ja) 検索支援サーバ、検索支援方法及びコンピュータプログラム
KR20170054367A (ko) 전자 장치 및 그 제어 방법
KR101111688B1 (ko) 대사 학습 보조 장치 및 방법

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20090303