[go: up one dir, main page]

JP6538399B2 - 音声処理装置、音声処理方法およびプログラム - Google Patents

音声処理装置、音声処理方法およびプログラム Download PDF

Info

Publication number
JP6538399B2
JP6538399B2 JP2015070338A JP2015070338A JP6538399B2 JP 6538399 B2 JP6538399 B2 JP 6538399B2 JP 2015070338 A JP2015070338 A JP 2015070338A JP 2015070338 A JP2015070338 A JP 2015070338A JP 6538399 B2 JP6538399 B2 JP 6538399B2
Authority
JP
Japan
Prior art keywords
word
paraphrase
speaker
speech
destination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015070338A
Other languages
English (en)
Other versions
JP2016191740A (ja
Inventor
智彦 原田
智彦 原田
祥子 山畠
祥子 山畠
洋和 小間
洋和 小間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Data Group Corp
Original Assignee
NTT Data Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Data Corp filed Critical NTT Data Corp
Priority to JP2015070338A priority Critical patent/JP6538399B2/ja
Publication of JP2016191740A publication Critical patent/JP2016191740A/ja
Application granted granted Critical
Publication of JP6538399B2 publication Critical patent/JP6538399B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、使用する言語の異なるユーザ間において、ユーザが発する音声内容を入出力する技術に関する。
従来、使用する言語の異なるユーザ間において、円滑なコミュニケーションを図るために、ユーザが発する音声を認識することによってテキスト化する情報処理装置が知られている。例えば、公知の情報処理装置では、取得される音声を認識してテキストデータとして出力するものがある(特許文献1)。
特開2010−128766号公報
上記のように、従来の情報処理装置は、音声を認識してテキストデータとして出力する。しかしながら、ユーザの発音や語順などによりユーザの意図した音声と認識されないこともあり得、そのような場合でも、ユーザは正しく音声認識されなかった語を知らないまま、話を続けることもあり得る。
本発明は、上述した状況においてなされたものであり、正しく音声認識されない語を話者に把握させることによって適切な発音を促す音声処理装置等を提供することにある。
上記の課題を解決するための音声処理装置は、話者の音声を認識する音声処理装置であって、言い換えの対象としての言い換え元の語と、当該言い換え元の語とは異なる意味を持つ言い換え先の語とを対応付けて格納する言い換え辞書と、前記話者の音声に、音声認識の信頼度の低い語が含まれる場合は、当該信頼度の低い語と一致する前記言い換え元の語に対応付けられる前記言い換え先の語を前記言い換え辞書から検索する検索部と、前記話者に対して前記信頼度の低い語の適切な発音を促すために、前記検索された言い換え先の語を前記話者側に対して通知する通知部とを含む。
ここで、前記音声処理装置は、前記音声に基づいて、前記言い換え先の語を含む要約文を作成する作成部をさらに含み、前記通知部は、前記言い換え先の語を含む要約文を前記話者側の端末に出力して表示させるようにしてもよい。
前記音声処理装置は、前記音声と同一言語についての前記聞き手の習熟度を記憶する習熟度記憶部をさらに含み、前記検索部は、前記習熟度記憶部の前記聞き手の習熟度に応じて、前記聞き手ごとに、前記言い換え先の語の検索の可否を決定するようにしてもよい。
前記音声処理装置は、前記話者に対する前記言い換え先の語の通知頻度に基づいて、当該話者の音声に対する発音の明瞭度を評価する評価部をさらに含むようにしてもよい。
また、上記の課題を解決するための音声処理方法は、話者の音声を認識するコンピュータにおける音声処理方法であって、前記コンピュータは、言い換えの対象としての言い換え元の語と、当該言い換え元の語とは異なる意味を持つ言い換え先の語とを対応付けて格納する言い換え辞書を備えており、前記コンピュータによって、前記話者の音声に、音声認識の信頼度の低い語が含まれる場合は、当該注目語の低い語と一致する前記言い換え元の語に対応付けられる前記言い換え先の語を前記言い換え辞書から検索するステップと、前記話者に対して前記信頼度の低い語の適切な発音を促すために、前記検索された言い換え先の語を前記話者側に対して通知するステップとを含む。
上記の課題を解決するためのプログラムは、上記音声処理方法をコンピュータに実行させるためのものである。
上記の課題を解決するためのコンピュータ読取可能な記録媒体は、上記音声処理方法をコンピュータに実行させるためのプログラムを記録したものである。
本発明によれば、正しく音声認識されない語を話者に把握させることによって適切な発音を促すことができる。
本発明の実施形態の音声処理装置を含むシステム全体の概要構成例を示す図である。 図1の通信端末の構成例を示す図である。 図1の音声処理装置のハードウエア上の構成例を示す図である。 音声処理装置の機能構成例を示す図である。 言い換え辞書および習熟度記憶部の各データ構造を示す図である。 音声処理装置における制御処理全体の一例を示すフローチャートである。
以下、本発明の一実施形態における音声処理装置を含む音声処理システム全体の概略構成について図1を参照して説明する。図1は、音声処理システム1全体の概要構成例を示す図である。
この音声処理システム1は、異なる言語を使用するユーザ同士がコミュニケーションをとる場合に、話者の適切な発音を促すようにすることができるように構成されている。この場合、この音声処理システム1は、例えば、会議システム、チャットシステム等である。
図1において、音声処理システム1は、通信端末10a,10b,10cと、通信端末10a〜10cの各々と例えばインターネット等の通信網NWを介して接続可能なサーバ(音声処理装置)20とを含んで構成されている。
この音声処理システム1では、通信端末10a〜10cとサーバ20との間は、HTTP(HyerText Transfer Protocol)通信が行われるようになっているが、ソケット通信全般の通信方式もとり得る。
なお、以下の説明において、複数の通信端末10a〜10cの各々に共通の説明では、各通信端末が単に通信端末10として参照される。
[通信端末の構成]
次に、図1に示した通信端末10の構成例について、図2を参照して説明する。図2は、通信端末10の構成例を示す図である。
図2に示すように、通信端末10は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、表示部14と、音声入力部15と、入力部16と、音声出力部17と、通信インターフェース部18とを備える。この実施形態では、通信端末10は、一例として、ラップトップパソコン(Laptop computer)とするが、携帯端末、PDA(Personal Digital Assist)、パーソナルコンピュータなどでもよい。
CPU11は、通信端末10全体の動作を実現するための各種のプログラムの実行、演算処理、タイミング処理等を行う。
ROM12には、ウェブブラウザ等のプログラムが記憶されている。RAM13には、プログラムおよび各種のデータが一時的に保持される。
表示部14は、例えば、液晶ディスプレイ、EL(Electro-Luminescence)などのフラットパネル表示器とすることができる。
音声入力部15は、マイクロフォン等であり、ユーザ(話者)が発する音声を受け入れるために用いられる。入力部16は、マウス、キーボード、操作ボタン、タッチパネル、入力ペン、センサーなどを含む。
音声出力部17は、スピーカやヘッドセット等であり、音声入力部15から入力された音声を出力するように構成されている。
通信インターフェース部18は、例えばHTTP通信に準拠するインターフェース機能を有する。
[サーバのハードウエア構成]
次に、図1に示したサーバ20のハードウエア構成例について、図3を参照して説明する。図3は、サーバ20の構成例を示す図である。
サーバ20は、図3に示すように、CPU(Central Processing Unit)21と、音声認識部22と、RAM(Random Access Memory)23と、ROM(Read Only Memory)24と、通信インターフェース部25とを含む。
CPU21は、各構成要素とバスで接続されて制御信号やデータの転送を行うとともに、サーバ20全体の動作を実現するためのプログラムの実行、演算処理等を行う。
音声認識部22は、ユーザが発した音声(単語等)を認識する。この場合、音声認識部22は、音声を認識するための辞書(不図示)を備えており、この辞書を参照して、音声を認識する。
RAM23には、当該プログラムおよび各種のデータが一時的に保持される。ROM24には、プログラムが記憶されており、本実施形態のサーバ20は、当該プログラムが実行されることにより実現される。なお、上述したプログラムは、CD−ROM等の記憶媒体に格納されていてもよい。
通信インターフェース部25は、ネットワークインターフェース機能を有しており、通信端末10との通信を行う。
[サーバの機能構成]
次に、サーバ20の機能構成について図3〜図5を参照して説明する。図4は、図3に示したハードウエア構成上で実現されるサーバ20の機能構成の一例を示す図である。図5は、(a)後述する言い換え辞書201のデータ構造と、(b)後述する習熟度記憶部205のデータ構造とを示す図である。
図4において、サーバ20は、言い換え辞書201、検索部202、通知部203、作成部204、習熟度記憶部205および評価部206を備える。
言い換え辞書201および習熟度記憶部205は、図3に示したRAM22またはROM33により構成される。なお、図4に示した、言い換え辞書201および習熟度記憶部205以外の構成要素202〜204,206については、後述するサーバ20の処理説明において適宜参照される。
図5(a)に示すように、言い換え辞書201には、言い換え元の見出し語d10と、言い換え元の発音記号d20と、言い換え先の見出し語d30と、種別d40とが記憶される。
言い換え元の見出し語d10には、後述する音声認識時に言い換えの対象として、文字列からなる語が設定される。図5(a)では、複数の様々な文字列が言い換え元の見出し語d10として予め設定される。
言い換え元の発音記号d20には、言い換え元の見出し語d10に対応する言語(例えば、英語等)の発音記号が設定される。
言い換え先の見出し語d30には、上述した言い換え元の見出し語d10と意味内容の異なる語が予め設定される。後述するように、言い換え先の見出し語d30に設定される語は、正しく発音されなかったことを話者に認識させる必要があるので、言い換え先の見出し語d30には、不適切に発音された語を認識させるため、話者の注意を惹くような語が設定される。例えば、言い換え元の見出し語d10が「Maiko」(舞妓)である場合、言い換え先の見出し語d30には、「Michael Jackson」(マイケル・ジャクソン)という人名が予め設定されている。上述した言い換え先の見出し語d30には、例えば人名、専門用語、スラング等が設定される。
種別d40は、言い換え先の見出し語d30の各々に対応する語のジャンルを意味する。種別d40には、例えば、対応する言い換え先の見出し語d30に応じて、「人名」、「専門用語」、「スラング」等のジャンルが設定される。
なお、本実施形態では、上述した見出し語d10,d30として、例えば単語に対応する文字列が設定されるが、単語以外の文字列(例えば、表現)を設定するようにすることもできる。
一般に、音声認識では、入力音声に対する音響モデルおよび言語モデルの尤度が一番高い単語列を認識結果として出力することになるが、発音の仕方や語順などの理由により、尤度が同程度の対立候補が現れる場合がある。上述した音声認識の信頼度は、このような音声認識を行ったときに認識結果として出力された単語について、どれだけ上記対立候補があるかを指標にその単語の正解らしさを表す指標であり、この信頼度が高ければ(しきい値以上の場合)その出力は正解である可能性が高く、低ければ(しきい値未満の場合)その出力は正解である可能性が低くなることが知られている(例えば、特許第5546565号の明細書段落0034−0036等を参照)。
この観点から、本実施形態のサーバ20では、上述した信頼度の低い語は正しく音声認識されていない可能性があるため、その信頼度の低い語に対する適切な発音を話者に促すために、話中に音声認識の信頼度の低い語が存在する場合には、その語と一致する言い換え元の見出し語d10に予め対応付けられた言い換え先の見出し語d30に言い換えて話者に通知し、その言い換え先の見出し語d30に話者が注意を惹くようにしている。
上述した言い換え元の見出し語d10と言い換え先の見出し語d30との対応関係(ペア)は、それぞれの語に対応する発音記号列の類似度を算出し、その結果、一番高い類似度を有する語同士がペアとして設定される。この実施形態では、上述した類似度は、文字列の発音記号列間の編集距離を求める手法を採用するが、これに限られず、見出し語d10,d30のペアが設定可能であれば上記類似度を求める手法はいかなるものも採用することができる。
なお、この実施形態では、言い換え先の見出し語d30は、言い換え元の見出し語d10に対応して検索されることになるが、言い換え先の見出し語d30は、種別(例えば、人名、専門用語、スラングなど)d40別に検索されるようにしてもよい。この場合、話者に通知される言い換え先の見出し語d30は、種別d40毎に選択されることになるので、サーバ30は、ある種別(例えば、スラング)の言葉が苦手な話者には、それ以外の種別(例えば、人名)に属する言い換え先の見出し語に言い換えるようにすることができる。
また、図5(b)に示すように、習熟度記憶部205には、ユーザIDd50と習熟度d60との対応関係が記憶されている。習熟度d50は、音声と同一言語(例えば英語等)の習熟度を示し、例えば「初級」、「中級」、「上級」などに区分けして設定される。これにより、習熟度記憶部205は、音声と同一言語についての聞き手の習熟度を記憶する。
[サーバ20の動作]
以下、この音声処理を実現するためのサーバ20の動作について、図1〜図6を参照して説明する。図6は、サーバ20の音声処理例を示すフローチャートである。
図6において、通信端末10aが、サーバ20に対して通信網NWを介して、音声入力部15からの話者が発した音声を出力した場合には、サーバ20は、その音声を取得する(ステップS101)。音声が取得された場合には、サーバ20の音声認識部22は、通信端末10aの音声入力部15からの音声を認識する。音声認識部22は、ステップS101で話者の音声を取得した後に、前述したように、その音声認識の信頼度を求める。
次にCPU21は、上記音声認識において信頼度の低い語が存在するかどうかを判定し(ステップS102)、信頼度の低い語が存在する場合は、その語が正しく音声認識されていない可能性があるため、その語と一致する言い換え元の見出し語d10に対応付けられる言い換え先の見出し語d30を言い換え辞書205から検索する(ステップS103)。
ステップS102およびステップS103に示した処理において、CPU21は、検索部202として機能する。
次にCPU21は、ステップS103で検索された言い換え先の見出し語d30を、通信網NWを介して通信端末10aに通知する(ステップS104)。この場合、CPU21は、ステップS101で取得された話者のすべての音声を対象として、対応する音声内容を要約した要約文を作成した後に、この要約文に上記言い換え先の見出し語d30を含めて通信端末10aに通知する。これによって、通信端末10aでは、言い換え先の見出し語d30を含む要約文が表示部14に表示され、ユーザ(話者)は、その言い換え先の見出し語d30を視認することで、話中に不明瞭な発音が含まれていたことを把握できるようになる。すなわち、言い換え先の見出し語d30の表示は、話者にとっての不明瞭な発音の把握を視覚的に促す役割を果たす。
ここで、ステップS104で示した通知処理において、CPU21は、通知部203として機能する。また、上記要約文の作成処理において、CPU21は、作成部204として機能する。
上述した要約文の作成では、CPU21は、要約対象となる語の種類を予め設定しておき、ステップS101で取得された音声の中から、この種類の語を抽出して要約文を作成する。上述した語の種類としては、例えば、言い換え先の見出し語d30、否定語、固有名詞、普通名詞、形容詞などがある。
CPU21は、上述した語の種類に応じて、対応する語を強調表示することもできる。このような強調表示方法としては、例えば、文字列の太さを強調させること、文字列の色を変えること、文字サイズを変えること等が考えられる。これにより、話者は、正しく発音されなかった語を確実に把握することが可能となる。
なお、上述した通知処理は、様々な態様が考えられる。例えば、言い換え先の見出し語d30が検索された時点(ステップS103の直後)で、個々の言い換え先の見出し語d30を話者(図6では、通信端末10a)に対して通知してもよいし、すべての言い換え先の見出し語d30を検索した後に、一括してすべての言い換え先の見出し語d30を話者に対して通知するようにしてもよい。
また、ステップS104において、上述した言い換え先の見出し語d30の通知は、適切に発音されなかった語を把握させるためのものであればよく、例えば、言い換え先の見出し語d30だけを通知して通信端末10aに表示させるようにしてもよい。
以上説明したように、本実施形態のサーバ20によれば、ユーザ(話者)の発する音声に音声認識の信頼度が低い語が含まれる場合は、その語と一致する言い換え元の見出しd10に対応付けられる言い換え先の見出し語d30を言い換え辞書201から検索し、その言い換え先の見出し語d30を話者側(通信端末)に対して通知する。ここで、通知される言い換え先の見出し語d30は、言い換え元の見出し語d10とは意味内容が異なるので、話中にないために発音が適切でなかった語の使用が把握される。これにより、話者が不適切に発音した語をより適切に発音するようにすることが期待される。
[評価処理]
以上では、ユーザの発音の明瞭度を評価する態様について言及しなかったが、言い換え先の見出し語d30の通知頻度からそれを評価するようにしてもよい。
例えば、図6に示した通知処理(ステップS104)後において、サーバ20のCPU21はさらに、話者に対する言い換え先の見出し語d30の通知頻度に基づいて、当該話者の音声に対する発音の明瞭度を評価するようにしてもよい。すなわち、CPU21は、ステップS104で通知した頻度(回数)を管理する。そして、CPU21は、今回の通知頻度と、前回の通知頻度との差に基づいて、話者の発音の明瞭度を評価する。例えば、その差が大きい(今回の通知頻度がしきい値より少ない)場合には、話者の発音が明瞭であることを意味し、話者の発音に対して高評価の明瞭度を与えるようにする。これにより、話者は、仮に不明瞭な発音をした場合でも、その評価を意識することで、適切な発音を行うようになる。すなわち、発音の明瞭度の評価は、話者の適切な発音を意識させる役割を果たす。
[明瞭度に応じた検索処理]
上述した話者の発音の明瞭度を評価するサーバ20では、この明瞭度に応じて、言い換え先の見出し語d30の検索の可否を決定するようにしてもよい。例えば、図6に示した検索処理(ステップS103)において、CPU21は、話者の明瞭度が高評価になるにつれ、上記音声認識の信頼度のしきい値が小さくなるように変更し、音声認識部22は、そのしきい値に基づいて、音声認識の信頼度が高いか低いかを判定するようにする。これにより、例えば、話者の発音の明瞭度が高評価の場合には、上記音声認識の信頼度のしきい値は小さくなるので、音声認識の信頼度の低い語(言い換え元の見出し語d10)が少なくなる。すなわち、言い換え先の見出し語d30の検索は、話者の発音の明瞭度に応じて行なわれる。
[習熟度に応じた検索処理]
以上では、ユーザ(聞き手)の言語(例えば、英語等)の習熟度に応じて言い換え先の見出し語d30を検索する態様について言及しなかったが、ある習熟度と他の習熟度とを区別して検索を行うようにしてもよい。
例えば、図6に示した検索処理(ステップS103)において、サーバ20のCPU21は、習熟度記憶部205(図5(b))のユーザの習熟度d60に応じて、その習熟度d40に対応する、前述した音声認識の信頼度のしきい値を増減し、聞き手ごとに、言い換え先の見出し語d30の検索の可否を決定するようにしてもよい。例えば、CPU21は、聞き手の習熟度d60に示された「初級」、「中級」、「上級」に対応して、上記音声認識の信頼度の各しきい値が大きくなるようにそれぞれのしきい値を増減し、音声認識部22は、そのしきい値に基づいて、音声認識の信頼度が高いか低いかを判定するようにする。これにより、ある習熟度と他の習熟度を区別して音声認識の信頼度のしきい値を変えることができるので、言い換え先の見出し語d40の検索は、ユーザの習熟度に応じて行なわれる。
以上、実施形態について詳述してきたが、実施形態の中で説明した処理等はすべての実施形態のサーバと組み合わせて実施することができる。
また、通信端末10およびサーバ20の台数、ハードウエア構成、動作手順および/またはデータ構成は、上述した実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更なども含まれる。
10,10a,10b,10c 通信端末
20 サーバ
201 言い換え辞書
202 検索部
203 通知部
204 作成部
205 習熟度記憶部
206 評価部

Claims (6)

  1. 話者の音声を認識する音声処理装置であって、
    言い換えの対象としての言い換え元の語と、当該言い換え元の語とは異なる意味を持つ言い換え先の語とを対応付けて格納する言い換え辞書と、
    前記話者の音声に、音声認識の信頼度の低い語が含まれる場合は、当該信頼度の低い語と一致する前記言い換え元の語に対応付けられる前記言い換え先の語を前記言い換え辞書から検索する検索部と、
    前記話者に対して前記信頼度の低い語の適切な発音を促すために、前記検索された言い換え先の語を前記話者側に対して通知する通知部と
    前記話者に対する前記言い換え語の通知頻度に基づいて、当該話者の音声に対する発音の明瞭度を評価する評価部と
    を含むことを特徴とする音声処理装置。
  2. 前記音声に基づいて、前記言い換え先の語を含む要約文を作成する作成部をさらに含み、
    前記通知部は、前記言い換え先の語を含む要約文を前記話者側の端末に出力して表示させることを特徴とする請求項1に記載の音声処理装置。
  3. 前記音声と同一言語についての前記話者に対する聞き手の習熟度を記憶する習熟度記憶部をさらに含み、
    前記検索部は、前記習熟度記憶部の前記聞き手の習熟度に応じて、前記聞き手ごとに、前記言い換え語の検索の可否を決定することを特徴とする請求項1または2に記載の音声処理装置。
  4. 話者の音声を認識するコンピュータにおける音声処理方法であって、
    前記コンピュータは、言い換えの対象としての言い換え元の語と、当該言い換え元の語とは異なる意味を持つ言い換え先の語とを対応付けて格納する言い換え辞書を備えており、前記コンピュータによって、
    前記話者の音声に、音声認識の信頼度の低い語が含まれる場合は、当該信頼度の低い語と一致する前記言い換え元の語に対応付けられる前記言い換え先の語を前記言い換え辞書から検索するステップと、
    前記話者に対して前記信頼度の低い語の適切な発音を促すために、前記検索された言い換え先の語を前記話者側に対して通知するステップと
    前記話者に対する前記言い換え語の通知頻度に基づいて、当該話者の音声に対する発音の明瞭度を評価するステップと
    を含むことを特徴とする音声処理方法。
  5. 請求項に記載の音声処理方法をコンピュータに実行させるためのプログラム。
  6. 請求項に記載の音声処理方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読取可能な記録媒体。
JP2015070338A 2015-03-30 2015-03-30 音声処理装置、音声処理方法およびプログラム Active JP6538399B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015070338A JP6538399B2 (ja) 2015-03-30 2015-03-30 音声処理装置、音声処理方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015070338A JP6538399B2 (ja) 2015-03-30 2015-03-30 音声処理装置、音声処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2016191740A JP2016191740A (ja) 2016-11-10
JP6538399B2 true JP6538399B2 (ja) 2019-07-03

Family

ID=57245514

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015070338A Active JP6538399B2 (ja) 2015-03-30 2015-03-30 音声処理装置、音声処理方法およびプログラム

Country Status (1)

Country Link
JP (1) JP6538399B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106874185A (zh) * 2016-12-27 2017-06-20 中车株洲电力机车研究所有限公司 一种基于语音关键字驱动的自动化测试方法及系统

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005234236A (ja) * 2004-02-19 2005-09-02 Canon Inc 音声認識装置、音声認識方法、記憶媒体およびプログラム
JP2005309185A (ja) * 2004-04-23 2005-11-04 Nissan Motor Co Ltd 音声入力装置、および音声入力方法
JP5396530B2 (ja) * 2012-12-11 2014-01-22 株式会社Nttドコモ 音声認識装置および音声認識方法

Also Published As

Publication number Publication date
JP2016191740A (ja) 2016-11-10

Similar Documents

Publication Publication Date Title
EP3469592B1 (en) Emotional text-to-speech learning system
CN107016994B (zh) 语音识别的方法及装置
US9947317B2 (en) Pronunciation learning through correction logs
US10114809B2 (en) Method and apparatus for phonetically annotating text
CN103578464B (zh) 语言模型的建立方法、语音辨识方法及电子装置
US9484034B2 (en) Voice conversation support apparatus, voice conversation support method, and computer readable medium
US9070363B2 (en) Speech translation with back-channeling cues
US11093110B1 (en) Messaging feedback mechanism
US20170206897A1 (en) Analyzing textual data
US11810471B2 (en) Computer implemented method and apparatus for recognition of speech patterns and feedback
US20150170648A1 (en) Ebook interaction using speech recognition
JP2013068952A (ja) 音声認識結果の統合
WO2016008128A1 (en) Speech recognition using foreign word grammar
US10366173B2 (en) Device and method of simultaneous interpretation based on real-time extraction of interpretation unit
JP2016521383A (ja) 少なくとも一つの意味論的単位の集合を改善するための方法、装置およびコンピュータ読み取り可能な記録媒体
US9805740B2 (en) Language analysis based on word-selection, and language analysis apparatus
JP5073024B2 (ja) 音声対話装置
WO2014181508A1 (en) Information processing apparatus, information processing method, and program
CN111128181B (zh) 背诵题评测方法、装置以及设备
JP5396530B2 (ja) 音声認識装置および音声認識方法
KR20170009486A (ko) 청크 기반 언어 학습용 데이터베이스 구축 방법 및 이를 수행하는 전자 기기
US11176943B2 (en) Voice recognition device, voice recognition method, and computer program product
JP6849977B2 (ja) テキスト表示用同期情報生成装置および方法並びに音声認識装置および方法
KR20160138613A (ko) 이모티콘을 이용한 자동통역 방법 및 이를 이용한 장치
JP6538399B2 (ja) 音声処理装置、音声処理方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190606

R150 Certificate of patent or registration of utility model

Ref document number: 6538399

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250