JP6633008B2 - 音声対話装置及び音声対話方法 - Google Patents
音声対話装置及び音声対話方法 Download PDFInfo
- Publication number
- JP6633008B2 JP6633008B2 JP2017016581A JP2017016581A JP6633008B2 JP 6633008 B2 JP6633008 B2 JP 6633008B2 JP 2017016581 A JP2017016581 A JP 2017016581A JP 2017016581 A JP2017016581 A JP 2017016581A JP 6633008 B2 JP6633008 B2 JP 6633008B2
- Authority
- JP
- Japan
- Prior art keywords
- filler
- response
- user
- utterance
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003993 interaction Effects 0.000 title claims description 78
- 238000000034 method Methods 0.000 title claims description 54
- 239000000945 filler Substances 0.000 claims description 266
- 230000004044 response Effects 0.000 claims description 204
- 238000004458 analytical method Methods 0.000 claims description 202
- 230000001755 vocal effect Effects 0.000 claims description 38
- 230000002452 interceptive effect Effects 0.000 claims description 36
- 238000010801 machine learning Methods 0.000 claims description 6
- 239000013598 vector Substances 0.000 description 56
- 230000006870 function Effects 0.000 description 31
- 230000008569 process Effects 0.000 description 24
- 238000003066 decision tree Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 16
- 239000000284 extract Substances 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000003909 pattern recognition Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006698 induction Effects 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 241001014348 Cleisthenes herzensteini Species 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1807—Speech classification or search using natural language modelling using prosody or stress
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/268—Morphological analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Artificial Intelligence (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
- User Interface Of Digital Computer (AREA)
Description
ユーザ発話が音声対話装置に対する質問である場合に、その質問の回答を応答として生成するためには、構文解析結果を用いる必要がある。本発明は、上記のように構成されていることによって、質問の回答を応答として生成するときに、構文解析の完了までの間、長いフィラーを出力するので、対話の間が空くことを抑制することができる。
ユーザ発話が音声対話装置に対する質問である場合に、別の話題に誘導させるための応答を生成するためには、構文解析結果を用いる必要がない。本発明は、上記のように構成されていることによって、構文解析結果を用いる必要がなくしたがって応答の生成に時間を要しない場合には、短いフィラーを出力するので、余計な長さのフィラーを出力することでユーザを待たせるといったことを防止して、すぐに応答することができる。
本発明は、上記のように構成されていることによって、ユーザの発話から応答までの間に出力されるフィラーの長さを調整することを、容易に実現することが可能である。
本発明は、上記のように構成されていることによって、ユーザの発話から応答までの間に出力されるフィラーの長さを調整することを、より正確に行うことが可能である。
以下、図面を参照して本発明の実施の形態について説明する。なお、各図面において、同一の要素には同一の符号が付されており、必要に応じて重複説明は省略されている。
次に、実施の形態2について説明する。実施の形態2においては、フィラー長判定部120の処理が、実施の形態1と比較して、より具体的に示されている。具体的には、実施の形態2にかかるフィラー長判定部120は、非言語情報解析結果のうちの、判定対象のユーザ発話のユーザ発話長L1(図3のvi5)を用いて、フィラー長を判定する。なお、実施の形態2にかかる音声対話装置1の構成については、図1及び図2に示した実施の形態1にかかる音声対話装置1の構成と実質的に同様であるので、説明を省略する。
次に、実施の形態3について説明する。実施の形態3においては、フィラー長判定部120の処理が、実施の形態1と比較して、より具体的に示されている。具体的には、実施の形態3にかかるフィラー長判定部120は、非言語情報解析結果のうちの、判定対象のユーザ発話の句末の500msecにおける基本周波数f0500(図3のvi1)を用いて、フィラー長を判定する。なお、実施の形態3にかかる音声対話装置1の構成については、図1及び図2に示した実施の形態3にかかる音声対話装置1の構成と実質的に同様であるので、説明を省略する。
(式1)
次に、実施の形態4について説明する。実施の形態4においては、フィラー長判定部120の処理が、実施の形態1と比較して、より具体的に示されている。具体的には、実施の形態4にかかるフィラー長判定部120は、予め機械学習(ランダムフォレスト等)によって生成された判定モデルを用いて、フィラー長を判定する。より具体的には、フィラー長判定部120は、判定モデルを用いて、非言語情報解析結果によって示される特徴(特徴ベクトルの成分)が、応答の生成に構文解析結果を用いる必要がある(つまりユーザ発話が質問である)ことに対応するか否かを識別(分類)する。これによって、フィラー長判定部120は、フィラー長を判定する。なお、実施の形態4にかかる音声対話装置1の構成については、図1及び図2に示した実施の形態1にかかる音声対話装置1の構成と実質的に同様であるので、説明を省略する。
(式2)
(式3)
(式4)
図17は、図14に例示した決定木(判定モデル)を用いて特徴ベクトルを分類する方法(図10のS404)を説明するための図である。まず、Tree_1に特徴ベクトルvが入力される。ノード1の分岐関数F1 1(閾値t1 1)に特徴ベクトルvが代入されると、F1 1(v)≧t1 1であるので、式2より、特徴ベクトルvは、右側の子ノード2に移行する。ノード2の分岐関数F1 2(閾値t1 2)に特徴ベクトルvが代入されると、F1 2(v)<t1 2であるので、式2より、特徴ベクトルvは、左側の子ノード5に移行する。ノード5の分岐関数F1 5(閾値t1 5)に特徴ベクトルvが代入されると、F1 5(v)<t1 5であるので、式2より、特徴ベクトルvは、左側の子ノード9に移行する。そして、ノード9は末端ノードであるので、Tree_1についての、特徴ベクトルvが各クラスに分類される確率は、ノード9に対応付けられたP1(c|v)である。図17の例では、特徴ベクトルvが質問クラスに分類される確率はP1(c=1|v)=0.6であり、非質問クラスに分類される確率はP1(c=2|v)=0.4である。
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、上述したフローチャートにおいて、複数の処理の順序は、適宜、変更可能である。また、上述したフローチャートにおいて、複数の処理のうちの1つは、省略されてもよい。また、フィラーは、常に生成しなくてもよい。例えば、ユーザ発話の2回に1回の割合でフィラーを生成するようにしてもよい。
Claims (6)
- ユーザと音声を用いた対話を行う音声対話装置であって、
前記ユーザの発話であるユーザ発話を取得する発話取得部と、
前記取得されたユーザ発話の言語情報について構文解析を行う構文解析部と、
前記ユーザ発話に応じて応答を生成する応答生成部と、
前記ユーザに対して音声を出力する音声出力部と、
前記取得されたユーザ発話について、前記言語情報とは異なる非言語情報であって、前記ユーザ発話の韻律情報及び前記応答生成部によって生成された応答に関する履歴情報の少なくとも一方を含む非言語情報の解析を行う非言語情報解析部と、
前記非言語情報解析部による解析結果である非言語情報解析結果に応じて、前記音声出力部によって出力されるフィラーの長さを判定するフィラー長判定部と、
前記フィラー長判定部の判定結果に応じた長さのフィラーを生成するフィラー生成部と
を有し、
前記フィラー長判定部は、前記応答の生成に前記構文解析部による解析結果である構文解析結果を用いる必要がある場合に、長いフィラーを生成させると判定し、前記応答の生成に前記構文解析結果を用いる必要がない場合に、短いフィラーを生成させると判定し、
前記音声出力部は、前記フィラーを出力した後で、前記応答生成部によって生成された応答を出力する
音声対話装置。 - 前記フィラー長判定部は、前記取得されたユーザ発話が前記音声対話装置に対する質問であるか否かを判定し、
前記取得されたユーザ発話が前記音声対話装置に対する質問であると判定された場合に、前記フィラー長判定部は、長いフィラーを生成させると判定し、前記音声出力部は、前記フィラー生成部によって生成された長いフィラーを出力し、前記応答生成部は、前記構文解析結果を用いて、前記質問に対する回答を前記応答として生成し、前記音声出力部は、前記生成された回答を出力する
請求項1に記載の音声対話装置。 - 前記フィラー長判定部は、前記取得されたユーザ発話が前記音声対話装置に対する質問であるか否かを判定し、
前記取得されたユーザ発話が前記音声対話装置に対する質問ではないと判定された場合に、前記フィラー長判定部は、短いフィラーを生成させると判定し、前記音声出力部は、前記フィラー生成部によって生成された短いフィラーを出力し、前記応答生成部は、前記構文解析結果を用いないで、別の話題に誘導させるための応答を生成し、前記音声出力部は、前記生成された応答を出力する
請求項1又は2に記載の音声対話装置。 - 前記フィラー長判定部は、前記非言語情報解析結果に含まれる少なくとも1つの特徴量と、前記特徴量に対応する予め定められた閾値との比較に応じて、前記音声出力部によって出力されるフィラーの長さを判定する
請求項1から3のいずれか1項に記載の音声対話装置。 - 前記フィラー長判定部は、予め機械学習によって生成された判定モデルを用いて、前記非言語情報解析結果によって示される特徴が、前記応答の生成に前記構文解析結果を用いる必要があることに対応するか否かを識別することによって、前記フィラーの長さを判定する
請求項1から3のいずれか1項に記載の音声対話装置。 - ユーザと音声を用いた対話を行う音声対話装置を用いて行われる音声対話方法であって、
前記ユーザの発話であるユーザ発話を取得し、
前記取得されたユーザ発話の言語情報について構文解析を行い、
前記取得されたユーザ発話について、前記言語情報とは異なる非言語情報であって、前記ユーザ発話の韻律情報及び前記音声対話装置によって生成された応答に関する履歴情報の少なくとも一方を含む非言語情報の解析を行い、
前記非言語情報の解析結果である非言語情報解析結果に応じて、前記応答の生成に前記構文解析の解析結果である構文解析結果を用いる必要があるか否かを判定し、
前記応答の生成に前記構文解析結果を用いる必要があると判定された場合に、長いフィラーを生成して出力し、
前記応答の生成に前記構文解析結果を用いる必要がないと判定された場合に、短いフィラーを生成して出力し、
前記フィラーを出力した後で、前記ユーザ発話に応じて生成された応答に対応する音声を出力する
音声対話方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017016581A JP6633008B2 (ja) | 2017-02-01 | 2017-02-01 | 音声対話装置及び音声対話方法 |
US15/841,608 US10388279B2 (en) | 2017-02-01 | 2017-12-14 | Voice interaction apparatus and voice interaction method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017016581A JP6633008B2 (ja) | 2017-02-01 | 2017-02-01 | 音声対話装置及び音声対話方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018124425A JP2018124425A (ja) | 2018-08-09 |
JP6633008B2 true JP6633008B2 (ja) | 2020-01-22 |
Family
ID=62980177
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017016581A Active JP6633008B2 (ja) | 2017-02-01 | 2017-02-01 | 音声対話装置及び音声対話方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10388279B2 (ja) |
JP (1) | JP6633008B2 (ja) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6795387B2 (ja) * | 2016-12-14 | 2020-12-02 | パナソニック株式会社 | 音声対話装置、音声対話方法、音声対話プログラム及びロボット |
JP6633008B2 (ja) * | 2017-02-01 | 2020-01-22 | ファーハット ロボティクス エービー | 音声対話装置及び音声対話方法 |
JP6696923B2 (ja) * | 2017-03-03 | 2020-05-20 | 国立大学法人京都大学 | 音声対話装置、その処理方法及びプログラム |
US10446147B1 (en) * | 2017-06-27 | 2019-10-15 | Amazon Technologies, Inc. | Contextual voice user interface |
US10546655B2 (en) | 2017-08-10 | 2020-01-28 | Nuance Communications, Inc. | Automated clinical documentation system and method |
US11316865B2 (en) | 2017-08-10 | 2022-04-26 | Nuance Communications, Inc. | Ambient cooperative intelligence system and method |
US11275855B2 (en) * | 2018-02-01 | 2022-03-15 | Nuance Communications, Inc. | Conversation print system and method |
US11515020B2 (en) | 2018-03-05 | 2022-11-29 | Nuance Communications, Inc. | Automated clinical documentation system and method |
US11250382B2 (en) | 2018-03-05 | 2022-02-15 | Nuance Communications, Inc. | Automated clinical documentation system and method |
US20190272902A1 (en) | 2018-03-05 | 2019-09-05 | Nuance Communications, Inc. | System and method for review of automated clinical documentation |
CN115346525A (zh) | 2018-05-07 | 2022-11-15 | 谷歌有限责任公司 | 验证与数字助理应用交接的代理的操作状态 |
USD885453S1 (en) * | 2018-07-06 | 2020-05-26 | Furhat Robotics Ab | Industrial robot |
US11216480B2 (en) | 2019-06-14 | 2022-01-04 | Nuance Communications, Inc. | System and method for querying data points from graph data structures |
US11227679B2 (en) | 2019-06-14 | 2022-01-18 | Nuance Communications, Inc. | Ambient clinical intelligence system and method |
US11531807B2 (en) | 2019-06-28 | 2022-12-20 | Nuance Communications, Inc. | System and method for customized text macros |
KR102684936B1 (ko) | 2019-09-19 | 2024-07-16 | 삼성전자주식회사 | 전자 장치 및 이의 제어 방법 |
US11670408B2 (en) | 2019-09-30 | 2023-06-06 | Nuance Communications, Inc. | System and method for review of automated clinical documentation |
US11847420B2 (en) * | 2020-03-05 | 2023-12-19 | Oracle International Corporation | Conversational explainability |
US11222103B1 (en) | 2020-10-29 | 2022-01-11 | Nuance Communications, Inc. | Ambient cooperative intelligence system and method |
US11928437B2 (en) | 2021-02-02 | 2024-03-12 | Oracle International Corporation | Machine reading between the lines |
CN113763932B (zh) * | 2021-05-13 | 2024-02-13 | 腾讯科技(深圳)有限公司 | 语音处理方法、装置、计算机设备及存储介质 |
KR20230032086A (ko) | 2021-08-30 | 2023-03-07 | 한국전자기술연구원 | 대화형 에이전트 시스템에서 back-channel 자동 생성 방법 및 시스템 |
JP7641578B2 (ja) | 2021-11-10 | 2025-03-07 | 日本電信電話株式会社 | 音声対話装置、音声対話方法、プログラム |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20010012335A1 (en) * | 1998-02-06 | 2001-08-09 | Lance Kaufman | Preference based telecommunication information service |
JP2000222432A (ja) * | 1999-02-03 | 2000-08-11 | Nippon Telegr & Teleph Corp <Ntt> | 文書検索装置、文書検索方法及び文書検索プログラムを記録した記録媒体 |
JP3581881B2 (ja) * | 2000-07-13 | 2004-10-27 | 独立行政法人産業技術総合研究所 | 音声補完方法、装置および記録媒体 |
US8355484B2 (en) * | 2007-01-08 | 2013-01-15 | Nuance Communications, Inc. | Methods and apparatus for masking latency in text-to-speech systems |
JP4279883B2 (ja) | 2007-01-24 | 2009-06-17 | 株式会社ピートゥピーエー | 会話制御システム、会話制御方法、プログラム及びプログラムを記録した記録媒体 |
US9576574B2 (en) * | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
JP5753869B2 (ja) * | 2013-03-26 | 2015-07-22 | 富士ソフト株式会社 | 音声認識端末およびコンピュータ端末を用いる音声認識方法 |
JP6024675B2 (ja) * | 2014-01-17 | 2016-11-16 | 株式会社デンソー | 音声認識端末装置、音声認識システム、音声認識方法 |
JP5958475B2 (ja) * | 2014-01-17 | 2016-08-02 | 株式会社デンソー | 音声認識端末装置、音声認識システム、音声認識方法 |
JP6118838B2 (ja) * | 2014-08-21 | 2017-04-19 | 本田技研工業株式会社 | 情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム |
JP6495014B2 (ja) * | 2015-01-08 | 2019-04-03 | シャープ株式会社 | 音声対話制御装置、音声対話制御装置の制御方法、および音声対話装置 |
US10560575B2 (en) * | 2016-06-13 | 2020-02-11 | Google Llc | Escalation to a human operator |
JP6461058B2 (ja) * | 2016-09-06 | 2019-01-30 | 国立大学法人京都大学 | 音声対話装置および音声対話装置を用いた自動対話方法 |
JP2018045202A (ja) * | 2016-09-16 | 2018-03-22 | トヨタ自動車株式会社 | 音声対話システムおよび音声対話方法 |
JP6633008B2 (ja) * | 2017-02-01 | 2020-01-22 | ファーハット ロボティクス エービー | 音声対話装置及び音声対話方法 |
JP6696923B2 (ja) * | 2017-03-03 | 2020-05-20 | 国立大学法人京都大学 | 音声対話装置、その処理方法及びプログラム |
-
2017
- 2017-02-01 JP JP2017016581A patent/JP6633008B2/ja active Active
- 2017-12-14 US US15/841,608 patent/US10388279B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US10388279B2 (en) | 2019-08-20 |
US20180218731A1 (en) | 2018-08-02 |
JP2018124425A (ja) | 2018-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6633008B2 (ja) | 音声対話装置及び音声対話方法 | |
JP6731326B2 (ja) | 音声対話装置及び音声対話方法 | |
KR102740698B1 (ko) | 감정 정보 기반의 음성 합성 방법 및 장치 | |
CN110032742B (zh) | 响应语句生成设备、方法和存储介质以及语音交互系统 | |
JP6772198B2 (ja) | 言語モデルスピーチエンドポインティング | |
US9368116B2 (en) | Speaker separation in diarization | |
CN108630203B (zh) | 语音交互设备及其处理方法和程序 | |
US9117450B2 (en) | Combining re-speaking, partial agent transcription and ASR for improved accuracy / human guided ASR | |
JP5381988B2 (ja) | 対話音声認識システム、対話音声認識方法および対話音声認識用プログラム | |
KR101131278B1 (ko) | 대화 로그를 이용한 학습 기반 대화 시스템 성능 향상 방법 및 그 장치 | |
CN112466287B (zh) | 一种语音分割方法、装置以及计算机可读存储介质 | |
JP2010230695A (ja) | 音声の境界推定装置及び方法 | |
CN110473533B (zh) | 语音对话系统、语音对话方法以及程序 | |
CN109074809B (zh) | 信息处理设备、信息处理方法和计算机可读存储介质 | |
CN113160821A (zh) | 一种基于语音识别的控制方法及装置 | |
CN112002349A (zh) | 一种语音端点检测方法及装置 | |
CN111402887A (zh) | 一种语音转义文字的方法及装置 | |
CN113763921B (zh) | 用于纠正文本的方法和装置 | |
WO2021253779A1 (zh) | 一种语音识别方法以及系统 | |
KR101959080B1 (ko) | 어학 따라말하기의 묵음구간 기반의 어학 퍼포먼스 평가 장치 및 방법 | |
CN108364654B (zh) | 语音处理方法、介质、装置和计算设备 | |
JP3727436B2 (ja) | 音声原稿最適照合装置および方法 | |
JP4962930B2 (ja) | 発音評定装置、およびプログラム | |
CN115831092A (zh) | 一种韵律标注方法、装置及应用 | |
JP5066668B2 (ja) | 音声認識装置、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181102 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191203 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191211 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6633008 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |