JP6916264B2 - 切断アテンションに基づくリアルタイム音声認識方法、装置、機器及びコンピュータ読み取り可能な記憶媒体 - Google Patents
切断アテンションに基づくリアルタイム音声認識方法、装置、機器及びコンピュータ読み取り可能な記憶媒体 Download PDFInfo
- Publication number
- JP6916264B2 JP6916264B2 JP2019227539A JP2019227539A JP6916264B2 JP 6916264 B2 JP6916264 B2 JP 6916264B2 JP 2019227539 A JP2019227539 A JP 2019227539A JP 2019227539 A JP2019227539 A JP 2019227539A JP 6916264 B2 JP6916264 B2 JP 6916264B2
- Authority
- JP
- Japan
- Prior art keywords
- attention
- real
- disconnection
- spike
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 69
- 238000003860 storage Methods 0.000 title claims description 16
- 230000005236 sound signal Effects 0.000 claims description 39
- 239000013598 vector Substances 0.000 claims description 29
- 238000005520 cutting process Methods 0.000 claims description 27
- 238000012549 training Methods 0.000 claims description 21
- 230000007246 mechanism Effects 0.000 claims description 19
- 238000012545 processing Methods 0.000 claims description 13
- 230000002123 temporal effect Effects 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 6
- 206010011416 Croup infectious Diseases 0.000 claims description 3
- 201000010549 croup Diseases 0.000 claims description 3
- 238000003776 cleavage reaction Methods 0.000 claims 1
- 230000007017 scission Effects 0.000 claims 1
- 230000008569 process Effects 0.000 description 18
- 230000006870 function Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 12
- 230000003993 interaction Effects 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 238000012217 deletion Methods 0.000 description 5
- 230000037430 deletion Effects 0.000 description 5
- 238000003780 insertion Methods 0.000 description 5
- 230000037431 insertion Effects 0.000 description 5
- 230000015654 memory Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 4
- 238000009826 distribution Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 101000822695 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C1 Proteins 0.000 description 1
- 101000655262 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C2 Proteins 0.000 description 1
- 101000655256 Paraclostridium bifermentans Small, acid-soluble spore protein alpha Proteins 0.000 description 1
- 101000655264 Paraclostridium bifermentans Small, acid-soluble spore protein beta Proteins 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000004804 winding Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/10—Speech classification or search using distance or distortion measures between unknown speech and reference templates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
- G10L2015/025—Phonemes, fenemes or fenones being the recognition units
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
- G10L2015/027—Syllables being the recognition units
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/221—Announcement of recognition results
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Probability & Statistics with Applications (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Machine Translation (AREA)
Description
Claims (16)
- 切断アテンションに基づくリアルタイム音声認識方法であって、
入力された音声信号に基づいて、前記音声信号の特徴シーケンスを切断するための切断情報を取得するステップと、
前記切断情報に基づいて、前記特徴シーケンスを複数のサブシーケンスに切断するステップと、
前記複数のサブシーケンスのうちのサブシーケンスに対して、アテンションメカニズムによってリアルタイムの認識結果を取得するステップと、を含み、
音声信号の特徴シーケンスを切断するための切断情報を取得するステップは、
前記特徴シーケンスに対してコネクショニスト時系列分類(CTC)処理を行うことによって前記音声信号に関するスパイク情報を取得するステップと、
取得された前記スパイク情報に基づいて、前記切断情報を決定するステップと、を含むことを特徴とする、切断アテンションに基づくリアルタイム音声認識方法。 - アテンションメカニズムによってリアルタイムの認識結果を取得するステップは、
前記複数のサブシーケンスのうちの第1のサブシーケンスに対してアテンションモデルの第1のアテンションモデリングを実行するステップであって、前記アテンションモデルは重み付け特徴の選択が可能であるステップと、
前記複数のサブシーケンスのうちの第2のサブシーケンスに対して前記アテンションモデルの第2のアテンションモデリングを実行するステップであって、前記第1のアテンションモデリングは前記第2のアテンションモデリングと異なるステップと、を含むことを特徴とする、請求項1に記載の切断アテンションに基づくリアルタイム音声認識方法。 - 前記方法は、
共有エンコーダによって前記音声信号を前記特徴シーケンスにエンコードし、
コネクショニスト時系列分類(CTC)モジュールによって前記特徴シーケンスに基づいて前記スパイク情報を取得し、
アテンションデコーダによって前記特徴シーケンスと前記スパイク情報とに基づいて前記リアルタイムの認識結果を取得し、前記共有エンコーダは、前記コネクショニスト時系列分類(CTC)モジュールと前記アテンションデコーダで共有されることを特徴とする、請求項1に記載の切断アテンションに基づくリアルタイム音声認識方法。 - 前記方法は、
前記コネクショニスト時系列分類(CTC)モジュールをトレーニングするための第1の損失関数を決定するステップと、
前記アテンションデコーダをトレーニングするための第2の損失関数を決定するステップと、
前記第1の損失関数と前記第2の損失関数を使用して前記コネクショニスト時系列分類(CTC)モジュールと前記アテンションデコーダとを共にトレーニングするステップと、をさらに含むことを特徴とする、請求項3に記載の切断アテンションに基づくリアルタイム音声認識方法。 - 前記特徴シーケンスを複数のサブシーケンスに切断するステップは、
前記スパイク情報における各スパイクに対して、前記特徴シーケンスにおける各スパイクに隣接する所定の数のスパイクに対応するサブシーケンスを選択するステップを含み、前記所定の数のスパイクは、各スパイクの前の第1の数のスパイクと各スパイクの後の第2の数のスパイクとを含むことを特徴とする、請求項1に記載の切断アテンションに基づくリアルタイム音声認識方法。 - アテンションメカニズムによってリアルタイムの認識結果を取得するステップは、
前記特徴シーケンス内の重畳する複数のサブシーケンスに基づいて、第1レベルのアテンションメカニズムによって複数の特徴ベクトルをそれぞれ決定するステップと、
決定された前記複数の特徴ベクトルに基づいて、第2レベルのアテンションメカニズムによって文脈特徴ベクトルを決定するステップと、
決定された前記文脈特徴ベクトルに基づいて、前記リアルタイムの認識結果を決定するステップと、を含むことを特徴とする、請求項5に記載の切断アテンションに基づくリアルタイム音声認識方法。 - 前記特徴シーケンスは暗黙的な特徴シーケンスであり、各スパイクは一つの音節又は1クループの音素を示すことを特徴とする、請求項5に記載の切断アテンションに基づくリアルタイム音声認識方法。
- 切断アテンションに基づくリアルタイム音声認識装置であって、
入力された音声信号に基づいて、前記音声信号の特徴シーケンスを切断するための切断情報を取得するよう構成される切断情報取得モジュールと、
前記切断情報に基づいて、前記特徴シーケンスを複数のサブシーケンスに切断するよう構成される特徴シーケンス切断モジュールと、
前記複数のサブシーケンスのうちのサブシーケンスに対して、アテンションメカニズムによってリアルタイムの認識結果を取得するよう構成される認識結果取得モジュールと、を含み、
前記切断情報取得モジュールは、
前記特徴シーケンスに対してコネクショニスト時系列分類(CTC)処理を行うことによって前記音声信号に関するスパイク情報を取得するよう構成されるスパイク情報取得モジュールと、
取得された前記スパイク情報に基づいて、前記切断情報を決定するよう構成される切断情報決定モジュールと、を含むことを特徴とする、切断アテンションに基づくリアルタイム音声認識装置。 - 前記認識結果取得モジュールは、
前記複数のサブシーケンスのうちの第1のサブシーケンスに対してアテンションモデルの第1のアテンションモデリングを実行するよう構成される第1のアテンションモデリング装置であって、前記アテンションモデルは重み付け特徴の選択が可能である第1のアテンションモデリング装置と、
前記複数のサブシーケンスのうちの第2のサブシーケンスに対して前記アテンションモデルの第2のアテンションモデリングを実行するよう構成される第2のアテンションモデリング装置であって、前記第1のアテンションモデリングは前記第2のアテンションモデリングと異なる第2のアテンションモデリング装置と、を含むことを特徴とする、請求項8に記載の切断アテンションに基づくリアルタイム音声認識装置。 - 前記装置は、
前記音声信号を前記特徴シーケンスにエンコードするよう構成される共有エンコーダと、
前記特徴シーケンスに基づいて前記スパイク情報を取得するよう構成されるコネクショニスト時系列分類(CTC)モジュールと、
前記特徴シーケンスと前記スパイク情報とに基づいて前記リアルタイムの認識結果を取得するよう構成されるアテンションデコーダと、を含み、
前記共有エンコーダは、前記コネクショニスト時系列分類(CTC)モジュールと前記アテンションデコーダで共有され、
前記切断情報取得モジュールは、前記コネクショニスト時系列分類(CTC)モジュールに含まれ、前記特徴シーケンス切断モジュールと前記認識結果取得モジュールは、前記アテンションデコーダに含まれることを特徴とする、請求項8に記載の切断アテンションに基づくリアルタイム音声認識装置。 - 前記装置は、
前記コネクショニスト時系列分類(CTC)モジュールをトレーニングするための第1の損失関数を決定するよう構成される第1の損失関数決定モジュールと、
前記アテンションデコーダをトレーニングするための第2の損失関数を決定するよう構成される第2の損失関数決定モジュールと、
前記第1の損失関数と前記第2の損失関数を使用して前記コネクショニスト時系列分類(CTC)モジュールと前記アテンションデコーダとを共にトレーニングするよう構成されるトレーニングモジュールと、をさらに含むことを特徴とする、請求項10に記載の切断アテンションに基づくリアルタイム音声認識装置。 - 前記特徴シーケンス切断モジュールは、
前記スパイク情報における各スパイクに対して、前記特徴シーケンスにおける各スパイクに隣接する所定の数のスパイクに対応するサブシーケンスを選択するよう構成されるサブシーケンス選択モジュールを含み、前記所定の数のスパイクは、各スパイクの前の第1の数のスパイクと各スパイクの後の第2の数のスパイクとを含むことを特徴とする、請求項8に記載の切断アテンションに基づくリアルタイム音声認識装置。 - 前記認識結果取得モジュールは、
前記特徴シーケンス内の重畳する複数のサブシーケンスに基づいて、第1レベルのアテンションメカニズムによって複数の特徴ベクトルをそれぞれ決定するよう構成される複数の特徴ベクトル決定モジュールと、
決定された前記複数の特徴ベクトルに基づいて、第2レベルのアテンションメカニズムによって文脈特徴ベクトルを決定するよう構成される文脈特徴ベクトル決定モジュールと、
決定された前記文脈特徴ベクトルに基づいて、前記リアルタイムの認識結果を決定するよう構成される認識結果決定モジュールと、を含むことを特徴とする、請求項12に記載の切断アテンションに基づくリアルタイム音声認識装置。 - 前記特徴シーケンスは暗黙的な特徴シーケンスであり、各スパイクは一つの音節又は1クループの音素を示すことを特徴とする、請求項12に記載の切断アテンションに基づくリアルタイム音声認識装置。
- 電子機器であって、
一つ又は複数のプロセッサと、
一つ又は複数のプログラムを記憶するための記憶装置と、を含み、
前記一つ又は複数のプログラムが前記一つ又は複数のプロセッサにより実行される場合に、前記電子機器が請求項1から7のいずれかに記載の方法を実現することを特徴とする、電子機器。 - コンピュータプログラムが記憶されているコンピュータ読み取り可能な記憶媒体であって、
前記プログラムがプロセッサにより実行される場合に、請求項1から7のいずれかに記載の方法が実現されることを特徴とする、コンピュータ読み取り可能な記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910016861.1A CN111429889B (zh) | 2019-01-08 | 2019-01-08 | 基于截断注意力的实时语音识别的方法、装置、设备以及计算机可读存储介质 |
CN201910016861.1 | 2019-01-08 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020112787A JP2020112787A (ja) | 2020-07-27 |
JP6916264B2 true JP6916264B2 (ja) | 2021-08-11 |
Family
ID=68916172
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019227539A Active JP6916264B2 (ja) | 2019-01-08 | 2019-12-17 | 切断アテンションに基づくリアルタイム音声認識方法、装置、機器及びコンピュータ読み取り可能な記憶媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10854193B2 (ja) |
EP (1) | EP3680894B1 (ja) |
JP (1) | JP6916264B2 (ja) |
KR (1) | KR102333939B1 (ja) |
CN (1) | CN111429889B (ja) |
Families Citing this family (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111429889B (zh) * | 2019-01-08 | 2023-04-28 | 百度在线网络技术(北京)有限公司 | 基于截断注意力的实时语音识别的方法、装置、设备以及计算机可读存储介质 |
US11404047B2 (en) * | 2019-03-08 | 2022-08-02 | International Business Machines Corporation | Feature and feature variant reconstruction for recurrent model accuracy improvement in speech recognition |
US11210477B2 (en) * | 2019-05-09 | 2021-12-28 | Adobe Inc. | Systems and methods for transferring stylistic expression in machine translation of sequence data |
CN110211588A (zh) * | 2019-06-03 | 2019-09-06 | 北京达佳互联信息技术有限公司 | 语音识别方法、装置及电子设备 |
JP7566789B2 (ja) * | 2019-06-04 | 2024-10-15 | グーグル エルエルシー | 2パスエンドツーエンド音声認識 |
CN110534095B (zh) * | 2019-08-22 | 2020-10-23 | 百度在线网络技术(北京)有限公司 | 语音识别方法、装置、设备以及计算机可读存储介质 |
CN110648658B (zh) * | 2019-09-06 | 2022-04-08 | 北京达佳互联信息技术有限公司 | 一种语音识别模型的生成方法、装置及电子设备 |
WO2021113443A1 (en) | 2019-12-04 | 2021-06-10 | Google Llc | Two-pass end to end speech recognition |
CN113112993B (zh) * | 2020-01-10 | 2024-04-02 | 阿里巴巴集团控股有限公司 | 一种音频信息处理方法、装置、电子设备以及存储介质 |
CN111667828B (zh) * | 2020-05-28 | 2021-09-21 | 北京百度网讯科技有限公司 | 语音识别方法和装置、电子设备和存储介质 |
CN111862987B (zh) * | 2020-07-20 | 2021-12-28 | 北京百度网讯科技有限公司 | 语音识别方法和装置 |
WO2022024202A1 (ja) * | 2020-07-27 | 2022-02-03 | 日本電信電話株式会社 | 学習装置、音声認識装置、学習方法、音声認識方法、学習プログラム及び音声認識プログラム |
CN111933122B (zh) * | 2020-09-07 | 2024-06-18 | 北京有竹居网络技术有限公司 | 语音识别方法、装置、电子设备和计算机可读介质 |
CN112487812B (zh) * | 2020-10-21 | 2021-07-06 | 上海旻浦科技有限公司 | 一种基于边界识别的嵌套实体识别方法及系统 |
CN112466282B (zh) * | 2020-10-22 | 2023-11-28 | 北京仿真中心 | 一种面向航天专业领域的语音识别系统和方法 |
CN112489637B (zh) * | 2020-11-03 | 2024-03-26 | 北京百度网讯科技有限公司 | 语音识别方法和装置 |
CN112530437B (zh) * | 2020-11-18 | 2023-10-20 | 北京百度网讯科技有限公司 | 语义识别方法、装置、设备以及存储介质 |
CN112382278B (zh) * | 2020-11-18 | 2021-08-17 | 北京百度网讯科技有限公司 | 流式语音识别结果显示方法、装置、电子设备和存储介质 |
CN112466288B (zh) * | 2020-12-18 | 2022-05-31 | 北京百度网讯科技有限公司 | 语音识别方法、装置、电子设备及存储介质 |
CN112802467B (zh) * | 2020-12-21 | 2024-05-31 | 出门问问(武汉)信息科技有限公司 | 语音识别方法及装置 |
CN112466285B (zh) * | 2020-12-23 | 2022-01-28 | 北京百度网讯科技有限公司 | 离线语音识别方法、装置、电子设备及存储介质 |
CN113327603B (zh) * | 2021-06-08 | 2024-05-17 | 广州虎牙科技有限公司 | 语音识别方法、装置、电子设备和计算机可读存储介质 |
WO2022259555A1 (ja) * | 2021-06-11 | 2022-12-15 | 日本電信電話株式会社 | 音声認識方法、音声認識装置および音声認識プログラム |
CN113470620A (zh) * | 2021-07-06 | 2021-10-01 | 青岛洞听智能科技有限公司 | 一种语音识别方法 |
CN113674732B (zh) * | 2021-08-16 | 2022-05-17 | 北京百度网讯科技有限公司 | 语音置信度检测方法、装置、电子设备和存储介质 |
CN113889076B (zh) * | 2021-09-13 | 2022-11-01 | 北京百度网讯科技有限公司 | 语音识别及编解码方法、装置、电子设备及存储介质 |
CN113990325A (zh) * | 2021-09-29 | 2022-01-28 | 联想(北京)有限公司 | 流式语音识别方法及装置、电子设备、存储介质 |
CN114155834A (zh) * | 2021-11-29 | 2022-03-08 | 科大讯飞股份有限公司 | 一种语音识别方法、装置、设备及存储介质 |
CN113920989B (zh) * | 2021-12-13 | 2022-04-01 | 中国科学院自动化研究所 | 一种语音识别与语音翻译端到端系统及设备 |
CN114596845A (zh) * | 2022-04-13 | 2022-06-07 | 马上消费金融股份有限公司 | 语音识别模型的训练方法、语音识别方法及装置 |
CN115223574B (zh) * | 2022-07-15 | 2023-11-24 | 北京百度网讯科技有限公司 | 语音信息处理方法、模型的训练方法、唤醒方法及装置 |
CN115132210B (zh) * | 2022-09-02 | 2022-11-18 | 北京百度网讯科技有限公司 | 音频识别方法、音频识别模型的训练方法、装置和设备 |
KR102515914B1 (ko) | 2022-12-21 | 2023-03-30 | 주식회사 액션파워 | Stt 모델을 활용하는 발음 전사 방법 |
CN116074446B (zh) * | 2023-03-27 | 2023-12-01 | 北京科东电力控制系统有限责任公司 | 基于隐性马尔可夫模型训练的话务调配方法及系统 |
CN116682436A (zh) * | 2023-07-27 | 2023-09-01 | 成都大成均图科技有限公司 | 一种应急警情受理信息识别方法及装置 |
CN116701610A (zh) * | 2023-08-03 | 2023-09-05 | 成都大成均图科技有限公司 | 一种基于应急多源报警有效警情识别方法及装置 |
CN116946610B (zh) * | 2023-09-21 | 2023-12-12 | 中科源码(成都)服务机器人研究院有限公司 | 一种智能仓储系统货物拾取方法及装置 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05257495A (ja) * | 1992-03-12 | 1993-10-08 | Sekisui Chem Co Ltd | 単語認識方式 |
US9786270B2 (en) * | 2015-07-09 | 2017-10-10 | Google Inc. | Generating acoustic models |
KR102386854B1 (ko) * | 2015-08-20 | 2022-04-13 | 삼성전자주식회사 | 통합 모델 기반의 음성 인식 장치 및 방법 |
US10332509B2 (en) * | 2015-11-25 | 2019-06-25 | Baidu USA, LLC | End-to-end speech recognition |
CN105529027B (zh) * | 2015-12-14 | 2019-05-31 | 百度在线网络技术(北京)有限公司 | 语音识别方法和装置 |
US10229672B1 (en) * | 2015-12-31 | 2019-03-12 | Google Llc | Training acoustic models using connectionist temporal classification |
US11100932B2 (en) * | 2017-02-10 | 2021-08-24 | Synaptics Incorporated | Robust start-end point detection algorithm using neural network |
US10762891B2 (en) * | 2017-02-10 | 2020-09-01 | Synaptics Incorporated | Binary and multi-class classification systems and methods using connectionist temporal classification |
US11087213B2 (en) * | 2017-02-10 | 2021-08-10 | Synaptics Incorporated | Binary and multi-class classification systems and methods using one spike connectionist temporal classification |
US10762427B2 (en) * | 2017-03-01 | 2020-09-01 | Synaptics Incorporated | Connectionist temporal classification using segmented labeled sequence data |
US20180330718A1 (en) * | 2017-05-11 | 2018-11-15 | Mitsubishi Electric Research Laboratories, Inc. | System and Method for End-to-End speech recognition |
CN108417202B (zh) * | 2018-01-19 | 2020-09-01 | 苏州思必驰信息科技有限公司 | 语音识别方法及系统 |
US10629193B2 (en) * | 2018-03-09 | 2020-04-21 | Microsoft Technology Licensing, Llc | Advancing word-based speech recognition processing |
CN111429889B (zh) * | 2019-01-08 | 2023-04-28 | 百度在线网络技术(北京)有限公司 | 基于截断注意力的实时语音识别的方法、装置、设备以及计算机可读存储介质 |
-
2019
- 2019-01-08 CN CN201910016861.1A patent/CN111429889B/zh active Active
- 2019-02-06 US US16/269,411 patent/US10854193B2/en active Active
- 2019-11-22 KR KR1020190151166A patent/KR102333939B1/ko active Active
- 2019-12-12 EP EP19215676.8A patent/EP3680894B1/en active Active
- 2019-12-17 JP JP2019227539A patent/JP6916264B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
KR20200086214A (ko) | 2020-07-16 |
US10854193B2 (en) | 2020-12-01 |
CN111429889B (zh) | 2023-04-28 |
EP3680894B1 (en) | 2024-03-20 |
US20200219486A1 (en) | 2020-07-09 |
JP2020112787A (ja) | 2020-07-27 |
KR102333939B1 (ko) | 2021-12-01 |
CN111429889A (zh) | 2020-07-17 |
EP3680894A1 (en) | 2020-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6916264B2 (ja) | 切断アテンションに基づくリアルタイム音声認識方法、装置、機器及びコンピュータ読み取り可能な記憶媒体 | |
JP7167074B2 (ja) | 音声認識方法、装置、機器及びコンピュータ可読記憶媒体 | |
JP7092953B2 (ja) | エンドツーエンドモデルによる多言語音声認識のための音素に基づく文脈解析 | |
JP7051919B2 (ja) | ストリーミングアテンションモデルに基づく音声認識復号化方法、装置、機器及びコンピュータ可読記憶媒体 | |
CN116888662A (zh) | 学习用于子词端到端自动语音识别的词级置信度 | |
JP7590520B2 (ja) | エンド・ツー・エンド音声認識における固有名詞認識 | |
JP2023545988A (ja) | トランスフォーマトランスデューサ:ストリーミング音声認識と非ストリーミング音声認識を統合する1つのモデル | |
KR20230158608A (ko) | 종단 간 자동 음성 인식 신뢰도 및 삭제 추정을 위한 멀티태스크 학습 | |
KR20230086737A (ko) | 단순화된 스트리밍 및 비스트리밍 스피치 인식을 위한 캐스케이드 인코더들 | |
JP7375211B2 (ja) | アテンションベースのジョイント音響およびテキストのオンデバイス・エンド・ツー・エンドモデル | |
CN111243599A (zh) | 语音识别模型构建方法、装置、介质及电子设备 | |
KR20230158107A (ko) | 효율적인 스트리밍 비-순환 온-디바이스 엔드-투-엔드 모델 | |
JP2024512606A (ja) | 自己アライメントを用いたストリーミングasrモデル遅延の短縮 | |
JP2023084085A (ja) | 音声認識のためのシステムおよび方法 | |
JP2024512071A (ja) | 自動音声認識のための多言語再スコアリングモデル | |
CN113763939A (zh) | 基于端到端模型的混合语音识别系统及方法 | |
CN116229940A (zh) | 语音识别方法、系统及终端 | |
JP7656680B2 (ja) | アテンションベースのジョイント音響およびテキストのオンデバイス・エンド・ツー・エンドモデル | |
US20240153495A1 (en) | Multi-Output Decoders for Multi-Task Learning of ASR and Auxiliary Tasks | |
Bijwadia et al. | Text injection for capitalization and turn-taking prediction in speech models | |
US20240290321A1 (en) | Chunk-wise attention for longform asr | |
KR20240068699A (ko) | 마스크킹된 음성 모델링을 위한 안내 데이터 선택 | |
CN116189666A (zh) | 语音识别方法、系统及终端 | |
Kimura et al. | Expansion of wfst-based dialog management for handling multiple asr hypotheses |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191217 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210210 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210706 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210715 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6916264 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |