CN110603583A - 语音识别系统和用于语音识别的方法 - Google Patents
语音识别系统和用于语音识别的方法 Download PDFInfo
- Publication number
- CN110603583A CN110603583A CN201780090477.5A CN201780090477A CN110603583A CN 110603583 A CN110603583 A CN 110603583A CN 201780090477 A CN201780090477 A CN 201780090477A CN 110603583 A CN110603583 A CN 110603583A
- Authority
- CN
- China
- Prior art keywords
- tag sequence
- sequence
- probability
- ctc
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/32—Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Algebra (AREA)
- Telephonic Communication Services (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Machine Translation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
Abstract
语音识别系统包括接收声音的输入装置、一个或更多个处理器、以及存储参数和程序模块的一个或更多个储存装置,所述程序模块包括一个或更多个处理器可执行的指令。指令包括:从由声音转换的音频波形数据中提取声学特征序列;使用具有编码器网络参数的编码器网络将声学特征序列编码为隐藏向量序列(HVS);通过将HVS馈送到具有解码器网络参数的解码器网络来预测第一输出标签序列概率(OLSP);由联结主义时间分类(CTC)模块使用CTC网络参数和来自编码器网络的所述(HVS),来预测第二(OLSP);以及使用标签序列搜索模块,通过将从解码器网络和CTC模块提供的第一(OLSP)和第二(OLSP)组合,来搜索具有最高序列概率的输出标签序列。
Description
技术领域
本发明总体涉及用于语音识别的系统和方法,更具体地,涉及用于端到端语音识别的方法和系统。
背景技术
自动语音识别是目前已经广泛部署的一组成熟技术,在诸如语音搜索等界面应用中取得了巨大成功。然而,构建实现高识别精度的语音识别系统并不容易。一个问题是它需要对系统接受的目标语言有深入的语言学知识。例如,音素集、词汇和发音词典对于构建这样的系统是必不可少的。音素集需要由语言的语言学家仔细定义。发音词典需要通过将一个或更多个音素序列分配给包括超过10万个单词的词汇表中的每个单词来手动创建。此外,某些语言没有明确地具有单词边界,因此我们可能需要标记化以从文本语料库创建词汇表。因此,非专家很难开发语音识别系统,特别是对于小语种。另一个问题是语音识别系统被分解成几个模块,包括被分开优化的声学、词典和语言模型。虽然每个模型都经过训练以匹配其它模型,但这种架构可能会导致局部最优。
发明内容
端到端语音识别的目标是将传统架构简化为深度学习框架内的单个神经网络架构。为了处理或解决这些问题,在一些文献中已经讨论了各种技术。然而,仍存在一些问题,包括基本的时间注意力机制就其允许极端非顺序对齐而言过于灵活,这导致删除和插入错误,以及它可以使标签序列假设由于局部丢失的标签序列而太短或者重复相同标记序列而太长。
本公开的一些实施方式基于以下认识:其可以通过将基于注意力的概率与基于CTC的概率组合,来减少用不相关对齐所获得的标签序列假设并提高识别准确度,以进行假设评分。
一种语音识别系统包括接收声音的输入装置、一个或更多个处理器、以及一个或更多个储存装置,其存储参数和程序模块,所述程序模块包括一个或更多个处理器可执行的指令,该指令在被执行时使得一个或更多个处理器执行操作。该操作包括:使用声学特征提取模块从由声音转换的音频波形数据中提取声学特征序列;使用具有编码器网络参数的编码器网络将声学特征序列编码为隐藏向量序列;通过将隐藏向量序列馈送到具有解码器网络参数的解码器网络来预测第一输出标签序列概率;由联结主义时间分类(CTC)模块使用CTC网络参数和来自编码器网络的隐藏向量序列,来预测第二输出标签序列概率;以及使用标签序列搜索模块,通过将从解码器网络和CTC模块提供的第一输出标签序列概率和第二输出标签序列概率组合,来搜索具有最高序列概率的输出标签序列。
此外,本公开的一些实施方式提供了一种用于语音识别的方法,该方法包括以下步骤:使用声学特征提取模块从由输入装置接收的声音转换的音频波形数据中提取声学特征序列;使用从一个或更多个储存装置获取编码器网络参数的编码器网络将声学特征序列编码为隐藏向量序列;通过将隐藏向量序列馈送到从一个或更多个储存装置获取解码器网络参数的解码器网络来预测第一输出标签序列概率;由联结主义时间分类(CTC)模块使用CTC网络参数和来自编码器网络的隐藏向量序列,来预测第二输出标签序列概率;以及使用标签序列搜索模块,通过将从解码器网络和CTC模块提供的第一输出标签序列概率和第二输出标签序列概率组合,来搜索具有最高序列概率的输出标签序列。
将参照附图进一步解释当前公开的实施方式。所示的附图不一定按比例绘制,而是通常将重点放在说明当前公开的实施方式的原理上。
附图说明
[图1]
图1是例示了根据相关技术的基于注意力的端到端语音识别方法的框图。
[图2]
图2是例示了根据本发明的实施方式的端到端语音识别模块的框图。
[图3]
图3是例示了根据本发明的实施方式的端对端语音识别模块中的神经网络的示意图。
[图4]
图4是例示了根据本发明的实施方式的端到端语音识别系统的框图。
[图5]
图5是通过对日语任务执行端到端语音识别而获得的评估结果。
[图6]
图6是通过对中国普通话任务执行端到端语音识别而获得的评估结果。
具体实施方式
虽然上述附图阐述了目前公开的实施方式,但如在讨论中所指出的,也可以预期其它实施方式。本公开通过表示而非限制的方式呈现示例性实施方式。本领域技术人员能够设计出落入当前所公开的实施方式的原理的范围和精神内的许多其它变型和实施方式。
以下描述仅提供示例性实施方式,并非旨在限制本公开的范围、适用性或配置。相反,示例性实施方式的以下描述将为本领域技术人员提供能够实现一个或更多个示例性实施方式的描述。在不脱离如所附权利要求中阐述的所公开主题的精神和范围的情况下,可以设想可以对元件的功能和布置进行各种变型。
在以下描述中给出了具体细节以提供对实施方式的全面理解。然而,本领域普通技术人员能够理解,可以在没有这些具体细节的情况下实践实施方式。例如,所公开主题中的系统、过程和其它元件可以以框图形式示出为组件,以免不必要的细节模糊实施方式。在其它情况下,可以在没有不必要的细节的情况下示出公知的过程、结构和技术,以避免模糊实施方式。此外,各附图中相似的附图标记和名称指示相似的元件。
另外,各个实施方式可以被描述为过程,该过程被描绘为流程图、作业图、数据流图、结构图或框图。尽管流程图可以将操作描述为顺序过程,但是许多操作能够并行或同时执行。另外,操作的顺序可以重新排列。过程可以在其操作完成时终止,但是可以具有在图中未讨论或未包括的附加步骤。此外,并非在任何特定描述过程中的所有操作都可以在所有实施方式中发生。过程可以对应于方法、函数、处理、子例程、子程序等。当过程对应于函数时,函数的终止可以对应于函数返回到调用函数或主函数。
此外,所公开主题的实施方式可以至少部分地手动或自动地实现。可以通过使用机器、硬件、软件、固件、中间件、微代码、硬件描述语言或其任何组合来实施或至少辅助手动或自动实现。当以软件、固件、中间件或微代码实现时,执行必要任务的程序代码或代码段可以被存储在机器可读介质中。处理器可以执行必要任务。
本公开中示例的模块和网络可以是能够使用一个或更多个处理器来执行指令的计算机程序、软件或指令代码。模块和网络可以存储在一个或更多个储存装置中或以其它方式存储在诸如存储介质、计算机存储介质或数据储存装置(可移动和/或不可移动)(诸如例如磁盘、光盘或磁带)之类的计算机可读介质中,其中,从一个或更多个处理器可访问计算机可读介质以执行指令。
计算机存储介质可以包括以用于存储信息(诸如计算机可读指令、数据结构、程序模块或其它数据)的任何方法或技术实现的易失性和非易失性、可移动和不可移动介质。计算机存储介质可以是RAM、ROM、EEPROM或闪存、CD-ROM、数字通用盘(DVD)或其它光存储器、磁带盒、磁带、磁盘存储器或其它磁储存装置,或能够用于存储所需信息并且能够使用一个或更多个处理器由应用、模块或两者访问的任何其它介质。任何这样的计算机存储介质可以是装置的一部分或可访问或可连接到的装置。本文描述的任何应用或模块可以使用可以由这样的计算机可读介质存储或以其它方式保持的计算机可读/可执行指令来实现。
在下文中,在描述本公开的实施方式之前将讨论语音识别,以阐明在相关技术中发现的要求。
图1是例示了根据相关技术的基于注意力的端到端语音识别模块100的框图。
在基于注意力的端到端语音识别模块100中,编码器模块102首先使用从编码器网络参数103读取的编码器网络将声学特征序列101转换为隐藏向量序列。接下来,注意力解码器模块104接收来自编码器网络模块102的隐藏向量序列和来自标签序列搜索模块106的先前标签,并使用从解码器网络参数105读取的解码器网络来计算下一标签对于先前标签的后验概率分布,其中标签可以是字母、音节、单词或代表目标语言的任何单位,但广泛使用字母。标签序列搜索模块106使用由注意力解码器模块104给出的后验概率分布找到具有最高序列概率的标签序列,其中标签序列的后验概率被计算为序列中标签的后验概率的乘积。
然而,基于注意力的方法包括一个主要问题。注意力解码器模块104使用注意力机制来找到输出标签序列的每个元素与由编码器模块102针对声学特征生成的隐藏向量之间的对齐。在每个输出位置处,解码器模块104计算其状态向量与每个输入帧处编码器模块102的隐藏向量之间的匹配得分,以形成时间对齐分布,然后将其用于提取相应编码器隐藏向量的平均值。这种基本的时间注意力机制在允许极端非顺序对齐的意义上过于灵活,增加了语音识别的不准确性。
本发明的一些实施方式基于以下认识:通过将基于注意力的概率与基于CTC的概率组合,能够减少针对系统输出选择的、用不相关对齐获得的标签序列假设,以进行假设评分。
根据本公开的实施方式,能够将通过使用基于CTC的概率的严格约束合并到基于注意力的端到端语音识别的解码过程中。由于CTC允许使用动态编程有效地计算严格单调对齐,因此具有不相关的、非单调对齐的标记序列的后验概率能够比具有其它对齐的后验概率低。
本公开的实施方式还提供了不仅利用基于注意力的概率而且利用基于CTC的概率对每个标签序列假设进行评分,其中得分可以是由注意力解码器和CTC计算出的对数后验概率的线性组合。因此,本公开的端到端语音识别可以在输出标签和声学特征之间的相似性和对齐正确性方面选择最佳假设,这提高了识别准确度。因此,根据本公开实施方式的用于端到端语音识别的系统和方法能够减轻上面讨论的问题。
端到端语音识别设备能够从诸如麦克风、硬盘驱动器和计算机网络之类的输入装置接收声学特征序列。该设备使用针对声学特征序列的编码器网络参数、解码器网络参数和CTC网络参数来执行端到端语音识别方法,并将预测的标签序列输出到诸如硬盘驱动器、显示监视器和计算机网络之类的输出装置。
图2是例示了根据本发明的实施方式的端到端语音识别模块200的框图。
端到端语音识别模块200包括编码器网络模块202、编码器网络参数203、注意力解码器模块204、解码器网络参数205、标签序列搜索模块206、CTC模块208和CTC网络参数209。编码器网络参数203、解码器网络参数205和CTC网络参数209分别存储在储存装置中,以向相应模块202、204和208提供参数。使用图4中的声学特征提取模块434从音频波形数据或频谱数据中来提取声学特征序列201。音频波形数据或频谱数据可以存储在储存装置中并提供给编码器网络模块202。可以使用数字信号处理模块(未示出)经由图4中的输入装置475获得音频波形数据或频谱数据,该数字信号处理模块接收声音并将其转换成音频波形或频谱数据。此外,存储在储存装置430或存储器440中的音频波形或频谱数据可以被提供给编码器网络模块202。可以经由图4中的网络490提供声音的信号。输入装置475可以是麦克风装置。
编码器网络模块202包括编码器网络,其利用从编码器网络参数203读取参数的编码器网络将声学特征序列201转换为隐藏向量序列。
使用注意力解码器网络204的注意力机制描述如下。注意力解码器网络模块204包括解码器网络。注意力解码器网络模块204接收来自编码器网络模块202的隐藏向量序列以及来自标签序列搜索模块206的先前标签,然后使用从解码器网络参数205读取参数的解码器网络来计算下一标签相对于先前标签的第一后验概率分布。注意力解码器网络模块204将第一后验概率分布提供给标签序列搜索模块206。CTC模块208接收来自编码器网络模块202的隐藏向量序列以及来自标签序列搜索模块206的先前标签,并使用CTC网络参数209和动态编程技术来计算下一标签序列的第二后验概率分布。在计算之后,CTC模块208将第二后验概率分布提供给标签序列搜索模块206。
标签序列搜索模块206使用从注意力解码器网络模块204和CTC模块208提供的第一后验概率分布和第二后验概率分布来找到具有最高序列概率的标签序列。由注意力解码器网络模块204和CTC模块208计算出的标签序列的第一后验概率和第二后验概率被组合成一个概率。在这种情况下,可以基于线性组合来执行计算出的后验概率的组合。利用端到端语音识别模块200,可以考虑CTC概率以找到对输入声学特征序列更好的对齐假设。
基于注意力的端到端语音识别
端到端语音识别通常被定义为在给定输入声学特征序列X的情况下找到最可能的标签序列的问题,即,
其中,表示给定预定义字母集合的可能的标签序列集合。
在端到端语音识别中,在没有发音词典和语言模型的情况下,由预训练神经网络计算p(Y|X)。在相关技术的基于注意力的端到端语音识别中,神经网络由编码器网络和解码器网络组成。
编码器模块102包括用于按照下式将声学特征序列X=x1,…,xT转换为隐藏向量序列H=h1,…,hT的编码器网络,
H=Encoder(X), (2)
其中,函数Encoder(X)可以由一个或更多个层叠的递归神经网络(RNN)组成。RNN可以实现为长短期记忆(LSTM),其在每个隐藏单元中具有输入门、忘记门、输出门和记忆单元。另一个RNN可以是双向RNN(BRNN)或双向LSTM(BLSTM)。BLSTM是一对LSTM RNN,一个是前向LSTM并且另一个是后向LSTM。获得BLSTM的隐藏向量作为前向LSTM和后向LSTM的隐藏向量的级联。
利用前向LSTM,前向第t个隐藏向量被计算为
其中,σ(·)是逐元素的sigmoid函数,tanh(·)是逐元素双曲正切函数, 和分别是xt的输入门、忘记门、输出门和单元激活向量。⊙表示向量之间的逐元素乘法。权重矩阵和偏差向量是LSTM的参数,由下标z∈{x,h,i,f,o,c}来标识。例如,是隐藏到输入门矩阵,是输入到输出门矩阵。从输入向量xt和先前隐藏向量递归地获得隐藏向量其中假设为零向量。
利用后向LSTM,后向第t个隐藏向量被计算为
其中,和分别是xt的输入门、忘记门、输出门和单元激活向量。权重矩阵和偏差向量是LSTM的参数,其按照与前向LSTM相同的方式由下标来标识。隐藏向量由输入向量xt和随后的隐藏向量递归地获得,其中假设为零向量。
通过按照下式将前向隐藏向量和后向隐藏向量级联来获得BLSTM的隐藏向量:
其中,假设所有向量为列向量,表示向量的转置操作。和被认为BLSTM的参数。
为了获得更好的隐藏向量,我们可以通过将第一BLSTM的隐藏向量馈送到第二BLSTM,然后将第二BLSTM的隐藏向量馈送到第三BLSTM,等等来层叠多个BLSTM。如果ht′是由一个BLSTM获得的隐藏向量,则当将其馈送给另一BLSTM时,我们假设xt=ht′。为了减少计算,可以仅将一个BLSTM的每个第二隐藏向量馈送到另一BLSTM。在这种情况下,输出隐藏向量序列的长度变为输入声学特征序列长度的一半。
注意力解码器模块104包括用于使用隐藏向量序列H计算标签序列概率p(Y|X)的解码器网络。假设Y是长度为L的标签序列y1,y2,...,yL。为了有效地计算p(Y|X),能够通过概率链规则将概率分解为:
并且每个标签概率p(yl|y1,…,yl-1,X)是从标签上的概率分布获得的,其使用解码器网络估计为:
p(y|y1,…,yl-1,X)=Decoder(rl,ql-1), (15)
其中,y是表示标签的随机变量,rl称为内容向量,其具有H的内容信息。ql-1其解码器状态向量,其包含先前内容向量r0,…,rl-1和先前标签y1,…,yl-1的上下文信息。因此,标签概率是给定上下文按照概率y=yl获得的,即,
p(yl|y1,…,yl-1,X)=p(y=yl|y1,…,yl-1,X) (16)
内容向量rl通常由编码器网络的隐藏向量的加权和来给出,即,
其中,alt被称为注意力权重,满足∑talt=1。注意力权重能够使用ql-1和H计算为:
elt=wTtanh(Wql-1+Vht+Uflt+b) (18)
fl=F*al-1 (19)
其中,W、V、F和U是矩阵,并且w和b是向量,其是解码器网络的可训练参数。elt是第(l-1)状态向量ql-1和第t隐藏向量ht之间的匹配得分,以形成时间对齐分布al={alt|t=1,…,T}。al-1表示用于预测先前标签yl-1的先前对齐分布{a(l-1)t|t=1,…,T}。fl={flt|t=1,…,T}是F对于al-1的卷积结果,这用于将先前对齐反映到当前对齐。“*”表示卷积运算。
利用状态向量ql-1和内容向量rl按照下式获得标签概率分布:
Decoder(rl,ql-1)=softmax(Wqyql-1+Wryrl+by), (21)
其中,Wqy和Wry是矩阵并且by是向量,它们是解码器网络的可训练参数。对于K维向量v,softmax()函数按照下式进行计算:
其中v[i]表示v的第i元素。
之后,使用LSTM按照下式将解码器状态向量ql-1更新至ql
其中,和分别是输入向量xl的输入门、忘记门、输出门和单元激活向量。权重矩阵和偏差向量是LSTM的参数,其按照与前向LSTM相同的方式由下标来标识。状态向量ql由输入向量和先前状态向量ql-1递归地获得,其中假设q-1=0、y0=<sos>并且a0=1/T来计算q0。对于解码器网络,输入向量按照标签yl和内容向量rl的级联向量来给出,其能够按照获得,其中Embed(·)表示将标签转换为固定维向量的标签嵌入。
在基于注意力的语音识别中,估计适当的注意力权重对于预测正确的标签非常重要,这是因为内容向量rl深度依赖于对齐分布al,如式(17)所示。在语音识别中,内容向量表示在对齐分布的峰值周围的编码器的隐藏向量中的声学信息,并且声学信息是预测标签yl的最重要线索。不过,注意力机制通常提供不规则的对齐分布,这是因为没有明确的约束,因此当递增预测yl时,分布的峰值沿着时间单调地前进。在语音识别中,输入序列和输出序列之间的对齐通常应该是单调的。虽然卷积特征flt减轻了生成不规则对齐,但它不足以避免不规则对齐。
基于CTC/注意力的联合的端到端语音识别
在根据本发明的实施方式的使用端到端语音识别模块200执行端到端语音识别的方法中,CTC前向概率式(34)与式(14)中基于注意力的概率相结合,以获得更准确的标签序列概率。
CTC模块208在给定隐藏向量序列H的情况下计算标签序列Y的CTC前向概率。注意CTC公式使用具有离散标签集合的长度为L的标签序列。通过引入具有附加“空白”标签的逐帧标签序列,Z={zt∈u∪{b}|t=1,…,T},其中b表示空白标签。通过使用概率链规则和条件独立假设,后验分布p(Y|X)可以被分解为如下:
其中p(zt|zt-1|Y)被认为是包括空白标签的标签过渡概率。p(zt|X)是以输入序列X为条件并且通过使用双向长短期记忆(BLSTM)来建模的逐帧后验分布:
其中ht是用编码器网络获得的。是矩阵并且是向量,它们是CTC的可训练参数。尽管式(28)必须处理对于所有可能Z的总和,但是它通过使用前向算法有效地进行计算。
如下执行针对CTC的前向算法。我们使用长度2L+1的扩展标签序列Y′=y′1,′2,…,y′2L+1=b,y1,b,y2,…,b,yL,其中,空白标签“b”插入在每对相邻标签之间。假设αt(s)是前向概率,其表示标签序列y1,…,yl对于时间帧1,…,t的后验概率,其中s表示在扩展标签序列Y′中的位置。
对于初始化,我们设置
α1(1)=p(z1=b|X) (30)
α1(2)=p(z1=y1|X) (31)
对于t=2至T,按照以下递归地计算αt(s):
其中,
最后,按照下式获得基于CTC的标签序列概率:
p(Y|X)=αT(2L+1)+αT(2L) (35)
逐帧标签序列Z表示输入声学特征序列X和输出标签序列Y之间的对齐。当计算前向概率时,式(33)的递归强制Z单调,并且在对齐Z中不允许s的循环或大跳跃,这是因为获取αt(s)的递归最多只考虑αt-1(s)、αt-1(s-1)、αt-1(s-2)。这意味着当时间帧前进一帧时,标签会从先前标签或空白改变,或者保持相同的标签。该约束起到过渡概率p(zt|zt-1,Y)的作用,该过渡概率将对齐强制为单调的。因此,当基于不规则(非单调)对齐计算时,p(Y|X)能够是0或非常小的值。
图3是例示了根据本发明的实施方式的组合神经网络模块300的示意图。组合神经网络300包括编码器网络模块202、注意力解码器网络模块204和CTC模块208。每个箭头表示具有变换或不具有变换的数据传输,并且每个方形或圆形节点表示向量或预测标签。声学特征序列X=x1,…,xT被馈送到编码器网络模块202,其中两个BLSTM层叠,并且第一BLSTM的每个第二隐藏向量被馈送到第二BLSTM。编码器模块202的输出导致隐藏向量序列H=h′1,h′2,…,h′T′,其中T′=T/2。然后,H被馈送到CTC模块208和解码器网络模块204。基于CTC的序列概率和基于注意力的序列概率分别利用CTC模块208和解码器网络模块204来计算,并被组合以获得标签序列概率。
在本发明的实施方式中,概率可以按照下式在对数域中组合
logp(Y|X)=λlogpctc(Y|X)+(1-λ)logpatt(Y|X) (36)
其中,pctc(Y|X)是式(35)中基于CTC的标签序列概率并且patt(Y|X)是式(14)中基于注意力的标签序列概率。λ是缩放因子,以使基于CTC的概率和基于注意力的概率平衡。
标签序列搜索
标签序列搜索模块206根据标签序列概率分布p(Y|X)找到最可能的标签序列即,
在现有技术的基于注意力的语音识别中,假设p(Y|X)是patt(Y|X)。在本发明的实施方式中,通过如式(36)中的标签序列概率的组合来计算p(Y|X),即,根据下式找到
然而,因为可能的标签序列的数量与序列的长度呈指数增加,所以难以列举Y的所有可能的标记序列并且难以计算p(Y|X)。因此,通常使用波束搜索技术来查找其中首先生成较短的标签序列假设,并且仅扩展具有比其它假设更高得分的有限数量的假设以获得更长的假设。最后,在到达序列结尾的完整假设中选择最佳标签序列假设。
在波束搜索过程中,解码器需要计算每个标签序列假设的得分。然而,在波束搜索中将基于CTC的得分和基于注意力的得分组合并非易事,这是因为注意力解码器与输出标签同步地执行波束搜索,而CTC与帧同步地执行波束搜索。为了将CTC概率合并到假设得分中,根据本发明的实施方式的标签序列搜索模块206可以使用下述两种方法中的任一种。
(1)重新评分法
第一种方法是两轮法。第一轮使用波束搜索找到完整假设集,其中仅考虑基于注意力的得分。第二轮通过使用如式(36)所示的CTC概率和注意力概率的组合对完整假设重新评分,并找到最佳标签序列假设。
利用重新评分法,标签序列搜索模块206找到如下设Ωl是长度为l的部分假设集。在第一轮波束搜索开始时,Ω0仅包含带有起始符号<sos>的一个假设。对于l=1至Lmax,通过附加可能的单个标签来扩展Ωl-1中的每个部分假设,并且将新假设存储在Ωl中,其中Lmax是要搜索的假设的最大长度。每个新假设的得分按照如下在对数域中计算:
ψatt(h)=ψatt(g)+logpatt(y|g,X), (39)
其中g是Ωl-1中的部分假设,y是附加到g的单个标签,并且h是新假设,即,h=g·y。概率patt(y|g)能够通过式(16)计算,其中,我们假设ψatt(<sos>)=0。
如果y是表示序列结尾的特殊标签<eos>,则h添加到但不添加到Ωl,其中Ω表示完整假设集。
第二轮基于CTC得分和注意力得分的组合按照下式找到
其中,CTC得分ψctc(h,X)计算为logpctc(h|X)。
在波束搜索过程中,允许Ωl仅保持具有较高得分的有限数量的假设,并且剪除其它假设以提高搜索效率。
重新评分法的更具体的过程总结如下。
Input:X,Lmax
Output:
在该过程中,Ωl和被实现为分别接收长度为l的部分假设以及完整假设的队列。在第1-2行中,Ω0和被初始化为空队列。在第3行中,初始假设<sos>的得分被设置为0。在第4-23行中,Ωl-1中的每个部分假设g通过标签集合中的每个标签y扩展,其中操作Head(Ω)返回队列Ω中的第一假设,并且Dequeue(Ω)将第一假设移出队列。
在第11行中,使用注意力解码器网络对每个扩展假设h进行评分。之后,如果y=<eos>,则在第13行假设h是完整的并且存储在中,其中是将h添加到的操作。如果y≠<eos>,则在第15行中将h存储在Ωl中,其中,在第16行中,将Ωl中假设的数量(即,|Ωl|)与预定数量beamWidth进行比较。如果|Ωl|超过beamWidth,则在第17-18行中从Ωl中去除具有最小得分hmin的假设,其中Remove(Ωl,hmin)是从Ωl中去除hmin的操作。最后,在第24行中选择作为最佳假设。
(2)一轮法
第二种方法是一轮法,其在波束搜索期间计算每个部分假设的得分作为基于CTC的概率和基于注意力的概率的组合。这里,我们利用被定义为具有h作为其前缀的所有标签序列的累积概率的CTC前缀概率:
并且我们定义CTC得分为:
其中,v表示除空串之外的所有可能的标签序列。不能如式(39)那样递归获得CTC得分,但是能够通过针对每个部分假设保留输入时间帧上的前向概率有效地计算CTC得分。然后,使用缩放因子λ将其与ψatt(h)组合。
通过一轮法,标签序列搜索模块206根据以下过程找到
Input:X,Lmax
Output
与重新评分法不同的是第12行和第18行,在第12中使用CTC得分ψctc(h,X)和基于注意力的得分ψatt(h)计算联合得分ψjoint(h),在第18行中,使用联合得分ψjoint(h)来选择hmin。
能够使用修正的前向算法来计算CTC得分ψctc(h,X)。设和是假设h在时间帧1…t上的前向概率,其中上标(n)和(b)分别表示其中所有CTC路径以非空白标签和空白标签结束的不同情况。在波束搜索开始之前,针对t=1,…,T,按照下式初始化和
其中,我们假设并且b是空白标签。注意,由于编码器的子采样技术,时间索引t和输入长度T可以与输入话语X的不同。CTC得分函数能够如下实现。
Input:h,X
Output:ψctc(h,X)
在该函数中,给定假设h在第1行中首先被分割为最后标签y和其余标签g。如果y是<eos>,则在第3行中假定h是完整假设,其返回前向概率的算法。根据和的定义,h的前向概率由下式给出:
如果y不是<eos>,则假定h不是完整假设,计算前向概率和以及前缀概率Ψ=pctc(h,…|X)。在第5-13行中描述了关于那些概率的初始化和递归步骤。在该函数中,假定不论何时在第10-12行中计算和Ψ,已经通过波束搜索过程获得第9行中的概率和这是因为g是h的前缀,使得|g|<|h|。因此,能够有效地计算前缀概率和前向概率。注意,在第9行中的last(g)是返回g的最后标签的函数。
因此,一轮法能够在波束搜索期间通过CTC得分排除具有不规则对齐的部分假设,并且希望与重新评分法相比以更少的计算来减少搜索错误的次数。搜索错误意味着波束搜索错过最可能的假设。在这种情况下,获得具有较低得分的备选假设而不是最佳假设,其中备选假设通常包含比最佳假设更多的识别错误。
网络训练
在训练阶段,所有网络参数203、205和209联合优化以减少损失函数:
其中,X和Y是包括声学特征序列和标签序列的训练数据。Φ表示网络参数集。N是训练样本数量,Xn和Yn分别是训练数据中的第n个声学特征序列和相应标签序列。pctc(Yn|Xn,Φ)是基于CTC的序列概率,并且patt(Yn|Xn,Φ)是基于注意力的序列概率。可以通过随机梯度下降法来优化网络参数。
训练过程使编码器、解码器和CTC网络联合优化。但是该方法仅使用CTC网络来使用于现有技术的基于注意力的端到端语音识别的编码器和解码器参数规则化。CTC网络在训练后被放弃并且在识别阶段中不被使用。在本发明的方法中,CTC网络用于在识别阶段中预测序列概率p(Y|X),这减少了识别错误。这是本公开的实施方式的显著优点之一。
端到端语音识别设备
图4示出了根据本发明的一些实施方式的端到端语音识别系统400的框图。端到端语音识别系统400包括可与键盘411和定点装置/介质412连接的人机接口(HMI)410、一个或更多个处理器420、储存装置430、存储器440、可与包括局域网和互联网的网络490连接的网络接口控制器450(NIC)、显示接口460、可与麦克风装置475连接的音频接口470、可与打印装置485连接的打印机接口480。存储器440可以是一个或更多个存储器单元。端到端语音识别系统400能够经由连接到NIC 450的网络490接收电音频波形/频谱数据495。储存装置430包括端到端语音识别模块200、注意力解码器网络模块204、编码器网络模块202、CTC模块208和声学特征提取模块434。图中省略了标签序列搜索模块、编码器网络参数、解码器网络参数和CTC网络参数。定点装置/介质412可以包括读取计算机可读记录介质上所存储的程序的模块。注意力解码器网络模块204、编码器网络模块202和CTC模块208可以由神经网络参数形成。声学特征提取模块434是用于提取声学特征序列的程序。声学特征序列可以是具有它们的一阶和二阶时间导数和/或音调特征的梅尔标度(mel-scale)滤波器组系数的序列。
为了执行端到端语音识别,可以使用键盘411、定点装置/介质412或经由连接到其它计算机(图中未示出)的网络490向端到端语音识别系统400发送指令。系统400经由HMI410接收指令,并通过加载储存装置430中所存储的端到端语音识别模块200、注意力解码器网络模块204、编码器网络模块202、CTC模块208和声学特征提取模块434,使用处理器420结合存储器440执行用于执行端到端语音识别的指令。
评估结果
我们使用日语和中国普通话语音识别基准来呈现本发明的效果。
日语口语语料库(CSJ)
我们通过使用日语口语语料库(CSJ:MAEKAWA,K.,KOISO,H.,FURUI,S.,ANDISAHARA,H.Spontaneous speech corpus of Japanese.In International Conferenceon Language Resources and Evaluation(LREC)(2000),vol.2,pp.947–952.:前川.K、小矶.H、古井.S和谏早.H在语音资源和评估国际大会(LREC)(2000)中的第2卷,第947-952页中的日语自发语音语料库)来证明语音识别实验。CSJ是一种基于包括学术讲座和模拟演示的一系列独白语音数据的标准日语语音识别任务。它共有581小时的训练数据和三种评估数据(任务1、任务2、任务3),每个评估任务由10个讲座(总共5个小时)组成。作为输入特征,我们使用了40个梅尔标度滤波器组系数,利用它们的一阶和二阶时间导数来获得每帧总共120维特征向量。编码器是4层BLSTM,在每个层和方向上具有320个单元,并且每个BLSTM层之后是线性投影层。编码器的第二和第三底层读取下面网络中的每个第二隐藏向量,将话语长度减少4分之一。我们使用基于位置的注意力机制,其中使用宽度为100的10个中央卷积滤波器来提取卷积特征。解码器网络是具有320个单元的1层LSTM。具有梯度裁剪的阿尔法德耳塔(AdaDelta)算法被用于进行优化。在多任务学习方法中训练编码器、解码器和CTC网络,其中缩放因子λ被设置为0.1。
图5比较了传统的基于注意力的语音识别和本发明的字符错误率(CER)。图5中的表格示出了通过本发明在所有三个任务中减少了现有技术的CER,其中缩放因子被设置为0.1。在本发明中,一轮法在任务1和任务3中略好于重新评分法。
中国普通话电话语音
我们针对HKUST中国普通话会话电话语音识别(MTS)来证明实验。它具有用于评估的5小时记录(Eval集),并且我们从训练数据中提取5个小时作为开发集(Dev集),并使用其余的(167小时)作为训练集。除了基于我们的初步调查,我们在训练和解码中使用λ=0.5代替0.1并且使用具有音调特征的80个梅尔标度滤波器组系数之外,所有实验条件与CSJ实验中的相同。图6示出了本发明相对于现有技术的基于注意力的方法的效果。在开发集和评估集中,CER都显著减少。与CSJ实验一样,一轮法在两个集中都略好于重新评分法。
在本公开的一些实施方式中,当上述端到端语音识别系统被安装在计算机系统中时,能够用较少的计算能力有效且准确地执行语音识别,由此使用本公开的端到端语音识别方法或系统能够减少中央处理单元的使用和功耗。
此外,根据本公开的实施方式提供了用于执行端到端语音识别的有效方法,因此,使用端到端语音识别模型的方法和系统的使用能够减少中央处理单元(CPU)的使用、功耗和/或网络带宽使用。
能够以大量方式中的任何一种来实现本公开的上述实施方式。例如,可以使用硬件、软件或其组合来实现实施方式。当以软件实现时,无论是设置在单个计算机中还是分布在多个计算机之间,软件代码都能够在任何合适的处理器或处理器集合上执行。这样的处理器可以实现为集成电路,其中在集成电路组件中具有一个或更多个处理器。但是,可以使用任何合适格式的电路来实现处理器。
另外,本文概述的各种方法或过程可以被编码为软件,该软件在采用各种操作系统或平台中的任何一种的一个或更多个处理器上可执行。另外,可以使用许多合适编程语言和/或编程或脚本工具中的任何一种来编写这样的软件,并且还可以将这样的软件编译为在框架或虚拟机上执行的可执行机器语言代码或中间代码。通常,程序模块的功能可以根据需要在各种实施方式中组合或分布。
此外,本公开的实施方式可以体现为已经提供了其示例的方法。作为方法的一部分执行的动作可以以任何合适的方式排序。因此,实施方式可以被构造为其中以不同于所示顺序的顺序执行动作,其可以包括同时执行一些动作,即使这些动作在示例性实施方式中示出为顺序动作。此外,在权利要求中使用诸如第一、第二之类的序数术语来修改权利要求元素本身并不意味着一个权利要求元素相对于另一个权利要求元素有任何优先级、优先顺序或次序,也不意味着执行方法的动作的时间顺序,而是仅用作标签来将具有特定名称的一个权利要求元件与具有相同名称(但是使用了序数术语)的另一个元件区分开,以区分权利要求元件。
Claims (20)
1.一种语音识别系统,该语音识别系统包括:
输入装置,该输入装置接收声音;
一个或更多个处理器;以及
一个或更多个储存装置,所述一个或更多个储存装置存储参数和程序模块,所述程序模块包含能够由所述一个或更多个处理器执行的指令,所述指令在被执行时使得所述一个或更多个处理器执行包括以下项的操作:
使用声学特征提取模块从由声音转换的音频波形数据中提取声学特征序列;
使用具有编码器网络参数的编码器网络将所述声学特征序列编码为隐藏向量序列;
通过将所述隐藏向量序列馈送到具有解码器网络参数的解码器网络来预测第一输出标签序列概率;
使用联结主义时间分类CTC网络参数和来自所述编码器网络的所述隐藏向量序列,由CTC模块来预测第二输出标签序列概率;以及
使用标签序列搜索模块,通过将从所述解码器网络和所述CTC模块提供的所述第一输出标签序列概率和所述第二输出标签序列概率组合,来搜索具有最高序列概率的输出标签序列。
2.根据权利要求1所述的语音识别系统,其中,所述解码器网络在预测所述第一输出标签序列概率之前从所述标签序列搜索模块接收先前标签。
3.根据权利要求1所述的语音识别系统,其中,所述CTC模块在预测所述第二输出标签序列概率之前从所述标签序列搜索模块接收先前标签。
4.根据权利要求1所述的语音识别系统,其中,所述编码器网络包括层叠的双向长短期记忆BLSTM。
5.根据权利要求1所述的语音识别系统,其中,所述解码器网络包括层叠的长短期记忆LSTM,并且使用针对所述隐藏向量序列的注意力机制来预测每个输出标签序列概率。
6.根据权利要求1所述的语音识别系统,其中,对数域中的线性组合用于将所述第一输出标签序列概率和所述第二输出标签序列概率组合。
7.根据权利要求1所述的语音识别系统,其中,搜索操作使用波束搜索,以找到具有所述最高序列概率的所述输出标签序列,所述最高序列概率通过将从所述解码器网络和所述CTC模块提供的所述第一输出标签序列概率和所述第二输出标签序列概率组合而获得。
8.根据权利要求7所述的语音识别系统,其中,所述波束搜索首先使用从所述解码器网络提供的所述第一标签序列概率找到完整标签序列假设集,然后从该完整标签序列假设集中找到具有所述最高序列概率的所述输出标签序列,所述最高序列概率通过将从所述解码器网络和所述CTC模块提供的所述第一输出标签序列概率和所述第二输出标签序列概率组合而获得。
9.根据权利要求7所述的语音识别系统,其中,所述波束搜索剪掉与其它不完整标签序列假设相比具有低序列概率的不完整标签序列假设,并且该序列概率是通过将从所述解码器网络和所述CTC模块提供的所述第一输出标签序列概率和所述第二输出标签序列概率组合而获得的。
10.根据权利要求1所述的语音识别系统,其中,所述CTC模块使用所述CTC网络参数和动态编程技术来计算后验概率分布,以预测所述第二输出标签序列概率。
11.一种语音识别方法,该语音识别方法包括以下步骤:
使用声学特征提取模块,从由输入装置接收的声音转换的音频波形数据中提取声学特征序列;
使用从一个或更多个储存装置获取编码器网络参数的编码器网络,将所述声学特征序列编码为隐藏向量序列;
通过将所述隐藏向量序列馈送到从所述一个或更多个储存装置获取解码器网络参数的解码器网络,来预测第一输出标签序列概率;
由联结主义时间分类CTC模块使用CTC网络参数和来自所述编码器网络的所述隐藏向量序列,来预测第二输出标签序列概率;以及
使用标签序列搜索模块,通过将从所述解码器网络和所述CTC模块提供的所述第一输出标签序列概率和所述第二输出标签序列概率组合,来搜索具有最高序列概率的输出标签序列。
12.根据权利要求11所述的方法,其中,在预测所述第一输出标签序列概率之前,所述解码器网络从所述标签序列搜索模块接收先前标签。
13.根据权利要求11所述的方法,其中,在预测所述第二输出标签序列概率之前,所述CTC模块从所述标签序列搜索模块接收先前标签。
14.根据权利要求11所述的方法,其中,所述编码器网络包括层叠的双向长短期记忆BLSTM。
15.根据权利要求11所述的方法,其中,所述解码器网络包括层叠的长短期记忆LSTM,并且使用针对所述隐藏向量序列的注意力机制来预测每个输出标签序列概率。
16.根据权利要求11所述的方法,其中,对数域中的线性组合用于将所述第一输出标签序列概率和所述第二输出标签序列概率组合。
17.根据权利要求11所述的方法,其中,搜索步骤使用波束搜索,以找到具有所述最高序列概率的所述输出标签序列,所述最高序列概率通过将从所述解码器网络和所述CTC模块提供的所述第一输出标签序列概率和所述第二输出标签序列概率组合而获得。
18.根据权利要求17所述的方法,其中,所述波束搜索首先使用从所述解码器网络提供的所述第一标签序列概率找到完整标签序列假设集,然后从所述完整标签序列假设集中找出具有所述最高序列概率的所述输出标签序列,所述最高序列概率通过将从所述解码器网络和所述CTC模块提供的所述第一输出标签序列概率和所述第二输出标签序列概率组合而获得。
19.根据权利要求17所述的方法,其中,所述波束搜索剪掉与其它不完整标签序列假设相比具有低序列概率的不完整标签序列假设,并且该序列概率是通过将从所述解码器网络和所述CTC模块提供的所述第一输出标签序列概率和所述第二输出标签序列概率组合而获得的。
20.根据权利要求11所述的方法,其中,所述CTC模块使用所述CTC网络参数和动态编程技术来计算后验概率分布,以预测所述第二输出标签序列概率。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/592,527 US20180330718A1 (en) | 2017-05-11 | 2017-05-11 | System and Method for End-to-End speech recognition |
US15/592,527 | 2017-05-11 | ||
PCT/JP2017/041384 WO2018207390A1 (en) | 2017-05-11 | 2017-11-10 | Speech recognition system and method for speech recognition |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110603583A true CN110603583A (zh) | 2019-12-20 |
CN110603583B CN110603583B (zh) | 2023-10-24 |
Family
ID=60655036
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780090477.5A Active CN110603583B (zh) | 2017-05-11 | 2017-11-10 | 语音识别系统和用于语音识别的方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20180330718A1 (zh) |
EP (1) | EP3417451B1 (zh) |
JP (1) | JP6827548B2 (zh) |
CN (1) | CN110603583B (zh) |
WO (1) | WO2018207390A1 (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111243574A (zh) * | 2020-01-13 | 2020-06-05 | 苏州奇梦者网络科技有限公司 | 一种语音模型自适应训练方法、系统、装置及存储介质 |
CN111524519A (zh) * | 2020-05-28 | 2020-08-11 | 中国科学技术大学 | 采用高级特征融合的端到端多通道语音识别方法 |
CN111968622A (zh) * | 2020-08-18 | 2020-11-20 | 广州市优普科技有限公司 | 一种基于注意力机制的语音识别方法、系统及装置 |
CN113488052A (zh) * | 2021-07-22 | 2021-10-08 | 深圳鑫思威科技有限公司 | 无线语音传输和ai语音识别互操控方法 |
CN114007075A (zh) * | 2021-11-30 | 2022-02-01 | 沈阳雅译网络技术有限公司 | 一种面向声学编码的逐步压缩方法 |
Families Citing this family (64)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102692670B1 (ko) * | 2017-01-04 | 2024-08-06 | 삼성전자주식회사 | 음성 인식 방법 및 음성 인식 장치 |
US10706840B2 (en) * | 2017-08-18 | 2020-07-07 | Google Llc | Encoder-decoder models for sequence to sequence mapping |
CN107680587A (zh) * | 2017-09-29 | 2018-02-09 | 百度在线网络技术(北京)有限公司 | 声学模型训练方法和装置 |
CN107680597B (zh) * | 2017-10-23 | 2019-07-09 | 平安科技(深圳)有限公司 | 语音识别方法、装置、设备以及计算机可读存储介质 |
JP6894534B2 (ja) * | 2017-10-31 | 2021-06-30 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | 情報処理方法及び端末、コンピュータ記憶媒体 |
KR102608469B1 (ko) * | 2017-12-22 | 2023-12-01 | 삼성전자주식회사 | 자연어 생성 방법 및 장치 |
JP6831343B2 (ja) * | 2018-02-01 | 2021-02-17 | 日本電信電話株式会社 | 学習装置、学習方法及び学習プログラム |
JP6911785B2 (ja) * | 2018-02-02 | 2021-07-28 | 日本電信電話株式会社 | 判定装置、判定方法及び判定プログラム |
JP6849621B2 (ja) * | 2018-02-02 | 2021-03-24 | 日本電信電話株式会社 | 学習装置、学習方法及び学習プログラム |
US10580432B2 (en) * | 2018-02-28 | 2020-03-03 | Microsoft Technology Licensing, Llc | Speech recognition using connectionist temporal classification |
JP7095756B2 (ja) * | 2018-06-29 | 2022-07-05 | 日本電気株式会社 | 音声特徴量抽出装置、音声特徴量抽出方法、及びプログラム |
US11210475B2 (en) | 2018-07-23 | 2021-12-28 | Google Llc | Enhanced attention mechanisms |
US11107463B2 (en) | 2018-08-01 | 2021-08-31 | Google Llc | Minimum word error rate training for attention-based sequence-to-sequence models |
US11257481B2 (en) * | 2018-10-24 | 2022-02-22 | Tencent America LLC | Multi-task training architecture and strategy for attention-based speech recognition system |
CN111429889B (zh) * | 2019-01-08 | 2023-04-28 | 百度在线网络技术(北京)有限公司 | 基于截断注意力的实时语音识别的方法、装置、设备以及计算机可读存储介质 |
CN109829579B (zh) * | 2019-01-22 | 2023-01-24 | 平安科技(深圳)有限公司 | 最短路线计算方法、装置、计算机设备和存储介质 |
CN111476258B (zh) * | 2019-01-24 | 2024-01-05 | 杭州海康威视数字技术股份有限公司 | 一种基于注意力机制的特征提取方法、装置及电子设备 |
US11037547B2 (en) * | 2019-02-14 | 2021-06-15 | Tencent America LLC | Token-wise training for attention based end-to-end speech recognition |
CN111613215B (zh) * | 2019-02-22 | 2023-06-23 | 浙江大学 | 一种语音识别的方法及其装置 |
CN109902622B (zh) * | 2019-02-26 | 2020-06-09 | 中国科学院重庆绿色智能技术研究院 | 一种用于登机牌信息验证的文字检测识别方法 |
US11404047B2 (en) * | 2019-03-08 | 2022-08-02 | International Business Machines Corporation | Feature and feature variant reconstruction for recurrent model accuracy improvement in speech recognition |
US11210547B2 (en) * | 2019-03-20 | 2021-12-28 | NavInfo Europe B.V. | Real-time scene understanding system |
US11100920B2 (en) * | 2019-03-25 | 2021-08-24 | Mitsubishi Electric Research Laboratories, Inc. | System and method for end-to-end speech recognition with triggered attention |
US11170789B2 (en) * | 2019-04-16 | 2021-11-09 | Microsoft Technology Licensing, Llc | Attentive adversarial domain-invariant training |
CN113874935A (zh) * | 2019-05-10 | 2021-12-31 | 谷歌有限责任公司 | 将上下文信息与端到端模型一起用于语音识别 |
CN110287285B (zh) * | 2019-05-31 | 2023-06-16 | 平安科技(深圳)有限公司 | 一种问题意图识别方法、装置、计算机设备及存储介质 |
CN110189748B (zh) * | 2019-05-31 | 2021-06-11 | 百度在线网络技术(北京)有限公司 | 模型构建方法和装置 |
CN114097025A (zh) | 2019-06-04 | 2022-02-25 | 谷歌有限责任公司 | 两遍端到端语音识别 |
CN110348482B (zh) * | 2019-06-05 | 2023-06-02 | 华东理工大学 | 一种基于深度模型集成架构的语音情感识别系统 |
CN110444203B (zh) * | 2019-07-17 | 2024-02-27 | 腾讯科技(深圳)有限公司 | 语音识别方法、装置及电子设备 |
CN110556114B (zh) * | 2019-07-26 | 2022-06-17 | 国家计算机网络与信息安全管理中心 | 基于注意力机制的通话人识别方法及装置 |
US12175965B2 (en) | 2019-07-30 | 2024-12-24 | Dolby Laboratories Licensing Corporation | Method and apparatus for normalizing features extracted from audio data for signal recognition or modification |
US12125481B2 (en) * | 2019-08-08 | 2024-10-22 | Nippon Telegraph And Telephone Corporation | Determination device, training device, determination method, and determination program |
US11158303B2 (en) | 2019-08-27 | 2021-10-26 | International Business Machines Corporation | Soft-forgetting for connectionist temporal classification based automatic speech recognition |
US11302309B2 (en) | 2019-09-13 | 2022-04-12 | International Business Machines Corporation | Aligning spike timing of models for maching learning |
CN114270434A (zh) | 2019-12-04 | 2022-04-01 | 谷歌有限责任公司 | 两遍端到端语音识别 |
JP7298714B2 (ja) * | 2019-12-09 | 2023-06-27 | 日本電信電話株式会社 | モデル学習装置、音声認識装置、それらの方法、およびプログラム |
US11373639B2 (en) * | 2019-12-12 | 2022-06-28 | Mitsubishi Electric Research Laboratories, Inc. | System and method for streaming end-to-end speech recognition with asynchronous decoders pruning prefixes using a joint label and frame information in transcribing technique |
CN111128191B (zh) * | 2019-12-31 | 2023-03-28 | 中国科学院声学研究所 | 一种在线端对端语音转写方法及系统 |
CN111242113B (zh) * | 2020-01-08 | 2022-07-08 | 重庆邮电大学 | 一种任意方向自然场景文本识别方法 |
CN111243578A (zh) * | 2020-01-10 | 2020-06-05 | 中国科学院声学研究所 | 一种基于自注意力机制的中文普通话字音转换方法 |
CN113112993B (zh) * | 2020-01-10 | 2024-04-02 | 阿里巴巴集团控股有限公司 | 一种音频信息处理方法、装置、电子设备以及存储介质 |
KR20220128401A (ko) | 2020-01-22 | 2022-09-20 | 구글 엘엘씨 | 어텐션-기반 조인트 음향 및 텍스트 온-디바이스 E2E(End-To-End) 모델 |
CN111276131B (zh) * | 2020-01-22 | 2021-01-12 | 厦门大学 | 一种基于深度神经网络的多类声学特征整合方法和系统 |
JP7351018B2 (ja) | 2020-01-28 | 2023-09-26 | グーグル エルエルシー | エンド・ツー・エンド音声認識における固有名詞認識 |
JP7274441B2 (ja) * | 2020-04-02 | 2023-05-16 | 日本電信電話株式会社 | 学習装置、学習方法および学習プログラム |
CN111540344B (zh) * | 2020-04-21 | 2022-01-21 | 北京字节跳动网络技术有限公司 | 声学网络模型训练方法、装置及电子设备 |
CN113593539B (zh) * | 2020-04-30 | 2024-08-02 | 阿里巴巴集团控股有限公司 | 流式端到端语音识别方法、装置及电子设备 |
EP4128219B1 (en) * | 2020-05-07 | 2024-01-10 | Google LLC | Emitting word timings with end-to-end models |
US20210358490A1 (en) * | 2020-05-18 | 2021-11-18 | Nvidia Corporation | End of speech detection using one or more neural networks |
JP7340199B2 (ja) * | 2020-07-17 | 2023-09-07 | 日本電信電話株式会社 | 学習装置、推論装置、学習方法、推論方法及びプログラム |
WO2022024202A1 (ja) * | 2020-07-27 | 2022-02-03 | 日本電信電話株式会社 | 学習装置、音声認識装置、学習方法、音声認識方法、学習プログラム及び音声認識プログラム |
KR102386627B1 (ko) * | 2020-08-25 | 2022-04-14 | 주식회사 카카오엔터프라이즈 | 음성 인식에 관한 빔 서치 방법 및 장치 |
CN111933115B (zh) * | 2020-10-12 | 2021-02-09 | 腾讯科技(深圳)有限公司 | 语音识别方法、装置、设备以及存储介质 |
CN112233664B (zh) * | 2020-10-15 | 2021-11-09 | 北京百度网讯科技有限公司 | 语义预测网络的训练方法、装置、设备以及存储介质 |
US12094453B2 (en) | 2020-10-20 | 2024-09-17 | Google Llc | Fast emit low-latency streaming ASR with sequence-level emission regularization utilizing forward and backward probabilities between nodes of an alignment lattice |
US20220129749A1 (en) * | 2020-10-23 | 2022-04-28 | Mitsubishi Electric Research Laboratories, Inc. | Training a Neural Network using Graph-Based Temporal Classification |
US11817117B2 (en) | 2021-01-29 | 2023-11-14 | Nvidia Corporation | Speaker adaptive end of speech detection for conversational AI applications |
CN113362812B (zh) * | 2021-06-30 | 2024-02-13 | 北京搜狗科技发展有限公司 | 一种语音识别方法、装置和电子设备 |
CN113327600B (zh) * | 2021-06-30 | 2024-07-23 | 北京有竹居网络技术有限公司 | 一种语音识别模型的训练方法、装置及设备 |
CN113539244B (zh) * | 2021-07-22 | 2023-10-03 | 广州虎牙科技有限公司 | 端到端语音识别模型训练方法、语音识别方法及相关装置 |
CN113689866B (zh) * | 2021-08-18 | 2023-04-25 | 北京百度网讯科技有限公司 | 一种语音转换模型的训练方法、装置、电子设备及介质 |
CN114141243A (zh) * | 2021-12-06 | 2022-03-04 | 中国科学技术大学 | 自适应语音识别方法、系统、设备及存储介质 |
US20240037190A1 (en) * | 2022-07-25 | 2024-02-01 | Rakuten Group, Inc. | Multi-output headed ensembles for product classification |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0389271A2 (en) * | 1989-03-24 | 1990-09-26 | International Business Machines Corporation | Matching sequences of labels representing input data and stored data utilising dynamic programming |
GB9712513D0 (en) * | 1995-06-30 | 1997-08-20 | Ricoh Kk | Method using and embedded codestream |
CA2233019A1 (en) * | 1997-03-24 | 1998-09-24 | Octel Communications Corporation | Speech-responsive voice messaging system and method |
US20040148164A1 (en) * | 2003-01-23 | 2004-07-29 | Aurilab, Llc | Dual search acceleration technique for speech recognition |
GB0725207D0 (en) * | 2006-12-27 | 2008-02-06 | Mayer Yaron | System and method for improving the efficiency, comfort, and/or reliability i operating systems, such as for example windows |
CA2632490A1 (en) * | 2007-06-27 | 2008-12-27 | Wanda G. Papadimitriou | Autonomous fitness for service assessment |
US20130157729A1 (en) * | 2011-12-16 | 2013-06-20 | Joseph Akwo Tabe | Energy harvesting computer device in association with a communication device configured with apparatus for boosting signal reception |
US20130231870A1 (en) * | 2012-01-31 | 2013-09-05 | Life Technologies Corporation | Methods and computer program products for compression of sequencing data |
US9263036B1 (en) * | 2012-11-29 | 2016-02-16 | Google Inc. | System and method for speech recognition using deep recurrent neural networks |
US20160358619A1 (en) * | 2015-06-06 | 2016-12-08 | Apple Inc. | Multi-Microphone Speech Recognition Systems and Related Techniques |
EP3133595A1 (en) * | 2015-08-20 | 2017-02-22 | Samsung Electronics Co., Ltd. | Speech recognition apparatus and method |
WO2021201999A1 (en) * | 2020-04-03 | 2021-10-07 | Microsoft Technology Licensing, Llc | Pre-training with alignments for recurrent neural network transducer based end-to-end speech recognition |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6070136A (en) * | 1997-10-27 | 2000-05-30 | Advanced Micro Devices, Inc. | Matrix quantization with vector quantization error compensation for robust speech recognition |
US7464031B2 (en) * | 2003-11-28 | 2008-12-09 | International Business Machines Corporation | Speech recognition utilizing multitude of speech features |
US7899669B2 (en) * | 2005-12-12 | 2011-03-01 | Gregory John Gadbois | Multi-voice speech recognition |
US9128926B2 (en) * | 2006-10-26 | 2015-09-08 | Facebook, Inc. | Simultaneous translation of open domain lectures and speeches |
US8589162B2 (en) * | 2007-09-19 | 2013-11-19 | Nuance Communications, Inc. | Method, system and computer program for enhanced speech recognition of digits input strings |
US9842592B2 (en) * | 2014-02-12 | 2017-12-12 | Google Inc. | Language models using non-linguistic context |
US9786270B2 (en) * | 2015-07-09 | 2017-10-10 | Google Inc. | Generating acoustic models |
US10332509B2 (en) * | 2015-11-25 | 2019-06-25 | Baidu USA, LLC | End-to-end speech recognition |
US9792900B1 (en) * | 2016-04-13 | 2017-10-17 | Malaspina Labs (Barbados), Inc. | Generation of phoneme-experts for speech recognition |
-
2017
- 2017-05-11 US US15/592,527 patent/US20180330718A1/en not_active Abandoned
- 2017-11-10 JP JP2019541213A patent/JP6827548B2/ja active Active
- 2017-11-10 CN CN201780090477.5A patent/CN110603583B/zh active Active
- 2017-11-10 EP EP17812092.9A patent/EP3417451B1/en active Active
- 2017-11-10 WO PCT/JP2017/041384 patent/WO2018207390A1/en active Application Filing
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0389271A2 (en) * | 1989-03-24 | 1990-09-26 | International Business Machines Corporation | Matching sequences of labels representing input data and stored data utilising dynamic programming |
GB9712513D0 (en) * | 1995-06-30 | 1997-08-20 | Ricoh Kk | Method using and embedded codestream |
CA2233019A1 (en) * | 1997-03-24 | 1998-09-24 | Octel Communications Corporation | Speech-responsive voice messaging system and method |
US20040148164A1 (en) * | 2003-01-23 | 2004-07-29 | Aurilab, Llc | Dual search acceleration technique for speech recognition |
GB0725207D0 (en) * | 2006-12-27 | 2008-02-06 | Mayer Yaron | System and method for improving the efficiency, comfort, and/or reliability i operating systems, such as for example windows |
CA2632490A1 (en) * | 2007-06-27 | 2008-12-27 | Wanda G. Papadimitriou | Autonomous fitness for service assessment |
US20130157729A1 (en) * | 2011-12-16 | 2013-06-20 | Joseph Akwo Tabe | Energy harvesting computer device in association with a communication device configured with apparatus for boosting signal reception |
US20130231870A1 (en) * | 2012-01-31 | 2013-09-05 | Life Technologies Corporation | Methods and computer program products for compression of sequencing data |
US9263036B1 (en) * | 2012-11-29 | 2016-02-16 | Google Inc. | System and method for speech recognition using deep recurrent neural networks |
US20160358619A1 (en) * | 2015-06-06 | 2016-12-08 | Apple Inc. | Multi-Microphone Speech Recognition Systems and Related Techniques |
EP3133595A1 (en) * | 2015-08-20 | 2017-02-22 | Samsung Electronics Co., Ltd. | Speech recognition apparatus and method |
WO2021201999A1 (en) * | 2020-04-03 | 2021-10-07 | Microsoft Technology Licensing, Llc | Pre-training with alignments for recurrent neural network transducer based end-to-end speech recognition |
Non-Patent Citations (4)
Title |
---|
DONG YU;JINYU LI;: "Recent Progresses in Deep Learning Based Acoustic Models", IEEE/CAA JOURNAL OF AUTOMATICA SINICA, no. 03 * |
SUYOUN KIM ET AL: "JOINT CTC-ATTENTION BASED END-TO-END SPEECH RECOGNITION USING MULTI-TASK LEARNING", 《2017 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS,SPEECH AND SIGNAL PROCESSING》 * |
SUYOUN KIM ET AL: "JOINT CTC-ATTENTION BASED END-TO-END SPEECH RECOGNITION USING MULTI-TASK LEARNING", 《2017 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS,SPEECH AND SIGNAL PROCESSING》, 9 March 2017 (2017-03-09), pages 4835 - 4839, XP033259329, DOI: 10.1109/ICASSP.2017.7953075 * |
李灿;孙浩;李开;: "基于Deep Speech的语音识别系统的实现与改进", 计算机与数字工程, no. 08 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111243574A (zh) * | 2020-01-13 | 2020-06-05 | 苏州奇梦者网络科技有限公司 | 一种语音模型自适应训练方法、系统、装置及存储介质 |
CN111243574B (zh) * | 2020-01-13 | 2023-01-03 | 苏州奇梦者网络科技有限公司 | 一种语音模型自适应训练方法、系统、装置及存储介质 |
CN111524519A (zh) * | 2020-05-28 | 2020-08-11 | 中国科学技术大学 | 采用高级特征融合的端到端多通道语音识别方法 |
CN111524519B (zh) * | 2020-05-28 | 2022-09-30 | 中国科学技术大学 | 采用高级特征融合的端到端多通道语音识别方法 |
CN111968622A (zh) * | 2020-08-18 | 2020-11-20 | 广州市优普科技有限公司 | 一种基于注意力机制的语音识别方法、系统及装置 |
CN113488052A (zh) * | 2021-07-22 | 2021-10-08 | 深圳鑫思威科技有限公司 | 无线语音传输和ai语音识别互操控方法 |
CN114007075A (zh) * | 2021-11-30 | 2022-02-01 | 沈阳雅译网络技术有限公司 | 一种面向声学编码的逐步压缩方法 |
Also Published As
Publication number | Publication date |
---|---|
EP3417451A1 (en) | 2018-12-26 |
JP6827548B2 (ja) | 2021-02-10 |
US20180330718A1 (en) | 2018-11-15 |
EP3417451B1 (en) | 2019-07-03 |
WO2018207390A1 (en) | 2018-11-15 |
CN110603583B (zh) | 2023-10-24 |
JP2020505650A (ja) | 2020-02-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110603583B (zh) | 语音识别系统和用于语音识别的方法 | |
CN111480197B (zh) | 语音识别系统 | |
JP6818941B2 (ja) | 多言語音声認識ネットワークをトレーニングする方法、音声認識システム及び多言語音声認識システム | |
US12254865B2 (en) | Multi-dialect and multilingual speech recognition | |
Sainath et al. | Exemplar-based sparse representation features: From TIMIT to LVCSR | |
Zenkel et al. | Comparison of decoding strategies for ctc acoustic models | |
EP1473708B1 (en) | Method for recognizing speech | |
JPS62231995A (ja) | 音声認識方法 | |
JP2008262279A (ja) | 音声検索装置 | |
CN117099157A (zh) | 用于端到端自动语音识别置信度和删除估计的多任务学习 | |
KR102344218B1 (ko) | 음성 인식 시스템 및 음성 인식 시스템의 학습 방법 | |
KR20240065125A (ko) | 희귀 단어 스피치 인식을 위한 대규모 언어 모델 데이터 선택 | |
Collobert et al. | Word-level speech recognition with a letter to word encoder | |
Kleinert et al. | Easy adaptation of speech recognition to different air traffic control environments using the deepspeech engine | |
US20250104717A9 (en) | End-to-End Speech Recognition Adapted for Multi-Speaker Applications | |
CN119547136A (zh) | 用于罕见词语音辨识的场境感知神经置信度估计 | |
JP2938865B1 (ja) | 音声認識装置 | |
US20240177706A1 (en) | Monte Carlo Self-Training for Speech Recognition | |
Niyozmatova et al. | Language and acoustic modeling in Uzbek speech recognition | |
CN115114933A (zh) | 用于文本处理的方法、装置、设备和存储介质 | |
Kimura et al. | Expansion of wfst-based dialog management for handling multiple asr hypotheses | |
Siu et al. | Improved named entity extraction from conversational speech with language model adaptation | |
Singh et al. | Probabilistic deduction of symbol mappings for extension of lexicons. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |