CN110797026B - 一种语音识别方法、装置及存储介质 - Google Patents
一种语音识别方法、装置及存储介质 Download PDFInfo
- Publication number
- CN110797026B CN110797026B CN201910880013.5A CN201910880013A CN110797026B CN 110797026 B CN110797026 B CN 110797026B CN 201910880013 A CN201910880013 A CN 201910880013A CN 110797026 B CN110797026 B CN 110797026B
- Authority
- CN
- China
- Prior art keywords
- model
- score
- domain
- language
- recognition result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000012545 processing Methods 0.000 claims description 12
- 238000010586 diagram Methods 0.000 description 16
- 238000004891 communication Methods 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 239000007787 solid Substances 0.000 description 4
- 230000002708 enhancing effect Effects 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 238000006467 substitution reaction Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/32—Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
Abstract
本申请实施例公开了一种语音识别方法、装置及存储介质,包括:提取语音信号流的特征输入到第一模型中得到第一识别结果,并确定所述第一识别结果的第一得分,所述第一模型用于识别通用说法的词汇;当所述第一模型无法识别所述语音信号流中的语言词汇时,根据所述语言词汇所属的领域类型加载第二模型,将所述语言词汇输入到所述第二模型得到第二识别结果,并确定所述第二识别结果的第二得分,所述第二模型用于识别领域说法的词汇;根据所述第一得分和所述第二得分,确定最终识别结果。采用本申请实施例,提高了语音识别的准确性和效率。
Description
技术领域
本申请涉及人工智能技术领域,尤其涉及一种语音识别方法、装置及存储介质。
背景技术
语音技术(Speech Technology)的关键技术有自动语音识别技术(AutomaticSpeech Recognition,ASR)和语音合成技术(Text To Speech,TTS)以及声纹识别技术。让计算机能听、能看、能说、能感觉,是未来人机交互的发展方向,其中语音成为未来最被看好的人机交互方式之一。可以采用以下几种方式进行语音识别:第一,将各个领域相关的语料训练和通用语料进行合并重新训练语言模型并重新合成解码图HCLG。第二,在基于端到端语音识别系统中添加领域相关的音频、文本在大规模的语料上进行重新训练相关模型。但是,在实际场景中,需要对整个模型进行重新训练部署,导致语音识别效率低。并且由于领域相关的语料并不会很多,识别的准确性较低。
发明内容
本申请实施例提供一种语音识别方法、装置及存储介质。可以提高语音识别的准确性和效率。
第一方面,本申请实施例提供了一种语音识别方法,包括:
提取语音信号流的特征输入到第一模型中得到第一识别结果,并确定所述第一识别结果的第一得分,所述第一模型用于识别通用说法的词汇;
当所述第一模型无法识别所述语音信号流中的语言词汇时,根据所述语言词汇所属的领域类型加载第二模型,将所述语言词汇输入到所述第二模型得到第二识别结果,并确定所述第二识别结果的第二得分,所述第二模型用于识别领域说法的词汇;
根据所述第一得分和所述第二得分,确定最终识别结果。
其中,所述第一模型的词表包括特殊标识符,所述根据所述语言词汇所属的领域类型加载第二模型包括:
确定所述语言词汇所属的领域类型对应的特殊标识符;
根据所述特殊标识符,从预设的多个领域模型查找所述第二模型并进行加载。
其中,所述第一模型包括第一常用语言模型和第一重打分语言模型,所述第一常用语言模型为根据二元语言模型生成的,所述第一重打分语言模型为根据五元语言模型生成的;
所述提取语音信号流的特征输入到第一模型中得到第一识别结果,并确定所述第一识别结果的第一得分包括:
根据所述第一常用语言模型对所述语音信号流进行识别得到多个所述第一识别结果,一个所述第一识别结果对应一个所述第一得分;
根据所述第一重打分语言模型对多个所述第一识别结果进行排序,选择最高的所述第一得分对应的所述第一识别结果。
其中,所述第二模型包括第二领域语言模型和第二重打分语言模型,所述第二领域语言模型为根据一元语言模型生成的;
所述将所述语言词汇输入到所述第二模型得到第二识别结果,并确定所述第二识别结果的第二得分包括:
根据所述第二领域语言模型对所述语言词汇进行识别得到多个所述第二识别结果,一个所述第二识别结果对应一个所述第二得分;
根据所述第二重打分语言模型对多个所述第二识别结果进行排序,选择最高的所述第二得分对应的所述第二识别结果。
其中,所述根据所述第一得分和所述第二得分,确定最终识别结果包括:
计算所述第一得分和所述第二得分的加权平均值;
根据所述加权平均值,确定所述最终识别结果。
其中,所述第二领域语言模型包括所述第一模型的待加强词汇;所述方法还包括:
将所述第二模型识别出的针对所述待加强词汇的识别结果替换所述第一模型识别出的针对所述待加强词汇的识别结果,得到所述最终识别结果。
第二方面,本申请实施例提供了一种语音识别装置,包括:
处理模块,用于提取语音信号流的特征输入到第一模型中得到第一识别结果,并确定所述第一识别结果的第一得分,所述第一模型用于识别通用说法的词汇;
所述处理模块,还用于当所述第一模型无法识别所述语音信号流中的语言词汇时,根据所述语言词汇所属的领域类型加载第二模型,将所述语言词汇输入到所述第二模型得到第二识别结果,并确定所述第二识别结果的第二得分,所述第二模型用于识别领域说法的词汇;
确定模块,用于根据所述第一得分和所述第二得分,确定最终识别结果。
其中,所述处理模块,还用于确定所述语言词汇所属的领域类型对应的特殊标识符;根据所述特殊标识符,从预设的多个领域模型查找所述第二模型并进行加载。
其中,所述第一模型包括第一常用语言模型和第一重打分语言模型,所述第一常用语言模型为根据二元语言模型生成的,所述第一重打分语言模型为根据五元语言模型生成的;
所述处理模块,还用于根据所述第一常用语言模型对所述语音信号流进行识别得到多个所述第一识别结果,一个所述第一识别结果对应一个所述第一得分;根据所述第一重打分语言模型对多个所述第一识别结果进行排序,选择最高的所述第一得分对应的所述第一识别结果。
其中,所述第二模型包括第二领域语言模型和第二重打分语言模型,所述第二领域语言模型为根据一元语言模型生成的;
所述处理模块,还用于根据所述第二领域语言模型对所述语言词汇进行识别得到多个所述第二识别结果,一个所述第二识别结果对应一个所述第二得分;根据所述第二重打分语言模型对多个所述第二识别结果进行排序,选择最高的所述第二得分对应的所述第二识别结果。
其中,所述确定模块,还用于计算所述第一得分和所述第二得分的加权平均值;根据所述加权平均值,确定所述最终识别结果。
其中,所述第二领域语言模型包括所述第一模型的待加强词汇;
所述处理模块,还用于将所述第二模型识别出的针对所述待加强词汇的识别结果替换所述第一模型识别出的针对所述待加强词汇的识别结果,得到所述最终识别结果。
第三方面,本申请实施例提供了一种语音识别设备,包括:处理器、存储器和通信总线,其中,通信总线用于实现处理器和存储器之间连接通信,处理器执行存储器中存储的程序用于实现上述第一方面提供的一种语音识别方法中的步骤。
在一个可能的设计中,本申请提供的语音识别设备可以包含用于执行上述方法中行为相对应的模块。模块可以是软件和/或硬件。
本申请实施例的又一方面提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有多条指令,所述指令适于由处理器加载并执行上述各方面所述的方法。
本申请实施例的又一方面提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述各方面所述的方法。
实施本申请实施例,提取语音信号流的特征输入到第一模型中得到第一识别结果,并确定所述第一识别结果的第一得分,所述第一模型用于识别通用说法的词汇;当所述第一模型无法识别所述语音信号流中的语言词汇时,根据所述语言词汇所属的领域类型加载第二模型,将所述语言词汇输入到所述第二模型得到第二识别结果,并确定所述第二识别结果的第二得分,所述第二模型用于识别领域说法的词汇;根据所述第一得分和所述第二得分,确定最终识别结果。通过动态加载领域模型,提高了语音识别的效率和准确性。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提出的一种语音识别系统的结构示意图;
图2是本申请实施例提供的一种语音识别方法的流程示意图;
图3是本申请实施例提供的一种状态回退示意图;
图4是本申请实施例提供的一种替换操作示意图;
图5是本申请实施例提供的另一种语音识别方法的流程示意图;
图6是本申请实施例提供的一种语音识别装置的结构示意图;
图7是本申请实施例提供的一种语音识别设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
如图1所示,图1是本申请实施例提出的一种语音识别系统的结构示意图。该语音识别系统包括ROOT模型和领域模型,其中,ROOT模型用于识别通用说法的词汇,ROOT模型包括ROOT模型(base)和ROOT模型(big),ROOT模型(base)包括声学模型和解码图HCLG,所述声学模型和解码图HCLG用于对提取的语音信号流的特征进行识别,所述ROOT模型(big)用于对识别结果进行排序重打分。领域模型用于识别领域说法的词汇,领域模型可以包括领域模型(OOV)和领域重打分(rescore)模型,其中,领域模型(OOV)包括领域模型1、领域模型2……、领域模型n等等。如果需要对某个领域的词汇进行识别,可以加载对应的领域模型。每个领域模型包括声学模型和解码图OOV-HCLG。所述声学模型和解码图OOV-HCLG用于对该领域的词汇进行识别,领域重打分模型可以用于对识别结果进行排序重打分。该语音识别系统可以应用于云小微语音识别助手、微信小程序等等。
如图2所示,图2是本申请实施例提供的一种语音识别方法的流程示意图。本申请实施例中的步骤至少包括:
S201,提取语音信号流的特征输入到第一模型中得到第一识别结果,并确定所述第一识别结果的第一得分,所述第一模型用于识别通用说法的词汇。
其中,第一模型包括第一常用语言模型和第一重打分语言模型,所述第一常用语言模型为根据二元语言模型生成的,所述第一重打分语言模型为根据五元语言模型生成的;可以根据所述第一常用语言模型对所述语音信号流进行识别得到多个所述第一识别结果,一个所述第一识别结果对应一个所述第一得分;然后根据所述第一重打分语言模型对多个所述第一识别结果进行排序,选择最高的所述第一得分对应的所述第一识别结果。
如图1所示,第一模型可以为ROOT模型,该ROOT模型由通用领域的音频和语料分别得到声学模型A和语言模型G1,其中,语言模型G1被拆分成2-gramG11(第一常用语言模型)和5-gramG12(第一重打分语言模型),可以根据G11生成解码图HCLG,利用声学模型和解码图HCLG对通用说法的语音识别,然后通过G12对声学模型和解码图HCLG的识别结果进行重打分。
例如,对语料“我想知道朱元璋在哪个殿上朝”进行分词处理。我想/知道/朱元璋/在/哪个殿/上朝为1-gram。我想/上朝/哪个殿上朝/我想知道/朱元璋在/知道朱元璋为2-gram。我想知道朱元璋在/我想知道朱元璋在哪个殿/朱元璋在哪个殿上朝为5-gram。上述举例只说明了部分词汇。其中,G11包括1-gram和2-gram,G12包括1-gram、2-gram、3-gram、4-gram和5-gram。
S202,当所述第一模型无法识别所述语音信号流中的语言词汇时,根据所述语言词汇所属的领域类型加载第二模型,将所述语言词汇输入到所述第二模型得到第二识别结果,并确定所述第二识别结果的第二得分,所述第二模型用于识别领域说法的词汇。
具体实现中,可以确定所述语言词汇所属的领域类型对应的特殊标识符;根据所述特殊标识符,从预设的多个领域模型查找所述第二模型并进行加载。
例如,如图3所示,图3是本申请实施例提供的一种状态回退示意图。对信号流进行特征提取后进入到ROOT模型进行在线解码。如果ROOT模型对某个或某些领域词汇无法识别,则需要回退。其中,$OOV表示1-gram状态回退标识符,在进行解码图搜索的过程中,$OOV标识符包含在ROOT语言模型的回退状态中,如果搜索到1-gram回退状态,则会进入到预先指定的领域OOV-HCLG进行解码图搜索,然后将搜索结果通过加权有限状态转换器(Weighted Finite-State Transducer,WFST)进行替换(replace)操作。又如图4所示,图4是本申请实施例提供的一种替换操作示意图,将搜索结果替换掉$OOV的边。
其中,所述第二模型包括第二领域语言模型和第二重打分语言模型,所述第二领域语言模型为根据一元语言模型生成的。可以根据所述第二领域语言模型对所述语言词汇进行识别得到多个所述第二识别结果,一个所述第二识别结果对应一个所述第二得分;根据所述第二重打分语言模型对多个所述第二识别结果进行排序,选择最高的所述第二得分对应的所述第二识别结果。
如图1所示,第二模型可以是领域模型,领域模型划分为OOV-HCLG和rescore-HCLG两个部分,OOV-HCLG的语言模型由领域场景中ROOT模型未登录的词集合${oov}以及ROOT模型中待加强词word的集合${<s>word</s>}的1-gram构成。例如,端门/咸熙门/永康左门等词汇都是ROOT模型未登录的词集合${oov},属于历史领域的词汇,是不常用的词汇。又如,“殿”很容易被识别成“店”,因此“殿”为待加强的词汇。
其中,rescore-HCLG的语言模型由上述词集合${oov}和指定句式造句生成,用于对OOV-HCLG的语言模型的识别结果进行重打分,加强领域说法的识别。在通过ROOT模型(base)和OOV-HCLG的语言模型进行解码时,会分别同步利用ROOT模型的5-gram语言模型(big)和领域模型的rescore-HCLG进行重打分。
需要说明的是,可以将不同领域的模型集成到一个语音识别系统中,针对每个领域的独立检索(query)请求,实时对领域模型进行热加载,即在加载新的领域模型时,不释放已经加载的领域模型。
S203,根据所述第一得分和所述第二得分,确定最终识别结果。
具体实现中,可以计算所述第一得分和所述第二得分的加权平均值;根据所述加权平均值,确定所述最终识别结果。例如可以选择加权平均值最高的识别结果作为最终识别结果。例如,第一得分和第二得分分别为score1和score2,分别设置权重W1和W2,其中W1+W2=1,最终得分final_score=W1*score1+W2*score2。其中,W1的取值范围可以为(±0.9-0.99),W2的取值范围可以为(±0.01-0.1)。
在本申请实施例中,通过动态加载领域模型的方式,不仅能针对领域场景中的未登录词汇进行高效的识别,还能针对原有模型中指定词汇进行强识别,且不影响语音识别中通用说法的识别,整个过程的模型训练为分钟级,且采用热加载的方式与通用领域语音识别模型进行合并,提高了语音识别的准确性和效率。
如图5所示,图5是本申请实施例提供的另一种语音识别方法的流程示意图。本申请实施例中的步骤至少包括:
S501,提取语音信号流的特征输入到第一模型中得到第一识别结果,并确定所述第一识别结果的第一得分,所述第一模型用于识别通用说法的词汇。
其中,第一模型包括第一常用语言模型和第一重打分语言模型,所述第一常用语言模型为根据二元语言模型生成的,所述第一重打分语言模型为根据五元语言模型生成的;可以根据所述第一常用语言模型对所述语音信号流进行识别得到多个所述第一识别结果,一个所述第一识别结果对应一个所述第一得分;然后根据所述第一重打分语言模型对多个所述第一识别结果进行排序,选择最高的所述第一得分对应的所述第一识别结果。
如图1所示,第一模型可以为ROOT模型,该ROOT模型由通用领域的音频和语料分别得到声学模型A和语言模型G1,其中,语言模型G1被拆分成2-gramG11(第一常用语言模型)和5-gramG12(第一重打分语言模型),可以根据G11生成解码图HCLG,利用声学模型和解码图HCLG对通用说法的语音识别,然后通过G12对声学模型和解码图HCLG的识别结果进行重打分。
例如,对语料“我想知道朱元璋在哪个殿上朝”进行分词处理。我想/知道/朱元璋/在/哪个殿/上朝为1-gram。我想/上朝/哪个殿上朝/我想知道/朱元璋在/知道朱元璋为2-gram。我想知道朱元璋在/我想知道朱元璋在哪个殿/朱元璋在哪个殿上朝为5-gram。上述举例只说明了部分词汇。其中,G11包括1-gram和2-gram,G12包括1-gram、2-gram、3-gram、4-gram和5-gram。
S502,当所述第一模型无法识别所述语音信号流中的语言词汇时,根据所述语言词汇所属的领域类型加载第二模型,将所述语言词汇输入到所述第二模型得到第二识别结果,并确定所述第二识别结果的第二得分,所述第二模型用于识别领域说法的词汇。
具体实现中,可以确定所述语言词汇所属的领域类型对应的特殊标识符;根据所述特殊标识符,从预设的多个领域模型查找所述第二模型并进行加载。
例如,如图3所示,图3是本申请实施例提供的一种状态回退示意图。对信号流进行特征提取后进入到ROOT模型进行在线解码。如果ROOT模型对某个或某些领域词汇无法识别,则需要回退。其中,$OOV表示1-gram状态回退标识符,在进行解码图搜索的过程中,$OOV标识符包含在ROOT语言模型的回退状态中,如果搜索到1-gram回退状态,则会进入到预先指定的领域OOV-HCLG进行解码图搜索,然后将搜索结果通过加权有限状态转换器(Weighted Finite-State Transducer,WFST)进行替换(replace)操作。又如图4所示,图4是本申请实施例提供的一种替换操作示意图,将搜索结果替换掉$OOV的边。
其中,所述第二模型包括第二领域语言模型和第二重打分语言模型,所述第二领域语言模型为根据一元语言模型生成的。可以根据所述第二领域语言模型对所述语言词汇进行识别得到多个所述第二识别结果,一个所述第二识别结果对应一个所述第二得分;根据所述第二重打分语言模型对多个所述第二识别结果进行排序,选择最高的所述第二得分对应的所述第二识别结果。
如图1所示,第二模型可以是领域模型,领域模型划分为OOV-HCLG和rescore-HCLG两个部分,OOV-HCLG的语言模型由领域场景中ROOT模型未登录的词集合${oov}以及ROOT模型中待加强词word的集合${<s>word</s>}的1-gram构成。例如,端门/咸熙门/永康左门等词汇都是ROOT模型未登录的词集合${oov},属于历史领域的词汇,是不常用的词汇。又如,“殿”很容易被识别成“店”,因此“殿”为待加强的词汇。
其中,rescore-HCLG的语言模型由上述词集合${oov}和指定句式造句生成,用于对OOV-HCLG的语言模型的识别结果进行重打分,加强领域说法的识别。在通过ROOT模型(base)和OOV-HCLG的语言模型进行解码时,会分别同步利用ROOT模型的5-gram语言模型(big)和领域模型的rescore-HCLG进行重打分。
需要说明的是,可以将不同领域的模型集成到一个语音识别系统中,针对每个领域的独立检索(query)请求,实时对领域模型进行热加载,即已经加载的领域模型不释放,并加载新的领域模型。
S503,根据所述第一得分和所述第二得分,确定最终得分。
具体实现中,可以计算所述第一得分和所述第二得分的加权平均值;根据所述加权平均值,将加权平均值作为最终得分。例如可以选择加权平均值最高的识别结果作为最终识别结果。例如,第一得分和第二得分分别为score1和score2,分别设置权重W1和W2,其中W1+W2=1,最终得分final_score=W1*score1+W2*score2。其中,W1的取值范围可以为(±0.9-0.99),W2的取值范围可以为(±0.01-0.1)。
S504,将所述第二模型识别出的针对所述待加强词汇的识别结果替换所述第一模型识别出的针对所述待加强词汇的识别结果,得到所述最终识别结果。
具体实现中,可以选择最高的最终得分的识别结果,针对该识别结果,根据待加强词<s>word</s>的标识符进行替换,得到最终识别结果。例如,如果识别结果中包括“店”,则将“店”替换为“殿”。
如图6所示,图6是本申请实施例提供的一种语音识别装置的结构示意图。本申请实施例中的装置至少包括:
处理模块601,用于提取语音信号流的特征输入到第一模型中得到第一识别结果,并确定所述第一识别结果的第一得分,所述第一模型用于识别通用说法的词汇。
其中,第一模型包括第一常用语言模型和第一重打分语言模型,所述第一常用语言模型为根据二元语言模型生成的,所述第一重打分语言模型为根据五元语言模型生成的;可以根据所述第一常用语言模型对所述语音信号流进行识别得到多个所述第一识别结果,一个所述第一识别结果对应一个所述第一得分;然后根据所述第一重打分语言模型对多个所述第一识别结果进行排序,选择最高的所述第一得分对应的所述第一识别结果。
如图1所示,第一模型可以为ROOT模型,该ROOT模型由通用领域的音频和语料分别得到声学模型A和语言模型G1,其中,语言模型G1被拆分成2-gramG11(第一常用语言模型)和5-gramG12(第一重打分语言模型),可以根据G11生成解码图HCLG,利用声学模型和解码图HCLG对通用说法的语音识别,然后通过G12对声学模型和解码图HCLG的识别结果进行重打分。
例如,对语料“我想知道朱元璋在哪个殿上朝”进行分词处理。我想/知道/朱元璋/在/哪个殿/上朝为1-gram。我想/上朝/哪个殿上朝/我想知道/朱元璋在/知道朱元璋为2-gram。我想知道朱元璋在/我想知道朱元璋在哪个殿/朱元璋在哪个殿上朝为5-gram。上述举例只说明了部分词汇。其中,G11包括1-gram和2-gram,G12包括1-gram、2-gram、3-gram、4-gram和5-gram。
处理模块601,还用于当所述第一模型无法识别所述语音信号流中的语言词汇时,根据所述语言词汇所属的领域类型加载第二模型,将所述语言词汇输入到所述第二模型得到第二识别结果,并确定所述第二识别结果的第二得分,所述第二模型用于识别领域说法的词汇。
具体实现中,可以确定所述语言词汇所属的领域类型对应的特殊标识符;根据所述特殊标识符,从预设的多个领域模型查找所述第二模型并进行加载。
例如,如图3所示,图3是本申请实施例提供的一种状态回退示意图。对信号流进行特征提取后进入到ROOT模型进行在线解码。如果ROOT模型对某个或某些领域词汇无法识别,则需要回退。其中,$OOV表示1-gram状态回退标识符,在进行解码图搜索的过程中,$OOV标识符包含在ROOT语言模型的回退状态中,如果搜索到1-gram回退状态,则会进入到预先指定的领域OOV-HCLG进行解码图搜索,然后将搜索结果通过加权有限状态转换器(Weighted Finite-State Transducer,WFST)进行替换(replace)操作。又如图4所示,图4是本申请实施例提供的一种替换操作示意图,将搜索结果替换掉$OOV的边。
其中,所述第二模型包括第二领域语言模型和第二重打分语言模型,所述第二领域语言模型为根据一元语言模型生成的。可以根据所述第二领域语言模型对所述语言词汇进行识别得到多个所述第二识别结果,一个所述第二识别结果对应一个所述第二得分;根据所述第二重打分语言模型对多个所述第二识别结果进行排序,选择最高的所述第二得分对应的所述第二识别结果。
如图1所示,第二模型可以是领域模型,领域模型划分为OOV-HCLG和rescore-HCLG两个部分,OOV-HCLG的语言模型由领域场景中ROOT模型未登录的词集合${oov}以及ROOT模型中待加强词word的集合${<s>word</s>}的1-gram构成。例如,端门/咸熙门/永康左门等词汇都是ROOT模型未登录的词集合${oov},属于历史领域的词汇,是不常用的词汇。又如,“殿”很容易被识别成“店”,因此“殿”为待加强的词汇。
其中,rescore-HCLG的语言模型由上述词集合${oov}和指定句式造句生成,用于对OOV-HCLG的语言模型的识别结果进行重打分,加强领域说法的识别。在通过ROOT模型(base)和OOV-HCLG的语言模型进行解码时,会分别同步利用ROOT模型的5-gram语言模型(big)和领域模型的rescore-HCLG进行重打分。
需要说明的是,可以将不同领域的模型集成到一个语音识别系统中,针对每个领域的独立检索(query)请求,实时对领域模型进行热加载,即已经加载的领域模型不释放,并加载新的领域模型。
确定模块602,用于根据所述第一得分和所述第二得分,确定最终识别结果。
具体实现中,可以计算所述第一得分和所述第二得分的加权平均值;根据所述加权平均值,将加权平均值作为最终得分。例如可以选择加权平均值最高的识别结果作为最终识别结果。例如,第一得分和第二得分分别为score1和score2,分别设置权重W1和W2,其中W1+W2=1,最终得分final_score=W1*score1+W2*score2。其中,W1的取值范围可以为(±0.9-0.99),W2的取值范围可以为(±0.01-0.1)。
可选的,将所述第二模型识别出的针对所述待加强词汇的识别结果替换所述第一模型识别出的针对所述待加强词汇的识别结果,得到所述最终识别结果。具体的,可以选择最高的最终得分的识别结果,针对该识别结果,根据待加强词<s>word</s>的标识符进行替换,得到最终识别结果。例如,如果识别结果中包括“店”,则将“店”替换为“殿”。
在本申请实施例中,通过动态加载领域模型的方式,不仅能针对领域场景中的未登录词汇进行高效的识别,还能针对原有模型中指定词汇进行强识别,且不影响语音识别中通用说法的识别,整个过程的模型训练为分钟级,且采用热加载的方式与通用领域语音识别模型进行合并,提高了语音识别的准确性和效率。
请参见图7,图7是本申请实施例提供的一种语音识别设备的结构示意图。如图所示,该设备可以包括:至少一个处理器701,至少一个通信接口702,至少一个存储器703和至少一个通信总线704。
其中,处理器701可以是中央处理器单元,通用处理器,数字信号处理器,专用集成电路,现场可编程门阵列或者其他可编程逻辑器件、晶体管逻辑器件、硬件部件或者其任意组合。其可以实现或执行结合本申请公开内容所描述的各种示例性的逻辑方框,模块和电路。所述处理器也可以是实现计算功能的组合,例如包含一个或多个微处理器组合,数字信号处理器和微处理器的组合等等。通信总线704可以是外设部件互连标准PCI总线或扩展工业标准结构EISA总线等。所述总线可以分为地址总线、数据总线、控制总线等。为便于表示,图7中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。通信总线704用于实现这些组件之间的连接通信。其中,本申请实施例中设备的通信接口702用于与其他节点设备进行信令或数据的通信。存储器703可以包括易失性存储器,例如非挥发性动态随机存取内存(Nonvolatile Random Access Memory,NVRAM)、相变化随机存取内存(PhaseChange RAM,PRAM)、磁阻式随机存取内存(Magetoresistive RAM,MRAM)等,还可以包括非易失性存储器,例如至少一个磁盘存储器件、电子可擦除可编程只读存储器(ElectricallyErasable Programmable Read-Only Memory,EEPROM)、闪存器件,例如反或闪存(NORflash memory)或是反及闪存(NAND flash memory)、半导体器件,例如固态硬盘(SolidState Disk,SSD)等。存储器703可选的还可以是至少一个位于远离前述处理器701的存储装置。存储器703中存储一组程序代码,且处理器701执行存储器703中的程序:
提取语音信号流的特征输入到第一模型中得到第一识别结果,并确定所述第一识别结果的第一得分,所述第一模型用于识别通用说法的词汇;
当所述第一模型无法识别所述语音信号流中的语言词汇时,根据所述语言词汇所属的领域类型加载第二模型,将所述语言词汇输入到所述第二模型得到第二识别结果,并确定所述第二识别结果的第二得分,所述第二模型用于识别领域说法的词汇;
根据所述第一得分和所述第二得分,确定最终识别结果。
其中,所述第一模型的词表包括特殊标识符,
可选的,处理器701还用于执行如下操作步骤:
确定所述语言词汇所属的领域类型对应的特殊标识符;
根据所述特殊标识符,从预设的多个领域模型查找所述第二模型并进行加载。
其中,所述第一模型包括第一常用语言模型和第一重打分语言模型,所述第一常用语言模型为根据二元语言模型生成的,所述第一重打分语言模型为根据五元语言模型生成的;
可选的,处理器701还用于执行如下操作步骤:
根据所述第一常用语言模型对所述语音信号流进行识别得到多个所述第一识别结果,一个所述第一识别结果对应一个所述第一得分;
根据所述第一重打分语言模型对多个所述第一识别结果进行排序,选择最高的所述第一得分对应的所述第一识别结果。
其中,所述第二模型包括第二领域语言模型和第二重打分语言模型,所述第二领域语言模型为根据一元语言模型生成的;
可选的,处理器701还用于执行如下操作步骤:
根据所述第二领域语言模型对所述语言词汇进行识别得到多个所述第二识别结果,一个所述第二识别结果对应一个所述第二得分;
根据所述第二重打分语言模型对多个所述第二识别结果进行排序,选择最高的所述第二得分对应的所述第二识别结果。
可选的,处理器701还用于执行如下操作步骤:
计算所述第一得分和所述第二得分的加权平均值;
根据所述加权平均值,确定所述最终识别结果。
其中,所述第二领域语言模型包括所述第一模型的待加强词汇;
可选的,处理器701还用于执行如下操作步骤:
将所述第二模型识别出的针对所述待加强词汇的识别结果替换所述第一模型识别出的针对所述待加强词汇的识别结果,得到所述最终识别结果。
进一步的,处理器还可以与存储器和通信接口相配合,执行上述申请实施例中语音识别设备执行的操作。
本申请实施例还提供了一种芯片系统,该芯片系统包括处理器,用于支持网络设备或终端设备以实现上述任一实施例中所涉及的功能,例如生成或处理上述方法中所涉及的数据和/或信息。在一种可能的设计中,所述芯片系统还可以包括存储器,所述存储器,用于语音识别设备必要的程序指令和数据。该芯片系统,可以由芯片构成,也可以包含芯片和其他分立器件。
本申请实施例还提供了一种处理器,用于与存储器耦合,用于执行上述各实施例中任一实施例中涉及语音识别设备的任意方法和功能。
本申请实施例还提供了一种包含指令的计算机程序产品,其在计算机上运行时,使得计算机执行上述各实施例中任一实施例中涉及语音识别设备的任意方法和功能。
本申请实施例还提供了一种装置,用于执行上述各实施例中任一实施例中涉及语音识别设备的任意方法和功能。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘solid state disk(SSD))等。
以上所述的具体实施方式,对本申请的目的、技术方案和有益效果进行了进一步详细说明。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (7)
1.一种语音识别方法,其特征在于,应用于语音识别系统,所述语音识别系统集成多个领域模型,所述领域模型用于识别领域说法的词汇,所述语音识别系统包括第一模型和第二模型,所述第一模型包括第一常用语言模型和第一重打分语言模型,所述第二模型包括第二领域语言模型和第二重打分语言模型,所述第二领域语言模型由领域场景中所述第一模型未登录的词集合以及所述第一模型中待加强词汇的集合构成,所述第二重打分语言模型由领域场景中所述第一模型未登录的词集合和指定句式造句生成,用于对所述第二领域语言模型的识别结果进行重打分以加强领域说法的识别,所述方法包括:
提取语音信号流的特征输入到第一模型中得到第一识别结果,并确定所述第一识别结果的第一得分,所述第一模型用于识别通用说法的词汇,所述第一模型的词表包括特殊标识符;
当所述第一模型无法识别所述语音信号流中的语言词汇时,确定所述语言词汇所属的领域类型对应的特殊标识符,根据所述特殊标识符,从预设的所述多个领域模型查找第二模型并进行加载,将所述语言词汇输入到所述第二模型得到第二识别结果,并确定所述第二识别结果的第二得分,所述第二模型用于识别领域说法的词汇;
根据所述第一得分和所述第二得分,将所述第二模型识别出的针对所述待加强词汇的识别结果替换所述第一模型识别出的针对所述待加强词汇的识别结果,确定最终识别结果。
2.如权利要求1所述的方法,其特征在于,所述第一常用语言模型为根据二元语言模型生成的,所述第一重打分语言模型为根据五元语言模型生成的;
所述提取语音信号流的特征输入到第一模型中得到第一识别结果,并确定所述第一识别结果的第一得分包括:
根据所述第一常用语言模型对所述语音信号流进行识别得到多个所述第一识别结果,一个所述第一识别结果对应一个所述第一得分;
根据所述第一重打分语言模型对多个所述第一识别结果进行排序,选择最高的所述第一得分对应的所述第一识别结果。
3.如权利要求1所述的方法,其特征在于,所述第二领域语言模型为根据一元语言模型生成的;
所述将所述语言词汇输入到所述第二模型得到第二识别结果,并确定所述第二识别结果的第二得分包括:
根据所述第二领域语言模型对所述语言词汇进行识别得到多个所述第二识别结果,一个所述第二识别结果对应一个所述第二得分;
根据所述第二重打分语言模型对多个所述第二识别结果进行排序,选择最高的所述第二得分对应的所述第二识别结果。
4.如权利要求1-3任一项所述的方法,其特征在于,所述根据所述第一得分和所述第二得分,确定最终识别结果包括:
计算所述第一得分和所述第二得分的加权平均值;
根据所述加权平均值,确定所述最终识别结果。
5.一种语音识别装置,其特征在于,应用于语音识别系统,所述语音识别系统集成多个领域模型,所述领域模型用于识别领域说法的词汇,所述语音识别系统包括第一模型和第二模型,所述第一模型包括第一常用语言模型和第一重打分语言模型,所述第二模型包括第二领域语言模型和第二重打分语言模型,所述第二领域语言模型由领域场景中所述第一模型未登录的词集合以及所述第一模型中待加强词汇的集合构成,所述第二重打分语言模型由领域场景中所述第一模型未登录的词集合和指定句式造句生成,用于对所述第二领域语言模型的识别结果进行重打分以加强领域说法的识别,所述装置包括:
处理模块,用于提取语音信号流的特征输入到第一模型中得到第一识别结果,并确定所述第一识别结果的第一得分,所述第一模型用于识别通用说法的词汇,所述第一模型的词表包括特殊标识符;
所述处理模块,还用于当所述第一模型无法识别所述语音信号流中的语言词汇时,确定所述语言词汇所属的领域类型对应的特殊标识符,根据所述特殊标识符,从预设的所述多个领域模型查找第二模型并进行加载,将所述语言词汇输入到所述第二模型得到第二识别结果,并确定所述第二识别结果的第二得分,所述第二模型用于识别领域说法的词汇;
确定模块,用于根据所述第一得分和所述第二得分,将所述第二模型识别出的针对所述待加强词汇的识别结果替换所述第一模型识别出的针对所述待加强词汇的识别结果,确定最终识别结果。
6.如权利要求5所述的装置,其特征在于,
所述确定模块,还用于计算所述第一得分和所述第二得分的加权平均值;根据所述加权平均值,确定所述最终识别结果。
7.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有多条指令,所述指令适于由处理器加载并执行如权利要求1-4任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910880013.5A CN110797026B (zh) | 2019-09-17 | 2019-09-17 | 一种语音识别方法、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910880013.5A CN110797026B (zh) | 2019-09-17 | 2019-09-17 | 一种语音识别方法、装置及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110797026A CN110797026A (zh) | 2020-02-14 |
CN110797026B true CN110797026B (zh) | 2024-11-26 |
Family
ID=69427269
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910880013.5A Active CN110797026B (zh) | 2019-09-17 | 2019-09-17 | 一种语音识别方法、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110797026B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111508478B (zh) * | 2020-04-08 | 2023-04-11 | 北京字节跳动网络技术有限公司 | 语音识别方法和装置 |
CN114495945A (zh) * | 2020-11-12 | 2022-05-13 | 阿里巴巴集团控股有限公司 | 语音识别方法、装置、电子设备及计算机可读存储介质 |
CN112562640B (zh) * | 2020-12-01 | 2024-04-12 | 北京声智科技有限公司 | 多语言语音识别方法、装置、系统及计算机可读存储介质 |
CN112735380B (zh) * | 2020-12-28 | 2022-05-13 | 思必驰科技股份有限公司 | 重打分语言模型的打分方法及语音识别方法 |
CN112885336B (zh) * | 2021-01-29 | 2024-02-02 | 深圳前海微众银行股份有限公司 | 语音识别系统的训练、识别方法、装置、电子设备 |
CN113299280A (zh) * | 2021-05-12 | 2021-08-24 | 山东浪潮科学研究院有限公司 | 基于Kaldi的专业词汇语音识别方法 |
CN113450805B (zh) * | 2021-06-24 | 2022-05-17 | 平安科技(深圳)有限公司 | 基于神经网络的自动语音识别方法、设备及可读存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1320902A (zh) * | 2000-03-14 | 2001-11-07 | 索尼公司 | 语音识别装置、语音识别方法和记录介质 |
CN1979638A (zh) * | 2005-12-02 | 2007-06-13 | 中国科学院自动化研究所 | 一种语音识别结果纠错方法 |
CN108415898A (zh) * | 2018-01-19 | 2018-08-17 | 苏州思必驰信息科技有限公司 | 深度学习语言模型的词图重打分方法和系统 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4301102B2 (ja) * | 2004-07-22 | 2009-07-22 | ソニー株式会社 | 音声処理装置および音声処理方法、プログラム、並びに記録媒体 |
CN108711422B (zh) * | 2018-05-14 | 2023-04-07 | 腾讯科技(深圳)有限公司 | 语音识别方法、装置、计算机可读存储介质和计算机设备 |
CN109215630B (zh) * | 2018-11-14 | 2021-01-26 | 北京羽扇智信息科技有限公司 | 实时语音识别方法、装置、设备及存储介质 |
-
2019
- 2019-09-17 CN CN201910880013.5A patent/CN110797026B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1320902A (zh) * | 2000-03-14 | 2001-11-07 | 索尼公司 | 语音识别装置、语音识别方法和记录介质 |
CN1979638A (zh) * | 2005-12-02 | 2007-06-13 | 中国科学院自动化研究所 | 一种语音识别结果纠错方法 |
CN108415898A (zh) * | 2018-01-19 | 2018-08-17 | 苏州思必驰信息科技有限公司 | 深度学习语言模型的词图重打分方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN110797026A (zh) | 2020-02-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110797026B (zh) | 一种语音识别方法、装置及存储介质 | |
CN113811946B (zh) | 数字序列的端到端自动语音识别 | |
CN105931644B (zh) | 一种语音识别方法及移动终端 | |
CN108847241B (zh) | 将会议语音识别为文本的方法、电子设备及存储介质 | |
CN109754809B (zh) | 语音识别方法、装置、电子设备及存储介质 | |
CN107016994B (zh) | 语音识别的方法及装置 | |
JP2021018797A (ja) | 対話の交互方法、装置、コンピュータ可読記憶媒体、及びプログラム | |
CN105632499B (zh) | 用于优化语音识别结果的方法和装置 | |
JP5318230B2 (ja) | 認識辞書作成装置及び音声認識装置 | |
JP2021515905A (ja) | 音声認識方法、並びにその装置、デバイス、記憶媒体及びプログラム | |
US20110137653A1 (en) | System and method for restricting large language models | |
CN111292740B (zh) | 语音辨识系统及其方法 | |
JP7590520B2 (ja) | エンド・ツー・エンド音声認識における固有名詞認識 | |
KR20220004224A (ko) | 음성 인식을 위한 컨텍스트 바이어싱 | |
CN109710087B (zh) | 输入法模型生成方法及装置 | |
CN110021293B (zh) | 语音识别方法及装置、可读存储介质 | |
CN111508497B (zh) | 语音识别方法、装置、电子设备及存储介质 | |
CN109036471B (zh) | 语音端点检测方法及设备 | |
WO2009156903A2 (en) | Method and device for generating vocabulary entry from acoustic data | |
CN112489626A (zh) | 一种信息识别方法、装置及存储介质 | |
CN111462748B (zh) | 语音识别处理方法、装置、电子设备及存储介质 | |
JP7544989B2 (ja) | ルックアップテーブルリカレント言語モデル | |
CN112562640B (zh) | 多语言语音识别方法、装置、系统及计算机可读存储介质 | |
JP2020042257A (ja) | 音声認識方法及び装置 | |
CN112037772A (zh) | 基于多模态的响应义务检测方法、系统及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40021011 Country of ref document: HK |
|
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TG01 | Patent term adjustment | ||
TG01 | Patent term adjustment |