[go: up one dir, main page]

CN116246635A - 声纹识别方法、装置、设备及存储介质 - Google Patents

声纹识别方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN116246635A
CN116246635A CN202211678843.8A CN202211678843A CN116246635A CN 116246635 A CN116246635 A CN 116246635A CN 202211678843 A CN202211678843 A CN 202211678843A CN 116246635 A CN116246635 A CN 116246635A
Authority
CN
China
Prior art keywords
voiceprint
audio data
user
features
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211678843.8A
Other languages
English (en)
Inventor
王宁
赵雅男
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing SoundAI Technology Co Ltd
Original Assignee
Beijing SoundAI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing SoundAI Technology Co Ltd filed Critical Beijing SoundAI Technology Co Ltd
Priority to CN202211678843.8A priority Critical patent/CN116246635A/zh
Publication of CN116246635A publication Critical patent/CN116246635A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/02Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Collating Specific Patterns (AREA)

Abstract

本申请公开了一种声纹识别方法、装置、设备及存储介质,属于人工智能领域。该方法包括:获取当前场景下采集到的音频数据;基于与当前场景匹配的声纹模型,对该音频数据进行声纹特征提取,得到该音频数据的原始声纹特征;分别对该音频数据进行用户属性分析、用户状态分析和用户语速分析,得到该音频数据的用户属性特征、用户状态特征和用户语速特征;对该音频数据的原始声纹特征、用户属性特征、用户状态特征和用户语速特征进行特征融合,得到该音频数据的融合声纹特征;基于声纹库,对该音频数据的融合声纹特征进行识别,得到声纹识别结果;其中,声纹库用于存储在册用户的融合声纹特征。本申请能够提高声纹识别准确度。

Description

声纹识别方法、装置、设备及存储介质
技术领域
本申请涉及人工智能领域,特别涉及一种声纹识别方法、装置、设备及存储介质。
背景技术
在诸如智慧电梯、银行交易等涉及安全防控的场景中,常常会应用声纹识别技术来验证用户身份。其中,声纹是携带语言信息的声波频谱,而声纹识别也称说话人识别,是一种通过声音判别说话人身份的生物识别技术。
特别地,针对安全防控场景,通常对声纹识别的准确性要求较高。这是因为,对于这类场景来说,一旦声纹识别出错,那么可能会造成严重的经济损失或导致严重的治安问题。因此,针对这类场景,还需要提高声纹识别准确度。
发明内容
本申请实施例提供了一种声纹识别方法、装置、设备及存储介质,能够提高声纹识别准确度。所述技术方案如下:
一方面,提供了一种声纹识别方法,所述方法包括:
获取当前场景下采集到的音频数据;
基于与当前场景匹配的声纹模型,对所述音频数据进行声纹特征提取,得到所述音频数据的原始声纹特征;
分别对所述音频数据进行用户属性分析、用户状态分析和用户语速分析,得到所述音频数据的用户属性特征、用户状态特征和用户语速特征;
对所述音频数据的原始声纹特征、用户属性特征、用户状态特征和用户语速特征进行特征融合,得到所述音频数据的融合声纹特征;
基于声纹库,对所述音频数据的融合声纹特征进行识别,得到声纹识别结果;其中,所述声纹库用于存储在册用户的融合声纹特征。
在一种可能的实现方式中,所述分别对所述音频数据进行用户属性分析、用户状态分析和用户语速分析,得到所述音频数据的用户属性特征、用户状态特征和用户语速特征,包括:
对所述音频数据进行用户年龄分析,得到所述音频数据的用户年龄特征;
对所述音频数据进行用户性别分析,得到所述音频数据的用户性别特征;
对所述音频数据进行用户情绪分析,得到所述音频数据的用户情绪特征;
对所述音频数据进行用户疲劳程度分析,得到所述音频数据的用户疲劳程度特征;
对所述音频数据进行用户语速分析,得到所述音频数据的用户语速特征。
在一种可能的实现方式中,所述方法还包括:
获取当前场景下采集到的图像数据;
在采集到的图像数据中筛选当前发声用户的面部图像;
对所述面部图像进行眼部状态识别,得到图像识别结果;其中,所述图像识别结果用于指示当前发声用户的眼睛开合状态;
基于所述图像识别结果,对所述用户疲劳程度特征进行修正,得到修正后的用户疲劳程度特征。
在一种可能的实现方式中,所述基于与当前采集场景匹配的声纹模型,对所述音频数据进行声纹特征提取,包括:
响应于当前场景为安静场景,基于与所述安静场景匹配的第一声纹模型,对所述音频数据进行声纹特征提取;
响应于当前场景为嘈杂场景,基于与所述嘈杂场景匹配的第二声纹模型,对所述音频数据进行声纹特征提取。
在一种可能的实现方式中,所述方法还包括:
对于所述音频数据中的任意一个音频帧,获取所述音频帧的能量;
将所述音频帧的能量与噪音的参考能量的比值,作为所述音频帧的信噪比;
响应于所述音频帧的信噪比大于第一阈值,确定所述音频帧为语音帧;
响应于所述音频帧的信噪比小于所述第一阈值,确定所述音频帧为噪音帧;
在语音帧数量大于噪音帧数量的情况下,将当前场景确定为所述安静场景;
在所述语音帧数量小于所述噪音帧数量的情况下,将当前场景确定为所述嘈杂场景。
在一种可能的实现方式中,所述对所述音频数据的原始声纹特征、用户属性特征、用户状态特征和用户语速特征进行特征融合,得到所述音频数据的融合声纹特征,包括:
对所述音频数据的原始声纹特征、用户属性特征、用户状态特征和用户语速特征进行特征拼接,得到所述音频数据的融合声纹特征。
在一种可能的实现方式中,所述基于声纹库,对所述音频数据的融合声纹特征进行识别,得到声纹识别结果,包括:
获取所述音频数据的融合声纹特征与所述声纹库中存储的融合声纹特征之间的相似度分值;
响应于基于获取到的相似度分值确定所述声纹库中存储有相似度分值大于第二阈值的融合声纹特征,确定当前发声用户通过声纹识别;
响应于所述音频数据的融合声纹特征与目标在册用户的融合声纹特征之间的相似度分值最高,确定当前发声用户为所述目标在册用户。
另一方面,提供了一种声纹识别装置,所述装置包括:
获取模块,被配置为获取当前场景下采集到的音频数据;
第一提取模块,被配置为基于与当前场景匹配的声纹模型,对所述音频数据进行声纹特征提取,得到所述音频数据的原始声纹特征;
第二提取模块,被配置为分别对所述音频数据进行用户属性分析、用户状态分析和用户语速分析,得到所述音频数据的用户属性特征、用户状态特征和用户语速特征;
融合模块,被配置为对所述音频数据的原始声纹特征、用户属性特征、用户状态特征和用户语速特征进行特征融合,得到所述音频数据的融合声纹特征;
识别模块,被配置为基于声纹库,对所述音频数据的融合声纹特征进行识别,得到声纹识别结果;其中,所述声纹库用于存储在册用户的融合声纹特征。
在一种可能的实现方式中,所述第二提取模块,被配置为:
对所述音频数据进行用户年龄分析,得到所述音频数据的用户年龄特征;
对所述音频数据进行用户性别分析,得到所述音频数据的用户性别特征;
对所述音频数据进行用户情绪分析,得到所述音频数据的用户情绪特征;
对所述音频数据进行用户疲劳程度分析,得到所述音频数据的用户疲劳程度特征;
对所述音频数据进行用户语速分析,得到所述音频数据的用户语速特征。
在一种可能的实现方式中,所述第二提取模块,还被配置为:
获取当前场景下采集到的图像数据;
在采集到的图像数据中筛选当前发声用户的面部图像;
对所述面部图像进行眼部状态识别,得到图像识别结果;其中,所述图像识别结果用于指示当前发声用户的眼睛开合状态;
基于所述图像识别结果,对所述用户疲劳程度特征进行修正,得到修正后的用户疲劳程度特征。
在一种可能的实现方式中,所述第一提取模块,被配置为:
响应于当前场景为安静场景,基于与所述安静场景匹配的第一声纹模型,对所述音频数据进行声纹特征提取;
响应于当前场景为嘈杂场景,基于与所述嘈杂场景匹配的第二声纹模型,对所述音频数据进行声纹特征提取。
在一种可能的实现方式中,所述第一提取模块,还被配置为:
对于所述音频数据中的任意一个音频帧,获取所述音频帧的能量;
将所述音频帧的能量与噪音的参考能量的比值,作为所述音频帧的信噪比;
响应于所述音频帧的信噪比大于第一阈值,确定所述音频帧为语音帧;
响应于所述音频帧的信噪比小于所述第一阈值,确定所述音频帧为噪音帧;
在语音帧数量大于噪音帧数量的情况下,将当前场景确定为所述安静场景;
在所述语音帧数量小于所述噪音帧数量的情况下,将当前场景确定为所述嘈杂场景。
在一种可能的实现方式中,所述融合模块,被配置为:
对所述音频数据的原始声纹特征、用户属性特征、用户状态特征和用户语速特征进行特征拼接,得到所述音频数据的融合声纹特征。
在一种可能的实现方式中,所述识别模块,被配置为:
获取所述音频数据的融合声纹特征与所述声纹库中存储的融合声纹特征之间的相似度分值;
响应于基于获取到的相似度分值确定所述声纹库中存储有相似度分值大于第二阈值的融合声纹特征,确定当前发声用户通过声纹识别;
响应于所述音频数据的融合声纹特征与目标在册用户的融合声纹特征之间的相似度分值最高,确定当前发声用户为所述目标在册用户。
另一方面,提供了一种计算机设备,所述设备包括处理器和存储器,所述存储器中存储有至少一条程序代码,所述至少一条程序代码由所述处理器加载并执行以实现上述的声纹识别方法。
另一方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一条程序代码,所述至少一条程序代码由处理器加载并执行以实现上述的声纹识别方法。
另一方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机程序代码,该计算机程序代码存储在计算机可读存储介质中,计算机设备的处理器从计算机可读存储介质读取该计算机程序代码,处理器执行该计算机程序代码,使得该计算机设备执行上述的声纹识别方法。
本申请实施例提供的声纹识别方法能够提高声纹识别准确度。
详细来说,首先获取当前场景下采集到的音频数据,之后基于与当前场景匹配的声纹模型,对该音频数据进行声纹特征提取,得到该音频数据的原始声纹特征;进一步地,除了声纹特征之外,本申请实施例还会分别对该音频数据进行用户属性分析、用户状态分析和用户语速分析,进而得到该音频数据的用户属性特征、用户状态特征和用户语速特征;接下来,对该音频数据的原始声纹特征、用户属性特征、用户状态特征和用户语速特征进行特征融合,得到该音频数据的融合声纹特征;最终基于声纹库,对该音频数据的融合声纹特征进行识别,得到声纹识别结果。由于该种声纹识别方案不仅考虑了声纹特征,还额外考虑了用户属性特征、用户状态特征和用户语速特征等辅助信息来辅助判断声纹识别结果,所以显著提高了声纹识别准确度,适用于诸如安全防控这类对声纹识别准确性要求较高的场景。特别地,对于这类场景来说,该种声纹识别方案的高准确性能够避免严重的经济损失或治安问题,确保了安全防控等场景的安全运行。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种声纹识别方法涉及的实施环境示意图;
图2是本申请实施例提供的一种声纹识别方法的整体执行流程的示意图;
图3是本申请实施例提供的一种声纹识别方法的流程图;
图4是本申请实施例提供的一种声纹识别装置的结构示意图;
图5是本申请实施例提供的一种计算机设备的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
本申请中术语“第一”、“第二”等字样用于对作用和功能基本相同的相同项或相似项进行区分,应理解,“第一”、“第二”、“第n”之间不具有逻辑或时序上的依赖关系,也不对数量和执行顺序进行限定。还应理解,尽管以下描述使用术语第一、第二等来描述各种元素,但这些元素不应受术语的限制。
这些术语只是用于将一个元素与另一个元素区别开。例如,在不脱离各种示例的范围的情况下,第一元素能够被称为第二元素,并且类似地,第二元素也能够被称为第一元素。第一元素和第二元素都可以是元素,并且在某些情况下,可以是单独且不同的元素。
其中,至少一个是指一个或一个以上,例如,至少一个元素可以是一个元素、两个元素、三个元素等任意大于等于一的整数个元素。而多个是指两个或者两个以上,例如,多个元素可以是两个元素、三个元素等任意大于等于二的整数个元素。
在本文中提及的“和/或”,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
需要说明的是,本申请所涉及的信息(包括但不限于用户设备信息、用户个人信息等)、数据(包括但不限于用于分析的数据、存储的数据、展示的数据等)以及信号,均为经用户授权或者经过各方充分授权的,且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。
本申请实施例提供的声纹识别方法应用于声纹识别设备。
参见图1,声纹识别设备101为具有机器学习能力的计算机设备,比如,该计算机设备可以是平板电脑、智能手机等,本申请对此不做限定。示例性地,该声纹识别方法可以应用在诸如智慧电梯、银行交易等涉及安全防控的场景中。
其中,判定声纹识别的指标包括错误拒绝率(False Rejection Rate,FRR)和错误接受率(False Acceptance Rate,FAR)。FRR是指被错误拒绝的样本数与应被接受的样本数的比例,FAR是指被错误接受的样本数与应该被拒绝的样本数的比例。
详细来讲,若两个样本为同类(同一个人),却被错误认为异类(非同一个人),则为错误拒绝样本(本不该拒绝但拒绝的样本)。举例来说,利用指纹解锁自己手机时,若无法认证通过,则称为错误拒绝。另外,若两个样本为异类,却被错误认为同类,则为错误接受样本(本不该接受但接受的样本)。举例来说,手机被陌生人捡到,陌生人利用他的指纹成功解锁手机,则称为错误接受。
需要说明的是,通常采用FRR和FAR的综合指标“等错误率”来衡量声纹模型的性能。其中,等错误率越小,声纹模型的性能越好。示例性地,在将采集到的音频数据送入声纹模型提取声纹特征后,进入模式识别步骤。在模式识别过程中,可以对提取到的声纹特征和声纹库中存储的声纹特征进行相似度计算,进而根据得到的相似度分值来判断声纹识别结果。
特别地,针对安全防控场景,通常对声纹识别的准确性要求较高。这是因为,对于这类场景来说,一旦声纹识别出错,那么可能会造成严重的经济损失或导致严重的治安问题。因此,针对这类场景,还需要提高声纹识别准确度。比如,针对类场景,在进行说话人确认时,还希望声纹特征的相似度分值更高一些,因此这类场景更偏向于FAR低的模型。
考虑到上述问题,本申请实施例提供了一种新的声纹识别方案,如图2所示,该种声纹识别方案在提取声纹特征的基础上还会额外提取诸如性别特征、年龄特征、语速特征等,之后将这些特征进行融合,得到融合声纹特征。另外,声纹库中存储的特征同样为融合声纹特征,因此声纹库也被称为融合声纹特征库。相应地,在模式识别过程中也是基于融合声纹特征进行说话人确认或者说话人辨认。
综上所述,本申请实施例提供的声纹识别方案将性别分类模型、年龄判别模型、语速判别模型、声纹模型等多种模型应用在声纹识别系统中,将采集到的音频数据送入上述模型后,可以得到该音频数据对应的声纹特征、性别特征、年龄特征和语速特征等,通过将上述特征进行融合,能够得到一个包含了性别、年龄、语速、声纹等信息的综合特征(本文中称为融合声纹特征),利用融合声纹特征建立声纹库以及进行说话人确认或者说话人辨认。
另外,由于融合声纹特征不但包括声纹特征,还额外结合了性别、年龄、语速等信息,所以性别相同、年龄相仿的声纹特征的相似度分值,会比性别相异、年龄差别较大的声纹特征的相似度分值更高。这是因为男女、不同年龄段的发音特点、音调、频率等特性并不相同。
由于本申请实施例提供的声纹识别方案不仅考虑了声纹方面的相似性,还通过年龄、性别、语速等辅助信息来辅助判断声纹识别结果,因此显著提高了声纹识别准确度,确保了安全防控等场景的安全运行。
图3是本申请实施例提供的一种声纹识别方法的流程图。该方法的执行主体为计算机设备,比如声纹识别设备。参见图3,该方法流程包括:
301、获取当前场景下采集到的音频数据。
示例性地,上述计算机设备可以是用户使用的智能终端,比如智能手机或平板电脑;或者,上述计算机设备还可以是智能电梯内置的声纹识别设备;或者,上述计算机设备还可以是银行大厅里放置的具有声纹识别功能的业务办理设备,本申请对此不作限定。
在本申请实施例中,可以通过上述计算机设备内置的拾音器(比如麦克风)采集音频数据。另外,为了确保能够提取到可用的声纹特征,采集的音频数据的时长应不低于预设时长,比如3s或5s,本申请对此同样不作限定。
302、基于与当前场景匹配的声纹模型,对该音频数据进行声纹特征提取,得到该音频数据的原始声纹特征。
示例性地,本申请实施例将当前场景分为安静场景或嘈杂场景。
在一种可能的实现方式中,包括但不限于采取如下方式来判定当前场景为安静场景还是嘈杂场景:
对于该音频数据中的任意一个音频帧,获取该音频帧的能量;将该音频帧的能量与噪音的参考能量的比值,作为该音频帧的信噪比;响应于该音频帧的信噪比大于第一阈值,确定该音频帧为语音帧;响应于该音频帧的信噪比小于第一阈值,确定该音频帧为噪音帧;在语音帧数量大于噪音帧数量的情况下,将当前场景确定为安静场景;在语音帧数量小于噪音帧数量的情况下,将当前场景确定为嘈杂场景。
需要说明的是,为了便于区分,本文将此处的信噪比阈值称为第一阈值,将后文中出现的相似度阈值称为第二阈值。
示例性地,每个音频帧对应一个能量值,比如该能量值是指音频信号的均方根能量,表示音频信号波形短时间内的平均能量。另外,可以采用噪声估计算法来估计噪音的能量(本文中称为参考能量);比如该噪声估计算法为最小值跟踪算法。
相应地,基于与当前采集场景匹配的声纹模型,对该音频数据进行声纹特征提取,包括但不限于采取如下方式:
响应于当前场景为安静场景,基于与安静场景匹配的第一声纹模型,对该音频数据进行声纹特征提取;响应于当前场景为嘈杂场景,基于与嘈杂场景匹配的第二声纹模型,对该音频数据进行声纹特征提取。
在另一种可能的实现方式中,还可以将安静场景和嘈杂场景进一步地细分分为多个等级,进而得到多个场景类型,本申请对此不作限定。
在另一种可能的实现方式中,与安静场景匹配的第一声纹模型的训练过程可以是:获取在安静场景下采集的第一样本音频集;对第一样本音频集中的各个样本音频进行预处理;基于经过预处理的第一样本音频集,采用预训练微调的方式进行模型训练,得到第一声纹模型。同理,与嘈杂场景匹配的第二声纹模型的训练过程可以是:获取在嘈杂场景下采集的第二样本音频集;对第二样本音频集中的各个样本音频进行预处理;基于经过预处理的第二样本音频集,采用预训练微调的方式进行模型训练,得到第二声纹模型。
示例性地,上述预处理方式包括但不限于:分帧、加窗、降噪、消除各个样本音频中的静音片段,本申请对此不作限定。
303、分别对该音频数据进行用户属性分析、用户状态分析和用户语速分析,得到该音频数据的用户属性特征、用户状态特征和用户语速特征。
示例性地,上述用户属性包括但不限于性别、年龄等,上述用户状态包括但不限于情绪、疲劳程度等,本申请对此不作限定。
在本申请实施例中,通过收集大量具有不同用户属性、不同用户状态、不同用户语速的样本音频,来训练诸如卷积神经网络、支持向量机(Support Vector Machine,SVM),随机森林树(Random Forest Tree,RFT)等模型,来提取待识别的音频数据的用户属性特征、用户状态特征和用户语速特征。
相应地,分别对该音频数据进行用户属性分析、用户状态分析和用户语速分析,得到该音频数据的用户属性特征、用户状态特征和用户语速特征,包括但不限于采取如下方式:
基于年龄判别模型,对该音频数据进行用户年龄分析,得到该音频数据的用户年龄特征;
基于性别分类模型,对该音频数据进行用户性别分析,得到该音频数据的用户性别特征;
基于情绪判别模型,对该音频数据进行用户情绪分析,得到该音频数据的用户情绪特征;
基于疲劳程度判别模型,对该音频数据进行用户疲劳程度分析,得到该音频数据的用户疲劳程度特征;
基于语速判别模型,对该音频数据进行用户语速分析,得到该音频数据的用户语速特征。
在一种可能的实现方式中,以性别分类模型为例,下面对性别分类模型的训练过程进行举例说明,其他模型的训练过程与此同理,不再赘述。
获取用于训练性别分别模型的样本音频集,该样本音频集包括多个男生样本音频和女声样本音频;将该样本音频集输入卷积神经网络,获取该卷积神经网络输出的对该样本音频集的预测分类结果;确定该样本音频集的标注分类结果与预测分类结果是否一致;当标注分类结果与预测分类结果不一致时,反复循环的迭代更新该卷积神经网络的权重值,直至标注分类结果与预测分类结果一致,得到性别分类模型。
示例性地,基于性别分类模型,对该音频数据进行用户性别分析,得到该音频数据的用户性别特征,包括:将该音频数据输入性别分类模型进行特征提取,将性别分类模型的倒数第二层的输出结果作为该音频数据的用户性别特征。
在另一种可能的实现方式中,本申请实施例还支持对基于语音识别的用户疲劳程度进行修正,即本申请实施例还包括:
通过图像采集设备,获取当前场景下采集到的图像数据;在采集到的图像数据中筛选当前发声用户的面部图像;对当前发声用户的面部图像进行眼部状态识别,得到图像识别结果;其中,该图像识别结果用于指示当前发声用户的眼睛开合状态;基于该图像识别结果,对上述用户疲劳程度特征进行修正,得到修正后的用户疲劳程度特征。
示例性地,上述图像采集设备既可以独立于声纹识别设备,也可以与声纹识别设备为一体设备,本申请对此不作限定。在本申请实施例中,如果当前发声用户的眼睛开合状态反映出该用户的眼睛睁开时间小于眼睛闭合时间,那么可以确定该用户处于疲劳状态。示例性地,可以根据一定时长内眼睛睁开时间与眼睛闭合时间的比值或差值,来确定用户疲劳程度,本申请对此不作限定。
在另一种可能的实现方式中,上述修正处理可以是,对基于语音得到的用户疲劳程度特征和基于图像得到的用户疲劳程度特征进行加权,进而得到修正后的用户疲劳程度特征。示例性地,基于语音得到的用户疲劳程度特征对应的权重小于基于图像得到的用户疲劳程度特征对应的权重,本申请对此不作限定。
304、对该音频数据的原始声纹特征、用户属性特征、用户状态特征和用户语速特征进行特征融合,得到该音频数据的融合声纹特征。
在本申请实施例中,对该音频数据的原始声纹特征、用户属性特征、用户状态特征和用户语速特征进行特征融合,得到该音频数据的融合声纹特征,包括但不限于采取如下方式:
对该音频数据的原始声纹特征、用户属性特征、用户状态特征和用户语速特征进行特征拼接,得到该音频数据的融合声纹特征。
305、基于声纹库,对该音频数据的融合声纹特征进行识别,得到声纹识别结果;其中,声纹库用于存储在册用户的融合声纹特征。
在本申请实施例中,基于声纹库,对音频数据的融合声纹特征进行识别,得到声纹识别结果,包括但不限于采取如下方式:
获取该音频数据的融合声纹特征与声纹库中存储的融合声纹特征之间的相似度分值;响应于基于获取到的相似度分值确定声纹库中存储有相似度分值大于第二阈值的融合声纹特征,确定当前发声用户通过声纹识别;响应于该音频数据的融合声纹特征与目标在册用户的融合声纹特征之间的相似度分值最高,确定当前发声用户为目标在册用户。
其中,上述相似度可以是特征之间的余弦相似度,本申请对此不作限定。
本申请实施例提供的声纹识别方法能够提高声纹识别准确度。详细来说,首先获取当前场景下采集到的音频数据,之后基于与当前场景匹配的声纹模型,对该音频数据进行声纹特征提取,得到该音频数据的原始声纹特征;进一步地,除了声纹特征之外,本申请实施例还会分别对该音频数据进行用户属性分析、用户状态分析和用户语速分析,进而得到该音频数据的用户属性特征、用户状态特征和用户语速特征;接下来,对该音频数据的原始声纹特征、用户属性特征、用户状态特征和用户语速特征进行特征融合,得到该音频数据的融合声纹特征;最终基于声纹库,对该音频数据的融合声纹特征进行识别,得到声纹识别结果。由于该种声纹识别方案不仅考虑了声纹特征,还额外考虑了用户属性特征、用户状态特征和用户语速特征等辅助信息来辅助判断声纹识别结果,所以显著提高了声纹识别准确度,适用于诸如安全防控这类对声纹识别准确性要求较高的场景。特别地,对于这类场景来说,该种声纹识别方案的高准确性能够避免严重的经济损失或治安问题,确保了安全防控等场景的安全运行。
图4是本申请实施例提供的一种声纹识别装置的结构示意图。参见图4,该装置包括:
获取模块401,被配置为获取当前场景下采集到的音频数据;
第一提取模块402,被配置为基于与当前场景匹配的声纹模型,对该音频数据进行声纹特征提取,得到该音频数据的原始声纹特征;
第二提取模块403,被配置为分别对该音频数据进行用户属性分析、用户状态分析和用户语速分析,得到该音频数据的用户属性特征、用户状态特征和用户语速特征;
融合模块404,被配置为对该音频数据的原始声纹特征、用户属性特征、用户状态特征和用户语速特征进行特征融合,得到该音频数据的融合声纹特征;
识别模块405,被配置为基于声纹库,对该音频数据的融合声纹特征进行识别,得到声纹识别结果;其中,所述声纹库用于存储在册用户的融合声纹特征。
本申请实施例提供的声纹识别方法能够提高声纹识别准确度。详细来说,首先获取当前场景下采集到的音频数据,之后基于与当前场景匹配的声纹模型,对该音频数据进行声纹特征提取,得到该音频数据的原始声纹特征;进一步地,除了声纹特征之外,本申请实施例还会分别对该音频数据进行用户属性分析、用户状态分析和用户语速分析,进而得到该音频数据的用户属性特征、用户状态特征和用户语速特征;接下来,对该音频数据的原始声纹特征、用户属性特征、用户状态特征和用户语速特征进行特征融合,得到该音频数据的融合声纹特征;最终基于声纹库,对该音频数据的融合声纹特征进行识别,得到声纹识别结果。由于该种声纹识别方案不仅考虑了声纹特征,还额外考虑了用户属性特征、用户状态特征和用户语速特征等辅助信息来辅助判断声纹识别结果,所以显著提高了声纹识别准确度,适用于诸如安全防控这类对声纹识别准确性要求较高的场景。特别地,对于这类场景来说,该种声纹识别方案的高准确性能够避免严重的经济损失或治安问题,确保了安全防控等场景的安全运行。
在一种可能的实现方式中,第二提取模块403,被配置为:
对所述音频数据进行用户年龄分析,得到所述音频数据的用户年龄特征;
对所述音频数据进行用户性别分析,得到所述音频数据的用户性别特征;
对所述音频数据进行用户情绪分析,得到所述音频数据的用户情绪特征;
对所述音频数据进行用户疲劳程度分析,得到所述音频数据的用户疲劳程度特征;
对所述音频数据进行用户语速分析,得到所述音频数据的用户语速特征。
在一种可能的实现方式中,第二提取模块403,还被配置为:
获取当前场景下采集到的图像数据;
在采集到的图像数据中筛选当前发声用户的面部图像;
对所述面部图像进行眼部状态识别,得到图像识别结果;其中,所述图像识别结果用于指示当前发声用户的眼睛开合状态;
基于所述图像识别结果,对所述用户疲劳程度特征进行修正,得到修正后的用户疲劳程度特征。
在一种可能的实现方式中,第一提取模块402,被配置为:
响应于当前场景为安静场景,基于与所述安静场景匹配的第一声纹模型,对所述音频数据进行声纹特征提取;
响应于当前场景为嘈杂场景,基于与所述嘈杂场景匹配的第二声纹模型,对所述音频数据进行声纹特征提取。
在一种可能的实现方式中,第一提取模块402,还被配置为:
对于所述音频数据中的任意一个音频帧,获取所述音频帧的能量;
将所述音频帧的能量与噪音的参考能量的比值,作为所述音频帧的信噪比;
响应于所述音频帧的信噪比大于第一阈值,确定所述音频帧为语音帧;
响应于所述音频帧的信噪比小于所述第一阈值,确定所述音频帧为噪音帧;
在语音帧数量大于噪音帧数量的情况下,将当前场景确定为所述安静场景;
在所述语音帧数量小于所述噪音帧数量的情况下,将当前场景确定为所述嘈杂场景。
在一种可能的实现方式中,融合模块404,被配置为:
对所述音频数据的原始声纹特征、用户属性特征、用户状态特征和用户语速特征进行特征拼接,得到所述音频数据的融合声纹特征。
在一种可能的实现方式中,识别模块405,被配置为:
获取所述音频数据的融合声纹特征与所述声纹库中存储的融合声纹特征之间的相似度分值;
响应于基于获取到的相似度分值确定所述声纹库中存储有相似度分值大于第二阈值的融合声纹特征,确定当前发声用户通过声纹识别;
响应于所述音频数据的融合声纹特征与目标在册用户的融合声纹特征之间的相似度分值最高,确定当前发声用户为所述目标在册用户。
上述所有可选技术方案,可以采用任意结合形成本公开的可选实施例,在此不再一一赘述。
需要说明的是:上述实施例提供的声纹识别装置在进行声纹识别时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的声纹识别装置与声纹识别方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图5是本申请实施例提供的一种计算机设备的结构示意图。通常,计算机设备500包括有:处理器501和存储器502。
处理器501可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器501可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器501也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一种可能的实现方式中,处理器501可以集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。在一种可能的实现方式中,处理器501还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器502可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器502还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一种可能的实现方式中,存储器502中的非暂态的计算机可读存储介质用于存储至少一个程序代码,该至少一个程序代码用于被处理器501所执行以实现本申请中方法实施例提供的声纹识别方法。
在一种可能的实现方式中,计算机设备500还可选包括有:外围设备接口503和至少一个外围设备。处理器501、存储器502和外围设备接口503之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口503相连。具体地,外围设备包括:射频电路504、显示屏505、摄像头组件506、音频电路507、定位组件508和电源509中的至少一种。
外围设备接口503可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器501和存储器502。在一种可能的实现方式中,处理器501、存储器502和外围设备接口503被集成在同一芯片或电路板上;在一些其他实施例中,处理器501、存储器502和外围设备接口503中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路504用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路504通过电磁信号与通信网络以及其他通信设备进行通信。射频电路504将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路504包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路504可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:万维网、城域网、内联网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一种可能的实现方式中,射频电路504还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏505用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏505是触摸显示屏时,显示屏505还具有采集在显示屏505的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器501进行处理。此时,显示屏505还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一种可能的实现方式中,显示屏505可以为一个,设置在计算机设备500的前面板;在另一种可能的实现方式中,显示屏505可以为至少两个,分别设置在计算机设备500的不同表面或呈折叠设计;在另一种可能的实现方式中,显示屏505可以是柔性显示屏,设置在计算机设备500的弯曲表面上或折叠面上。甚至,显示屏505还可以设置成非矩形的不规则图形,也即异形屏。显示屏505可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件506用于采集图像或视频。可选地,摄像头组件506包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一种可能的实现方式中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一种可能的实现方式中,摄像头组件506还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路507可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器501进行处理,或者输入至射频电路504以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在计算机设备500的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器501或射频电路504的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一种可能的实现方式中,音频电路507还可以包括耳机插孔。
定位组件508用于定位计算机设备500的当前地理位置,以实现导航或LBS(Location Based Service,基于位置的服务)。定位组件508可以是基于美国的GPS(GlobalPositioning System,全球定位系统)、中国的北斗系统、俄罗斯的格雷纳斯系统或欧盟的伽利略系统的定位组件。
电源509用于为计算机设备500中的各个组件进行供电。电源509可以是交流电、直流电、一次性电池或可充电电池。当电源509包括可充电电池时,该可充电电池可以是有线充电电池或无线充电电池。有线充电电池是通过有线线路充电的电池,无线充电电池是通过无线线圈充电的电池。该可充电电池还可以用于支持快充技术。
在一种可能的实现方式中,计算机设备500还包括有一个或多个传感器510。该一个或多个传感器510包括但不限于:加速度传感器511、陀螺仪传感器512、压力传感器513、指纹传感器514、光学传感器515以及接近传感器516。
加速度传感器511可以检测以计算机设备500建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器511可以用于检测重力加速度在三个坐标轴上的分量。处理器501可以根据加速度传感器511采集的重力加速度信号,控制显示屏505以横向视图或纵向视图进行用户界面的显示。加速度传感器511还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器512可以检测计算机设备500的机体方向及转动角度,陀螺仪传感器512可以与加速度传感器511协同采集用户对计算机设备500的3D动作。处理器501根据陀螺仪传感器512采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器513可以设置在计算机设备500的侧边框和/或显示屏505的下层。当压力传感器513设置在计算机设备500的侧边框时,可以检测用户对计算机设备500的握持信号,由处理器501根据压力传感器513采集的握持信号进行左右手识别或快捷操作。当压力传感器513设置在显示屏505的下层时,由处理器501根据用户对显示屏505的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器514用于采集用户的指纹,由处理器501根据指纹传感器514采集到的指纹识别用户的身份,或者,由指纹传感器514根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器501授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器514可以被设置在计算机设备500的正面、背面或侧面。当计算机设备500上设置有物理按键或厂商Logo时,指纹传感器514可以与物理按键或厂商Logo集成在一起。
光学传感器515用于采集环境光强度。在一个实施例中,处理器501可以根据光学传感器515采集的环境光强度,控制显示屏505的显示亮度。具体地,当环境光强度较高时,调高显示屏505的显示亮度;当环境光强度较低时,调低显示屏505的显示亮度。在另一个实施例中,处理器501还可以根据光学传感器515采集的环境光强度,动态调整摄像头组件506的拍摄参数。
接近传感器516,也称距离传感器,通常设置在计算机设备500的前面板。接近传感器516用于采集用户与计算机设备500的正面之间的距离。在一个实施例中,当接近传感器516检测到用户与计算机设备500的正面之间的距离逐渐变小时,由处理器501控制显示屏505从亮屏状态切换为息屏状态;当接近传感器516检测到用户与计算机设备500的正面之间的距离逐渐变大时,由处理器501控制显示屏505从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图5中示出的结构并不构成对计算机设备500的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
在示例性实施例中,还提供了一种计算机可读存储介质,例如包括程序代码的存储器,上述程序代码可由计算机设备中的处理器执行以完成上述实施例中的声纹识别方法。例如,所述计算机可读存储介质可以是只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、光盘只读存储器(Compact Disc Read-OnlyMemory,CD-ROM)、磁带、软盘和光数据存储设备等。
在示例性实施例中,还提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机程序代码,该计算机程序代码存储在计算机可读存储介质中,计算机设备的处理器从计算机可读存储介质读取该计算机程序代码,处理器执行该计算机程序代码,使得该计算机设备执行上述声纹识别方法。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本申请的可选实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (10)

1.一种声纹识别方法,其特征在于,所述方法包括:
获取当前场景下采集到的音频数据;
基于与当前场景匹配的声纹模型,对所述音频数据进行声纹特征提取,得到所述音频数据的原始声纹特征;
分别对所述音频数据进行用户属性分析、用户状态分析和用户语速分析,得到所述音频数据的用户属性特征、用户状态特征和用户语速特征;
对所述音频数据的原始声纹特征、用户属性特征、用户状态特征和用户语速特征进行特征融合,得到所述音频数据的融合声纹特征;
基于声纹库,对所述音频数据的融合声纹特征进行识别,得到声纹识别结果;其中,所述声纹库用于存储在册用户的融合声纹特征。
2.根据权利要求1所述的方法,其特征在于,所述分别对所述音频数据进行用户属性分析、用户状态分析和用户语速分析,得到所述音频数据的用户属性特征、用户状态特征和用户语速特征,包括:
对所述音频数据进行用户年龄分析,得到所述音频数据的用户年龄特征;
对所述音频数据进行用户性别分析,得到所述音频数据的用户性别特征;
对所述音频数据进行用户情绪分析,得到所述音频数据的用户情绪特征;
对所述音频数据进行用户疲劳程度分析,得到所述音频数据的用户疲劳程度特征;
对所述音频数据进行用户语速分析,得到所述音频数据的用户语速特征。
3.根据权利要求2所述的方法,其特征在于,所述方法还包括:
获取当前场景下采集到的图像数据;
在采集到的图像数据中筛选当前发声用户的面部图像;
对所述面部图像进行眼部状态识别,得到图像识别结果;其中,所述图像识别结果用于指示当前发声用户的眼睛开合状态;
基于所述图像识别结果,对所述用户疲劳程度特征进行修正,得到修正后的用户疲劳程度特征。
4.根据权利要求1所述的方法,其特征在于,所述基于与当前采集场景匹配的声纹模型,对所述音频数据进行声纹特征提取,包括:
响应于当前场景为安静场景,基于与所述安静场景匹配的第一声纹模型,对所述音频数据进行声纹特征提取;
响应于当前场景为嘈杂场景,基于与所述嘈杂场景匹配的第二声纹模型,对所述音频数据进行声纹特征提取。
5.根据权利要求4所述的方法,其特征在于,所述方法还包括:
对于所述音频数据中的任意一个音频帧,获取所述音频帧的能量;
将所述音频帧的能量与噪音的参考能量的比值,作为所述音频帧的信噪比;
响应于所述音频帧的信噪比大于第一阈值,确定所述音频帧为语音帧;
响应于所述音频帧的信噪比小于所述第一阈值,确定所述音频帧为噪音帧;
在语音帧数量大于噪音帧数量的情况下,将当前场景确定为所述安静场景;
在所述语音帧数量小于所述噪音帧数量的情况下,将当前场景确定为所述嘈杂场景。
6.根据权利要求1所述的方法,其特征在于,所述对所述音频数据的原始声纹特征、用户属性特征、用户状态特征和用户语速特征进行特征融合,得到所述音频数据的融合声纹特征,包括:
对所述音频数据的原始声纹特征、用户属性特征、用户状态特征和用户语速特征进行特征拼接,得到所述音频数据的融合声纹特征。
7.根据权利要求1所述的方法,其特征在于,所述基于声纹库,对所述音频数据的融合声纹特征进行识别,得到声纹识别结果,包括:
获取所述音频数据的融合声纹特征与所述声纹库中存储的融合声纹特征之间的相似度分值;
响应于基于获取到的相似度分值确定所述声纹库中存储有相似度分值大于第二阈值的融合声纹特征,确定当前发声用户通过声纹识别;
响应于所述音频数据的融合声纹特征与目标在册用户的融合声纹特征之间的相似度分值最高,确定当前发声用户为所述目标在册用户。
8.一种声纹识别装置,其特征在于,所述装置包括:
获取模块,被配置为获取当前场景下采集到的音频数据;
第一提取模块,被配置为基于与当前场景匹配的声纹模型,对所述音频数据进行声纹特征提取,得到所述音频数据的原始声纹特征;
第二提取模块,被配置为分别对所述音频数据进行用户属性分析、用户状态分析和用户语速分析,得到所述音频数据的用户属性特征、用户状态特征和用户语速特征;
融合模块,被配置为对所述音频数据的原始声纹特征、用户属性特征、用户状态特征和用户语速特征进行特征融合,得到所述音频数据的融合声纹特征;
识别模块,被配置为基于声纹库,对所述音频数据的融合声纹特征进行识别,得到声纹识别结果;其中,所述声纹库用于存储在册用户的融合声纹特征。
9.一种计算机设备,其特征在于,所述设备包括处理器和存储器,所述存储器中存储有至少一条程序代码,所述至少一条程序代码由所述处理器加载并执行以实现如权利要求1至7中任一项权利要求所述的声纹识别方法。
10.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条程序代码,所述至少一条程序代码由处理器加载并执行以实现如权利要求1至7中任一项权利要求所述的声纹识别方法。
CN202211678843.8A 2022-12-26 2022-12-26 声纹识别方法、装置、设备及存储介质 Pending CN116246635A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211678843.8A CN116246635A (zh) 2022-12-26 2022-12-26 声纹识别方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211678843.8A CN116246635A (zh) 2022-12-26 2022-12-26 声纹识别方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
CN116246635A true CN116246635A (zh) 2023-06-09

Family

ID=86630486

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211678843.8A Pending CN116246635A (zh) 2022-12-26 2022-12-26 声纹识别方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN116246635A (zh)

Similar Documents

Publication Publication Date Title
CN109034102B (zh) 人脸活体检测方法、装置、设备及存储介质
CN111079576B (zh) 活体检测方法、装置、设备及存储介质
CN110222789B (zh) 图像识别方法及存储介质
CN110807361B (zh) 人体识别方法、装置、计算机设备及存储介质
EP3855716B1 (en) Audio control method and electronic device
CN111933112B (zh) 唤醒语音确定方法、装置、设备及介质
CN111368811B (zh) 活体检测方法、装置、设备及存储介质
WO2021052306A1 (zh) 声纹特征注册
CN113744736B (zh) 命令词识别方法、装置、电子设备及存储介质
CN111105788B (zh) 敏感词分数检测方法、装置、电子设备及存储介质
CN111062248A (zh) 图像检测的方法、装置、电子设备及介质
CN113160802B (zh) 语音处理方法、装置、设备及存储介质
CN111027490A (zh) 人脸属性识别方法及装置、存储介质
CN110705438A (zh) 步态识别方法、装置、设备及存储介质
CN115829575B (zh) 支付验证方法、装置、终端、服务器及存储介质
CN113343709B (zh) 意图识别模型的训练方法、意图识别方法、装置及设备
CN111191018A (zh) 对话系统的应答方法和装置、电子设备、智能设备
CN111125424B (zh) 提取歌曲核心歌词的方法、装置、设备及存储介质
CN111028846B (zh) 免唤醒词注册的方法和装置
CN111080630B (zh) 眼底图像检测设备、方法、装置及存储介质
CN115171175A (zh) 人脸识别方法、装置、设备及可读存储介质
CN113409770A (zh) 发音特征处理方法、装置、服务器及介质
CN116860913A (zh) 语音交互方法、装置、设备及存储介质
CN113591514B (zh) 指纹活体检测方法、设备及存储介质
CN116246635A (zh) 声纹识别方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination