CN107452405B - 一种根据语音内容进行数据评价的方法及装置 - Google Patents
一种根据语音内容进行数据评价的方法及装置 Download PDFInfo
- Publication number
- CN107452405B CN107452405B CN201710703850.1A CN201710703850A CN107452405B CN 107452405 B CN107452405 B CN 107452405B CN 201710703850 A CN201710703850 A CN 201710703850A CN 107452405 B CN107452405 B CN 107452405B
- Authority
- CN
- China
- Prior art keywords
- voice content
- emotion
- sequence
- recognition
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 230000008451 emotion Effects 0.000 claims abstract description 88
- 230000008909 emotion recognition Effects 0.000 claims abstract description 83
- 238000012545 processing Methods 0.000 claims abstract description 64
- 238000011157 data evaluation Methods 0.000 claims abstract description 36
- 238000003062 neural network model Methods 0.000 claims description 38
- 230000009467 reduction Effects 0.000 claims description 24
- 238000012549 training Methods 0.000 claims description 19
- 238000007781 pre-processing Methods 0.000 claims description 11
- 230000011218 segmentation Effects 0.000 claims description 8
- 238000011156 evaluation Methods 0.000 abstract description 16
- 238000010586 diagram Methods 0.000 description 10
- 230000008859 change Effects 0.000 description 8
- 230000006854 communication Effects 0.000 description 7
- 238000004590 computer program Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 238000003860 storage Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 206010013954 Dysphoria Diseases 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 230000006996 mental state Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000001303 quality assessment method Methods 0.000 description 1
- 238000013441 quality evaluation Methods 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 238000013112 stability test Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
- H04M3/51—Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
- H04M3/5175—Call or contact centers supervision arrangements
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Business, Economics & Management (AREA)
- Marketing (AREA)
- Child & Adolescent Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Telephonic Communication Services (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明实施例提供一种根据语音内容进行数据评价的方法及装置,属于数据处理技术领域。其中,所述根据语音内容进行数据评价的方法包括:获取语音内容,对所述语音内容进行分析处理;对分析处理后的所述语音内容进行情绪识别,生成情绪识别结果;根据所述情绪识别结果生成对应的数据评价结果。通过本发明实施例,实现了从情绪方面评价客服服务质量,使客服的实际服务质量得到客观真实的反映。
Description
技术领域
本发明实施例涉及数据处理技术领域,尤其涉及一种根据语音内容进行数据评价的方法及装置。
背景技术
企业一般拥有数量庞大的电呼人工客服团队,主要负责收集客户反馈、解答客户咨询、响应客户投诉。客服团队的服务质量直接关系到一个企业的客户口碑,其记录的客户反馈也对于产品改进、企业发展计划的制定有着重要影响。因此,人工客服团队是现阶段企业不可或缺的重要组成部分,而团队的服务质量评估也成为了一个重要的课题,关系到团队绩效考核、人员变动等方面。
但是,在现有技术中,对客服的服务质量的评价仅限于客户的反馈,没有从客服的角度来对客服的服务质量进行综合评价,尤其是客服在服务过程中的情绪,会在一定程度上影响到客户的情绪,进而影响整个客服团队的服务质量。可见,现有技术在对客服服务质量的评价方式中,主要存在以下缺陷:客服服务质量的评价仅限于客户反馈,无法客观、真实地反映客服的实际服务质量。
发明内容
有鉴于此,本发明实施例所解决的技术问题之一在于提供一种根据语音内容进行数据评价的方法及装置,用以克服现有技术中的上述缺陷,实现对客服服务质量的客观评价的目的。
基于上述目的,本发明实施例提供一种根据语音内容进行数据评价的方法,包括:
获取语音内容,对所述语音内容进行分析处理;
对分析处理后的所述语音内容进行情绪识别,生成情绪识别结果;
根据所述情绪识别结果生成对应的数据评价结果。
基于上述目的,本发明实施例还提供一种根据语音内容进行数据评价的装置,包括:
语音内容获取模块,用于获取语音内容;
语音内容分析处理模块,用于对语音内容进行分析处理;
情绪识别模块,用于对分析处理后的所述语音内容进行情绪识别,生成情绪识别结果;
数据评价模块,用于根据情绪识别结果生成对应的数据评价结果。
由以上技术方案可见,本发明实施例提供的根据语音内容进行数据评价的方法,通过对语音内容进行情绪识别,根据情绪识别的结果对语音内容进行数据评价,相较于人为评价,本发明实施例提供的方案使得对语音内容的数据评价更为客观。以客服与客户的语音内容为例,本发明实施例提供的方案可以使得对客服的服务质量的评价不再仅限于客户的反馈,实现了从情绪方面评价客服服务质量,使客服的实际服务质量得到客观真实的反映。通过对语音内容进行处理并进行情绪识别,可以判断出客服或者客户在沟通过程中的情绪变化,进而可以提前预警,对客服的情绪进行把控。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明实施例中记载的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的附图。
图1所示为本发明实施例一的根据语音内容进行数据评价的方法流程图;
图2所示为本发明实施例二的根据语音内容进行数据评价的方法流程图;
图3所示为本发明实施例三的根据语音内容进行数据评价的装置结构图。
具体实施方式
为了使本领域的人员更好地理解本发明实施例中的技术方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明实施例一部分实施例,而不是全部的实施例。基于本发明实施例中的实施例,本领域普通技术人员所获得的所有其他实施例,都应当属于本发明实施例保护的范围。
下面结合本发明实施例附图进一步说明本发明实施例具体实现。
如图1所示为本发明实施例一的根据语音内容进行数据评价的方法流程图,本实施例中的根据语音内容进行数据评价的方法包括以下步骤:
S101:获取语音内容,对所述语音内容进行分析处理。
在本实施例中,所述语音内容可以是以任意适当形式存在的、包含人声的语音内容,如,包含语音通话的各种格式的文件,当将本实施例的根据语音内容进行数据评价的方法应用到评价客服的服务质量中时,所述语音内容可以是客户在与客服沟通过程中的实时语音记录,也可以是客户与客服沟通的历史语音。通过对客户与客服的语音内容进行录音,可以得到上述的语音内容。但本发明实施例中的语音内容不仅限于此,其它形式的语音,如包含一个人的人声语音,或,包括多个(两个及两个以上)人的对话的语音等语音内容也可同样适用于本发明实施例提供的方案。
当获取到所述语音内容后,对所述语音内容进行分析处理,例如,对所述语音内容进行包括但不限于降噪、切分、角色识别等等处理,以供后续进行语音内容的数据评价使用。对语音内容的分析处理可以更便于后续对语音内容进行情绪识别,如,通过对语音内容进行降噪,可以滤除掉大量的噪音,提高对所述语音内容进行处理和评价的效率。
例如,利用频域维纳滤波降噪法对所述语音内容进行滤波降噪,通过滤波,可以把绝大多数的噪声去除,提高角色识别以及语音情绪的识别的准确率。当然,在噪音的存在对角色识别的影响较小的情况下,也可以先对所述语音内容进行角色识别,然后再对角色识别后的所述语音内容进行降噪。或者,也可以不进行降噪处理。
以先降噪处理为例,在对所述语音内容进行降噪处理后,将降噪处理后的语音内容按时域进行切分,即将语音内容在时间轴上进行切分,按照时间的先后顺序将所述语音内容分为多个自然语句。仍以客服与客户的对话语音为例,由于在客服与客户的沟通过程中,通常对话是依次进行的,因此可以采用时域切分策略,通过时域的切分,可以形成一句一句的对话,供后面的处理使用。当噪声较小,可以不对所述语音内容进行降噪处理时,则可以直接对所述语音内容按时域进行切分。
S102:对分析处理后的所述语音内容进行情绪识别,生成情绪识别结果。
在对语音内容进行分析处理后,进一步地通过情绪识别,识别所述语音内容对应的客户或者客服的情绪,生成情绪识别结果,根据所述情绪识别结果,一方面可以用在对客服服务质量的评价的参考,另一方面,当客服情绪即将失控时,可以提前预警,通过提醒等方式对客服的情绪进行控制,或者可以中断客服与客户的沟通,避免给客户留下差的映象。
在一种可行方式中,可以根据深度神经网络模型对分析处理后的语音内容进行情绪识别,生成与所述语音内容对应的情绪序列。其中,深度神经网络模型可以使用已经训练完成的用于进行情绪识别的网络模型,也可以预先自行训练深度神经网络模型,以进行情绪识别使用。
可选地,可以在根据深度神经网络模型对所述分析处理后的语音内容进行情绪识别之前,训练深度神经网络模型,包括:获取用于训练的语音内容样本,并对语音内容样本进行情绪标注;使用标注后的语音内容样本对深度神经网络模型进行训练学习,获得用于情绪识别的深度神经网络模型。
进一步可选地,还可以对语音内容样本进行优化,以获得更好的深度神经网络模型训练结果。例如,对标注后的语音内容样本进行预处理,所述预处理包括傅里叶变换处理和降噪处理;使用进行了标注和预处理后的语音内容样本,对深度神经网络模型进行训练学习,获得用于情绪识别的深度神经网络模型。
不同的人的语言在频率域上的特征会完全不同,同一个人的不同情绪体现在频谱上的特征也是完全不同的,基于这些信息,通过人工对不同人不同情绪的频谱进行标注,再通过深度神经网络方法(如,循环卷积神经网络RNN)进行模型训练,最终能够通过机器去识别每一句话的情绪,形成一个情绪对话序列,通过所述情绪对话序列,可以准确地评估客户在整个对话过程中的情绪变化。
基于此,在一种可行方案中,在根据深度神经网络模型对分析处理后的语音内容进行情绪识别,生成与所述语音内容对应的情绪序列时,可以根据对所述语音内容的切分获得多个具有时间先后顺序关系的语音分段,将多个语音分段按照所述时间先后顺序输入到深度神经网络模型中进行情绪识别,分别获得对应的多个情绪识别结果;根据所述时间先后顺序,将多个情绪识别结果生成情绪序列。此种方式中,先对语音内容按时域进行切分,获得多个语音分段,多个语音分段具有一定的时间先后顺序关系,可选地,每个语音分段还可以对应有不同的角色(如客服或客户)。将多个语音分段按时间先后顺序输入深度神经网络模型分别进行情绪识别,将获得对应的多个情绪识别结果。进一步地,可以按照多个语音分段的时间先后顺序,将对应的多个情绪识别结果组织成情绪序列。
例如,按时域将语音内容A切分为(A1,A2,A3,A4,A5),A1先于A2,A2先于A3,A3先于A4,A4先于A5。按照(A1,A2,A3,A4,A5)的顺序分别输入深度神经网络模型,分别获得与A1对应的S1,与A2对应的S2,与A3对应的S3,与A4对应的S4,与A5对应的S5,根据(A1,A2,A3,A4,A5)的先后顺序,将对应的结果S1-S5组织为情绪序列(S1,S2,S3,S4,S5)。其中,该情绪序列包含多个字符的字符序列,该字符序列中的字符与情绪一一对应。
S103:根据所述情绪识别结果生成对应的数据评价结果。
例如,在得到客服和客户的情绪序列后,可以根据所述情绪序列进行数据评价,一方面可以判定这次客服的服务质量的好坏,另一方面,可以通过情绪序列,给这次客服服务质量进行打分。
在一种可行方式中,可以根据所述情绪识别结果中不同的情绪所占的比例生成对应的数据评价结果;在另一种方式中,可以根据所述情绪识别结果中情绪的变化趋势生成对应的数据评价结果。
本实施例提供的根据语音内容进行数据评价的方法,通过对语音内容进行情绪识别,根据情绪识别的结果对语音内容进行数据评价,相较于人为评价,本发明实施例提供的方案使得对语音内容的数据评价更为客观。以客服与客户的语音内容为例,本发明实施例提供的方案可以使得对客服的服务质量的评价不再仅限于客户的反馈,实现了从情绪方面评价客服服务质量,使客服的实际服务质量得到客观真实的反映。通过对语音内容进行处理并进行情绪识别,可以判断出客服或者客户在沟通过程中的情绪变化,进而可以提前预警,对客服的情绪进行把控。
如图2所示,为本发明实施例二的根据语音内容进行数据评价的方法流程图,本实施例的方法先对降噪处理后的语音内容按时域进行切分,然后对切分后的语音内容进行角色识别,并对角色识别后的语音内容进行身份标识,包括以下步骤:
S201:获取语音内容。
当将本实施例的方法应用于评价客服的服务质量中时,通过时时上传获取客户和客服的语音通话内容,来获所述取语音内容,也可以从语音内容库中调取所述语音内容。
S202:对所述语音内容进行降噪处理。
具体降噪处理方式可参照前述图1所示实施例中的方式,在此不再赘述。
S203:对降噪处理后的语音内容按时域进行切分。
具体切分方式可参照前述图1所示实施例中的方式,在此不再赘述。
S204:对切分后的语音内容进行角色识别,并对角色识别后的语音内容进行身份标识。
在对语音内容进行切分后,进一步地,可以对切分后的语音内容进行角色识别。也即,先对所述语音内容进行降噪处理,并将降噪处理后的语音内容按时域进行切分。然后,对切分后的语音内容进行角色识别,并对角色识别后的语音内容进行身份标识。例如,对切分后的语音内容进行声纹识别,可以对切分后的语音内容对应的角色进行角色识别,如区分该语音内容是客服的语音内容还是客户的语音内容。在一种可行方式中,可以先根据所述语音内容的声纹对切分后的所述语音内容进行角色识别,对角色识别后的语音内容进行身份编号。通过身份编号,可以为后续对语音内容的区分处理提供方便。
在另一种对所述语音内容的分析处理方式中,可以先对所述语音内容进行降噪处理,再对降噪处理后的语音内容进行角色识别,并对角色识别后的语音内容进行身份标识,然后对身份标识后的语音内容按时域进行切分。如前所述,若噪声影响较小,也可以先对所述语音内容进行角色识别,并对角色识别后的语音内容进行身份标识,对身份标识后的语音内容按时域进行切分。
需要说明的是,上述实施方式中,当进行降噪处理时,均以先进行降噪再进行其它处理,如切分等为例,但本领域技术人员应当明了,在实际使用中,不限于先进行降噪的方式,降噪处理可以在任意适当的环节进行,如,可以在对语音内容切分后再对切分后的语音内容进行处理等等。
在对语音内容进行角色识别的过程中,可以预先采集客服的声纹并存储,当对当前语音内容进行角色识别时,提取当前语音内容的声纹,并与预先存储的客服的声纹进行匹配,若匹配成功,则该语音内容为客服的语音内容,若匹配失败,则该语音内容为客户的语音内容,通过角色识别,可以区分出语音内容中的对应语音是客户说的还是客服的说的,方便进行进一步的数据评价。
但不限于根据声纹进行角色识别,其它角色识别方式也同样适用,如,通过机器学习方式等。通过角色识别和身份识别,更便于对所述语音内容中的角色进行区分,提高后续情绪识别和数据评价效率。
需要说明的是,在对切分后的语音内容进行角色识别的过程中,当所述语音内容只对应一个角色时,可以不对所述语音内容进行身份标识。
S205:对身份标识后的所述语音内容进行情绪识别,生成情绪识别结果。
仍以根据深度神经网络模型对分析处理后的语音内容进行情绪识别,生成与所述语音内容对应的情绪序列为例,在一个实例中,比如,对每种情绪进行编号,平和为0,开心为1,大笑为2,激动为3,愤怒为4,则生成的情绪序列可以为[0,0,0,0,0,3,3,4,4,4]。可见,情绪序列可以为包含多个字符的字符序列,所述字符序列中的字符与情绪一一对应。进一步地,为了便于机器识别,语音内容对应的角色还可以对应有编号,比如客服的编号为0,客户的编号为1,该编号可以来源于前述对角色识别后的语音内容进行的身份编号。
则客服与客户的情绪序列可以表示为0:[0,0,0,0,0,0,0,0,0,0];1:[0,0,0,0,0,3,3,4,4,4]。同样,该情绪序列为包含多个字符的字符序列,所述字符序列中的字符与情绪一一对应。从该情绪序列可以看出,客服在语音通话过程中情绪保持平和,而客户的情绪则由平和变为激动,进而变为愤怒。当然,对客服和客户的变化可以采用其他字符,对情绪的编号同样可以采用其他字符,比如字母或者数字,这里不再列举。在本实施例中,当客户的情绪由平和变为激动时,可以提醒客服,也可以通过终端通话或者更换客服来避免客户的情绪进一步恶化。
S206:根据所述情绪识别结果生成对应的数据评价结果。
如前述图1所示实施例中所述,可以根据所述情绪识别结果中不同的情绪所占的比例生成对应的数据评价结果;或者,可以根据所述情绪识别结果中情绪的变化趋势生成对应的数据评价结果。
例如,假设整个对话只有10轮,在前种方式中,可以按照客户全程中出现的开心,大笑的占比进行加分,例如超过40%则加1分,20%~40%则加0.5,20%~10%加0.3,大于0的加0.2分,没有则不加分。在后种方式中,如果在结尾的20%处激动和愤怒的情绪占比超过70%减1分,50%~70%减0.6分,20%~50减0.3,其余不减。
但不限于此,在实际应用中,两种方式也可结合使用,如,用如下5个维度进行数据评价:1、如果客户全程没有发生愤怒情绪则得1分,如果发生,则按占比进行减分,最多减到0分。2、如果在结尾的20%处激动和愤怒的情绪占比超过70%减1分,50%~70%减0.6分,20%~50减0.3,其余不减。3、如果客服语音出现愤怒的情绪后,直接减1分,如果客户从开始20%的地方没有出现愤怒和激动的情绪,从大于20%开始出现的减0.8,其余不减。4、如果客服发生愤怒情绪,客服能够在这个点开始到结束为止的时间中,客户停止的愤怒的时间占比进行减分,如果全程结束都没有停止,则减1分,依次类推。5、按照客户全程中出现的开心,大笑的占比进行加分,例如超过40%则加1分,20%~40%则加0.5,20%~10%加0.3,大于0的加0.2分,没有则不加分。
当然,上述具体的评价规则设置、比例设置及分数设置仅为示例性说明,在实际应用中,本领域技术人员可以根据具体需要适当设置,本发明实施例对此不作限制。
此外,本实施例的根据语音内容进行数据评价的方法,还可以应用于其他领域,通过增加不同维度的情绪来实现不同的目的,比如在情绪中增加害怕、不安或者烦躁等其他情绪,可以实现测谎、精神状态稳定性测试等,这里不再一一说明。
本实施例提供的根据语音内容进行数据评价的方法,通过对语音内容进行情绪识别,根据情绪识别的结果对语音内容进行数据评价,相较于人为评价,本发明实施例提供的方案使得对语音内容的数据评价更为客观。以客服与客户的语音内容为例,本发明实施例提供的方案可以使得对客服的服务质量的评价不再仅限于客户的反馈,实现了从情绪方面评价客服服务质量,使客服的实际服务质量得到客观真实的反映。通过对语音内容进行处理并进行情绪识别,可以判断出客服或者客户在沟通过程中的情绪变化,进而可以提前预警,对客服的情绪进行把控。
如图3所示,为本发明实施例三的根据语音内容进行数据评价的装置结构图。本实施例的装置包括语音内容获取模块301、语音内容分析处理模块302、情绪识别模块303和数据评价模块304。所述语音内容获取模块301用于获取语音内容,所述语音内容分析处理模块302用于对语音内容进行分析处理,所述情绪识别模块303用于对分析处理后的所述语音内容进行情绪识别,生成情绪识别结果;所述数据评价模块304用于根据情绪识别结果生成对应的数据评价结果。
在本发明的一些具体实施例中,所述语音内容分析处理模块具体用于对所述语音内容按时域进行切分,以及对切分后的语音内容进行角色识别,并对角色识别后的语音内容进行身份标识,此外,还可以用于对语音内容进行角色识别,并对角色识别后的语音内容进行身份标识,如,根据所述语音内容的声纹对所述语音内容进行角色识别,进而对角色识别后的语音内容进行身份编号。
在本发明的一些具体实施例中,所述语音内容分析处理模块还可以用于对所述语音内容进行角色识别,并对角色识别后的语音内容进行身份标识,对身份标识后的语音内容按时域进行切分。
在本发明的一些具体实施例中,所述语音内容分析处理模块还可以用于对所述语音内容进行降噪处理。
在本发明的一些具体实施例中,所述情绪识别模块用于根据深度神经网络模型对所述分析处理后的语音内容进行情绪识别,生成与所述语音内容对应的情绪序列,所述情绪序列为包含多个字符的字符序列,所述字符序列中的字符与情绪一一对应。
可选的,情绪识别模块303具体用于:根据对所述语音内容的切分获得多个具有时间先后顺序关系的语音分段,将多个语音分段按照所述时间先后顺序输入到深度神经网络模型中进行情绪识别,分别获得对应的多个情绪识别结果;根据所述时间先后顺序,将多个情绪识别结果生成情绪序列。
可选的,本实施例的装置还可以包括:样本处理模块305,用于在情绪识别模块303根据深度神经网络模型对所述分析处理后的语音内容进行情绪识别之前,获取用于训练的语音内容样本,并对语音内容样本进行情绪标注;训练模块306,用于使用标注后的语音内容样本对深度神经网络模型进行训练学习,获得用于情绪识别的深度神经网络模型。
可选的,训练模块306用于对标注后的语音内容样本进行预处理,所述预处理包括傅里叶变换处理和降噪处理;使用进行了标注和预处理后的语音内容样本,对深度神经网络模型进行训练学习,获得用于情绪识别的深度神经网络模型。
可选的,所述数据评价模块具体用于:根据所述情绪识别结果中不同的情绪所占的比例生成对应的数据评价结果,或者,根据所述情绪识别结果中情绪的变化趋势生成对应的数据评价结果。
本实施例的根据语音内容进行数据评价的装置,能够取得与上述方法实施例相同的技术效果,这里不再赘述。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,所述计算机可读记录介质包括用于以计算机(例如计算机)可读的形式存储或传送信息的任何机制。例如,机器可读介质包括只读存储器(ROM)、随机存取存储器(RAM)、磁盘存储介质、光存储介质、闪速存储介质、电、光、声或其他形式的传播信号(例如,载波、红外信号、数字信号等)等,该计算机软件产品包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本申请实施例的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
本领域的技术人员应明白,本发明实施例的实施例可提供为方法、装置(设备)、或计算机程序产品。因此,本发明实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明实施例是参照根据本发明实施例的方法、装置(设备)和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
Claims (22)
1.一种根据语音内容进行数据评价的方法,其特征在于,包括:
获取包含客户与客服的对话的语音内容,对所述语音内容进行分析处理,得到多个自然语句;
对所述多个自然语句进行情绪识别,生成顺序与多个自然语句的时间先后顺序一致的情绪序列;
根据所述情绪序列生成对应的数据评价结果,包括:根据所述情绪序列中不同的情绪在所述语音内容中的开始和结束比例位置,从多个维度生成对应的数据评价结果,所述维度包括客户维度以及客服维度。
2.根据权利要求1所述的方法,其特征在于,所述对所述语音内容进行分析处理包括:
对所述语音内容按时域进行切分。
3.根据权利要求2所述的方法,其特征在于,还包括:对切分后的语音内容进行角色识别,并对角色识别后的语音内容进行身份标识。
4.根据权利要求3所述的方法,其特征在于,所述对切分后的语音内容进行角色识别,并对角色识别后的语音内容进行身份标识包括:
根据所述语音内容的声纹对切分后的所述语音内容进行角色识别,对角色识别后的语音内容进行身份编号。
5.根据权利要求2所述的方法,其特征在于,对所述语音内容按时域进行切分包括:
对所述语音内容进行角色识别,并对角色识别后的语音内容进行身份标识,对身份标识后的语音内容按时域进行切分。
6.根据权利要求2-5任一项所述的方法,其特征在于,所述对所述语音内容进行分析处理还包括:对所述语音内容进行降噪处理。
7.根据权利要求2-5任一项所述的方法,其特征在于,所述对所述多个自然语句进行情绪识别,生成顺序与多个自然语句的时间先后顺序一致的情绪序列包括:
根据深度神经网络模型对所述多个自然语句进行情绪识别,生成顺序与多个自然语句的时间先后顺序一致的所述情绪序列。
8.根据权利要求7所述的方法,其特征在于,所述根据深度神经网络模型对所述多个自然语句进行情绪识别,生成顺序与多个自然语句的时间先后顺序一致的所述情绪序列包括:
根据对所述语音内容的切分获得多个具有时间先后顺序关系的语音分段,所述语音分段为所述自然语句,将多个所述语音分段按照所述时间先后顺序输入到所述深度神经网络模型中进行情绪识别,生成顺序与多个自然语句的时间先后顺序一致的所述情绪序列。
9.根据权利要求7所述的方法,其特征在于,在所述根据深度神经网络模型对所述多个自然语句进行情绪识别,生成顺序与多个自然语句的时间先后顺序一致的所述情绪序列之前,所述方法还包括 :
获取用于训练的语音内容样本,并对所述语音内容样本进行情绪标注;
使用标注后的语音内容样本对深度神经网络模型进行训练学习,获得用于情绪识别的深度神经网络模型。
10.根据权利要求9所述的方法,其特征在于,所述使用标注后的语音内容样本对深度神经网络模型进行训练学习,获得用于情绪识别的深度神经网络模型包括:对标注后的语音内容样本进行预处理,所述预处理包括傅里叶变换处理和降噪处理;
使用进行了标注和预处理后的所述语音内容样本,对深度神经网络模型进行训练学习,获得用于情绪识别的深度神经网络模型。
11.根据权利要求7所述的方法,其特征在于,所述情绪序列为包含多个字符的字符序列,所述字符序列中的字符与情绪一一对应。
12.一种根据语音内容进行数据评价的装置,其特征在于,包括:
语音内容获取模块,用于获取包含客户与客服的对话的语音内容;
语音内容分析处理模块,用于对语音内容进行分析处理,得到多个自然语句;
情绪识别模块,用于对所述多个自然语句进行情绪识别,生成顺序与多个自然语句的时间先后顺序一致的情绪序列;
数据评价模块,用于根据情绪识别结果生成对应的数据评价结果,包括:根据所述情绪序列中不同的情绪在所述语音内容中的开始和结束比例位置,从多个维度生成对应的数据评价结果,所述维度包括客户维度以及客服维度。
13.根据权利要求12所述的装置,其特征在于,所述语音内容分析处理模块具体用于:
对所述语音内容按时域进行切分。
14.根据权利要求13所述的装置,其特征在于,所述语音内容分析处理模块还用于:
对切分后的语音内容进行角色识别,并对角色识别后的语音内容进行身份标识。
15.根据权利要求14所述的装置,其特征在于,所述语音内容分析处理模块还具体用于:
根据所述语音内容的声纹对所述语音内容进行角色识别,对角色识别后的语音内容进行身份编号。
16.根据权利要求13所述的装置,其特征在于,所述语音内容分析处理模块用于:
对所述语音内容进行角色识别,并对角色识别后的语音内容进行身份标识,对身份标识后的语音内容按时域进行切分。
17.根据权利要求13-16任一项所述的装置,其特征在于,所述语音内容分析处理模块还用于:对所述语音内容进行降噪处理。
18.根据权利要求13-16任一项所述的装置,其特征在于,所述情绪识别模块具体用于:
根据深度神经网络模型对所述多个自然语句进行情绪识别,生成顺序与多个自然语句的时间先后顺序一致的所述情绪序列。
19.根据权利要求18所述的装置,其特征在于,所述情绪识别模块具体用于:
根据对所述语音内容的切分获得多个具有时间先后顺序关系的语音分段,所述语音分段为所述自然语句,将多个所述语音分段按照所述时间先后顺序输入到所述深度神经网络模型中进行情绪识别,生成顺序与多个自然语句的时间先后顺序一致的所述情绪序列。
20.根据权利要求18所述的装置,其特征在于,所述装置还包括 :
样本处理模块,用于在所述根据深度神经网络模型对所述多个自然语句进行情绪识别,生成顺序与多个自然语句的时间先后顺序一致的所述情绪序列之前,获取用于训练的语音内容样本,并对所述语音内容样本进行情绪标注;
训练模块,用于使用标注后的语音内容样本对深度神经网络模型进行训练学习,获得用于情绪识别的深度神经网络模型。
21.根据权利要求20所述的装置,其特征在于,所述训练模块,用于对标注后的语音内容样本进行预处理,所述预处理包括傅里叶变换处理和降噪处理;使用进行了标注和预处理后的所述语音内容样本,对深度神经网络模型进行训练学习,获得用于情绪识别的深度神经网络模型。
22.根据权利要求18所述的装置,其特征在于,所述情绪序列为包含多个字符的字符序列,所述字符序列中的字符与情绪一一对应。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710703850.1A CN107452405B (zh) | 2017-08-16 | 2017-08-16 | 一种根据语音内容进行数据评价的方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710703850.1A CN107452405B (zh) | 2017-08-16 | 2017-08-16 | 一种根据语音内容进行数据评价的方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107452405A CN107452405A (zh) | 2017-12-08 |
CN107452405B true CN107452405B (zh) | 2021-04-09 |
Family
ID=60492623
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710703850.1A Active CN107452405B (zh) | 2017-08-16 | 2017-08-16 | 一种根据语音内容进行数据评价的方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107452405B (zh) |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108259686A (zh) * | 2017-12-28 | 2018-07-06 | 合肥凯捷技术有限公司 | 一种基于语音分析的客服系统 |
CN108186033B (zh) * | 2018-01-08 | 2021-06-25 | 杭州不亦乐乎健康管理有限公司 | 一种基于人工智能的幼儿情绪监控方法及其系统 |
CN110288974B (zh) * | 2018-03-19 | 2024-04-05 | 北京京东尚科信息技术有限公司 | 基于语音的情绪识别方法及装置 |
CN108806708A (zh) * | 2018-06-13 | 2018-11-13 | 中国电子科技集团公司第三研究所 | 基于计算听觉场景分析和生成对抗网络模型的语音降噪方法 |
CN108962282B (zh) * | 2018-06-19 | 2021-07-13 | 京北方信息技术股份有限公司 | 语音检测分析方法、装置、计算机设备及存储介质 |
CN109241519B (zh) * | 2018-06-28 | 2022-08-12 | 平安科技(深圳)有限公司 | 质量评价模型获取方法及装置、计算机设备与存储介质 |
CN109065025A (zh) * | 2018-07-30 | 2018-12-21 | 珠海格力电器股份有限公司 | 一种计算机存储介质和一种音频的处理方法及装置 |
CN109410921B (zh) * | 2018-09-30 | 2021-09-07 | 秒针信息技术有限公司 | 一种通过声音进行质量评估的方法及装置 |
CN111049999A (zh) * | 2018-10-11 | 2020-04-21 | 上海智臻智能网络科技股份有限公司 | 语音客服质检系统及客服质检设备 |
CN111049998A (zh) * | 2018-10-11 | 2020-04-21 | 上海智臻智能网络科技股份有限公司 | 语音客服质检方法及客服质检设备、存储介质 |
CN109327631A (zh) * | 2018-10-24 | 2019-02-12 | 深圳市万屏时代科技有限公司 | 一种智能人工客服系统 |
CN109766770A (zh) * | 2018-12-18 | 2019-05-17 | 深圳壹账通智能科技有限公司 | 服务质量评价方法、装置、计算机设备和存储介质 |
CN109726655A (zh) * | 2018-12-19 | 2019-05-07 | 平安普惠企业管理有限公司 | 基于情绪识别的客服服务评价方法、装置、介质及设备 |
CN109618065A (zh) * | 2018-12-28 | 2019-04-12 | 合肥凯捷技术有限公司 | 一种语音质检评级系统 |
CN109753663B (zh) * | 2019-01-16 | 2023-12-29 | 中民乡邻投资控股有限公司 | 一种客户情绪分级方法及装置 |
CN109785862A (zh) * | 2019-01-21 | 2019-05-21 | 深圳壹账通智能科技有限公司 | 客服服务质量评价方法、装置、电子设备及存储介质 |
CN109758141B (zh) * | 2019-03-06 | 2022-04-26 | 清华大学 | 一种心理压力监测方法、装置及系统 |
CN111739558B (zh) * | 2019-03-21 | 2023-03-28 | 杭州海康威视数字技术股份有限公司 | 监控系统、方法、装置、服务器及存储介质 |
CN110062117B (zh) * | 2019-04-08 | 2021-01-08 | 商客通尚景科技(上海)股份有限公司 | 一种声波检测与预警方法 |
CN110147936A (zh) * | 2019-04-19 | 2019-08-20 | 深圳壹账通智能科技有限公司 | 基于情绪识别的服务评价方法、装置、存储介质 |
CN110033778B (zh) * | 2019-05-07 | 2021-07-23 | 苏州市职业大学 | 一种说谎状态实时识别修正系统 |
CN110472224B (zh) * | 2019-06-24 | 2023-07-07 | 深圳追一科技有限公司 | 服务质量的检测方法、装置、计算机设备和存储介质 |
CN110728996A (zh) * | 2019-10-24 | 2020-01-24 | 北京九狐时代智能科技有限公司 | 一种实时语音质检方法、装置、设备及计算机存储介质 |
CN111009244A (zh) * | 2019-12-06 | 2020-04-14 | 贵州电网有限责任公司 | 语音识别方法及系统 |
CN111080109B (zh) * | 2019-12-06 | 2023-05-05 | 中信银行股份有限公司 | 客服服务质量评价方法、装置及电子设备 |
CN111179929B (zh) * | 2019-12-31 | 2022-11-25 | 中国银行股份有限公司 | 一种语音处理方法及装置 |
CN111554304A (zh) * | 2020-04-25 | 2020-08-18 | 中信银行股份有限公司 | 用户标签获取方法、装置及设备 |
CN112509561A (zh) * | 2020-12-03 | 2021-03-16 | 中国联合网络通信集团有限公司 | 情绪识别方法、装置、设备及计算机可读存储介质 |
CN112885379A (zh) * | 2021-01-28 | 2021-06-01 | 携程旅游网络技术(上海)有限公司 | 客服语音评估方法、系统、设备及存储介质 |
CN113571096B (zh) * | 2021-07-23 | 2023-04-07 | 平安科技(深圳)有限公司 | 语音情绪分类模型训练方法、装置、计算机设备及介质 |
CN114580904A (zh) * | 2022-03-04 | 2022-06-03 | 北京明略软件系统有限公司 | 一种基于会话的销售反馈度评估方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101930735A (zh) * | 2009-06-23 | 2010-12-29 | 富士通株式会社 | 语音情感识别设备和进行语音情感识别的方法 |
CN103811009A (zh) * | 2014-03-13 | 2014-05-21 | 华东理工大学 | 一种基于语音分析的智能电话客服系统 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110282662A1 (en) * | 2010-05-11 | 2011-11-17 | Seiko Epson Corporation | Customer Service Data Recording Device, Customer Service Data Recording Method, and Recording Medium |
CN105427869A (zh) * | 2015-11-02 | 2016-03-23 | 北京大学 | 一种基于深度学习的会话情感自动分析方法 |
CN105808721A (zh) * | 2016-03-07 | 2016-07-27 | 中国科学院声学研究所 | 一种基于数据挖掘的客服内容分析方法及其系统 |
-
2017
- 2017-08-16 CN CN201710703850.1A patent/CN107452405B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101930735A (zh) * | 2009-06-23 | 2010-12-29 | 富士通株式会社 | 语音情感识别设备和进行语音情感识别的方法 |
CN103811009A (zh) * | 2014-03-13 | 2014-05-21 | 华东理工大学 | 一种基于语音分析的智能电话客服系统 |
Also Published As
Publication number | Publication date |
---|---|
CN107452405A (zh) | 2017-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107452405B (zh) | 一种根据语音内容进行数据评价的方法及装置 | |
CN112804400B (zh) | 客服呼叫语音质检方法、装置、电子设备及存储介质 | |
CN111080109B (zh) | 客服服务质量评价方法、装置及电子设备 | |
CN111241357A (zh) | 对话训练方法、装置、系统及存储介质 | |
CN107452385A (zh) | 一种基于语音的数据评价方法及装置 | |
CN107767881B (zh) | 一种语音信息的满意度的获取方法和装置 | |
Rahman et al. | A personalized emotion recognition system using an unsupervised feature adaptation scheme | |
CN111597818B (zh) | 呼叫质检方法、装置、计算机设备和计算机可读存储介质 | |
CN106776832B (zh) | 用于问答交互日志的处理方法、装置及系统 | |
WO2021012495A1 (zh) | 语音识别结果测试方法、装置、计算机设备和介质 | |
CN105810205A (zh) | 一种语音处理方法及装置 | |
CN110136726A (zh) | 一种语音性别的估计方法、装置、系统及存储介质 | |
CN109326285A (zh) | 语音信息处理方法、装置及非暂态计算机可读存储介质 | |
CN112614510A (zh) | 一种音频质量评估方法及装置 | |
CN110265008A (zh) | 智能回访方法、装置、计算机设备及存储介质 | |
CN110765776B (zh) | 回访标注样本数据的生成方法及装置 | |
CN108646914A (zh) | 一种多模态的情感数据收集方法及装置 | |
CN112836053A (zh) | 用于工业领域的人机对话情感分析方法及系统 | |
CN117828355A (zh) | 基于多模态信息的情绪定量模型训练方法及情绪定量方法 | |
CN108962228A (zh) | 模型训练方法和装置 | |
CN110580899A (zh) | 语音识别方法及装置、存储介质、计算设备 | |
Chintalapudi et al. | Speech emotion recognition using deep learning | |
CN113691382A (zh) | 会议记录方法、装置、计算机设备及介质 | |
Pandharipande et al. | A novel approach to identify problematic call center conversations | |
CN118035411A (zh) | 客服语音质检方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |