[go: up one dir, main page]

CN114708864A - 语音助手的信息控制方法、装置、计算机设备和存储介质 - Google Patents

语音助手的信息控制方法、装置、计算机设备和存储介质 Download PDF

Info

Publication number
CN114708864A
CN114708864A CN202210345654.2A CN202210345654A CN114708864A CN 114708864 A CN114708864 A CN 114708864A CN 202210345654 A CN202210345654 A CN 202210345654A CN 114708864 A CN114708864 A CN 114708864A
Authority
CN
China
Prior art keywords
user
voice
information
emotional state
voice information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210345654.2A
Other languages
English (en)
Inventor
赵敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen Mobvoi Beijing Information Technology Co Ltd
Original Assignee
Volkswagen Mobvoi Beijing Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen Mobvoi Beijing Information Technology Co Ltd filed Critical Volkswagen Mobvoi Beijing Information Technology Co Ltd
Priority to CN202210345654.2A priority Critical patent/CN114708864A/zh
Publication of CN114708864A publication Critical patent/CN114708864A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features
    • G10L15/25Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/20Pattern transformations or operations aimed at increasing system robustness, e.g. against channel noise or different working conditions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • General Health & Medical Sciences (AREA)
  • Child & Adolescent Psychology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)

Abstract

本申请涉及一种语音助手的信息控制方法、装置、计算机设备和存储介质,所述方法包括:识别车辆中第一用户的情绪状态;根据第一用户的情绪状态调整车载终端的语音助手的语音信息。上述方法能够基于用户的情绪状态控制车辆的车载终端的语音助手的语音信息,从而能够提高车辆的驾驶体验。

Description

语音助手的信息控制方法、装置、计算机设备和存储介质
技术领域
本申请涉及车载语音处理技术领域,特别是涉及一种语音助手的信息控制方法、装置、计算机设备和存储介质。
背景技术
传统地,车辆在出厂时车辆中车载终端的语音助手的所有参数统一设定,也即是车辆一旦出厂,其上的语音助手的所有参数固定不变。然而,车辆的驾驶员包含不同年龄群体和不同性别群体。不同群体的驾驶员,对车载语音的要求不同。即使同一驾驶员,在不同环境下对车载语音的要求也不同。参数统一固定不变的语音助手,无法满足不同情况下的需求,会导致驾驶体验特别差。
发明内容
基于此,有必要针对上述技术问题,提供一种语音助手的信息控制方法、装置、计算机设备和存储介质,能够基于用户的情绪状态控制车辆的车载终端的语音助手的语音信息,从而能够提高车辆的驾驶体验。
一种语音助手的信息控制方法,包括:识别车辆中第一用户的情绪状态;根据第一用户的情绪状态调整车载终端的语音助手的语音信息。
在其中一个实施例中,一种语音助手的信息控制方法还包括:获取第一用户的语音信息;根据第一用户的情绪状态调整车载终端的语音助手的语音信息,包括:根据第一用户的情绪状态和第一用户的语音信息调整车载终端的语音助手的语音信息。
在其中一个实施例中,根据第一用户的情绪状态和第一用户的语音信息调整车载终端的语音助手的语音信息,包括:根据第一用户的情绪状态调整语音助手的语音信息的音量、音调和/或音速与第一用户的语音信息的音量、音调和/或音速相协调。
在其中一个实施例中,根据第一用户的情绪状态调整语音助手的语音信息的音量、音调和/或音速与第一用户的语音信息的音量、音调和/或音速相协调,包括:在第一用户的情绪状态为平静或快乐的状态下,调整语音助手的语音信息的音量、音调和/或音速与第一用户的语音信息的音量、音调和/或音速相协调。
在其中一个实施例中,根据第一用户的情绪状态和第一用户的语音信息调整车载终端的语音助手的语音信息,包括:根据第一用户的情绪状态调整语音助手的内容信息和第一用户的语音信息中的内容信息相协调。
在其中一个实施例中,根据第一用户的情绪状态调整语音助手的内容信息和第一用户的语音信息中的内容信息相协调,包括:在第一用户的情绪状态为平静或快乐的状态下,根据第一用户的情绪状态调整语音助手的内容信息和第一用户的语音信息中的内容信息相协调。
在其中一个实施例中,根据第一用户的情绪状态调整车载终端的语音助手的语音信息,包括:根据第一用户的情绪状态调整语音助手的语音信息的音量、音调和/或音速为与第一用户相关联的第二用户的语音信息的音量、音调和/或音速相协调。
在其中一个实施例中,根据第一用户的情绪状态调整语音助手的语音信息的音量、音调和/或音速为与第一用户相关联的第二用户的语音信息的音量、音调和/或音速相协调,包括:在第一用户的情绪状态为愤怒、恐惧或悲哀的状态下,调整语音助手的语音信息的音量、音调和/或音速为与第一用户相关联的第二用户的语音信息的音量、音调和/或音速相协调。
在其中一个实施例中,根据第一用户的情绪状态调整车载终端的语音助手的语音信息,包括:根据第一用户的情绪状态调整语音助手的语音信息的内容信息为与第一用户相关联的第二用户的语音信息的内容信息相协调。
在其中一个实施例中,根据第一用户的情绪状态调整语音助手的语音信息的内容信息为与第一用户相关联的第二用户的语音信息的内容信息相协调,包括:在第一用户的情绪状态为愤怒、恐惧或悲哀的状态下,调整语音助手的语音信息的内容信息为与第一用户相关联的第二用户的语音信息的内容信息相协调。
在其中一个实施例中,根据第一用户的情绪状态调整车载终端的语音助手的语音信息,包括:根据第一用户的情绪状态确定第一用户的情绪唤醒度和情绪愉悦度;根据情绪唤醒度和情绪愉悦度调整语音助手的语音信息。
在其中一个实施例中,根据情绪唤醒度和情绪愉悦度调整语音助手的语音信息,包括:获取预先设定的唤醒度判断条件,唤醒度判断条件用于根据情绪状态判定第一用户的情绪唤醒度值;获取预先设定的愉悦度判断条件,愉悦度判断条件用于根据情绪状态判定第一用户的情绪愉悦度值;根据情绪唤醒度、情绪愉悦度、唤醒度判断条件和愉悦度判断条件调整语音助手的语音信息。
在其中一个实施例中,一种语音助手的信息控制方法还包括:获取车辆的行驶环境;根据第一用户的情绪状态调整车载终端的语音助手的语音信息,包括:根据第一用户的情绪状态确定语音助手的控制参数;根据行驶环境对控制参数进行调整;根据调整后的控制参数调整车载终端的语音助手的语音信息。
一种语音助手的信息控制装置,包括:识别模块,用于识别车辆中第一用户的情绪状态;调整模块,用于根据第一用户的情绪状态调整车载终端的语音助手的语音信息。
一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述任一实施例方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述任一实施例方法的步骤。
上述一种语音助手的信息控制方法、装置、计算机设备和存储介质,识别车辆中第一用户的情绪状态;根据第一用户的情绪状态调整车载终端的语音助手的语音信息。因此,能够基于用户的情绪状态调整车载终端的语音助手的语音信息,打破原有的语音助手的所有参数固定不变的传统方式,为用户提供多种车载语音,从而提高车辆的驾驶体验。
附图说明
图1为一个实施例中一种语音助手的信息控制方法的应用环境图;
图2为一个实施例中一种语音助手的信息控制方法的流程示意图;
图3为一个具体实施例中一种语音助手的信息控制方法的流程示意图;
图4为另一个实施例一种一种语音助手的信息控制装置的结构框图;
图5为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的一种语音助手的信息控制方法,应用于如图1所示的应用环境中。在一个实施例中,如图1所示,车辆中安装有车载终端,车载终端上安装有语音助手。语音助手用于在车辆中实现车载语音。其中,车载终端用于实现本申请的一种语音助手的信息控制方法。具体地,车载终端识别车辆中第一用户的情绪状态,根据第一用户的情绪状态调整车载终端的语音助手的语音信息。因此,能够基于用户的情绪状态调整车载终端的语音助手的语音信息,打破原有的语音助手的所有参数固定不变的传统方式,为用户提供多种车载语音,从而提高车辆的驾驶体验。
在一个实施例中,如图2所示,一种车载语音的控制方法,应用于如图1所示的车载终端,包括如下步骤:
S202,识别车辆中第一用户的情绪状态。
本实施例中,车载终端识别车辆中第一用户的情绪状态。第一用户可以是驾驶员,也可以是车辆上其他非驾驶员。第一用户的情绪状态可以是低沉、消极、激动、积极、开心、欢快等任一情绪。可以是,采集第一用户的语音数据和图像数据,通过第一用户的语音数据和图像数据识别车辆中第一用户的情绪状态。
具体地,采集车辆中第一用户的语音数据。利用车辆中多路麦克风采集用户的音频数据。前端信号处理对采集的音频数据进行噪音抑制和回声消除,以便从语音信号中提取纯净的语音数据。第一用户的语音数据可以包括第一用户的语音内容,如驾驶员说话的内容。还可以包括第一用户语音的音调,如驾驶员说话的音高、音长、快慢、轻重等。第一用户的语音内容和第一用户语音的音调能够评估第一用户的情绪变化。
在一个示例中,从第一用户的语音数据中提取第一用户的音量、音调和音速;根据音量、音调和音速获得第一用户的语音数据的声学特征;从第一用户的语音数据中提取第一用户的语音数据的内容特征;根据声学特征和内容特征识别第一用户的情绪状态。
该示例中,语音数据中包含用户的语音内容,如驾驶员的说话内容。也包含第一用户的音量、音调和音速等。可以是,通过现有的声学模型从语音信息中提取第一用户的音量、音调和音速,进而根据音量、音调和音速获得声学特征。通过现有的语言模型从语音数据提取内容特征。
例如,根据驾驶员说话的内容以及说话时的音高、音长、快慢、轻重,评估驾驶员的情绪状态。如,收集用户的语音数据以及情绪状态信息,以作为采样数据。采样数据中包含语音的音量、音调和音速,将采样数据输入现有的声学模型中,对声学模型进行模型训练,进而采用训练后的声学模型提取声学特征。如此类推,可得到训练后的语言模型。
采集车辆中的第一用户的图像数据。通过摄像头或生物传感技术采集第一用户的图像数据。第一用户的图像数据可以包括用户的面部表情以及肢体动作,以及用户的年龄和性别等信息。通过第一用户的图像数据可以识别出第一用户的情绪变化。
S204,根据第一用户的情绪状态调整车载终端的语音助手的语音信息。
本实施例中,车载终端根据第一用户的情绪状态调整语音助手的语音信息。其中,语音助手的语音信息包括音量、音调、音速、内容信息等。具体地,当第一用户的情绪状态属于积极、开心、快乐的情绪时,调整语音助手的语音信息为积极、开心、快乐类的语音信息。当第一用户的情绪状态属于消极、伤心、难过的情绪时,调整语音助手的语音信息为消极、伤心、难过类的语音信息。
上述一种语音助手的信息控制方法,识别车辆中第一用户的情绪状态;根据第一用户的情绪状态调整车载终端的语音助手的语音信息。因此,能够基于用户的情绪状态调整车载终端的语音助手的语音信息,打破原有的语音助手的所有参数固定不变的传统方式,为用户提供多种车载语音,从而提高车辆的驾驶体验。
在一个实施例中,上述识别车辆中第一用户的情绪状态的步骤之后,还包括:获取第一用户的语音信息。上述根据第一用户的情绪状态调整车载终端的语音助手的语音信息,包括:根据第一用户的情绪状态和第一用户的语音信息调整车载终端的语音助手的语音信息。
该实施例中,第一用户的语音信息包括第一用户的音量、音调、音速、内容信息等。例如,第一用户为驾驶员,第一用于的语音信息包括驾驶员说话的内容以及说话时的音高、音长、快慢、轻重。车载终端根据第一用户的情绪状态和第一用户的语音信息调整车载终端的语音助手的语音信息。
在一个实施例中,上述根据第一用户的情绪状态和第一用户的语音信息调整车载终端的语音助手的语音信息,包括:根据第一用户的情绪状态调整语音助手的语音信息的音量、音调和/或音速与第一用户的语音信息的音量、音调和/或音速相协调。
该实施例中,根据第一用户的情绪状态调整语音助手的语音信息的音量、音调和/或音速与第一用户的语音信息的音量、音调和/或音速相协调,可以是,根据第一用户的情绪状态控制语音助手的语音信息的音量、音调和/或音速与第一用户的语音信息的音量、音调和/或音速一致或者相似。例如,控制语音助手的语音信息的音量、音调和/或音速与第一用户的语音信息的音量、音调和/或音速相似,模仿第一用户的语音信息,如可以以幽默的方式和第一用户进行交互,以达到让第一用户开心的效果,从而提高语音助手与第一用户的语音交互乐趣。
在一个实施例中,上述根据第一用户的情绪状态调整语音助手的语音信息的音量、音调和/或音速与第一用户的语音信息的音量、音调和/或音速相协调,包括:在第一用户的情绪状态为平静或快乐的状态下,调整语音助手的语音信息的音量、音调和/或音速与第一用户的语音信息的音量、音调和/或音速相协调。
该实施例中,第一用户的情绪状态包括平静或快乐的状态。确定出第一用户的情绪状态为平静或快乐的状态时,调整语音助手的语音信息的音量、音调和/或音速与第一用户的语音信息的音量、音调和/或音速相协调。因此,可以在车辆氛围比较安静的状态下,通过语音助手调整第一用户的情绪状态,从而提高语音助手与第一用户的语音交互乐趣。
在一个实施例中,上述根据第一用户的情绪状态和第一用户的语音信息调整车载终端的语音助手的语音信息,包括:根据第一用户的情绪状态调整语音助手的内容信息和第一用户的语音信息中的内容信息相协调。
该实施例中,根据第一用户的情绪状态调整语音助手的语音信息的内容信息与第一用户的语音信息的内容信息相协调,可以是,根据第一用户的情绪状态控制语音助手的语音信息的内容信息与第一用户的语音信息的内容信息一致或者相似。例如,控制语音助手的语音信息的内容信息与第一用户的语音信息的内容信息相似,模仿第一用户的说话内容,从而提高语音助手与第一用户的语音交互乐趣。
在一个实施例中,上述根据第一用户的情绪状态调整语音助手的内容信息和第一用户的语音信息中的内容信息相协调,包括:在第一用户的情绪状态为平静或快乐的状态下,根据第一用户的情绪状态调整语音助手的内容信息和第一用户的语音信息中的内容信息相协调。
该实施例中,第一用户的情绪状态包括平静或快乐的状态。其中,平静或快乐的情绪状态可以是依据唤醒度和/或效价度等现有的标准进行判断得到,或者采用其他现有技术中的评判方法进行判断得到。确定出第一用户的情绪状态为平静或快乐的状态时,调整语音助手的语音信息的内容信息与第一用户的语音信息的内容信息相协调。因此,可以在车辆氛围比较安静的状态下,通过语音助手调整第一用户的情绪状态,从而提高语音助手与第一用户的语音交互乐趣。
在一个实施例中,上述根据第一用户的情绪状态调整车载终端的语音助手的语音信息,包括:根据第一用户的情绪状态调整语音助手的语音信息的音量、音调和/或音速为与第一用户相关联的第二用户的语音信息的音量、音调和/或音速相协调。
该实施例中,第二用户与第一用户相关联。第二用户可以为第一用户指定的用户,如第一用户在语音助手中输入的第二用户的用户信息,进而语音助手确定出第二用户。或者,第二用户为第一用户喜欢的用户,如基于第一用户在语音助手中用户数据确定,例如基于第一用户在语音助手的行为信息,用户画像信息等确定出第二用户。或者,第一用户通讯录中的用户,如基于第一用户通讯录中白名单的第二用户。其中,第二用户的语音信息可以是通过提前录制得到,或者通过公开渠道获取得到。
根据第一用户的情绪状态调整语音助手的语音信息的音量、音调和/或音速为与第一用户相关联的第二用户的语音信息的音量、音调和/或音速相协调。例如,控制语音助手的语音信息的音量、音调和/或音速与第二用户的语音信息的音量、音调和/或音速相似,模仿第二用户的语音信息,从而提高语音助手与第一用户的语音交互乐趣。
在一个实施例中,上述根据第一用户的情绪状态调整语音助手的语音信息的音量、音调和/或音速为与第一用户相关联的第二用户的语音信息的音量、音调和/或音速相协调,包括:在第一用户的情绪状态为愤怒、恐惧或悲哀的状态下,调整语音助手的语音信息的音量、音调和/或音速为与第一用户相关联的第二用户的语音信息的音量、音调和/或音速相协调。
该实施例中,第一用户的情绪状态包括愤怒、恐惧或悲哀的状态。其中,愤怒、恐惧或悲哀的情绪状态可以是依据唤醒度和/或效价度等现有的标准进行判断得到,或者采用其他现有技术中的评判方法进行判断得到。当确定第一用户的情绪状态为愤怒、恐惧或悲哀的状态时,车辆中的气氛比较压抑,将语音助手的语音信息的音量、音调和/或音速为与第一用户相关联的第二用户的语音信息的音量、音调和/或音速相协调,可以用第一用户在乎的人的语音信息安慰或者抚慰第一用户的愤怒、恐惧或悲哀等情绪,从而可以平复第一用户的情绪状态。
在一个实施例中,上述根据第一用户的情绪状态调整车载终端的语音助手的语音信息,包括:根据第一用户的情绪状态调整语音助手的语音信息的内容信息为与第一用户相关联的第二用户的语音信息的内容信息相协调。
该实施例中,第二用户的语音信息的内容信息可以是根据预先录制的第二用户的语音数据提取得到,也可以是预先配置的内容信息。将第一用户的情绪状态调整语音助手的语音信息的内容信息为与第一用户相关联的第二用户的语音信息的内容信息相协调,能够提高语音助手与第一用户的语音交互乐趣。
在一个实施例中,上述根据第一用户的情绪状态调整语音助手的语音信息的内容信息为与第一用户相关联的第二用户的语音信息的内容信息相协调,包括:在第一用户的情绪状态为愤怒、恐惧或悲哀的状态下,调整语音助手的语音信息的内容信息为与第一用户相关联的第二用户的语音信息的内容信息相协调。
该实施例中,第一用户的情绪状态包括愤怒、恐惧或悲哀的状态。当确定第一用户的情绪状态为愤怒、恐惧或悲哀的状态时,车辆中的气氛比较压抑,将语音助手的语音信息的内容信息为与第一用户相关联的第二用户的语音信息的内容信息相协调,从而可以平复第一用户的情绪状态。
在一个实施例中,上述根据第一用户的情绪状态调整车载终端的语音助手的语音信息,包括:根据第一用户的情绪状态确定第一用户的情绪唤醒度和情绪愉悦度;根据情绪唤醒度和情绪愉悦度调整语音助手的语音信息。
该实施例中,情绪唤醒度代表情绪唤起程度的高低,情绪愉悦度代表积极情绪的高低。情绪唤醒度通过第一用户的语音数据确定,如通过第一用户的语音数据中的音速确定。情绪愉悦度通过第一用户的语音数据以及第一用户的图像数据确定,如通过第一用户的语音数据的音调以及第一用户的图像数据中的面部表情确定。
根据情绪唤醒度和情绪愉悦度调整语音助手的语音信息。例如,第一用户为驾驶员:
1、当驾驶员情绪开心、愉悦且音速高低起伏,调整语音助手的语音信息为轻快型;
2、当驾驶员情绪平静且语速平缓,调整语音助手的语音信息为舒缓型;
3、当驾驶员情绪难过、伤心且音速缓慢,调整语音助手的语音信息为低沉型,并提示驾驶员“不求与人相比,但求超越自己,人活一辈子开心最重要,让我们听首歌放松一下吧”,然后再提示“不好的情绪会传染,我可不想不开心”,之后将车载语音调整为舒缓型,缓解驾驶员难过、悲伤的情绪和压力;
4、当驾驶员情绪愤怒、生气且音速高低起伏,调整语音助手的语音信息为凝重型,并提示驾驶员“冲动是魔鬼,发脾气伤神伤体,心情不好时笑一笑,没有什么大不了,加油”,然后再提示“不好的情绪会传染,我可不想不开心”,之后将车载语音调整为舒缓型,缓解驾驶员愤怒、暴躁的情绪。
在一个实施例中,上述根据情绪唤醒度和情绪愉悦度调整语音助手的语音信息,包括:获取预先设定的唤醒度判断条件,唤醒度判断条件用于根据情绪状态判定第一用户的情绪唤醒度值;获取预先设定的愉悦度判断条件,愉悦度判断条件用于根据情绪状态判定第一用户的情绪愉悦度值;根据情绪唤醒度、情绪愉悦度、唤醒度判断条件和愉悦度判断条件调整语音助手的语音信息。
该实施例中,情绪状态可以通过用户的语音数据和用户的图像数据确定。第一用户的情绪状态可以通过第一用户的语音数据和第一用户的图像数据确定。可以是,根据用户的语音数据以及唤醒度判断条件确定情绪唤醒度,以及根据用户的语音数据以及用户的图像数据、愉悦度判断条件确定情绪愉悦度。其中,唤醒度判断条件可以通过连续数值表示,愉悦度判断条件也可以通过连续数值表示。当根据用户的语音数据以及唤醒度判断条件确定情绪唤醒度,以及根据用户的语音数据以及用户的图像数据、愉悦度判断条件确定情绪愉悦度时,可以设置二维情绪模型,通过二维情绪模型上的连续数值表示用户的情绪唤醒度和情绪愉悦度。
例如,二维情绪模型采用情绪唤醒度A-情绪愉悦度V的连续数值的维度来表示情绪。其中,通过数值来表示两个维度的高低程度,两个维度分别用区间【1,9】来表示。如情绪唤醒度值1代表低唤醒度,情绪唤醒度值9代表高唤醒度;情绪愉悦度值1代表非常低沉、消极,情绪愉悦度值9代表非常激动、积极。因此,开心就可以用高唤醒和高愉悦度来表示,而难过则用低唤醒度和低愉悦度来表示。
根据情绪唤醒度、情绪愉悦度、唤醒度判断条件和愉悦度判断条件调整语音助手的语音信息,可以是根据情绪唤醒度和情绪愉悦度确定出语音助手中语音信息中的节奏,语音信息中的节奏可以分为:(A代表情绪唤醒度,V代表情绪愉悦度)
1、轻快型:语速较快,有跳越感,表示开心、欢快的情绪,二维区间的范围为【5<=A<=9,6.75<V<=9】;
2、舒缓型:语速较缓,起伏不大,声音轻柔而不着力,表示一般正常情绪,二维区间范围为【5<=A<=9,4.5<V<=6.75】;
3、低沉型:声音偏低偏慢,句尾落点多显沉重,表示难过、悲伤的情绪,二维区间范围为【1<=A<5,2.25<V<=4.5】;
4、凝重型:语起较重、清晰沉稳,音强而有力,表示愤怒、暴躁的情绪,二维区间范围为【1<=A<5,1<=V<=2.25】。
在一个实施例中,上述根据第一用户的情绪状态调整车载终端的语音助手的语音信息的步骤之前,还包括:获取车辆的行驶环境。根据第一用户的情绪状态调整车载终端的语音助手的语音信息,包括:根据第一用户的情绪状态确定语音助手的控制参数;根据行驶环境对控制参数进行调整;根据调整后的控制参数调整车载终端的语音助手的语音信息。
该实施例中,车辆的行驶环境可以包括车辆行驶过程中的周边环境。还可以是,根据时间点和第一用户的行驶习惯确定车辆的形式环境。例如,车辆行驶环境可以是表示第一用户回家路上、表示第一用户上班路上、表示第一用户出游路上等。根据第一用户的情绪状态确定语音助手的控制参数,进而根据车辆行驶环境调整控制参数,进而采用调整后的控制参数调整车载终端的语音助手的语音信息。
例如,根据语音情绪识别模型,结合驾驶员的个人信息(年龄/性别),车辆行驶环境(回家路上/上班路上/出游),当时说话的情绪(开心/难过)和内容等信息,调节语音助手的音速、音调和节奏。
针对上述各个实施例所述的一种车载语音的控制方法,以下提供一具体实施例:
驾驶员在使用车辆时,车载语音根据驾驶员的性别、年龄、面部表情、身体语言、行驶环境以及当时说话的情绪(开心/难过)和内容等信息,自动调节车载语音提示的语速、语调和节奏,并提示驾驶员要保持舒适、专注的良好心情,赋予车载语音更多的感情色彩,解决了语音提示语速体不变的问题,改善驾乘体验,提高安全驾驶。
具体可参见图3所示,车载语音(不限于用户语音)针对用户情绪/年龄/说话语速,挖掘分析,提供更人性化的服务功能实现:
步骤一:采集车辆的语音信息,如语音数据,并进行降噪等处理,获取最终的语音数据;
步骤二:通过摄像头并根据驾驶员说话的内容以及说话时的音高、音长、快慢、轻重识别出驾驶员的情绪状态;
步骤三:通过声学模型、语言模型、特征向量、收集的语音数据以及驾驶员的情绪状态等训练出语音情绪识别模型;
步骤四:根据语音情绪识别模型,结合驾驶员的个人信息(年龄/性别),车辆行驶环境(回家路上/上班路上/出游),当时说话的情绪(开心/难过)和内容等信息,调节车载语音的语速、语调和节奏。如,调节出车载语音的节奏如下:
1、轻快型:语速较快,有跳越感,表示开心、欢快的情绪,二维区间的范围为【5<=A<=9,6.75<V<=9】;
2、舒缓型:语速较缓,起伏不大,声音轻柔而不着力,表示一般正常情绪,二维区间范围为【5<=A<=9,4.5<V<=6.75】;
3、低沉型:声音偏低偏慢,句尾落点多显沉重,表示难过、悲伤的情绪,二维区间范围为【1<=A<5,2.25<V<=4.5】;
4、凝重型:语起较重、清晰沉稳,音强而有力,表示愤怒、暴躁的情绪,二维区间范围为【1<=A<5,1<=V<=2.25】。
其中,图3中的A表示情绪唤醒度,D表示情绪愉悦度。
因此,驾驶员在使用车辆时,车载语音根据驾驶员的性别、年龄、面部表情、肢体语言、行驶环境(回家路上/上班路上/出游)以及当时说话的情绪(开心/难过)和内容等信息,自动调节车载语音提示的语速、语调,使车载语音更加丰富多彩,自然流利的进行人机交互,改善驾乘体验,提高安全驾驶。
在一个实施例中,本申请还提供一种语音助手的信息控制装置,如图4所示,该装置包括识别模块402和调整模块404。识别模块402,用于识别车辆中第一用户的情绪状态;调整模块404,用于根据第一用户的情绪状态调整车载终端的语音助手的语音信息。
在一个实施例中,上述一种语音助手的信息控制装置还包括第一获取模块,用于获取第一用户的语音信息。根据第一用户的情绪状态调整车载终端的语音助手的语音信息,包括:根据第一用户的情绪状态和第一用户的语音信息调整车载终端的语音助手的语音信息。
在一个实施例中,根据第一用户的情绪状态和第一用户的语音信息调整车载终端的语音助手的语音信息,包括:根据第一用户的情绪状态调整语音助手的语音信息的音量、音调和/或音速与第一用户的语音信息的音量、音调和/或音速相协调。
在一个实施例中,根据第一用户的情绪状态调整语音助手的语音信息的音量、音调和/或音速与第一用户的语音信息的音量、音调和/或音速相协调,包括:在第一用户的情绪状态为平静或快乐的状态下,调整语音助手的语音信息的音量、音调和/或音速与第一用户的语音信息的音量、音调和/或音速相协调。
在一个实施例中,根据第一用户的情绪状态和第一用户的语音信息调整车载终端的语音助手的语音信息,包括:根据第一用户的情绪状态调整语音助手的内容信息和第一用户的语音信息中的内容信息相协调。
在一个实施例中,根据第一用户的情绪状态调整语音助手的内容信息和第一用户的语音信息中的内容信息相协调,包括:在第一用户的情绪状态为平静或快乐的状态下,根据第一用户的情绪状态调整语音助手的内容信息和第一用户的语音信息中的内容信息相协调。
在一个实施例中,根据第一用户的情绪状态调整车载终端的语音助手的语音信息,包括:根据第一用户的情绪状态调整语音助手的语音信息的音量、音调和/或音速为与第一用户相关联的第二用户的语音信息的音量、音调和/或音速相协调。
在一个实施例中,根据第一用户的情绪状态调整语音助手的语音信息的音量、音调和/或音速为与第一用户相关联的第二用户的语音信息的音量、音调和/或音速相协调,包括:在第一用户的情绪状态为愤怒、恐惧或悲哀的状态下,调整语音助手的语音信息的音量、音调和/或音速为与第一用户相关联的第二用户的语音信息的音量、音调和/或音速相协调。
在一个实施例中,根据第一用户的情绪状态调整车载终端的语音助手的语音信息,包括:根据第一用户的情绪状态调整语音助手的语音信息的内容信息为与第一用户相关联的第二用户的语音信息的内容信息相协调。
在一个实施例中,根据第一用户的情绪状态调整语音助手的语音信息的内容信息为与第一用户相关联的第二用户的语音信息的内容信息相协调,包括:在第一用户的情绪状态为愤怒、恐惧或悲哀的状态下,调整语音助手的语音信息的内容信息为与第一用户相关联的第二用户的语音信息的内容信息相协调。
在一个实施例中,根据第一用户的情绪状态调整车载终端的语音助手的语音信息,包括:根据第一用户的情绪状态确定第一用户的情绪唤醒度和情绪愉悦度;根据情绪唤醒度和情绪愉悦度调整语音助手的语音信息。
在一个实施例中,根据情绪唤醒度和情绪愉悦度调整语音助手的语音信息,包括:获取预先设定的唤醒度判断条件,唤醒度判断条件用于根据情绪状态判定第一用户的情绪唤醒度值;获取预先设定的愉悦度判断条件,愉悦度判断条件用于根据情绪状态判定第一用户的情绪愉悦度值;根据情绪唤醒度、情绪愉悦度、唤醒度判断条件和愉悦度判断条件调整语音助手的语音信息。
在一个实施例中,上述一种语音助手的信息控制装置还包括第一获取模块,用于获取车辆的行驶环境;根据第一用户的情绪状态调整车载终端的语音助手的语音信息,包括:根据第一用户的情绪状态确定语音助手的控制参数;根据行驶环境对控制参数进行调整;根据调整后的控制参数调整车载终端的语音助手的语音信息。
关于一种语音助手的信息控制装置的具体限定可以参见上文中对于一种语音助手的信息控制方法的限定,在此不再赘述。上述一种语音助手的信息控制装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是车载终端,其内部结构图可以如图5所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与服务端通过网络连接通信。该计算机程序被处理器执行时以实现一种语音助手的信息控制方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图5中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现以下步骤:识别车辆中第一用户的情绪状态;根据第一用户的情绪状态调整车载终端的语音助手的语音信息。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:获取第一用户的语音信息。处理器执行计算机程序实现根据第一用户的情绪状态调整车载终端的语音助手的语音信息时,具体实现以下步骤:根据第一用户的情绪状态和第一用户的语音信息调整车载终端的语音助手的语音信息。
在一个实施例中,处理器执行计算机程序实现根据第一用户的情绪状态和第一用户的语音信息调整车载终端的语音助手的语音信息时,具体实现以下步骤:根据第一用户的情绪状态调整语音助手的语音信息的音量、音调和/或音速与第一用户的语音信息的音量、音调和/或音速相协调。
在一个实施例中,处理器执行计算机程序实现根据第一用户的情绪状态调整语音助手的语音信息的音量、音调和/或音速与第一用户的语音信息的音量、音调和/或音速相协调时,具体实现以下步骤:在第一用户的情绪状态为平静或快乐的状态下,调整语音助手的语音信息的音量、音调和/或音速与第一用户的语音信息的音量、音调和/或音速相协调。
在一个实施例中,处理器执行计算机程序实现根据第一用户的情绪状态和第一用户的语音信息调整车载终端的语音助手的语音信息时,具体实现以下步骤:根据第一用户的情绪状态调整语音助手的内容信息和第一用户的语音信息中的内容信息相协调。
在一个实施例中,处理器执行计算机程序实现根据第一用户的情绪状态调整语音助手的内容信息和第一用户的语音信息中的内容信息相协调时,具体实现以下步骤:在第一用户的情绪状态为平静或快乐的状态下,根据第一用户的情绪状态调整语音助手的内容信息和第一用户的语音信息中的内容信息相协调。
在一个实施例中,处理器执行计算机程序实现根据第一用户的情绪状态调整车载终端的语音助手的语音信息时,具体实现以下步骤:根据第一用户的情绪状态调整语音助手的语音信息的音量、音调和/或音速为与第一用户相关联的第二用户的语音信息的音量、音调和/或音速相协调。
在一个实施例中,处理器执行计算机程序实现根据第一用户的情绪状态调整语音助手的语音信息的音量、音调和/或音速为与第一用户相关联的第二用户的语音信息的音量、音调和/或音速相协调时,具体实现以下步骤:在第一用户的情绪状态为愤怒、恐惧或悲哀的状态下,调整语音助手的语音信息的音量、音调和/或音速为与第一用户相关联的第二用户的语音信息的音量、音调和/或音速相协调。
在一个实施例中,处理器执行计算机程序实现根据第一用户的情绪状态调整车载终端的语音助手的语音信息时,具体实现以下步骤:根据第一用户的情绪状态调整语音助手的语音信息的内容信息为与第一用户相关联的第二用户的语音信息的内容信息相协调。
在一个实施例中,处理器执行计算机程序实现根据第一用户的情绪状态调整语音助手的语音信息的内容信息为与第一用户相关联的第二用户的语音信息的内容信息相协调时,具体实现以下步骤:在第一用户的情绪状态为愤怒、恐惧或悲哀的状态下,调整语音助手的语音信息的内容信息为与第一用户相关联的第二用户的语音信息的内容信息相协调。
在一个实施例中,处理器执行计算机程序实现根据第一用户的情绪状态调整车载终端的语音助手的语音信息时,具体实现以下步骤:根据第一用户的情绪状态确定第一用户的情绪唤醒度和情绪愉悦度;根据情绪唤醒度和情绪愉悦度调整语音助手的语音信息。
在一个实施例中,处理器执行计算机程序实现根据情绪唤醒度和情绪愉悦度调整语音助手的语音信息时,具体实现以下步骤:获取预先设定的唤醒度判断条件,唤醒度判断条件用于根据情绪状态判定第一用户的情绪唤醒度值;获取预先设定的愉悦度判断条件,愉悦度判断条件用于根据情绪状态判定第一用户的情绪愉悦度值;根据情绪唤醒度、情绪愉悦度、唤醒度判断条件和愉悦度判断条件调整语音助手的语音信息。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:获取车辆的行驶环境。处理器执行计算机程序实现根据第一用户的情绪状态调整车载终端的语音助手的语音信息时,具体实现以下步骤:根据第一用户的情绪状态确定语音助手的控制参数;根据行驶环境对控制参数进行调整;根据调整后的控制参数调整车载终端的语音助手的语音信息。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:识别车辆中第一用户的情绪状态;根据第一用户的情绪状态调整车载终端的语音助手的语音信息。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:获取第一用户的语音信息。计算机程序被处理器执行实现根据第一用户的情绪状态调整车载终端的语音助手的语音信息时,具体实现以下步骤:根据第一用户的情绪状态和第一用户的语音信息调整车载终端的语音助手的语音信息。
在一个实施例中,计算机程序被处理器执行实现根据第一用户的情绪状态和第一用户的语音信息调整车载终端的语音助手的语音信息时,具体实现以下步骤:根据第一用户的情绪状态调整语音助手的语音信息的音量、音调和/或音速与第一用户的语音信息的音量、音调和/或音速相协调。
在一个实施例中,计算机程序被处理器执行实现根据第一用户的情绪状态调整语音助手的语音信息的音量、音调和/或音速与第一用户的语音信息的音量、音调和/或音速相协调时,具体实现以下步骤:在第一用户的情绪状态为平静或快乐的状态下,调整语音助手的语音信息的音量、音调和/或音速与第一用户的语音信息的音量、音调和/或音速相协调。
在一个实施例中,计算机程序被处理器执行实现根据第一用户的情绪状态和第一用户的语音信息调整车载终端的语音助手的语音信息时,具体实现以下步骤:根据第一用户的情绪状态调整语音助手的内容信息和第一用户的语音信息中的内容信息相协调。
在一个实施例中,计算机程序被处理器执行实现根据第一用户的情绪状态调整语音助手的内容信息和第一用户的语音信息中的内容信息相协调时,具体实现以下步骤:在第一用户的情绪状态为平静或快乐的状态下,根据第一用户的情绪状态调整语音助手的内容信息和第一用户的语音信息中的内容信息相协调。
在一个实施例中,计算机程序被处理器执行实现根据第一用户的情绪状态调整车载终端的语音助手的语音信息时,具体实现以下步骤:根据第一用户的情绪状态调整语音助手的语音信息的音量、音调和/或音速为与第一用户相关联的第二用户的语音信息的音量、音调和/或音速相协调。
在一个实施例中,计算机程序被处理器执行实现根据第一用户的情绪状态调整语音助手的语音信息的音量、音调和/或音速为与第一用户相关联的第二用户的语音信息的音量、音调和/或音速相协调时,具体实现以下步骤:在第一用户的情绪状态为愤怒、恐惧或悲哀的状态下,调整语音助手的语音信息的音量、音调和/或音速为与第一用户相关联的第二用户的语音信息的音量、音调和/或音速相协调。
在一个实施例中,计算机程序被处理器执行实现根据第一用户的情绪状态调整车载终端的语音助手的语音信息时,具体实现以下步骤:根据第一用户的情绪状态调整语音助手的语音信息的内容信息为与第一用户相关联的第二用户的语音信息的内容信息相协调。
在一个实施例中,计算机程序被处理器执行实现根据第一用户的情绪状态调整语音助手的语音信息的内容信息为与第一用户相关联的第二用户的语音信息的内容信息相协调时,具体实现以下步骤:在第一用户的情绪状态为愤怒、恐惧或悲哀的状态下,调整语音助手的语音信息的内容信息为与第一用户相关联的第二用户的语音信息的内容信息相协调。
在一个实施例中,计算机程序被处理器执行实现根据第一用户的情绪状态调整车载终端的语音助手的语音信息时,具体实现以下步骤:根据第一用户的情绪状态确定第一用户的情绪唤醒度和情绪愉悦度;根据情绪唤醒度和情绪愉悦度调整语音助手的语音信息。
在一个实施例中,计算机程序被处理器执行实现根据情绪唤醒度和情绪愉悦度调整语音助手的语音信息时,具体实现以下步骤:获取预先设定的唤醒度判断条件,唤醒度判断条件用于根据情绪状态判定第一用户的情绪唤醒度值;获取预先设定的愉悦度判断条件,愉悦度判断条件用于根据情绪状态判定第一用户的情绪愉悦度值;根据情绪唤醒度、情绪愉悦度、唤醒度判断条件和愉悦度判断条件调整语音助手的语音信息。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:获取车辆的行驶环境。计算机程序被处理器执行实现根据第一用户的情绪状态调整车载终端的语音助手的语音信息时,具体实现以下步骤:根据第一用户的情绪状态确定语音助手的控制参数;根据行驶环境对控制参数进行调整;根据调整后的控制参数调整车载终端的语音助手的语音信息。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (16)

1.一种语音助手的信息控制方法,所述方法包括:
识别车辆中第一用户的情绪状态;
根据所述第一用户的情绪状态调整车载终端的语音助手的语音信息。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:获取所述第一用户的语音信息;
所述根据所述第一用户的情绪状态调整车载终端的语音助手的语音信息,包括:根据所述第一用户的情绪状态和所述第一用户的语音信息调整车载终端的语音助手的语音信息。
3.根据权利要求2所述的方法,其特征在于,所述根据所述第一用户的情绪状态和所述第一用户的语音信息调整车载终端的语音助手的语音信息,包括:
根据所述第一用户的情绪状态调整所述语音助手的语音信息的音量、音调和/或音速与所述第一用户的语音信息的音量、音调和/或音速相协调。
4.根据权利要求3所述的方法,其特征在于,所述根据所述第一用户的情绪状态调整所述语音助手的语音信息的音量、音调和/或音速与所述第一用户的语音信息的音量、音调和/或音速相协调,包括:
在所述第一用户的情绪状态为平静或快乐的状态下,调整所述语音助手的语音信息的音量、音调和/或音速与所述第一用户的语音信息的音量、音调和/或音速相协调。
5.根据权利要求2所述的方法,其特征在于,所述根据所述第一用户的情绪状态和所述第一用户的语音信息调整车载终端的语音助手的语音信息,包括:
根据所述第一用户的情绪状态调整语音助手的内容信息和第一用户的语音信息中的内容信息相协调。
6.根据权利要求5所述的方法,其特征在于,所述根据所述第一用户的情绪状态调整语音助手的内容信息和第一用户的语音信息中的内容信息相协调,包括:
在所述第一用户的情绪状态为平静或快乐的状态下,根据所述第一用户的情绪状态调整语音助手的内容信息和第一用户的语音信息中的内容信息相协调。
7.根据权利要求1所述的方法,其特征在于,所述根据所述第一用户的情绪状态调整车载终端的语音助手的语音信息,包括:
根据所述第一用户的情绪状态调整所述语音助手的语音信息的音量、音调和/或音速为与所述第一用户相关联的第二用户的语音信息的音量、音调和/或音速相协调。
8.根据权利要求7所述的方法,其特征在于,所述根据所述第一用户的情绪状态调整所述语音助手的语音信息的音量、音调和/或音速为与所述第一用户相关联的第二用户的语音信息的音量、音调和/或音速相协调,包括:
在所述第一用户的情绪状态为愤怒、恐惧或悲哀的状态下,调整所述语音助手的语音信息的音量、音调和/或音速为与所述第一用户相关联的第二用户的语音信息的音量、音调和/或音速相协调。
9.根据权利要求1所述的方法,其特征在于,所述根据所述第一用户的情绪状态调整车载终端的语音助手的语音信息,包括:
根据所述第一用户的情绪状态调整所述语音助手的语音信息的内容信息为与所述第一用户相关联的第二用户的语音信息的内容信息相协调。
10.根据权利要求9所述的方法,其特征在于,所述根据所述第一用户的情绪状态调整所述语音助手的语音信息的内容信息为与所述第一用户相关联的第二用户的语音信息的内容信息相协调,包括:
在所述第一用户的情绪状态为愤怒、恐惧或悲哀的状态下,调整所述语音助手的语音信息的内容信息为与所述第一用户相关联的第二用户的语音信息的内容信息相协调。
11.根据权利要求1所述的方法,其特征在于,所述根据所述第一用户的情绪状态调整车载终端的语音助手的语音信息,包括:
根据所述第一用户的情绪状态确定所述第一用户的情绪唤醒度和情绪愉悦度;
根据所述情绪唤醒度和所述情绪愉悦度调整所述语音助手的语音信息。
12.根据权利要求11所述的方法,其特征在于,所述根据所述情绪唤醒度和所述情绪愉悦度调整所述语音助手的语音信息,包括:
获取预先设定的唤醒度判断条件,所述唤醒度判断条件用于根据情绪状态判定所述第一用户的情绪唤醒度值;
获取预先设定的愉悦度判断条件,所述愉悦度判断条件用于根据情绪状态判定所述第一用户的情绪愉悦度值;
根据所述情绪唤醒度、所述情绪愉悦度、所述唤醒度判断条件和所述愉悦度判断条件调整所述语音助手的语音信息。
13.根据权利要求1所述的方法,其特征在于,所述方法还包括:获取所述车辆的行驶环境;
所述根据所述第一用户的情绪状态调整车载终端的语音助手的语音信息,包括:
根据所述第一用户的情绪状态确定所述语音助手的控制参数;
根据所述行驶环境对所述控制参数进行调整;
根据调整后的所述控制参数调整车载终端的语音助手的语音信息。
14.一种语音助手的信息控制装置,其特征在于,所述装置包括:
识别模块,用于识别车辆中第一用户的情绪状态;
调整模块,用于根据所述第一用户的情绪状态调整车载终端的语音助手的语音信息。
15.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至13中任一项所述方法的步骤。
16.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至13中任一项所述方法的步骤。
CN202210345654.2A 2022-03-31 2022-03-31 语音助手的信息控制方法、装置、计算机设备和存储介质 Pending CN114708864A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210345654.2A CN114708864A (zh) 2022-03-31 2022-03-31 语音助手的信息控制方法、装置、计算机设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210345654.2A CN114708864A (zh) 2022-03-31 2022-03-31 语音助手的信息控制方法、装置、计算机设备和存储介质

Publications (1)

Publication Number Publication Date
CN114708864A true CN114708864A (zh) 2022-07-05

Family

ID=82173053

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210345654.2A Pending CN114708864A (zh) 2022-03-31 2022-03-31 语音助手的信息控制方法、装置、计算机设备和存储介质

Country Status (1)

Country Link
CN (1) CN114708864A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116052693A (zh) * 2022-11-28 2023-05-02 中国第一汽车股份有限公司 一种基于声音识别的多模式语音交互方法及系统
CN118175698A (zh) * 2024-04-25 2024-06-11 深圳北极之光科技有限公司 一种多功能灯驱动电路及具有其的多功能灯、车辆

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103716467A (zh) * 2013-12-30 2014-04-09 惠州Tcl移动通信有限公司 一种手机系统参数的调整方法及系统
CN106803423A (zh) * 2016-12-27 2017-06-06 智车优行科技(北京)有限公司 基于用户情绪状态的人机交互语音控制方法、装置及车辆
CN109451188A (zh) * 2018-11-29 2019-03-08 平安科技(深圳)有限公司 差异性自助应答的方法、装置、计算机设备和存储介质
CN110648691A (zh) * 2019-09-30 2020-01-03 北京淇瑀信息科技有限公司 基于语音的能量值的情绪识别方法、装置和系统
CN111402925A (zh) * 2020-03-12 2020-07-10 北京百度网讯科技有限公司 语音调节的方法、装置、电子设备、车载系统和可读介质
US20200342854A1 (en) * 2019-04-24 2020-10-29 Beijing Baidu Netcom Science And Technology Co., Ltd. Method and apparatus for voice interaction, intelligent robot and computer readable storage medium
CN111863034A (zh) * 2020-06-19 2020-10-30 清华大学 一种语音情绪的反馈方法、装置、电子设备及存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103716467A (zh) * 2013-12-30 2014-04-09 惠州Tcl移动通信有限公司 一种手机系统参数的调整方法及系统
CN106803423A (zh) * 2016-12-27 2017-06-06 智车优行科技(北京)有限公司 基于用户情绪状态的人机交互语音控制方法、装置及车辆
CN109451188A (zh) * 2018-11-29 2019-03-08 平安科技(深圳)有限公司 差异性自助应答的方法、装置、计算机设备和存储介质
US20200342854A1 (en) * 2019-04-24 2020-10-29 Beijing Baidu Netcom Science And Technology Co., Ltd. Method and apparatus for voice interaction, intelligent robot and computer readable storage medium
CN110648691A (zh) * 2019-09-30 2020-01-03 北京淇瑀信息科技有限公司 基于语音的能量值的情绪识别方法、装置和系统
CN111402925A (zh) * 2020-03-12 2020-07-10 北京百度网讯科技有限公司 语音调节的方法、装置、电子设备、车载系统和可读介质
CN111863034A (zh) * 2020-06-19 2020-10-30 清华大学 一种语音情绪的反馈方法、装置、电子设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
施塔、卡拉特著: "《情绪心理学.第2版》", vol. 2, 1 March 2015, 中国轻工业出版社, pages: 27 - 28 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116052693A (zh) * 2022-11-28 2023-05-02 中国第一汽车股份有限公司 一种基于声音识别的多模式语音交互方法及系统
CN118175698A (zh) * 2024-04-25 2024-06-11 深圳北极之光科技有限公司 一种多功能灯驱动电路及具有其的多功能灯、车辆

Similar Documents

Publication Publication Date Title
CN111368609B (zh) 基于情绪引擎技术的语音交互方法、智能终端及存储介质
US12001755B2 (en) Apparatus and method for caring emotion based on vehicle sound
CN100339885C (zh) 智能个人助理
JP7192222B2 (ja) 発話システム
EP3886086A1 (en) Emotionally responsive virtual personal assistant
CN114708864A (zh) 语音助手的信息控制方法、装置、计算机设备和存储介质
CN110265009A (zh) 一种基于用户身份的主动对话发起方法和装置
CN110297617B (zh) 一种主动对话的发起方法和装置
JP2024153581A (ja) 行動制御システム
WO2024131126A1 (zh) 语音控制方法、装置以及车辆
KR20230122394A (ko) 기동어 기반 사용자 감성 분류를 통한 맞춤형 피드백 조명 시스템
JP2024153580A (ja) 行動制御システム
JP2024159561A (ja) 行動制御システム
JP2024155784A (ja) 行動制御システム
CN119469195A (zh) 导航语音生成方法、装置、计算机设备及存储介质
JP2024155779A (ja) 行動制御システム
JP2024155809A (ja) 行動制御システム
JP2024154400A (ja) 行動制御システム
JP2024153590A (ja) 行動制御システム
JP2024152710A (ja) 行動制御システム
JP2024153592A (ja) 行動制御システム
JP2024155871A (ja) 行動制御システム
JP2024153589A (ja) 行動制御システム
JP2024152707A (ja) 行動制御システム
JP2024152712A (ja) 行動制御システム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination