CN110096191B - 一种人机对话方法、装置及电子设备 - Google Patents
一种人机对话方法、装置及电子设备 Download PDFInfo
- Publication number
- CN110096191B CN110096191B CN201910333249.7A CN201910333249A CN110096191B CN 110096191 B CN110096191 B CN 110096191B CN 201910333249 A CN201910333249 A CN 201910333249A CN 110096191 B CN110096191 B CN 110096191B
- Authority
- CN
- China
- Prior art keywords
- scene
- session
- task
- user
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/242—Query formulation
- G06F16/243—Natural language query formulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/041—Abduction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/50—Business processes related to the communications industry
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/02—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail using automatic reactions or user delegation, e.g. automatic replies or chatbot-generated messages
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Biophysics (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Molecular Biology (AREA)
- Business, Economics & Management (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Tourism & Hospitality (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- General Business, Economics & Management (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
- Operations Research (AREA)
- Information Transfer Between Computers (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明提供一种人机对话方法、装置及电子设备,该方法包括:根据第一会话场景的第一任务向用户输出提问信息;若接收到用户返回的回复信息,则根据所述回复信息判断是否触发第二会话场景;若根据所述回复信息判定所述第二会话场景被触发,则根据所述第二会话场景,生成与所述回复信息对应的响应信息;向用户输出所述响应信息。这样,在用户触发第二会话场景的情况下,电子设备可在第二会话场景下,对用户的回复信息进行响应,提升了人机交互的智能性和流畅度,增加了人机交互性能。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种人机对话方法、装置及电子设备。
背景技术
对话系统是一种基于自然语言的人机交互系统。通过对话系统,人可以使用自然语言和计算机进行多轮交互来完成特定的任务,如信息查询、服务获取等。
随着自然语言处理技术的日渐成熟,智能对话技术越来越广泛地应用在智能客服、智能外呼、智能音箱等应用场景或产品中。与智能音箱、智能客服等被动式应答应用场景不同,智能外呼是由对话系统主动发起对话,并在对话过程中主导整个对话,引导对话在预设的任务中进行。
目前,应用于外呼场景的对话方式,只能引导用户在预设的流程中进行对话,并不能对用户的主动提问进行响应,使得交互性差。
发明内容
本发明实施例提供一种人机对话方法、装置及电子设备,以解决目前应用于外呼场景的对话方法交互性差的问题。
第一方面,本发明实施例提供了一种人机对话方法,包括:
根据第一会话场景的第一任务向用户输出提问信息;
若接收到用户返回的回复信息,则根据所述回复信息判断是否触发第二会话场景;
若根据所述回复信息判定所述第二会话场景被触发,则根据所述第二会话场景,生成与所述回复信息对应的响应信息;
向用户输出所述响应信息。
第二方面,本发明实施例还提供了一种深度学习装置,包括:
第一输出模块,用于根据第一会话场景的第一任务向用户输出提问信息;
第一判断模块,用于若接收到用户返回的回复信息,则根据所述回复信息判断是否触发第二会话场景;
第一响应信息生成模块,用于若根据所述回复信息判定所述第二会话场景被触发,则根据所述第二会话场景,生成与所述回复信息对应的响应信息;
第二输出模块,用于向用户输出所述响应信息。
第三方面,本发明实施例还提供了一种电子设备,其特征在于,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现上述人机对话方法的步骤。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现上述人机对话方法的步骤。
本发明实施例,根据第一会话场景的第一任务向用户输出提问信息;若接收到用户返回的回复信息,则根据所述回复信息判断是否触发第二会话场景;若根据所述回复信息判定所述第二会话场景被触发,则根据所述第二会话场景,生成与所述回复信息对应的响应信息;向用户输出所述响应信息。这样,在用户触发第二会话场景的情况下,电子设备可在第二会话场景下,对用户的回复信息进行响应,提升了人机交互的智能性和流畅度,增加了人机交互性能。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的人机对话方法的流程示意图之一;
图2是本发明实施例提供的人机对话方法的流程示意图之二;
图3是本发明实施例提供的任务队列中任务节点示意图;
图4是本发明实施例提供的第一会话场景的任务节点示意图;
图5是本发明实施例提供的人机对话方法的流程示意图之三;
图6是本发明实施例提供的人机对话装置的结构示意图;
图7是本发明实施例提供的电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参见图1,图1是本发明实施例提供的一种人机对话方法的流程图,如图1所示,包括以下步骤:
步骤101、根据第一会话场景的第一任务向用户输出提问信息。
本实施例中的人机对话方法可应用在任务型的外呼场景中,如调查问卷、售后回访、销售线索筛选等。在任务型的外呼场景中,由应用本实施例中人机对话方法的电子设备主动发起提问。电子设备可为机器人。
所有具备前后逻辑顺序的对话流程构成一个场景(即会话场景)。如查天气场景,用户表述了查天气意图后,机器人会反问用户以收集必须的实体(如:地点),然后完成天气查询,这是一个查天气的多轮场景;
如果是问答(FAQ)、知识图谱(KG)或者闲聊等单轮的对话,则一问一答构成一个场景;
在外呼对话系统中,单个独立的问题或者若干具备前后逻辑关系(顺序关系、按条件跳转)的问题列表构成一个场景。
例如,对某电子商务的调查问卷,需要收集用户性别、年龄、网购频率、网购时间、网购平台等信息。调查问卷的问题列表构成一个会话场景,用户性别、年龄、网购频率、网购时间、网购平台可认为是该会话场景下的多个任务。电子设备向用户主动发起提问时,是根据会话场景下的任务向用户输出提问信息。
提问信息可理解为根据第一会话场景的第一任务确定的问题。例如,对于上述调查问卷场景下的网购频率(网购频率为一个任务)来说,电子设备可向用户输出的提问信息为“多久网购一次”或者“每周平均网购几次”等等。
提问信息可为文字信息,也可为语音信息,在此不做限定。例如,当电子设备与用户通过短消息(短消息包括短信、或者通过聊天软件发送的消息)的方式发送信息时,提问信息可以文字的形式输出,也可以语音的形式输出;当电子设备与用户通过语音通话的方式交互时,提问信息以语音的形式输出。
在本申请中,用户可理解为通过客户端与电子设备进行交互的用户。电子设备向用户输出信息时,是向用户所使用的客户端输出信息;电子设备接收用户信息时,是接收用户所使用的客户端发出的信息。客户端可以为手机、平板电脑(Tablet PersonalComputer)、膝上型电脑(Laptop Computer)、个人数字助理(personal digitalassistant,简称PDA)、移动上网装置(Mobile Internet Device,简称MID)或可穿戴式设备(Wearable Device)等。
步骤102、若接收到用户返回的回复信息,则根据所述回复信息判断是否触发第二会话场景。
回复信息可为文字信息,也可为语音信息,在此不做限定。当电子设备与用户通过短消息的方式发送信息时,回复信息可以为文字信息,也可以为语音信息;当电子设备与用户通过语音通话的方式交互时,回复信息为语音信息。
第二会话场景是与第一会话场景不同的会话场景,例如,查天气、订酒店或问答知识这三者就属于不同的会话场景。第一会话场景和第二会话场景都是电子设备能够处理的会话场景。电子设备针对每个会话场景预先设置有对应的应答策略。
用户的回复信息所包括的内容并不确定,回复信息可能包括答复提问信息的内容,也可能包括提出的问题。若回复信息中包括用户提出的问题,那么电子设备需要对用户提出的问题进行回复,以提高交互性能。根据回复信息判断是否触发第二会话场景可理解为,回复信息中是否包括用户提出的问题。
步骤103、若根据所述回复信息判定所述第二会话场景被触发,则根据所述第二会话场景,生成与所述回复信息对应的响应信息。
用户的回复信息所包括的内容并不确定,回复信息可能包括答复提问信息的内容,也可能包括用户提出的问题。例如,若提问信息为“多久网购一次”,回复信息为“三天”,电子设备对回复信息进行语义分析后可知,回复信息未包括用户提出的问题,判定未触发第二会话场景。若提问信息为“多久网购一次”,回复信息为“今天天气怎么样”,此时,电子设备对回复信息进行语义分析后可知,回复信息包括用户提出的问题,判定触发了第二会话场景。若提问信息为“多久网购一次”,回复信息为“三天。今天天气怎么样”,此时,电子设备对回复信息进行语义分析,获知用户在回答提问的同时,还提出了问题。经过上述分析之后,判定回复信息触发了第二会话场景。电子设备对回复信息进行语义分析时,会为用户提出的问题设置较大的权重,电子设备对权重较大的问题做出反应,此种情况下,电子设备应该先回复用户提出的问题,而不是根据用户的回答,进行下一个提问。
在判定触发了第二会话场景的情况下,生成与回复信息对应的响应信息,即电子设备对回复信息包括的用户提问进行响应。例如,若提问信息为“多久网购一次”,回复信息为“今天天气怎么样”,此时,电子设备对回复信息进行语义分析后可知,回复信息包括用户提出的问题,电子设备根据“今天天气怎么样”所对应的会话场景(即第二会话场景),生成响应信息。响应信息可为电子设备针对天气查询进行提问的信息,例如:查询何处的天气。同样的,响应信息也可为文字信息或语音信息。
步骤104、向用户输出所述响应信息。
电子设备在确定响应信息之后,向用户输出响应信息。响应信息为文字信息时,电子设备以文字的形式向用户输出。响应信息为语音信息时,电子设备以语音播放的形式向用户输出。
本实施例中的人机对话方法,不仅可以主动向用户发起提问,还能对用户的提问进行响应,使得应用本实施例中的人机对话方法的电子设备可支持两种模式的对话流程:一种是任务型的对话流程(如调查问卷、售后回访、销售线索筛选等,使用外呼队列管理外呼任务),另一种是应答型的对话流程(如查天气、订酒店或问答知识等)。其中,任务型的对话流程可以支持单个问题,也可以支持具备前后逻辑关系(顺序关系、按条件跳转)的问题列表。应答型的对话流程可以支持任务式对话场景(如查天气、订酒店、租车等),同时也可以支持问答对,知识图谱、闲聊等。
本实施例中,根据第一会话场景的第一任务向用户输出提问信息;若接收到用户返回的回复信息,则根据所述回复信息判断是否触发第二会话场景;若根据所述回复信息判定所述第二会话场景被触发,则根据所述第二会话场景,生成与所述回复信息对应的响应信息;向用户输出所述响应信息。这样,在用户触发第二会话场景的情况下,电子设备可在第二会话场景下,对用户的回复信息进行响应,提升了人机交互的智能性和流畅度,增加了人机交互性能。
参见图2,图2是本发明实施例提供的一种人机对话方法的流程图,如图2所示,包括以下步骤:
步骤201、若任务队列中有未处理完的任务,则根据第一会话场景的第一任务向用户输出提问信息,其中,所述第一任务为所述任务队列中当前位于队首的任务。
本实施例中的人机对话方法可应用在任务型的外呼场景中,如调查问卷、售后回访、销售线索筛选等。在任务型的外呼场景中,由应用本实施例中人机对话方法的电子设备主动发起提问。电子设备可为机器人。
队列为一个先进先出的数据结构,利用此数据结构可实现有序的对话任务调度。将存放外呼任务节点的队列称为任务队列(也可叫外呼队列)。任务队列中用于存放第一会话场景的任务。
在对话开始前,初始化任务队列,将配置的对话流程顶层节点按先后顺序放到任务队列中。对于某电子商务的调查问卷,需要收集用户性别、年龄、网购频率、网购时间、网购平台等信息。在初始化任务队列时,将需要收集的信息点依次放入任务队列,如图3所示,放入任务队列中的任务(也叫任务节点)分别为开场白节点、性别、年龄、网购频率、网购时间、网购平台、购物信息渠道,电子设备默认按任务在队列中的顺序进行任务调度。电子设备向用户主动发起提问时,根据第一会话场景的第一任务向用户输出提问信息。第一任务为任务队列中位于队首的任务,位于队首的任务处理完成之后,该任务出队,与该任务相邻的下一个任务排在队首。例如,电子设备完成“网购频率”这个任务后,“网购频率”任务出队,与“网购频率”相邻的“网络时间”位于队首位置。
提问信息可理解为根据第一会话场景的第一任务确定的问题。例如,对于上述调查问卷场景下的网购频率(网购频率为一个任务)来说,电子设备可向用户输出的提问信息为“多久网购一次”或者“每周平均网购几次”等等。
提问信息可为文字信息,也可为语音信息,在此不做限定。例如,当电子设备与用户通过短消息(短消息包括短信、或者通过聊天软件发送的消息)的方式发送信息时,提问信息可以文字的形式输出,也可以语音的形式输出;当电子设备与用户通过语音通话的方式交互时,提问信息以语音的形式输出。
在本申请中,用户可理解为通过客户端与电子设备进行交互的用户。电子设备向用户输出信息时,是向用户所使用的客户端输出信息;电子设备接收用户信息时,是接收用户所使用的客户端发出的信息。
本实施例中增加了任务队列,可以支持调查问卷、售后回访等有固定任务列表的外呼场景。
步骤202、若接收到用户返回的回复信息,则根据所述回复信息判断是否触发第二会话场景。
回复信息可为文字信息,也可为语音信息,在此不做限定。当电子设备与用户通过短消息的方式发送信息时,回复信息可以为文字信息,也可以为语音信息;当电子设备与用户通过语音通话的方式交互时,回复信息为语音信息。
第二会话场景是与第一会话场景不同的会话场景,例如,查天气、订酒店或问答知识这三者就属于不同的会话场景。第一会话场景和第二会话场景都是电子设备能够处理的会话场景。电子设备针对每个会话场景预先设置有对应的应答策略。
用户的回复信息所包括的内容并不确定,回复信息可能包括答复提问信息的内容,也可能包括提出的问题。若回复信息中包括用户提出的问题,那么电子设备需要对用户提出的问题进行回复,以提高交互性能。根据回复信息判断是否触发第二会话场景可理解为,回复信息中是否包括用户提出的问题。
步骤203、若根据所述回复信息判定所述第二会话场景被触发,则根据所述第二会话场景,生成与所述回复信息对应的响应信息。
在判定触发了第二会话场景的情况下,生成与回复信息对应的响应信息,即电子设备对回复信息包括的用户提问进行响应。例如,若提问信息为“多久网购一次”,回复信息为“今天天气怎么样”,此时,电子设备对回复信息进行语义分析后可知,回复信息包括用户提出的问题,电子设备根据“今天天气怎么样”所对应的会话场景(即第二会话场景),生成响应信息。响应信息可为电子设备针对天气查询进行提问的信息,例如:查询何处的天气。
进一步的,本步骤具体包括:
若根据所述回复信息判定所述第二会话场景被触发,将所述第一会话场景压入场景栈;
根据所述第二会话场景,生成与所述回复信息对应的响应信息;
相应的,在所述向用户输出所述响应信息之后,还包括:
若在所述第二会话场景中的对话结束,且所述场景栈中有未处理完的会话场景,则获取所述场景栈中位于栈顶的会话场景;
将所述场景栈中位于栈顶的会话场景确定为所述第一会话场景,执行所述根据第一会话场景的第一任务向用户输出提问信息的的步骤。
具体的,栈为一个先进后出的数据结构,在对话过程中发生会话场景切换时,可利用此数据结构存放被切换的会话场景(例如第一会话场景)的数据,存放会话场景数据的栈称为场景栈。在本实施例中,将所述第一会话场景压入场景栈可理解为,将第一会话场景及该场景下的会话数据存入场景栈中,电子设备根据该相关信息可再次回到第一会话场景被切换前的状态,以继续在第一会话场景与用户进行对话。
在外呼对话过程中,在当前场景(即第一会话场景)尚未完成,用户主动进入了新的场景(即第二会话场景)的情况下,电子设备会将尚未完成的场景(即第一会话场景)及该场景下的会话数据压入场景栈,当新场景完成以后,从场景栈的栈顶弹出一个未完成的会话场景,通过用户回到弹出的会话场景,使对话继续。如图4所示,图4中,第一节点、第二节点可视为第一会话场景的任务节点,节点1和节点2可认为是第一节点的子节点。
在判定第二会话场景被触发时,电子设备需要先对第二会话场景进行处理,此时,将第一会话场景入栈,即将第一会话场景压入场景栈中,以便电子设备在第二会话场景下的对话结束时,将第一会话场景从场景栈中取出,来继续在第一会话场景进行对话。
场景栈中处理完的会话场景出栈后,与该会话场景相邻的会话场景位于栈顶。当场景栈中的所有会话场景均处理完时,场景栈为空。
本实施例中,在对话过程中,支持用户主动打断对话、主动结束对话,提升用户体验。
进一步的,若在预设时间内未接收到用户返回的回复信息,执行根据第一会话场景的第一任务向用户输出提问信息的步骤。即在预设时间内未接收到回复信息,再次向用户输出提问信息,以引导对话继续。当然,也可以在预设时间内未接收到回复信息时,向用户输出询问信息,以引导会话继续。预设时间可根据实际情况进行设置,在此不做限定。
本实施例中,当人机对话过程中,用户触发了第二会话场景,电子设备会将第一会话场景及会话数据压入场景栈,然后在第二会话场景下与用户进行交互。当在第二会话场景结束时,电子设备可以引导用户继续进入未完成场景(即第一会话场景),提高了用户体验。
在所述若接收到用户返回的回复信息,则根据所述回复信息判定是否触发第二会话场景之后,所述向用户输出所述响应信息之前,还包括:
若根据所述回复信息判定未触发所述第二会话场景,则根据所述第一会话场景生成与所述回复信息对应的响应信息。
在本步骤中,根据回复信息判断用户未触发第二会话场景,表明当前的会话场景仍旧为第一会话场景,此时,电子设备根据第一会话场景生成与回复信息对应的响应信息。例如,若提问信息为“多久网购一次”,回复信息为“三天”,电子设备对回复信息进行语义分析之后,获知回复信息并未触发第二会话场景,并且回复信息包括了对提问信息的回复,此时,电子设备可根据任务队列中设置的任务,继续对用户输出提问信息。
步骤204、向用户输出所述响应信息。
电子设备在确定响应信息之后,向用户输出响应信息。响应信息为文字信息时,电子设备以文字的形式向用户输出。响应信息为语音信息时,电子设备以语音播放的形式向用户输出。
步骤205、若在所述第二会话场景中的对话结束,且所述场景栈中的会话场景均已处理完,则判断任务队列中是否有未处理完的任务;
步骤206、若所述任务队列中有未处理完的任务,则将第二任务确定为所述第一任务,并执行所述根据第一会话场景下的第一任务向用户输出提问信息的步骤;其中,所述第二任务为所述任务队列中当前位于队首的任务。
具体的,在对场景栈中位于栈顶的会话场景进行处理时,栈顶的会话场景出栈,与该会话场景相邻的会话场景位于栈顶。当场景栈中的所有会话场景均处理完时,可理解为场景栈中不存在未处理的会话场景,此时,场景栈为空,当前会话场景为场景栈中最后一个出栈的会话场景。
在对任务队列中位于队首的任务进行处理时,该任务出队,与该任务相邻的下一个任务排在队首。当任务队列中所有的任务均处理完成时,可理解为任务队列中不存在未处理的任务,此时,任务队列为空。
若场景栈为空,任务队列不为空,将任务队列中的当前位于队首的任务作为第一任务,执行所述根据第一会话场景的第一任务向用户输出提问信息的步骤。例如,若任务队列中当前排在队首的任务为“网购频率”,那么“网购频率”为第一任务,电子设备根据“网购频率”向用户输出提问信息。
在本实施中,场景栈中用于存放旧的会话场景(即第一会话场景),并优先处理用户触发的新的会话场景(即第二会话场景),并在新的会话场景对话结束后,回到旧的会话场景上,以在旧的会话场景上继续执行未完成的任务,提升了人机交互的智能性和流畅度,增加了人机交互性能。
本实施例中的人机对话方法,不仅可以主动向用户发起提问,还能对用户的提问进行响应,使得应用本实施例中的人机对话方法的电子设备可支持两种模式的对话流程:一种是任务型的对话流程(如调查问卷、售后回访、销售线索筛选等,使用外呼队列管理外呼任务),另一种是应答型的对话流程(如查天气、订酒店或问答知识等)。其中,任务型的对话流程可以支持单个问题,也可以支持具备前后逻辑关系(顺序关系、按条件跳转)的问题列表。应答型的对话流程可以支持任务式对话场景(如查天气、订酒店、租车等),同时也可以支持问答对,知识图谱、闲聊等。
本申请中的电子设备支持系统级的会话计数控制逻辑,如外呼过程中因通信信道或用户环境嘈杂导致的语音识别率低,导致电子设备无法清晰理解用户表述时,本申请支持计数控制连续或累计达到一定阈值后友好挂断会话。计数控制包括:用户连续或累计静默计数控制、用户连续或累计拒绝计数控制、用户连续或累计重述计数控制等。
如图5所示,图5是本发明实施例提供的一种人机对话方法的流程图,以下对人机对话方法的具体过程进行描述:
步骤11、对话开始,播放欢迎与、首个任务话术。当电话接通以后,外呼机器人(电子设备为外呼机器人)先主动播报欢迎语进行外呼引导,并提出问题,例如,询问用户是否方便接听。此时对话进入该问题代表的场景(即第一会话场景);
步骤12、用户是否主动触发新场景。外呼机器人基于用户输入收听到用户的回答后,先判断用户是否主动触发新的场景(即第二会话场景),如果是,转步骤13执行;如果否,转步骤14执行。在当前场景中生成回复响应用户。
步骤13、老场景(即当前场景)压栈,基于新场景回复用户。将当前场景(即第一会话场景)压入场景栈,并在新场景中生成回复响应用户;
步骤14、继续当前场景,即在当前场景中生成回复响应用户。在回复用户的同时,执行步骤15。
步骤15、判断当前场景是否结束。如果已结束,执行步骤16。
步骤16、判断场景栈中是否有未处理完成的场景,如果有,执行步骤17;如果没有,执行步骤18;
步骤17、引导对话回栈顶场景,即从栈顶弹出最近的一个场景,通过引导语引导用户回到老场景;
步骤18、判断任务队列中是否有未处理完成的任务,如果有,执行步骤19;
步骤19、播放新任务话术,即从队列中拿出队首的任务,播放给用户;
重复执行步骤12-步骤19,直到任务队列和场景栈为空,播放结束语,外呼任务结束。
在对话过程中,支持用户主动打断对话、主动结束对话,同时支持在用户静默的情况下,主动通过询问用户引导对话继续进行,提升用户体验。
本实施例中的人机对话方法既支持机器人主动引导用户,也支持机器人被动应答,(使用场景栈)可以很好地支持用户在接到外呼电话的过程中主动询问一些问题,完成某项业务操作,同时在应答用户以后可以继续引导用户回到外呼的预设任务中来,很好地提升了外呼机器人的智能性和对话流畅度。
本实施例中的人机对话方法,在流程式对话管理的基础上,通过增加场景队列和场景栈,支持预设任务列表,在对话过程中当用户主动跳出当前对话场景时,将当前场景压栈,并在合适的时间点引导用户回到未完成场景,在完成预设任务的同时,可以很好地支持用户在通话过程中打断、静默、提问、表达新意图等,极大地提升了对话的智能性和流畅度。本申请在金融行业催收场景、各行业销售线索筛选、调查问卷、保险行业售后回访等场景可以替代人工,降低企业的人力成本,提升工作效率。
本申请中的人机对比方法,具有以下优点:
增加了外呼队列,可以灵活地支持调查问卷、售后回访等有固定任务列表的外呼场景,支持在用户打断对话流程后,在合适的时间节点将对话引导回预设任务;
增加了场景栈,当用户在对话过程中主动跳出当前对话场景,进入新的场景时,会将当前场景及会话数据压栈,在新场景结束且用户没有主动引导进入新的场景时,可以引导用户继续进入未完成场景。这一点在外呼中特别重要,因为外呼中的用户是被动方,没有主动引导对话进入老场景的意愿;
融合了主被动任务式对话、问答、闲聊、KG等对话能力,可以更好地满足在外呼过程中,用户变被动为主动反问(如询问一些政策、可行性等问答形式的知识),主动提出业务需求(如查余额、查天气等),同时也支持在满足用户的主动性需求后,将对话引导回上一个场景流程或者预设的外呼流程中,完成预设的任务;
对训练数据规模要求适中,准确性较高,在封闭场景内效果较好,商业化价值较高;
灵活的会话计数控制逻辑(未识别、拒绝、重述等),使得外呼会话流程更人性化,异常情况下的会话状态更加可控。
参见图6,图6是本发明实施例提供的人机对话装置的结构示意图;本实施例提供一种人机对话装置500,包括:
第一输出模块501,用于根据第一会话场景的第一任务向用户输出提问信息;
第一判断模块502,用于若接收到用户返回的回复信息,则根据所述回复信息判断是否触发第二会话场景;
第一响应信息生成模块503,用于若根据所述回复信息判定所述第二会话场景被触发,则根据所述第二会话场景,生成与所述回复信息对应的响应信息;
第二输出模块504,用于向用户输出所述响应信息。
进一步的,所述第一输出模块501,用于:
若任务队列中有未处理完的任务,则根据第一会话场景的第一任务向用户输出提问信息,其中,所述第一任务为所述任务队列中当前位于队首的任务。
进一步的,所述第一响应信息生成模块503,包括:
入栈子模块,用于若根据所述回复信息判定所述第二会话场景被触发,将所述第一会话场景压入场景栈;
生成子模块,用于根据所述第二会话场景,生成与所述回复信息对应的响应信息;
所述装置还包括:
获取模块,用于若在所述第二会话场景中的对话结束,且所述场景栈中有未处理完的会话场景,则获取所述场景栈中位于栈顶的会话场景;
第一确定模块501,用于将所述场景栈中位于栈顶的会话场景确定为所述第一会话场景,并触发所述第一输出模块。
进一步的,所述装置500还包括:
第二判断模块,用于若在所述第二会话场景中的对话结束,且所述场景栈中的会话场景均已处理完,则判断任务队列中是否有未处理完的任务;
第二确定模块,用于若所述任务队列中有未处理完的任务,则将第二任务确定为所述第一任务,并触发所述第一输出模块;
其中,所述第二任务为所述任务队列中当前位于队首的任务。
进一步的,所述装置500还包括:
第二响应信息生成模块,用于若根据所述回复信息判定未触发所述第二会话场景,则根据所述第一会话场景生成与所述回复信息对应的响应信息。
本发明实施例提供的人机对话装置500能够实现图1、图2所示方法实施例中电子设备实现的各个过程,为避免重复,这里不再赘述。
本实施例的人机对话装置500,根据第一会话场景的第一任务向用户输出提问信息;若接收到用户返回的回复信息,则根据所述回复信息判断是否触发第二会话场景;若根据所述回复信息判定所述第二会话场景被触发,则根据所述第二会话场景,生成与所述回复信息对应的响应信息;向用户输出所述响应信息。这样,在用户触发第二会话场景的情况下,电子设备可在第二会话场景下,对用户的回复信息进行响应,提升了人机交互的智能性和流畅度,增加了人机交互性能。
参见图7,图7是本发明实施例提供的一种电子设备的结构示意图。如图7所示,电子设备600包括:处理器601、存储器602及存储在所述存储器602上并可在所述处理器上运行的计算机程序,电子设备600中的各个组件通过总线系统603耦合在一起。可理解,总线系统603用于实现这些组件之间的连接通信。
其中,处理器601,用于根据第一会话场景的第一任务向用户输出提问信息;
若接收到用户返回的回复信息,则根据所述回复信息判断是否触发第二会话场景;
若根据所述回复信息判定所述第二会话场景被触发,则根据所述第二会话场景,生成与所述回复信息对应的响应信息;
向用户输出所述响应信息。
进一步的,处理器601还用于:
若任务队列中有未处理完的任务,则根据第一会话场景的第一任务向用户输出提问信息,其中,所述第一任务为所述任务队列中当前位于队首的任务。
进一步的,处理器601还用于:
若根据所述回复信息判定所述第二会话场景被触发,将所述第一会话场景压入场景栈;
根据所述第二会话场景,生成与所述回复信息对应的响应信息;
相应的,在所述向用户输出所述响应信息之后,处理器601还用于:
若在所述第二会话场景中的对话结束,且所述场景栈中有未处理完的会话场景,则获取所述场景栈中位于栈顶的会话场景;
将所述场景栈中位于栈顶的会话场景确定为所述第一会话场景,执行所述根据第一会话场景的第一任务向用户输出提问信息的步骤。
进一步的,处理器601还用于:
若在所述第二会话场景中的对话结束,且所述场景栈中的会话场景均已处理完,则判断任务队列中是否有未处理完的任务;
若所述任务队列中有未处理完的任务,则将第二任务确定为所述第一任务,并执行所述根据第一会话场景的第一任务向用户输出提问信息的步骤;
其中,所述第二任务为所述任务队列中当前位于队首的任务。
进一步的,处理器601还用于:
若根据所述回复信息判定未触发所述第二会话场景,则根据所述第一会话场景生成与所述回复信息对应的响应信息。
电子设备600能够实现前述实施例中电子设备实现的各个过程,为避免重复,这里不再赘述。
本发明实施例的电子设备600,根据第一会话场景的第一任务向用户输出提问信息;若接收到用户返回的回复信息,则根据所述回复信息判断是否触发第二会话场景;若根据所述回复信息判定所述第二会话场景被触发,则根据所述第二会话场景,生成与所述回复信息对应的响应信息;向用户输出所述响应信息。这样,在用户触发第二会话场景的情况下,电子设备可在第二会话场景下,对用户的回复信息进行响应,提升了人机交互的智能性和流畅度,增加了人机交互性能。
本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述核心要素提取方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,所述的计算机可读存储介质,如只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本发明实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (12)
1.一种人机对话方法,其特征在于,包括:
根据第一会话场景的第一任务向用户输出提问信息;
若接收到用户返回的回复信息,则根据所述回复信息判断是否触发第二会话场景;
若根据所述回复信息判定所述第二会话场景被触发,则根据所述第二会话场景,生成与所述回复信息对应的响应信息,其中,所述第一会话场景为与所述第二会话场景不同的会话场景,在所述第二会话场景被触发的情况下,所述回复信息包括用户提出的问题;
向用户输出所述响应信息。
2.根据权利要求1所述的方法,其特征在于,所述根据第一会话场景向用户输出提问信息,包括:
若任务队列中有未处理完的任务,则根据第一会话场景的第一任务向用户输出提问信息,其中,所述第一任务为所述任务队列中当前位于队首的任务。
3.根据权利要求1所述的方法,其特征在于,所述若根据所述回复信息判定所述第二会话场景被触发,则根据所述第二会话场景,生成与所述回复信息对应的响应信息,包括:
若根据所述回复信息判定所述第二会话场景被触发,将所述第一会话场景压入场景栈;
根据所述第二会话场景,生成与所述回复信息对应的响应信息;
在所述向用户输出所述响应信息之后,还包括:
若在所述第二会话场景中的对话结束,且所述场景栈中有未处理完的会话场景,则获取所述场景栈中位于栈顶的会话场景;
将所述场景栈中位于栈顶的会话场景确定为所述第一会话场景,执行所述根据第一会话场景的第一任务向用户输出提问信息的步骤。
4.根据权利要求3所述的方法,其特征在于,在所述向用户输出所述响应信息之后,还包括:
若在所述第二会话场景中的对话结束,且所述场景栈中的会话场景均已处理完,则判断任务队列中是否有未处理完的任务;
若所述任务队列中有未处理完的任务,则将第二任务确定为所述第一任务,并执行所述根据第一会话场景的第一任务向用户输出提问信息的步骤;
其中,所述第二任务为所述任务队列中当前位于队首的任务。
5.根据权利要求1所述的方法,其特征在于,在所述若接收到用户返回的回复信息,则根据所述回复信息判定是否触发第二会话场景之后,所述向用户输出所述响应信息之前,还包括:
若根据所述回复信息判定未触发所述第二会话场景,则根据所述第一会话场景生成与所述回复信息对应的响应信息。
6.人机对话装置,其特征在于,包括:
第一输出模块,用于根据第一会话场景的第一任务向用户输出提问信息;
第一判断模块,用于若接收到用户返回的回复信息,则根据所述回复信息判断是否触发第二会话场景;
第一响应信息生成模块,用于若根据所述回复信息判定所述第二会话场景被触发,则根据所述第二会话场景,生成与所述回复信息对应的响应信息,其中,所述第一会话场景为与所述第二会话场景不同的会话场景,在所述第二会话场景被触发的情况下,所述回复信息包括用户提出的问题;
第二输出模块,用于向用户输出所述响应信息。
7.根据权利要求6所述的装置,其特征在于,所述第一输出模块,用于:
若任务队列中有未处理完的任务,则根据第一会话场景的第一任务向用户输出提问信息,其中,所述第一任务为所述任务队列中当前位于队首的任务。
8.根据权利要求6所述的装置,其特征在于,所述第一响应信息生成模块,包括:
入栈子模块,用于若根据所述回复信息判定所述第二会话场景被触发,将所述第一会话场景压入场景栈;
生成子模块,用于根据所述第二会话场景,生成与所述回复信息对应的响应信息;
所述装置还包括:
获取模块,用于若在所述第二会话场景中的对话结束,且所述场景栈中有未处理完的会话场景,则获取所述场景栈中位于栈顶的会话场景;
第一确定模块,用于将所述场景栈中位于栈顶的会话场景确定为所述第一会话场景,并触发所述第一输出模块。
9.根据权利要求8所述的装置,其特征在于,还包括:
第二判断模块,用于若在所述第二会话场景中的对话结束,且所述场景栈中的会话场景均已处理完,则判断任务队列中是否有未处理完的任务;
第二确定模块,用于若所述任务队列中有未处理完的任务,则将第二任务确定为所述第一任务,并触发所述第一输出模块;
其中,所述第二任务为所述任务队列中当前位于队首的任务。
10.根据权利要求6所述的装置,其特征在于,还包括:
第二响应信息生成模块,用于若根据所述回复信息判定未触发所述第二会话场景,则根据所述第一会话场景生成与所述回复信息对应的响应信息。
11.一种电子设备,其特征在于,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至5中任一项所述的人机对话方法的步骤。
12.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至5中任一项所述的人机对话方法的步骤。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910333249.7A CN110096191B (zh) | 2019-04-24 | 2019-04-24 | 一种人机对话方法、装置及电子设备 |
US16/709,465 US11355109B2 (en) | 2019-04-24 | 2019-12-10 | Method and apparatus for man-machine conversation, and electronic device |
JP2020001206A JP2020181566A (ja) | 2019-04-24 | 2020-01-08 | マンマシン対話の方法、装置、および電子機器 |
KR1020200003282A KR102381214B1 (ko) | 2019-04-24 | 2020-01-09 | 인간-기계 대화 방법, 장치 및 전자 기기 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910333249.7A CN110096191B (zh) | 2019-04-24 | 2019-04-24 | 一种人机对话方法、装置及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110096191A CN110096191A (zh) | 2019-08-06 |
CN110096191B true CN110096191B (zh) | 2021-06-29 |
Family
ID=67445727
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910333249.7A Active CN110096191B (zh) | 2019-04-24 | 2019-04-24 | 一种人机对话方法、装置及电子设备 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11355109B2 (zh) |
JP (1) | JP2020181566A (zh) |
KR (1) | KR102381214B1 (zh) |
CN (1) | CN110096191B (zh) |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110400564A (zh) * | 2019-08-21 | 2019-11-01 | 科大国创软件股份有限公司 | 一种基于栈的聊天机器人对话管理方法 |
US20210117882A1 (en) | 2019-10-16 | 2021-04-22 | Talkdesk, Inc | Systems and methods for workforce management system deployment |
CN111063350B (zh) * | 2019-12-17 | 2022-10-21 | 思必驰科技股份有限公司 | 基于任务栈的语音交互状态机及其实现方法 |
CN110995577B (zh) * | 2019-12-31 | 2021-10-22 | 珠海市小源科技有限公司 | 消息的多通道适配方法、装置及存储介质 |
US11736615B2 (en) | 2020-01-16 | 2023-08-22 | Talkdesk, Inc. | Method, apparatus, and computer-readable medium for managing concurrent communications in a networked call center |
CN111273833B (zh) * | 2020-03-25 | 2022-02-01 | 北京百度网讯科技有限公司 | 人机交互的控制方法、装置和系统、电子设备 |
CN111563151B (zh) * | 2020-05-07 | 2024-02-02 | 腾讯科技(深圳)有限公司 | 一种信息采集的方法、会话配置的方法、装置及存储介质 |
CN111639168B (zh) * | 2020-05-21 | 2023-06-09 | 北京百度网讯科技有限公司 | 一种多轮对话的处理方法、装置、电子设备及存储介质 |
CN111612482A (zh) * | 2020-05-22 | 2020-09-01 | 云知声智能科技股份有限公司 | 对话管理方法、装置和设备 |
CN111611368B (zh) * | 2020-05-22 | 2023-07-04 | 北京百度网讯科技有限公司 | 多轮对话中公共场景对话回溯的方法和装置 |
CN111813912B (zh) * | 2020-06-29 | 2024-08-06 | 北京百度网讯科技有限公司 | 一种人机对话方法、装置、设备及存储介质 |
CN114124415B (zh) * | 2020-08-13 | 2023-05-12 | 腾讯科技(深圳)有限公司 | 目标交互应用中的信息交互方法和装置 |
CN111930288B (zh) * | 2020-08-14 | 2022-05-13 | 中国工商银行股份有限公司 | 交互式业务处理方法及系统 |
CN112735411A (zh) * | 2020-12-25 | 2021-04-30 | 广州橙行智动汽车科技有限公司 | 控制方法、客户端、车辆、语音系统和存储介质 |
US11922141B2 (en) * | 2021-01-29 | 2024-03-05 | Walmart Apollo, Llc | Voice and chatbot conversation builder |
US11429404B2 (en) * | 2021-02-03 | 2022-08-30 | Oracle International Corporation | Framework for linearizing interviews while permitting user backtracking and provisionally storing answers for repopulating responses |
JP7631952B2 (ja) | 2021-03-23 | 2025-02-19 | 株式会社リコー | サービス提供システム、情報処理装置、情報処理方法、及びプログラム |
JP7420109B2 (ja) * | 2021-04-08 | 2024-01-23 | トヨタ自動車株式会社 | 情報出力システム、サーバ装置および情報出力方法 |
CN113159901B (zh) * | 2021-04-29 | 2024-06-04 | 天津狮拓信息技术有限公司 | 融资租赁业务会话的实现方法和装置 |
CN113282725A (zh) * | 2021-05-21 | 2021-08-20 | 北京市商汤科技开发有限公司 | 对话交互的方法、装置、电子设备及存储介质 |
US11677875B2 (en) | 2021-07-02 | 2023-06-13 | Talkdesk Inc. | Method and apparatus for automated quality management of communication records |
CN113360625B (zh) * | 2021-07-02 | 2022-01-04 | 北京容联七陌科技有限公司 | 一种基于nlp的智能对话营销获客方法及系统 |
US12141533B2 (en) * | 2021-09-23 | 2024-11-12 | International Business Machines Corporation | Leveraging knowledge records for chatbot local search |
CN114296547A (zh) * | 2021-12-03 | 2022-04-08 | 阿里巴巴(中国)有限公司 | 发起主动对话的方法、设备及存储介质 |
CN114221920B (zh) * | 2021-12-13 | 2023-06-23 | 中国平安财产保险股份有限公司 | 基于人工智能的自动接触方法、装置、计算机设备及介质 |
US11856140B2 (en) | 2022-03-07 | 2023-12-26 | Talkdesk, Inc. | Predictive communications system |
CN115062124A (zh) * | 2022-05-27 | 2022-09-16 | 普强时代(珠海横琴)信息技术有限公司 | 问卷数据处理方法、装置、电子设备及存储介质 |
US11736616B1 (en) | 2022-05-27 | 2023-08-22 | Talkdesk, Inc. | Method and apparatus for automatically taking action based on the content of call center communications |
US11971908B2 (en) | 2022-06-17 | 2024-04-30 | Talkdesk, Inc. | Method and apparatus for detecting anomalies in communication data |
US11943391B1 (en) | 2022-12-13 | 2024-03-26 | Talkdesk, Inc. | Method and apparatus for routing communications within a contact center |
CN119441570A (zh) * | 2023-07-31 | 2025-02-14 | 北京有竹居网络技术有限公司 | 一种交互方法、装置、电子设备以及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105094315A (zh) * | 2015-06-25 | 2015-11-25 | 百度在线网络技术(北京)有限公司 | 基于人工智能的人机智能聊天的方法和装置 |
CN106559321A (zh) * | 2016-12-01 | 2017-04-05 | 竹间智能科技(上海)有限公司 | 动态调整对话策略的方法及系统 |
CN107870994A (zh) * | 2017-10-31 | 2018-04-03 | 北京光年无限科技有限公司 | 用于智能机器人的人机交互方法及系统 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100738689B1 (ko) * | 2005-06-03 | 2007-07-11 | 주식회사 케이티 | 소봇 서비스 방법 및 시스템 |
JP2007018245A (ja) | 2005-07-07 | 2007-01-25 | Toshiba Corp | 対話装置、対話方法及びプログラム |
US8374859B2 (en) * | 2008-08-20 | 2013-02-12 | Universal Entertainment Corporation | Automatic answering device, automatic answering system, conversation scenario editing device, conversation server, and automatic answering method |
JP5149737B2 (ja) * | 2008-08-20 | 2013-02-20 | 株式会社ユニバーサルエンターテインメント | 自動会話システム、並びに会話シナリオ編集装置 |
CN103000052A (zh) * | 2011-09-16 | 2013-03-27 | 上海先先信息科技有限公司 | 人机互动的口语对话系统及其实现方法 |
US9374448B2 (en) * | 2012-05-27 | 2016-06-21 | Qualcomm Incorporated | Systems and methods for managing concurrent audio messages |
JP6601069B2 (ja) * | 2015-09-01 | 2019-11-06 | カシオ計算機株式会社 | 対話制御装置、対話制御方法及びプログラム |
CN106775649A (zh) * | 2016-11-25 | 2017-05-31 | 深圳市保臻社区服务科技有限公司 | 一种语境引导用户的方法及装置 |
US10467510B2 (en) * | 2017-02-14 | 2019-11-05 | Microsoft Technology Licensing, Llc | Intelligent assistant |
US20190066669A1 (en) | 2017-08-29 | 2019-02-28 | Google Inc. | Graphical data selection and presentation of digital content |
CN108763352A (zh) * | 2018-05-15 | 2018-11-06 | 深圳市过问科技有限公司 | 采访提问方法、装置及电子设备 |
-
2019
- 2019-04-24 CN CN201910333249.7A patent/CN110096191B/zh active Active
- 2019-12-10 US US16/709,465 patent/US11355109B2/en active Active
-
2020
- 2020-01-08 JP JP2020001206A patent/JP2020181566A/ja active Pending
- 2020-01-09 KR KR1020200003282A patent/KR102381214B1/ko active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105094315A (zh) * | 2015-06-25 | 2015-11-25 | 百度在线网络技术(北京)有限公司 | 基于人工智能的人机智能聊天的方法和装置 |
CN106559321A (zh) * | 2016-12-01 | 2017-04-05 | 竹间智能科技(上海)有限公司 | 动态调整对话策略的方法及系统 |
CN107870994A (zh) * | 2017-10-31 | 2018-04-03 | 北京光年无限科技有限公司 | 用于智能机器人的人机交互方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
US20200342868A1 (en) | 2020-10-29 |
KR102381214B1 (ko) | 2022-04-01 |
CN110096191A (zh) | 2019-08-06 |
KR20200124594A (ko) | 2020-11-03 |
JP2020181566A (ja) | 2020-11-05 |
US11355109B2 (en) | 2022-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110096191B (zh) | 一种人机对话方法、装置及电子设备 | |
CN113647067B (zh) | 跨通信信道维护机器语言模型状态 | |
EP3413540B1 (en) | Integration platform for multi-network integration of service platforms | |
CA2917294C (en) | Intelligent automated agent for a contact center | |
US10171659B2 (en) | Customer portal of an intelligent automated agent for a contact center | |
US20180090141A1 (en) | Conversational interactions using superbots | |
KR20180071312A (ko) | 기계 학습에 기반한 최적화된 컨택 센터 에이전트와의 라우팅 인터랙션 | |
CN107818798A (zh) | 客服服务质量评价方法、装置、设备及存储介质 | |
WO2017023807A1 (en) | Managing dialog data providers | |
US20220366427A1 (en) | Systems and methods relating to artificial intelligence long-tail growth through gig customer service leverage | |
CN116595148B (zh) | 一种利用大型语言模型实现对话流程的方法及系统 | |
CN114722171B (zh) | 多轮对话处理方法、装置、电子设备及存储介质 | |
CN111462726B (zh) | 一种外呼应答方法、装置、设备及介质 | |
CN113782022B (zh) | 基于意图识别模型的通信方法、装置、设备及存储介质 | |
CN118982031B (zh) | 文本处理方法、电子设备及计算机可读存储介质 | |
CN119129646A (zh) | 信息交互方法、装置、电子设备和存储介质 | |
US20240321267A1 (en) | A system and method for delivering domain or use-case switch suggestion for an ongoing conversation | |
CN112559700A (zh) | 一种应答处理方法、智能设备及存储介质 | |
CN113627560B (zh) | 基于持续交互的特征分析方法、装置及介质 | |
CN109726277B (zh) | 一种数据处理方法及装置 | |
CN113688223A (zh) | 一种任务型对话管理方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |