CN109935228B - 身份信息关联系统与方法、计算机存储介质及用户设备 - Google Patents
身份信息关联系统与方法、计算机存储介质及用户设备 Download PDFInfo
- Publication number
- CN109935228B CN109935228B CN201711354200.7A CN201711354200A CN109935228B CN 109935228 B CN109935228 B CN 109935228B CN 201711354200 A CN201711354200 A CN 201711354200A CN 109935228 B CN109935228 B CN 109935228B
- Authority
- CN
- China
- Prior art keywords
- action
- trigger
- sound
- individual
- sounds
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Collating Specific Patterns (AREA)
- Image Analysis (AREA)
- Emergency Alarm Devices (AREA)
Abstract
一种身份信息关联方法,应用于一身份信息关联系统中,该方法包括:识别场景内的个体;记录所述场景内的声音信息;识别所述声音信息中的个体声音;判断一目标个体是否对所述个体声音中一触发声音具有应答动作;记录所述触发声音;及关联所述触发声音与所述目标个体。本发明还揭示了一种实现上述身份信息关联方法的身份信息关联系统、计算机存储介质及用户设备。
Description
技术领域
本发明涉及一种大数据分析技术,尤其涉及一种身份信息关联系统及方法、计算机存储介质及用户设备。
背景技术
目前多数软件都需要用户进行注册,注册时都需要手动输入用户的个人身份信息,特别是用户名,例如办理会员卡、应聘时,需要手动填写个人身份信息表格,甚至需要照片。这种方式需要预先进行记录,在一些特殊场合,如进行一次性会议时,无法预先记录参与者信息。
发明内容
鉴于上述状况,有必要提供一种无需预先注册并可基于用户行为分析的身份信息关联系统及方法、计算机存储介质及用户设备。
一种身份信息关联方法,应用于一身份信息关联装置中,该方法包括:
识别场景内的个体;
记录所述场景内的声音信息;
识别所述声音信息中的个体声音;
判断一目标个体是否对所述个体声音中一触发声音具有应答动作;
记录所述触发声音;及
关联所述触发声音与所述目标个体。
进一步地,
在所述关联所述触发声音与所述目标个体之前,所述方法还包括以下步骤:
分析多个触发声音的语义;及
判断多个触发声音中相同语义的个数是否超过预设个数。
进一步地,所述判断一目标个体是否对所述声音信息中一触发声音具有应答动作包括:
判断所述触发声音后所述目标个体是否有身体动作;
判断所述身体动作幅度是否超过一预定幅度;及
判断多个个体是否同时具有所述身体动作。
进一步地,所述身体动作包括头部动作、脸部动作及手部动作至少其中之一,所述头部动作包括抬头或转头,所述脸部动作包括特定的嘴部动作或眼部动作,所述手部动作包括举手应答动作。
一种身份信息关联系统,包括:
视频监测模组,用以识别场景内的个体;
声音监测模组,用以记录所述场景内的声音信息;
声音识别模组,用以识别所述声音信息中的个体声音;
应答判断模组,用以判断一目标个体是否对所述个体信息中一触发声音具有应答动作;
触发记录模组,用以记录所述触发声音;及
身份关联模组,用以关联所述触发声音与所述目标个体。
进一步地,所述身份信息关联系统还包括语义分析模组、声音转换模组及语义判断模组,所述语音分析模组用以分析多个触发语音的语义,所述语义判断模组还用以判断多个触发声音中相同语义的个数是否超过预设个数;所述声音转换模组用以当多个触发声音中相同语义的个数超过预设个数时将所述触发声音转换为文字关联所述目标个体。
进一步地,所述应答判断模组还用以判断所述触发声音后所述目标个体是否有身体动作、判断所述身体动作幅度是否超过一预定幅度、及判断多个个体是否同时具有所述身体动作。
进一步地,所述身体动作包括头部动作、脸部动作及手部动作至少其中之一,所述头部动作包括抬头或转头,所述脸部动作包括特定的嘴部动作或眼部动作,所述手部动作包括举手应答动作。
一种计算机存储介质,该计算机存储介质存储多条指令,所述多条指令适于由处理器加载并执行上述身份信息关联方法。
一种用户设备,包括:
处理器,用以实现一条或一条以上指令;及
计算机存储介质,用以存储多条指令,所述多条指令适于由处理器加载并执行上述身份信息关联方法。
上述身份信息关联系统及方法,将目标个体与对应的称呼转换的文字进行关联储存,当需要使用用户名等身份信息时,仅需要识别个体特征,例如体征及体态就可以,无需手动进行填写。
附图说明
图1为本发明一实施方式中身份信息关联方法的步骤流程图。
图2为图1中身份信息关联方法的判断目标环境中是否有应答身体动作的步骤流程图。
图3为本发明一实施方式中身份信息关联系统的结构框图。
图4为本发明一实施方式中一用户设备的结构框图。
主要元件符号说明
视频监测模组 | 31 |
声音监测模组 | 32 |
声音识别模组 | 33 |
应答判断模组 | 34 |
触发记录模组 | 35 |
身份关联模组 | 36 |
声音转换模组 | 37 |
语义分析模组 | 38 |
语音判断模组 | 39 |
处理器 | 71 |
计算机存储介质 | 73 |
如下具体实施方式将结合上述附图进一步说明本发明。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,当一个元件被认为是“连接”另一个元件,它可以是直接连接到另一个元件或者可能同时存在居中设置的元件。当一个元件被认为是“设置于”另一个元件,它可以是直接设置在另一个元件上或者可能同时存在居中设置的元件。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。本文所使用的术语“及/或”包括一个或多个相关的所列项目的任意的和所有的组合。
请参阅图1,本发明一实施方式中提供一种身份信息关联方法,可通过对个体的行为分析获取并记录其身份信息。该方法包括以下步骤:
步骤S101:识别场景内的个体。所述场景是固定区活动空间,例如会议室、超市、实验室、教室、餐厅、商场等,通过视频监测装置监测。所述个体可为人体、动物或人造物,如人工智能机器人等。所述视频监测装置为摄像头。视频监测装置可通过体征识别(如脸部识别)及体态识别等方式确定并跟踪每个个体。
步骤S102:记录所述场景内的声音信息。通过声音监测装置来收录目标场景中的声音;在一实施方式中,所述声音监测装置为麦克风。场景中的声音可包括个体所发出的声音及其他声音。
步骤S103:识别所述声音信息中的个体声音。可通过声音频率、结合视频中个体的体态变化如张嘴的动作,或识别语义的方式来识别声音信息中的个体声音。
步骤S104:判断一目标个体是否对所述个体声音中一触发声音具有应答动作,如果是,执行步骤S105,如果否,返回步骤S101。所述应答动作包括头部动作、脸部动作及手部动作至少其中之一,头部动作包括抬头、转头,脸部动作包括特定的嘴部动作、眼部动作,手部动作包括举手应答;所述触发声音包括目标个体的称呼,例如姓名、外号、昵称等。
步骤S105:记录所述触发声音。
步骤S106:分析多个触发声音的语义。
步骤S107:判断多个触发声音中相同语义的个数是否超过预设个数,如果是,执行步骤S108,如果否,返回步骤S104。
步骤S108:关联所述触发声音与所述目标个体。
步骤S109:将所述触发声音转换为文字关联所述目标个体。
将所述触发声音转换为文字与所述目标个体关联后,在需要注册的时候,就可以直接通过体征识别(如脸部识别)或体态识别来注册,不需要手动注册。利用目标个体与关联的文字,数据库中还可以通过大数据分析关联与文字对应的其他个人资料,例如职涯经历、求诊数据、健康情况等。当经过体征识别或体态识别后,就可以知道对应的称呼及相关的个人资料。
请同时参阅图2,步骤S103包括:
步骤S201:判断所述触发声音后所述目标个体是否有身体动作,如果是,执行步骤S202,如果否,仅需执行步骤S201。
步骤S202,判断所述身体动作幅度是否超过一预定幅度,如果是,执行步骤S203,如果否,返回步骤S201。所述身体动作包括头部动作、脸部动作及手部动作至少其中之一,头部动作包括抬头、转头,脸部动作包括特定的嘴部动作、眼部动作,手部动作包括举手应答。
步骤S203:判断多个个体是否同时具有所述身体动作,如果否,执行步骤S204,如果是,返回步骤S201。
步骤S204:记录该身体动作为应答动作。
请参阅图3,本发明一实施方式中的身份信息关联系统包括:
视频监测模组31,用以识别场景内的个体。所述场景是固定区活动空间,例如会议室、超市、实验室、教室、餐厅、商场等。所述个体可为人体、动物或人造物,如人工智能机器人等。所述视频监测装置为摄像头。视频监测模组31可通过体征识别(如脸部识别)及体态识别等方式确定并跟踪每个个体。
声音监测模组32,用以记录所述场景内的声音信息。通过在所述目标场景中装设声音监测装置来收录目标场景中的声音;在一实施方式中,所述声音监测装置为麦克风。场景中的声音可包括个体所发出的声音及其他声音。
声音识别模组33,用以识别所述声音信息中的个体声音。可通过的声音频率、结合视频中个体的体态变化或识别语义的方式,如张嘴的动作来识别声音信息中的个体声音。
应答判断模组34,用以判断一目标个体是否对所述个体声音中一触发声音具有应答动作。所述应答动作包括头部动作、脸部动作及手部动作至少其中之一,头部动作包括抬头、转头,脸部动作包括特定的嘴部动作、眼部动作,手部动作包括举手应答。
所述应答判断模组34通过判断目标场景中是否有身体动作和判断身体动作幅度是否超过一预定幅度及判断多个个体是否同时具有所述身体动作来判断是否应答动作。身体动作包括头部动作、脸部动作及手部动作,头部动作包括抬头、转头,脸部动作包括特定的嘴部动作、眼部动作,手部动作包括举手应答。当身体动作幅度太小或多人都有身体动作时,不被认为是应答动作。
触发记录模组35,用以记录触发应答动作的触发语音。
语义分析模组38,用以分析多个触发声音的语义。
语义判断模组39,用以判断多个触发声音中相同语义的个数是否超过预设个数。所述预设个数大于或等于两个。
身份关联模组36,用以在多个触发声音中相同语义的个数超过预设个数时关联所述触发声音与所述目标个体。
声音转换模组37,用以将触发声音转换为文字关联所述目标个体。
将所述触发声音转换为文字与所述目标个体关联后,在需要注册的时候,就可以直接通过体征识别(如脸部识别)或体态识别来注册,不需要手动注册。利用目标个体与关联的文字,数据库中还可以通过大数据分析关联与文字对应的其他个人资料,例如职涯经历、求诊数据、健康情况等。当经过体征识别或体态识别后,就可以知道对应的称呼及相关的个人资料。
请同时参阅图4,本发明还揭示一种用户设备,该用户设备可包括至少一个处理器(processor)71(图中以一个处理器71为例)以及计算机存储介质(memory)73。处理器71可以调用计算机存储介质73中的逻辑指令,以执行上述实施例中的方法。在一实施方式中,所述用户设备为服务器。
此外,上述的计算机存储介质73中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机存储介质中。
计算机存储介质73可设置为存储软件程序、计算机可执行程序,如本公开实施例中的方法对应的程序指令或模块。处理器71通过运行存储在计算机存储介质73中的软件程序、指令或模块,从而执行功能应用以及数据处理,即实现上述实施例中的方法。
计算机存储介质73可包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据终端设备的使用所创建的数据等。此外,计算机存储介质73可以包括高速随机存取计算机存储介质,还可以包括非易失性计算机存储介质。例如,U盘、移动硬盘、只读计算机存储介质(Read-Only Memory,ROM)、随机存取计算机存储介质(Random Access Memory,RAM)、磁碟或者光盘等多种可以存储程序代码的介质,也可以是暂态存储介质。
所述处理器71加载并执行计算机存储介质73中存放的一条或一条以上指令,以实现上述图1-图2所示方法流程的相应步骤;具体实现中,计算机存储介质中的一条或一条以上指令由处理器加载并执行如下步骤:
步骤S101:识别场景内的个体。所述场景是固定区活动空间,例如会议室、超市、实验室、教室、餐厅、商场等,通过视频监测装置监测。所述个体可为人体、动物或人造物,如人工智能机器人等。所述视频监测装置为摄像头。视频监测装置可通过体征识别(如脸部识别)及体态识别等方式确定并跟踪每个个体。
步骤S102:记录所述场景内的声音信息。通过声音监测装置来收录目标场景中的声音;在一实施方式中,所述声音监测装置为麦克风。场景中的声音可包括个体所发出的声音及其他声音。
步骤S103:识别所述声音信息中的个体声音。可通过的声音频率、结合视频中个体的体态变化或识别语义的方式,如张嘴的动作来识别声音信息中的个体声音。
步骤S104:判断一目标个体是否对所述个体声音中一触发声音具有应答动作,如果是,执行步骤S105,如果否,返回步骤S101。所述应答动作包括头部动作、脸部动作及手部动作至少其中之一,头部动作包括抬头、转头,脸部动作包括特定的嘴部动作、眼部动作,手部动作包括举手应答;所述触发声音包括目标个体的称呼,例如姓名、外号、昵称等。
步骤S105:记录所述触发声音。
步骤S106:分析多个触发声音的语义。
步骤S107:判断多个触发声音中相同语义的个数是否超过预设个数,如果是,执行步骤S108,如果否,返回步骤S104。
步骤S108:关联所述触发声音与所述目标个体。
步骤S109:将所述触发声音转换为文字关联所述目标个体。
将所述触发声音转换为文字与所述目标个体关联后,在需要注册的时候,就可以直接通过体征识别(如脸部识别)或体态识别来注册,不需要手动注册。利用目标个体与关联的文字,数据库中还可以通过大数据分析关联与文字对应的其他个人资料,例如职涯经历、求诊数据、健康情况等。当经过体征识别或体态识别后,就可以知道对应的称呼及相关的个人资料。
步骤S201:判断所述触发声音后所述目标个体是否有身体动作,如果是,执行步骤S202,如果否,仅需执行步骤S201。
步骤S202,判断所述身体动作幅度是否超过一预定幅度,如果是,执行步骤S203,如果否,返回步骤S201。所述身体动作包括头部动作、脸部动作及手部动作至少其中之一,头部动作包括抬头、转头,脸部动作包括特定的嘴部动作、眼部动作,手部动作包括举手应答。
步骤S203:判断多个个体是否同时具有所述身体动作,如果否,执行步骤S204,如果是,返回步骤S201。
步骤S204:记录该身体动作为应答动作。
另外,本领域技术人员还可在本发明精神内做其它变化,当然,这些依据本发明精神所做的变化,都应包含在本发明所要求保护的范围内。
Claims (8)
1.一种身份信息关联方法,其特征在于,该方法包括:
识别场景内的个体;
记录所述场景内的声音信息;
识别所述声音信息中的个体声音;
判断一目标个体是否对所述个体声音中一触发声音具有应答动作;其中,所述判断一目标个体是否对所述个体声音中一触发声音具有应答动作包括判断所述触发声音后所述目标个体是否有身体动作;若是,判断所述身体动作幅度是否超过一预定幅度;若是,判断多个个体是否同时具有所述身体动作;若否,记录该身体动作为应答动作;
若是,记录所述触发声音;及
关联所述触发声音与所述目标个体。
2.如权利要求1所述的身份信息关联方法,其特征在于:在所述关联所述触发声音与所述目标个体之前,所述方法还包括以下步骤:
分析多个触发声音的语义;及
判断多个触发声音中相同语义的个数是否超过预设个数,以在多个触发声音中相同语义的个数超过预设个数时,关联所述触发声音与所述目标个体。
3.如权利要求1所述的身份信息关联方法,其特征在于:所述身体动作包括头部动作、脸部动作及手部动作至少其中之一,所述头部动作包括抬头或转头,所述脸部动作包括特定的嘴部动作或眼部动作,所述手部动作包括举手应答动作。
4.一种身份信息关联系统,其特征在于,该系统包括:
视频监测模组,用以识别场景内的个体;
声音监测模组,用以记录所述场景内的声音信息;
声音识别模组,用以识别所述声音信息中的个体声音;
应答判断模组,用以判断一目标个体是否对所述个体声音中一触发声音具有应答动作;其中,所述应答判断模组还用以判断所述触发声音后所述目标个体是否有身体动作,若是,判断所述身体动作幅度是否超过一预定幅度,若是,判断多个个体是否同时具有所述身体动作,若否,记录该身体动作为应答动作;
触发记录模组,用以在判断一目标个体对所述个体声音中一触发声音具有应答动作时,记录所述触发声音;及
身份关联模组,用以关联所述触发声音与所述目标个体。
5.如权利要求4所述的身份信息关联系统,其特征在于:所述身份信息关联系统还包括语义分析模组、声音转换模组及语义判断模组,所述语义分析模组用以分析多个触发语音的语义,所述语义判断模组还用以判断多个触发声音中相同语义的个数是否超过预设个数;所述声音转换模组用以当多个触发声音中相同语义的个数超过预设个数时将所述触发声音转换为文字关联所述目标个体。
6.如权利要求4所述的身份信息关联系统,其特征在于:所述身体动作包括头部动作、脸部动作及手部动作至少其中之一,所述头部动作包括抬头或转头,所述脸部动作包括特定的嘴部动作或眼部动作,所述手部动作包括举手应答动作。
7.一种计算机存储介质,其特征在于:该计算机存储介质存储多条指令,所述多条指令适于由处理器加载并执行如权利要求1-3任一项所述的身份信息关联方法。
8.一种用户设备,其特征在于,包括:
处理器,用以实现一条或一条以上指令;及
计算机存储介质,用以存储多条指令,所述多条指令适于由处理器加载并执行如权利要求1-3任一项所述的身份信息关联方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711354200.7A CN109935228B (zh) | 2017-12-15 | 2017-12-15 | 身份信息关联系统与方法、计算机存储介质及用户设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711354200.7A CN109935228B (zh) | 2017-12-15 | 2017-12-15 | 身份信息关联系统与方法、计算机存储介质及用户设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109935228A CN109935228A (zh) | 2019-06-25 |
CN109935228B true CN109935228B (zh) | 2021-06-22 |
Family
ID=66980742
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711354200.7A Active CN109935228B (zh) | 2017-12-15 | 2017-12-15 | 身份信息关联系统与方法、计算机存储介质及用户设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109935228B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0343656A2 (en) * | 1988-05-27 | 1989-11-29 | Kyowa Metal Works Co., Ltd. | Vibration free handle |
JP2002018147A (ja) * | 2000-07-11 | 2002-01-22 | Omron Corp | 自動応答機器 |
CN103488073A (zh) * | 2013-09-29 | 2014-01-01 | 陕西科技大学 | 一种音乐运动手表 |
CN205584578U (zh) * | 2015-11-25 | 2016-09-14 | 惠阳帝宇工业有限公司 | 一种全自动的红外线无线照明控制系统 |
CN107466389A (zh) * | 2015-04-30 | 2017-12-12 | 谷歌公司 | 类型不可知的rf信号表示 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8140340B2 (en) * | 2008-01-18 | 2012-03-20 | International Business Machines Corporation | Using voice biometrics across virtual environments in association with an avatar's movements |
US8847881B2 (en) * | 2011-11-18 | 2014-09-30 | Sony Corporation | Gesture and voice recognition for control of a device |
US9536528B2 (en) * | 2012-07-03 | 2017-01-03 | Google Inc. | Determining hotword suitability |
TW201409351A (zh) * | 2012-08-16 | 2014-03-01 | Hon Hai Prec Ind Co Ltd | 利用語音控制的電子裝置及其語音控制方法 |
US9020194B2 (en) * | 2013-06-14 | 2015-04-28 | Qualcomm Incorporated | Systems and methods for performing a device action based on a detected gesture |
IN2014DE00332A (zh) * | 2014-02-05 | 2015-08-07 | Nitin Vats | |
US20160103655A1 (en) * | 2014-10-08 | 2016-04-14 | Microsoft Corporation | Co-Verbal Interactions With Speech Reference Point |
US10192549B2 (en) * | 2014-11-28 | 2019-01-29 | Microsoft Technology Licensing, Llc | Extending digital personal assistant action providers |
JP2017049471A (ja) * | 2015-09-03 | 2017-03-09 | カシオ計算機株式会社 | 対話制御装置、対話制御方法及びプログラム |
CN105845144A (zh) * | 2016-03-21 | 2016-08-10 | 陈宁 | 一种实现动物声音与形态翻译功能的智能健康管理系统 |
CN206441536U (zh) * | 2016-10-10 | 2017-08-25 | 德尔福电子(苏州)有限公司 | 一种基于人脸识别的主动语音助手 |
CN106528859A (zh) * | 2016-11-30 | 2017-03-22 | 英华达(南京)科技有限公司 | 一种数据推送系统及方法 |
-
2017
- 2017-12-15 CN CN201711354200.7A patent/CN109935228B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0343656A2 (en) * | 1988-05-27 | 1989-11-29 | Kyowa Metal Works Co., Ltd. | Vibration free handle |
JP2002018147A (ja) * | 2000-07-11 | 2002-01-22 | Omron Corp | 自動応答機器 |
CN103488073A (zh) * | 2013-09-29 | 2014-01-01 | 陕西科技大学 | 一种音乐运动手表 |
CN107466389A (zh) * | 2015-04-30 | 2017-12-12 | 谷歌公司 | 类型不可知的rf信号表示 |
CN205584578U (zh) * | 2015-11-25 | 2016-09-14 | 惠阳帝宇工业有限公司 | 一种全自动的红外线无线照明控制系统 |
Also Published As
Publication number | Publication date |
---|---|
CN109935228A (zh) | 2019-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Bogomolov et al. | Daily stress recognition from mobile phone data, weather conditions and individual traits | |
Albertson et al. | Did that scare you? Tips on creating emotion in experimental subjects | |
KR20220123153A (ko) | 키 문구 사용자 인식의 증강 | |
CN106113054B (zh) | 基于机器人的服务处理方法 | |
CN114490975B (zh) | 用户问题的标注方法及装置 | |
Miksik et al. | Building proactive voice assistants: When and how (not) to interact | |
US10836044B2 (en) | Robot control device and robot control method | |
Djupe et al. | The prosperity gospel of coronavirus response | |
CN112883932A (zh) | 员工异常行为检测方法、装置及系统 | |
US9778734B2 (en) | Memory aid method using audio/video data | |
CN104951807A (zh) | 股市情绪的确定方法和装置 | |
US20230011923A1 (en) | System for providing a virtual focus group facility | |
CN109935228B (zh) | 身份信息关联系统与方法、计算机存储介质及用户设备 | |
KR101738057B1 (ko) | 사회감성 네트워크 구축 시스템 및 그 방법 | |
TWI661329B (zh) | 身份資訊關聯系統與方法、電腦存儲介質及使用者設備 | |
CN110674270B (zh) | 基于人工智能的幽默生成与情感交互方法及机器人系统 | |
Wilks | Is a Companion a distinctive kind of relationship with a machine? | |
CN112685551A (zh) | 语料库构建方法、聊天机器人会话方法及相关装置 | |
Sun et al. | Automatic inference of mental states from spontaneous facial expressions | |
CN112884158A (zh) | 一种机器学习程序的训练方法、装置及设备 | |
US20220122017A1 (en) | System and method for accelerating and optimizing learning retention and behavior change | |
KR101997161B1 (ko) | 물리적 공간의 센서 데이터와 온라인 메신저 사용 데이터를 이용한 사용자 퍼소나 분류 방법 및 장치 | |
CN115206328A (zh) | 数据处理方法、装置和客服机器人 | |
Alashti et al. | Human activity recognition in RoboCup@ home: Inspiration from online benchmarks | |
CN111144735B (zh) | 一种数据处理方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |