[go: up one dir, main page]

CN111145871A - 情绪干预方法、装置和系统,以及计算机可读存储介质 - Google Patents

情绪干预方法、装置和系统,以及计算机可读存储介质 Download PDF

Info

Publication number
CN111145871A
CN111145871A CN201811303279.5A CN201811303279A CN111145871A CN 111145871 A CN111145871 A CN 111145871A CN 201811303279 A CN201811303279 A CN 201811303279A CN 111145871 A CN111145871 A CN 111145871A
Authority
CN
China
Prior art keywords
emotional
user
intervention
emotional intervention
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811303279.5A
Other languages
English (en)
Inventor
朱红文
徐志红
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BOE Technology Group Co Ltd
Original Assignee
BOE Technology Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BOE Technology Group Co Ltd filed Critical BOE Technology Group Co Ltd
Priority to CN201811303279.5A priority Critical patent/CN111145871A/zh
Priority to PCT/CN2019/104911 priority patent/WO2020088102A1/zh
Priority to US16/758,743 priority patent/US11617526B2/en
Publication of CN111145871A publication Critical patent/CN111145871A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/486Biofeedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/242Dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/772Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Public Health (AREA)
  • Psychiatry (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Developmental Disabilities (AREA)
  • Child & Adolescent Psychology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Evolutionary Computation (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Educational Technology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Data Mining & Analysis (AREA)

Abstract

本公开涉及一种情绪干预方法、装置和系统,以及计算机可读存储介质。情绪干预方法包括:根据用户的第一生物特征信息,识别所述用户的情绪状态;推荐与所述情绪状态对应的至少一种情绪干预方式。

Description

情绪干预方法、装置和系统,以及计算机可读存储介质
技术领域
本公开涉及计算机技术领域,特别涉及一种情绪干预方法、装置和系统,以及计算机可读存储介质。
背景技术
人类情感在人们的社会交往中发挥着重要作用。随着人机交互技术的快速发展,情感计算成为人工智能的重要研究领域之一。
发明内容
本公开提出一种基于情绪识别进行情绪干预的方案。
根据本公开实施例的第一方面,提供了一种情绪干预方法,包括:根据用户的第一生物特征信息,识别所述用户的情绪状态;推荐与所述情绪状态对应的至少一种情绪干预方式。
在一些实施例中,根据所述用户的第二生物特征信息,推荐与所述情绪状态对应的至少一种情绪干预方式。
在一些实施例中,推荐与所述情绪状态对应的至少一种情绪干预方式包括:根据所述用户的第二生物特征信息,识别所述用户的身体状态;根据所述用户的身体状态,推荐与所述情绪状态对应的至少一种情绪干预方式。
在一些实施例中,所述情绪干预方式包括输出媒体数据和进行理疗中的至少一种。
在一些实施例中,识别所述用户的情绪状态包括:实时获取所述用户的第一生物特征信息;根据实时获取的所述第一生物特征信息,确定所述用户的实时情绪状态;统计所述用户的各实时情绪状态在单位时间内的占比;将占比最大的实时情绪状态识别为所述用户在该单位时间内的情绪状态。
在一些实施例中,获取所述用户的第一生物特征信息包括:获取所述用户的图像;从所述图像中识别所述用户的脸部;根据所述脸部的特征,识别所述用户的脸部表情;将识别的脸部表情作为所述第一生物特征信息。
在一些实施例中,推荐与所述情绪状态对应的至少一种情绪干预方式包括:根据所述用户的情绪状态,获取对应的情绪干预数据,所述干预数据包括理疗建议和媒体数据中的至少一种;基于获取的情绪干预数据,推荐与所述情绪状态对应的至少一种情绪干预方式。
在一些实施例中,所述情绪干预方法还包括:对获取的情绪干预数据进行标注;删除与情绪干预目标不匹配的情绪干预数据;利用剩下的情绪干预数据构建情绪干预知识库。
在一些实施例中,通过文本相似度匹配算法来获取所述情绪干预数据。
在一些实施例中,通过文本相似度匹配算法来获取所述情绪干预数据包括:获取与情绪干预目标对应的关键词字典,所述关键词字典包括w个关键词,w为正整数;比较所述关键词字典与待比对文本之间的文本相似度;将文本相似度超过阈值的文本所对应的媒体数据,确定为所述情绪干预数据。
在一些实施例中,比较所述关键词字典与待比对文本之间的文本相似度包括:对所述关键词字典中的关键词、待比对文本中的关键词分别进行权值标记,所述权值反映关键词的重要程度,所述关键词字典中的关键词具有n种权值,n为正整数;将所述关键词字典和待比对文本中权值相同的关键词进行与操作,得到n个关键词集合,n个关键词集合中共包括a个关键词,a为整数;计算a与w的比值,得到待比对文本与所述关键词字典的文本相似度。
在一些实施例中,利用所述关键词字典中的关键词进行搜索,得到待比对文本。
在一些实施例中,所述第一生物特征信息包括脸部表情、声音中的至少一种;所述第二生物特征信息包括身高、体重、健康状况中的至少一种。
根据本公开实施例的第二方面,提供了一种情绪干预装置,包括:识别单元,被配置为根据用户的第一生物特征信息,识别所述用户的情绪状态;推荐单元,被配置为推荐与所述情绪状态对应的至少一种情绪干预方式。
根据本公开实施例的第三方面,提供了一种情绪干预装置,包括:存储器;和耦接至所述存储器的处理器,所述处理器被配置为基于存储在所述存储器中的指令,执行如前述任一实施例所述的情绪干预方法。
根据本公开实施例的第四方面,提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如前述任一实施例所述的情绪干预方法。
根据本公开实施例的第五方面,提供了一种情绪干预系统,包括前述任一实施例的情绪干预装置。
在一些实施例中,所述情绪干预系统还包括理疗设备、显示器和播放器中的至少一种,其中:所述理疗设备被配置为在推荐的情绪干预方式中包括进行理疗的情况下,对用户进行理疗;所述显示器、所述播放器被配置为在推荐的情绪干预方式包括输出媒体数据的情况下,输出媒体数据。
在一些实施例中,所述情绪干预系统还包括图像传感器、声音传感器、测量设备、输入设备中的至少一个,其中:所述图像传感器、所述声音传感器被配置为获取用户的第一生物特征信息;所述测量设备、所述输入设备被配置为获取用户的第二生物特征信息。
在一些实施例中,所述理疗设备包括按摩椅。
通过以下参照附图对本公开的示例性实施例的详细描述,本公开的其它特征及其优点将会变得清楚。
附图说明
构成说明书的一部分的附图描述了本公开的实施例,并且连同说明书一起用于解释本公开的原理。
参照附图,根据下面的详细描述,可以更加清楚地理解本公开,其中:
图1是示出根据本公开一些实施例的情绪干预方法的流程图;
图2是示出根据本公开一些实施例的情绪识别方法的流程图;
图3是示出根据本公开一些实施例的文本相似度匹配算法的流程图;
图4是示出根据本公开一些实施例的文本相似度比较方法的流程图;
图5是示出根据本公开一些实施例的情绪干预知识库构建方法的流程图;
图6是示出根据本公开一些实施例的情绪干预装置的框图;
图7是示出根据本公开另一些实施例的情绪干预装置的框图;
图8是示出根据本公开一些实施例的情绪干预系统的框图;
图9是示出根据本公开一些实施例的按摩椅的结构示意图;
图10是示出用于实现本公开一些实施例的计算机系统的框图。
应当明白,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。此外,相同或类似的参考标号表示相同或类似的构件。
具体实施方式
现在将参照附图来详细描述本公开的各种示例性实施例。对示例性实施例的描述仅仅是说明性的,决不作为对本公开及其应用或使用的任何限制。本公开可以以许多不同的形式实现,不限于这里所述的实施例。提供这些实施例是为了使本公开透彻且完整,并且向本领域技术人员充分表达本公开的范围。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置应被解释为仅仅是示例性的,而不是作为限制。
本公开使用的所有术语(包括技术术语或者科学术语)与本公开所属领域的普通技术人员理解的含义相同,除非另外特别定义。还应当理解,在诸如通用字典中定义的术语应当被解释为具有与它们在相关技术的上下文中的含义相一致的含义,而不应用理想化或极度形式化的意义来解释,除非这里明确地这样定义。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
图1是示出根据本公开一些实施例的情绪干预方法的流程图。如图1所示,情绪干预方法包括步骤S2和S4。
在步骤S2,根据用户的第一生物特征信息,识别所述用户的情绪状态。
第一生物特征信息包括例如脸部表情、声音等能够反映情绪状态的信息。情绪状态包括但不限于:中性、高兴、悲伤、生气、轻蔑、厌恶、吃惊、害怕。
图2示出根据本公开一些实施例的情绪识别方法的框图。如图2所示,情绪识别方法包括步骤S21-S24。
在步骤S21,实时获取用户的第一生物特征信息。
在一些实施例中,根据相机等图像传感器拍摄的用户的图像,获取第一生物特征信息。例如,从用户的图像中识别脸部,并基于脸部特征与表情的相关性,识别用户的脸部表情,作为第一生物特征信息。在另一些实施例中,也可以通过麦克风等声音传感器来感测用户的声音,作为第一生物特征信息。
在步骤S22,根据实时获取的第一生物特征信息,确定用户的实时情绪状态。
基于脸部表情、声音等生物特征信息与情绪的相关性,可以根据实时获取的信息确定用户的实时情绪状态。例如,可以通过预先构建的情绪识别模型,将不同的生物特征分类到相应的情绪状态,来建立生物特征与情绪状态的相关性。
在步骤S23,统计用户的各实时情绪状态在单位时间内的占比。
在一些实施例中,根据各实时情绪状态在单位时间的出现次数,统计用户的各实时情绪状态在该单位时间内的占比。例如,以2秒为一个单位时间,可能出现的实时情绪状态有8种,将不同的实时情绪状态在单位时间内的出现次数分别记为ni,1≤i≤8,则实时情绪状态的总出现次数记为
Figure BDA0001852929300000061
各实时情绪状态的占比分别为
Figure BDA0001852929300000062
设在2秒的单位时间内,仅出现生气和平静2种实时情绪状态。以每0.2秒获取1次信息为例,统计结果可以为:在2秒内生气出现7次,平静出现3次,则可有n1=7,n2=3,N=10,P1=0.7,P2=0.3。
在步骤S24,将占比最大的实时情绪状态识别为用户在该单位时间内的情绪状态。在上述示例中,将占比为0.7的生气识别为用户在该0.2秒的单位时间内的情绪状态。
下面返回图1描述在识别出用户的情绪状态后,如何推荐对应的情绪干预方式。
在步骤S4,推荐与所述用户的情绪状态对应的至少一种情绪干预方式。
在一些实施例中,根据用户的情绪状态,获取对应的情绪干预数据;基于获取的情绪干预数据,推荐与情绪状态对应的至少一种情绪干预方式。
情绪干预方式可以包括:输出媒体数据和进行理疗中的至少一种。相应地,情绪干预数据可以包括理疗建议和媒体数据中的至少一种。理疗可以涉及不同部位,例如眼部理疗、头部理疗、肩部理疗、颈部理疗、腿部理疗。理疗的方式例如包括按摩、光疗、磁疗等。媒体数据包括能够对用户进行情绪干预的图片、音频和视频等。情绪干预数据从形式上可以包括图片、文字、音频、视频等。
在一些实施例中,通过文本相似度匹配算法来获取情绪干预数据。下面将结合图3来描述根据本公开一些实施例的文本相似度匹配算法。图3示出根据本公开一些实施例的文本相似度匹配算法的流程图。如图3所示,文本相似度匹配算法包括步骤S41-S43。
在步骤S41,获取与情绪干预目标对应的关键词字典。
情绪干预目标为例如缓解用户的情绪。以用户的情绪被识别为生气为例,情绪干预目标即缓解生气情绪。与缓解生气情绪对应的关键词字典包括w个关键词,w为正整数。在关键词为例如舒缓、平静、欢快时,w为3。
在一些实施例中,也可以对这些关键词进行相似词扩充。例如,采用语意相似度匹配算法搜索欢快的相似词,得到欢乐、愉快,则扩充后的关键词字典包括舒缓、平静、欢快、欢乐、愉快。
在步骤S42,比较所述关键词字典与待比对文本之间的文本相似度。
待比对文本是一些词语的集合,例如为图片、音乐、视频等的文字说明或文章。例如,待比对文本包括“这首音乐欢快、活泼,令人愉快”。可以从网络上直接爬取待比对文本。也可以利用关键词字典中的关键词进行搜索,得到待比对文本。
为了便于计算机实现比较,可以利用稀疏算法将关键词字典与待比对文本转化为二进制编码,例如“01000001”。编码的长度及数值取决于具体的稀疏算法。
图4示出根据本公开一些实施例的文本相似度比较方法的流程图。如图4所示,文本相似度比较方法包括步骤S421-S423。
在步骤S421,对关键词字典中的关键词、待比对文本中的关键词分别进行权值标记。权值反映关键词的重要程度。关键词字典中的关键词具有n种权值,n为正整数。
仍以关键词字典包括舒缓、平静、欢快、欢乐、愉快等关键词为例,可将舒缓、平静的权值均标记为4,而将欢快、欢乐、愉快的权值均标记为3,则关键词字典中具有2种权值,即n=2。类似地,在包括“这首音乐欢快、活泼,令人愉快”的待比对文本中,这首、音乐、欢快、活泼、令人、愉快等关键词的权值可分别标记为1、2、3、3、1、3。
在步骤S422,将所述关键词字典和待比对文本中权值相同的关键词进行与操作,得到n个关键词集合。n个关键词集合中共包括a个关键词,a为整数。
在一些实施例中,在待比对文本中搜索与关键词字典中权值相同的关键词。在上述的示例中,搜索到的权值相同的关键词有欢快、活泼、令人愉快。将这些权值相同的关键词进行与操作,可以得到1个包括欢快、愉快的关键词集合,即n=1。
由于前面对关键词字典进行了相似词的扩充,相应地,在步骤S422中得到的关键词集合中可删除相似词。即可以从关键词集合中删除愉快,由此得到a=1。
在步骤S423,计算a与w的比值,得到待比对文本与所述关键词字典的文本相似度。
根据前面的分析,可以计算出a/w=1/3。在一些实施例中,可以将a与w的比值作为待比对文本与关键词字典的文本相似度。不同的关键词字典有不同的w值。若关键词字典中不包括舒缓,则可得到w=2。相应地,可以得到待比对文本与关键词字典的文本相似度为1/2。
下面返回图3描述在得到用户的待比对文本与关键词字典的文本相似度后,如何确定情绪干预数据。
在步骤S43,将文本相似度超过阈值的文本所对应的媒体数据,确定为所述情绪干预数据。
根据实际情况可以设置不同的阈值。设阈值为45%,对于上面的示例,对w=2的情况,得到的相似度为50%,则可将待比对文本对应的媒体数据(如音乐)确定为情绪干预数据;而对w=3的情况,得到的相似度为约33%,则不将待比对文本对应的媒体数据确定为情绪干预数据。
下面结合具体示例来描述在获取了情绪干预数据后,如何推荐情绪干预方式。
以用户的情绪状态被识别为悲伤为例,可以有多种情绪干预方式。例如,可以向用户推荐播放欢快的音乐或积极的图片来调动用户的情绪。也可以根据情绪状态与理疗方式的相关性,来推荐进行相应的理疗。例如,按摩相关穴位,可有效缓解悲伤情绪。当然,也可以同时推荐多种情绪干预方式,以提升干预效果。
在推荐情绪干预方式时,还可以考虑用户的第二生物特征信息。第二生物特征信息包括身高、体重、健康状况等反映身体状态的信息。第二生物特征信息可以通过问询等方式获取。对于身高、体重等信息,也可以通过相应的测量来获取。
在一些实施例中,根据用户的第二生物特征信息,识别用户的身体状态;根据用户的身体状态,推荐与情绪状态对应的至少一种情绪干预方式。这样推荐的情绪干预方式兼顾了用户的身体状态,能够更有效地干预用户的情绪。
仍以用户的情绪状态被识别为悲伤为例,可以向用户推荐欢快的音乐或积极的图片来调动用户的情绪。但是,在用户的眼睛不适的情况下,推荐欢快的音乐就比推荐积极的图片更容易被用户接受。因此,考虑用户的身体状态来推荐情绪干预方式,将使得情绪干预更有效。
在一些实施例中,根据用户的身体状态,推荐相应的理疗方式。仍以用户的情绪状态被识别为悲伤、但眼睛不适的情况为例,可以向用户推荐例如眼部按摩的眼部理疗。这是因为用户的悲伤情绪有可能由眼部不适引起,缓解了眼部不适就可以有效减轻用户的悲伤情绪。
如前所述,也可以同时推荐多种干预方式来干预用户的情绪。例如,在向用户推荐眼部按摩的同时,推荐欢快的音乐。一方面,缓解了眼部不适就可以有效减轻用户的悲伤情绪;另一方面欢快的音乐本身也可以缓解用户的悲伤情绪。这样,情绪干预更加有效。
在获取了情绪干预数据后,除了进行情绪干预方式的推荐,还可以利用获取的情绪干预数据构建情绪干预知识库。
图5示出根据本公开一些实施例的情绪干预知识库构建方法的流程图。如图5所示,情绪干预知识库构建方法包括步骤S51-S53。
在步骤S51,对获取的情绪干预数据进行标注。例如,在识别用户的情绪为生气时,情绪干预目标可为稳定情绪,例如可以搜索宁静的图片、文字、音频或视频,相应搜索的数据可标注为稳定情绪。当然,也可以对输入的情绪干预数据进行标注。
在步骤S52,删除与情绪干预目标不匹配的情绪干预数据。
获取的情绪干预数据中可能包括与情绪干预目标不匹配的数据,例如,这些数据无法稳定情绪。因此,可以删除这些与情绪干预目标不匹配的数据。
在步骤S53,利用剩下的情绪干预数据构建情绪干预知识库。情绪干预知识库包括但不限于:图片知识库、音乐知识库、视频知识库、理疗方式知识库。
在一些实施例中,在识别用户的情绪状态后,直接在构建好的情绪干预知识库中搜索情绪干预数据。基于这样的情绪干预数据,推荐情绪的干预方式更高效。
图6是示出根据本公开一些实施例的情绪干预装置的框图。如图6所示,情绪干预装置60包括:识别单元620和推荐单元640。
识别单元620被配置为,例如可以执行如图1所示的步骤S2。如前所述,可以通过图像传感器来获取用户的脸部表情,再根据脸部表情与情绪状态的相关性,来识别用户的情绪状态。
推荐单元640被配置为,例如可以执行如图1所示的步骤S4。如前所述,可以基于用户的情绪状态来获取对应的情绪干预数据,再从中选择与情绪状态对应的至少一种情绪干预方式。在一些实施例中,综合考虑用户的情绪状态和身体状态来推荐情绪干预方式。
图7是示出根据本公开另一些实施例的情绪干预装置的框图。
如图7所示,情绪干预装置70包括:存储器710以及耦接至该存储器710的处理器720。存储器710用于存储执行情绪干预方法对应实施例的指令。处理器720被配置为基于存储在存储器710中的指令,执行本公开中任意一些实施例中的情绪干预方法。
应当理解,前述情绪干预方法中的各个步骤都可以通过处理器来实现,并且可以软件、硬件、固件或其结合的任一种方式实现。
除了情绪干预方法、装置之外,本公开实施例还可采用在一个或多个包含有计算机程序指令的非易失性存储介质上实施的计算机程序产品的形式。因此,本公开实施例还提供一种计算机可读存储介质,其上存储有计算机指令,该指令被处理器执行时实现前述任意实施例中的情绪干预方法。
本公开实施例还提供一种情绪干预系统,包括前述任一实施例所述的情绪干预装置。
图8是示出根据本公开一些实施例的情绪干预系统的框图。
如图8所示,情绪干预系统8包括情绪干预装置80。情绪干预装置80被配置为执行前述任一实施例所述的情绪干预方法。情绪干预装置80的结构可以类似与前述的情绪干预装置60或70。
在一些实施例中,情绪干预系统8还包括:图像传感器811、声音传感器812、测量设备813、输入设备814中的至少一个。
图像传感器811被配置为获取用户的第一生物特征信息。例如,通过相机等拍摄用户的图像。如前所述,对用户的图像进行脸部特征的分析,可获取用户的脸部表情,作为用户的第一生物特征信息。
在一些实施例中,图像传感器811也可以被配置为获取用户的第二生物特征信息。例如,可以根据用户的全身图像、该图像中的参照物的尺寸来计算用户的身高,作为用户的第二生物特征信息。
声音传感器812被配置为获取用户的第一生物特征信息。例如,通过麦克风等感测用户的声音,作为用户的第一生物特征信息。
测量设备813被配置为获取用户的第二生物特征信息。例如,可以通过刻度尺来测量用户的身高、通过体重秤测量用户的体重。
输入设备814被配置为获取用户的第二生物特征信息。如前所述,可以问询方式获取用户的第二生物特征信息。即,用户可以通过文字等方式输入身高、体重、健康状况等第二生物特征信息。在一些实施例中,用户也可以通过输入设备直接输入对自身的情绪感知。在一些实施例中,还可以通过输入用户的医疗病例等获取用户更为详尽、准确的第二生物特征信息。
在另一些实施例中,情绪干预系统8还包括显示器821、播放器822、理疗设备823中的至少一种。
显示器821、播放器822被配置为在推荐的情绪干预方式包括输出媒体数据的情况下,输出媒体数据。
显示器822也可以被配置为显示用户输入的文字或图片等数据。在一些实施例中,显示器包括液晶显示器或OLED(OrganicLight-Emitting Diode,有机发光二极管)显示器。显示器可以为:手机、平板电脑、电视机、笔记本电脑、数码相框、导航仪等任何具有显示功能的产品或部件。播放器823也可以被配置为播放用户输入的语音。播放器例如为音箱或耳机。
理疗设备823被配置为在推荐的情绪干预方式中包括进行理疗的情况下,对用户进行理疗。根据推荐的理疗方式的不同,例如按摩、光疗、磁疗等,可以采用不同的理疗设备。可以通过无线蓝牙连接的方式或有线连接的方式启动理疗设备。
在一些实施例中,理疗设备是按摩椅。图9示出本公开一些实施例的按摩椅的结构示意图。
如图9所示,按摩椅923上搭载了图像传感器911,例如摄像头。按摩椅923上还搭载了播放器922,例如音响或耳机。在一些实施例中,按摩椅上可以搭载声音传感器,例如麦克风。用户也可以通过麦克风输入语音信息。按摩椅上还可以设置测量设备,例如用来测量身高的刻度尺。
如图9所示,按摩椅923上还设置有调节开关923S,用于调节按摩椅的角度、按摩椅的按摩力度、拉伸力度等。
可以在多种场所安装本公开实施例提供的情绪干预系统,例如安装于诊所、商场等场合的开放式、半开放式或封闭式环境中。例如可以安装于带有门的封闭式房间内,以便进一步的控制环境的温度、负氧离子含量等。
图10是示出用于实现本公开一些实施例的计算机系统的框图。
如图10所示,计算机系统可以通用计算设备的形式表现。计算机系统包括存储器1010、处理器1020和连接不同系统组件的总线1000。
存储器1010例如可以包括系统存储器、非易失性存储介质等。系统存储器例如存储有操作系统、应用程序、引导装载程序(BootLoader)以及其他程序等。系统存储器可以包括易失性存储介质,例如随机存取存储器(RAM)和/或高速缓存存储器。非易失性存储介质例如存储有执行显示方法的对应实施例的指令。非易失性存储介质包括但不限于磁盘存储器、光学存储器、闪存等。
处理器1020可以用中央处理器(CPU)、数字信号处理器(DSP)、应用专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其它可编程逻辑设备、分立门或晶体管等分立硬件组件方式来实现。相应地,诸如判断模块和确定模块的每个模块,可以通过中央处理器(CPU)运行存储器中执行相应步骤的指令来实现,也可以通过执行相应步骤的专用电路来实现。
总线1000可以使用多种总线结构中的任意总线结构。例如,总线结构包括但不限于工业标准体系结构(ISA)总线、微通道体系结构(MCA)总线、外围组件互连(PCI)总线。
计算机系统还可以包括输入输出接口1030、网络接口1040、存储接口1050等。这些接口1030、1040、1050以及存储器1010和处理器1020之间可以通过总线1000连接。输入输出接口1030可以为显示器、鼠标、键盘等输入输出设备提供连接接口。网络接口1040为各种联网设备提供连接接口。存储接口1040为软盘、U盘、SD卡等外部存储设备提供连接接口。
至此,已经详细描述了本公开的各种实施例。为了避免遮蔽本公开的构思,没有描述本领域所公知的一些细节。本领域技术人员根据上面的描述,完全可以明白如何实施这里公开的技术方案。
虽然已经通过示例对本公开的一些特定实施例进行了详细说明,但是本领域的技术人员应该理解,以上示例仅是为了进行说明,而不是为了限制本公开的范围。本领域的技术人员应该理解,可在不脱离本公开的范围和精神的情况下,对以上实施例进行修改或者对部分技术特征进行等同替换。本公开的范围由所附权利要求来限定。

Claims (20)

1.一种情绪干预方法,包括:
根据用户的第一生物特征信息,识别所述用户的情绪状态;
推荐与所述情绪状态对应的至少一种情绪干预方式。
2.根据权利要求1所述的情绪干预方法,其中,根据所述用户的第二生物特征信息,推荐与所述情绪状态对应的至少一种情绪干预方式。
3.根据权利要求2所述的情绪干预方法,其中,推荐与所述情绪状态对应的至少一种情绪干预方式包括:
根据所述用户的第二生物特征信息,识别所述用户的身体状态;
根据所述用户的身体状态,推荐与所述情绪状态对应的至少一种情绪干预方式。
4.根据权利要求1所述的情绪干预方法,其中,所述情绪干预方式包括输出媒体数据和进行理疗中的至少一种。
5.根据权利要求1所述的情绪干预方法,其中,识别所述用户的情绪状态包括:
实时获取所述用户的第一生物特征信息;
根据实时获取的所述第一生物特征信息,确定所述用户的实时情绪状态;
统计所述用户的各实时情绪状态在单位时间内的占比;
将占比最大的实时情绪状态识别为所述用户在该单位时间内的情绪状态。
6.根据权利要求5所述的情绪干预方法,其中,获取所述用户的第一生物特征信息包括:
获取所述用户的图像;
从所述图像中识别所述用户的脸部;
根据所述脸部的特征,识别所述用户的脸部表情;
将识别的脸部表情作为所述第一生物特征信息。
7.根据权利要求1所述的情绪干预方法,其中,推荐与所述情绪状态对应的至少一种情绪干预方式包括:
根据所述用户的情绪状态,获取对应的情绪干预数据,所述干预数据包括理疗建议和媒体数据中的至少一种;
基于获取的情绪干预数据,推荐与所述情绪状态对应的至少一种情绪干预方式。
8.根据权利要求7所述的情绪干预方法,还包括:
对获取的情绪干预数据进行标注;
删除与情绪干预目标不匹配的情绪干预数据;
利用剩下的情绪干预数据构建情绪干预知识库。
9.根据权利要求7所述的情绪干预方法,其中,通过文本相似度匹配算法来获取所述情绪干预数据。
10.根据权利要求9所述的情绪干预方法,其中,通过文本相似度匹配算法来获取所述情绪干预数据包括:
获取与情绪干预目标对应的关键词字典,所述关键词字典包括w个关键词,w为正整数;
比较所述关键词字典与待比对文本之间的文本相似度;
将文本相似度超过阈值的文本所对应的媒体数据,确定为所述情绪干预数据。
11.根据权利要求10所述的情绪干预方法,其中,比较所述关键词字典与待比对文本之间的文本相似度包括:
对所述关键词字典中的关键词、待比对文本中的关键词分别进行权值标记,所述权值反映关键词的重要程度,所述关键词字典中的关键词具有n种权值,n为正整数;
将所述关键词字典和待比对文本中权值相同的关键词进行与操作,得到n个关键词集合,n个关键词集合中共包括a个关键词,a为整数;
计算a与w的比值,得到待比对文本与所述关键词字典的文本相似度。
12.根据权利要求10所述的情绪干预方法,其中,利用所述关键词字典中的关键词进行搜索,得到待比对文本。
13.根据权利要求1至12中任一项所述的情绪干预方法,其中:
所述第一生物特征信息包括脸部表情、声音中的至少一种;
所述第二生物特征信息包括身高、体重、健康状况中的至少一种。
14.一种情绪干预装置,包括:
识别单元,被配置为根据用户的第一生物特征信息,识别所述用户的情绪状态;
推荐单元,被配置为推荐与所述情绪状态对应的至少一种情绪干预方式。
15.一种情绪干预装置,包括:
存储器;和
耦接至所述存储器的处理器,所述处理器被配置为基于存储在所述存储器中的指令,执行如权利要求1至13中任一项所述的情绪干预方法。
16.一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如权利要求1至13中任一项所述的情绪干预方法。
17.一种情绪干预系统,包括:如权利要求14或15所述的情绪干预装置。
18.根据权利要求17所述的情绪干预系统,还包括理疗设备、显示器和播放器中的至少一种,其中:
所述理疗设备被配置为在推荐的情绪干预方式中包括进行理疗的情况下,对用户进行理疗;
所述显示器、所述播放器被配置为在推荐的情绪干预方式包括输出媒体数据的情况下,输出媒体数据。
19.根据权利要求17所述的情绪干预系统,还包括图像传感器、声音传感器、测量设备、输入设备中的至少一个,其中:
所述图像传感器、所述声音传感器被配置为获取用户的第一生物特征信息;
所述测量设备、所述输入设备被配置为获取用户的第二生物特征信息。
20.根据权利要求17所述的情绪干预系统,其中,所述理疗设备包括按摩椅。
CN201811303279.5A 2018-11-02 2018-11-02 情绪干预方法、装置和系统,以及计算机可读存储介质 Pending CN111145871A (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201811303279.5A CN111145871A (zh) 2018-11-02 2018-11-02 情绪干预方法、装置和系统,以及计算机可读存储介质
PCT/CN2019/104911 WO2020088102A1 (zh) 2018-11-02 2019-09-09 情绪干预方法、装置和系统,以及计算机可读存储介质和疗愈小屋
US16/758,743 US11617526B2 (en) 2018-11-02 2019-09-09 Emotion intervention method, device and system, and computer-readable storage medium and healing room

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811303279.5A CN111145871A (zh) 2018-11-02 2018-11-02 情绪干预方法、装置和系统,以及计算机可读存储介质

Publications (1)

Publication Number Publication Date
CN111145871A true CN111145871A (zh) 2020-05-12

Family

ID=70464548

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811303279.5A Pending CN111145871A (zh) 2018-11-02 2018-11-02 情绪干预方法、装置和系统,以及计算机可读存储介质

Country Status (3)

Country Link
US (1) US11617526B2 (zh)
CN (1) CN111145871A (zh)
WO (1) WO2020088102A1 (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102736479B1 (ko) * 2019-09-24 2024-12-03 엘지전자 주식회사 사용자의 표정이나 발화를 고려하여 마사지 동작을 제어하는 인공 지능 마사지 장치 및 그 방법
US12201570B2 (en) * 2020-03-04 2025-01-21 Innovative Vending Solutions Llc Systems and methods for user control of electronic chairs
US11657071B1 (en) * 2020-03-13 2023-05-23 Wells Fargo Bank N.A. Mapping disparate datasets
CN112148907B (zh) * 2020-10-23 2024-11-19 北京百度网讯科技有限公司 图像数据库的更新方法、装置、电子设备和介质
FR3117221B1 (fr) 2020-12-04 2023-01-06 Socialdream dispositif immersif
CN113925376B (zh) * 2021-11-15 2022-11-15 杭州赛孝健康科技有限公司 一种智能坐便椅
CN115054248B (zh) * 2021-12-10 2023-10-20 荣耀终端有限公司 情绪监测方法和情绪监测装置
CA3209290A1 (en) * 2022-08-12 2024-02-12 Lmdp Co. Method and apparatus for a user-adaptive audiovisual experience
CN117338298B (zh) * 2023-12-05 2024-03-12 北京超数时代科技有限公司 情绪干预方法、装置、可穿戴情绪干预设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201220216A (en) * 2010-11-15 2012-05-16 Hon Hai Prec Ind Co Ltd System and method for detecting human emotion and appeasing human emotion
CN103390060A (zh) * 2013-07-30 2013-11-13 百度在线网络技术(北京)有限公司 基于移动终端的歌曲推荐方法与装置
CN105354184A (zh) * 2015-10-28 2016-02-24 甘肃智呈网络科技有限公司 一种使用优化的向量空间模型实现文档自动分类的方法
US20160063874A1 (en) * 2014-08-28 2016-03-03 Microsoft Corporation Emotionally intelligent systems
CN107220293A (zh) * 2017-04-26 2017-09-29 天津大学 基于情绪的文本分类方法
CN108198607A (zh) * 2018-03-07 2018-06-22 美的集团股份有限公司 一种食材推荐的方法、设备及计算机存储介质

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6752772B2 (en) * 2002-04-03 2004-06-22 Rocky Kahn Manipulation device with dynamic intensity control
CN101370195A (zh) 2007-08-16 2009-02-18 英华达(上海)电子有限公司 移动终端中实现情绪调节的方法及装置
GB0809563D0 (en) * 2008-05-28 2008-07-02 Health Smart Ltd A behaviour modification system
KR20100137175A (ko) * 2009-06-22 2010-12-30 삼성전자주식회사 자동으로 사용자의 감정 및 의도를 인식하는 장치 및 방법
WO2011029069A1 (en) * 2009-09-03 2011-03-10 Human Touch, Llc Comprehensive user control system for therapeutic wellness devices
US20170095192A1 (en) * 2010-06-07 2017-04-06 Affectiva, Inc. Mental state analysis using web servers
CN102467668A (zh) 2010-11-16 2012-05-23 鸿富锦精密工业(深圳)有限公司 情绪侦测及舒缓系统及方法
US9731616B2 (en) 2012-03-28 2017-08-15 Mitsubishi Electric Corporation Railway vehicle system
CN103164691A (zh) * 2012-09-20 2013-06-19 深圳市金立通信设备有限公司 基于手机用户的情绪识别系统及方法
WO2014085910A1 (en) * 2012-12-04 2014-06-12 Interaxon Inc. System and method for enhancing content using brain-state data
US9141604B2 (en) * 2013-02-22 2015-09-22 Riaex Inc Human emotion assessment reporting technology—system and method
EP2857276B1 (en) * 2013-08-20 2018-12-12 Harman International Industries, Incorporated Driver assistance system
KR20160048792A (ko) * 2013-08-23 2016-05-04 시크파 홀딩 에스에이 석영 발진기를 이용한 인증 방법 및 시스템
US20150169832A1 (en) * 2013-12-18 2015-06-18 Lenovo (Singapore) Pte, Ltd. Systems and methods to determine user emotions and moods based on acceleration data and biometric data
US9610510B2 (en) * 2015-07-21 2017-04-04 Disney Enterprises, Inc. Sensing and managing vehicle behavior based on occupant awareness
US10965975B2 (en) * 2015-08-31 2021-03-30 Orcam Technologies Ltd. Systems and methods for recognizing faces using non-facial information
US10872354B2 (en) * 2015-09-04 2020-12-22 Robin S Slomkowski System and method for personalized preference optimization
CN105536118A (zh) 2016-02-19 2016-05-04 京东方光科技有限公司 一种情绪调节装置、可穿戴设备和缓解情绪的帽子
US20180032126A1 (en) * 2016-08-01 2018-02-01 Yadong Liu Method and system for measuring emotional state
US20180063064A1 (en) * 2016-08-29 2018-03-01 International Business Machines Corporation Modifying a mood through selective feeding of content
US10192171B2 (en) * 2016-12-16 2019-01-29 Autonomous Fusion, Inc. Method and system using machine learning to determine an automotive driver's emotional state
JP6866715B2 (ja) * 2017-03-22 2021-04-28 カシオ計算機株式会社 情報処理装置、感情認識方法、及び、プログラム
CN107424019A (zh) * 2017-08-15 2017-12-01 京东方科技集团股份有限公司 基于情绪识别的艺术品推荐方法、装置、介质和电子设备
US10397350B2 (en) * 2017-09-26 2019-08-27 Disney Enterprises, Inc. Tracking wearables or other devices for emoji stories
US20200085673A1 (en) * 2018-09-19 2020-03-19 Golden Gm Holdings Sdn. Bhd. Method and system for customized operation of a therapeutic device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201220216A (en) * 2010-11-15 2012-05-16 Hon Hai Prec Ind Co Ltd System and method for detecting human emotion and appeasing human emotion
CN103390060A (zh) * 2013-07-30 2013-11-13 百度在线网络技术(北京)有限公司 基于移动终端的歌曲推荐方法与装置
US20160063874A1 (en) * 2014-08-28 2016-03-03 Microsoft Corporation Emotionally intelligent systems
CN105354184A (zh) * 2015-10-28 2016-02-24 甘肃智呈网络科技有限公司 一种使用优化的向量空间模型实现文档自动分类的方法
CN107220293A (zh) * 2017-04-26 2017-09-29 天津大学 基于情绪的文本分类方法
CN108198607A (zh) * 2018-03-07 2018-06-22 美的集团股份有限公司 一种食材推荐的方法、设备及计算机存储介质

Also Published As

Publication number Publication date
US11617526B2 (en) 2023-04-04
WO2020088102A1 (zh) 2020-05-07
US20210219891A1 (en) 2021-07-22

Similar Documents

Publication Publication Date Title
CN111145871A (zh) 情绪干预方法、装置和系统,以及计算机可读存储介质
US11238871B2 (en) Electronic device and control method thereof
Hossain Patient state recognition system for healthcare using speech and facial expressions
JP7199451B2 (ja) 感情コンピューティングユーザインターフェースに基づく感性的インタラクションシステム、装置及び方法
Yang et al. Behavioral and physiological signals-based deep multimodal approach for mobile emotion recognition
Zhang et al. Intelligent facial emotion recognition and semantic-based topic detection for a humanoid robot
CN113380271B (zh) 情绪识别方法、系统、设备及介质
CN111985240B (zh) 命名实体识别模型的训练方法、命名实体识别方法及装置
US20180315442A1 (en) Personalized instant mood identification method and system
Niu et al. A time-frequency channel attention and vectorization network for automatic depression level prediction
CN111145903B (zh) 获取眩晕症问诊文本的方法、装置、电子设备及问诊系统
CN111191136A (zh) 一种信息推荐方法以及相关设备
CN112418059B (zh) 一种情绪识别的方法、装置、计算机设备及存储介质
CN115472252A (zh) 基于对话的电子病历生成方法、装置、设备和存储介质
WO2021134250A1 (zh) 情绪管理方法、设备及计算机可读存储介质
CN112007255A (zh) 基于混合现实的心理治疗方法、装置、系统及服务器
Song et al. Video-audio emotion recognition based on feature fusion deep learning method
CN107564542A (zh) 基于幽默识别的情感交互方法和机器人系统
Banos et al. Mining human behavior for health promotion
Wu et al. Statistical sleep pattern modelling for sleep quality assessment based on sound events
JP7478610B2 (ja) 情報検索装置
CN109543187B (zh) 电子病历特征的生成方法、装置及存储介质
Zhao et al. Spoken emotion recognition via locality-constrained kernel sparse representation
Ihsan et al. MediSign: an attention-based CNN-BiLSTM approach of classifying word level signs for patient-doctor interaction in deaf Community
CN116187341A (zh) 语义识别方法及其装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination