[go: up one dir, main page]

CN106873773B - 机器人交互控制方法、服务器和机器人 - Google Patents

机器人交互控制方法、服务器和机器人 Download PDF

Info

Publication number
CN106873773B
CN106873773B CN201710013365.1A CN201710013365A CN106873773B CN 106873773 B CN106873773 B CN 106873773B CN 201710013365 A CN201710013365 A CN 201710013365A CN 106873773 B CN106873773 B CN 106873773B
Authority
CN
China
Prior art keywords
information
robot
data
behavior
behavior type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710013365.1A
Other languages
English (en)
Other versions
CN106873773A (zh
Inventor
何坚强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Qihoo Technology Co Ltd
Original Assignee
Beijing Qihoo Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Qihoo Technology Co Ltd filed Critical Beijing Qihoo Technology Co Ltd
Priority to CN201710013365.1A priority Critical patent/CN106873773B/zh
Publication of CN106873773A publication Critical patent/CN106873773A/zh
Application granted granted Critical
Publication of CN106873773B publication Critical patent/CN106873773B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Manipulator (AREA)

Abstract

本发明提供了一种机器人交互控制方法、服务器和机器人,其中方法包括步骤有:接收到机器人上传的属于其摄像单元获取的其监视对象的音视频流或相关传感器数据;依据从所述音视频流或所述传感器数据中提取的特征数据,从预定行为类型库中匹配出相对应的行为类型;从预设对应关系数据库中确定与该行为类型相对应的机器行为指令;发送所述机器行为指令至机器人以驱动该机器人执行该机器行为指令,使该机器人执行相应的输出行为,作为对其监视对象的反馈。本发明提供的方法和设备大幅度提高了机器人的智能水平,使得机器人与人的交互更加便利、形式更加丰富。

Description

机器人交互控制方法、服务器和机器人
技术领域
本发明涉及计算机技术领域,具体涉及机器人技术领域,尤其涉及机器人交互控制方法、服务器和机器人。
背景技术
机器人(Robot)是能够自动执行工作的机器装置的统称,是涉及多个学科门类的人类智慧结晶,其中具备一定程度自主意识的智能机器人更是受到广泛关注。
现有技术中,机器人通常具有指令接收单元、信息处理单元和执行单元,可以通过预设或自主模式执行指令。在工业生产的生产线上,这样的机器人人们对其已经是司空见惯,然而融入百姓生活和家庭的,能够与家庭成员顺利沟通的机器人,还未见报端,这其中需要攻克的技术难题还有很多。现有技术中的机器人几乎都是根据预设指令完成预设动作的,与用户进行交互时,需要依靠人机交互组件或者人机交互界面进行,这类交互组件或交互界面作为一个硬件组成部分设置于机器人上,通过接收到用户给出的指令或者输入的指令信息来完成相应的预设动作。而想要做到自主应对用户临时信息或命令,比如与人仅做交流性沟通或者处理临时性指令,现在的机器人就无法做到。再者,由于现有的机器人仍然存在应对动作指令方式单一、无法随机应变的问题,因此想要使机器人在某一应用领域具备一定程度人的能力,使其顺利进入人们的家庭,比如在陪护儿童、老人伴侣等应用领域中,还不能够很好实现。
发明内容
基于此,本发明的首要目的旨在解决上述至少一个问题,提供一种机器人交互控制方法,并相应提供服务器和机器人以运行前一目标所述的方法。
为实现本发明的上述目的,采取如下技术方案:
本发明的一种机器人交互控制方法,包括以下步骤:
接收到机器人上传的属于其摄像单元获取的其监视对象的音视频流或相关传感器数据;
依据从所述音视频流或所述传感器数据中提取的特征数据,从预定行为类型库中匹配出相对应的行为类型;
从预设对应关系数据库中确定与该行为类型相对应的机器行为指令;
发送所述行为指令至机器人以驱动该机器人执行该机器行为指令,使该机器人执行相应的输出行为,作为对其监视对象的反馈。
进一步地,所述依据从所述音视频流中提取的特征数据,从预定行为类型库中匹配出相对应的行为类型的步骤包括:
提取所述音视频流中音频数据的音频特征信息或关键词信息;
将所述特征信息或关键词信息与预定行为类型库中的预存音频特征信息或预存关键词信息相匹配,据以确定所述音频数据对应的行为类型。
在其中一个实施例中,所述依据从所述音视频流中提取的特征数据,从预定行为类型库中匹配出相对应的行为类型的步骤包括:
提取所述音视频流中视频数据的视频特征帧信息;
将所述视频特征帧信息与预定行为类型库中的预存视频特征帧信息相匹配,据以确定所述视频数据对应的行为类型。
进一步的,所述视频特征帧信息由记载行为动作的图片信息组成,预定时间内连续的若干数量所述图片信息即为所述视频特征帧信息。
在其中一个实施例中,所述依据传感器数据,从预定行为类型库中匹配出相对应的行为类型的步骤包括:
提取所述传感器数据中的特定数据字段或信息含义;
将所述特定数据字段或所述信息含义与预定行为类型库中的预存数据字段或预存信息含义相匹配,据以确定所述传感器数据对应的行为类型。
进一步地,所述传感器数据为地理信息传感器数据,提取所述地理信息传感器数据中的地理信息数据,将所述地理信息数据与预存地理信息数据相匹配,据以确定所述地理信息传感器数据表征的行为类型,从预设对应关系数据库中确定与该行为类型相对应的机器行为指令,所述机器行为指令包括速率信息、方向信息和路程信息,发送所述行为指令至机器人以驱动该机器人执行该机器行为指令,使该机器人执行相应的输出行为,改变机器人相对于其监视对象的地理信息。
进一步地,所述传感器数据为触屏传感器数据,提取所述触屏传感器数据中的触控操作信息并将其与预定行为类型库中的预存触控操作信息相匹配,据以确定所述触屏传感器数据对应的行为类型。
在其中一个实施例中,所述预设对应关系数据库中包括预设行为类型数据表,和与预设行为类型数据表具有映射关系的机器行为指令表;所述从预设对应关系数据库中确定与该行为类型相对应机器行为指令的具体步骤为:
以所述行为类型为关键词检索对应关系数据库中的预设行为类型数据表,确定出匹配的预设行为类型,根据所述预设行为类型的映射关系映射生成机器行为指令。
在其中一个实施例中,所述机器行为指令包括:
语音指令,以驱动机器人语音播放接口输出语音,和/或
视频指令,以驱动机器人视频播放接口输出视频,和/或
动作执行指令,以驱动机器人运动单元输出动作。
在其中一个实施例中,在接收到机器人上传的属于其摄像单元获取的其监视对象的音视频流或相关传感数据的步骤之前还包括,接收到机器人上传的生物特征信息传感器数据,当所述生物特征信息传感器数据与预存生物特征信息匹配,确定所述生物特征信息传感器数据对应的使用者的身份权限,响应于所述身份权限生成相对应的预设反馈指令。
进一步地,所述生物特征信息传感器数据包括指纹信息数据、虹膜信息数据或声音信息数据中的至少一种,据以与预设身份权限信息对比确定使用者的身份权限,响应于所述身份权限开放相对应的预设反馈权限。
在其中一个实施例中,所述预设行为类型库和/或所述预设对应关系数据库由云端服务器或与云端服务器关联的用户设定或更新。
在其中一个实施例中,所述上传方式为实时上传。
本发明还提供了一种机器人交互控制方法,包括以下步骤:
获取到属于摄像单元获取的对监视对象的音视频流或相关传感器数据;
依据从所述音视频流或所述传感器数据中提取的特征数据,从预定行为类型库中匹配出相对应的行为类型;
从预设对应关系数据库中确定与该行为类型相对应的机器行为指令;
依据所述行为指令驱动机器人相关接口或单元做出相应的输出行为,作为对其监视对象的反馈。
进一步地,所述依据从所述音视频流中提取的特征数据,从预定行为类型库中匹配出相对应的行为类型的步骤包括:
提取所述音视频流中音频数据的音频特征信息或关键词信息;
将所述特征信息或关键词信息与预定行为类型库中的预存音频特征信息或预存关键词信息相匹配,据以确定所述音频数据对应的行为类型。
在其中一个实施例中,所述依据从所述音视频流中提取的特征数据,从预定行为类型库中匹配出相对应的行为类型的步骤包括:
提取所述音视频流中视频数据的视频特征帧信息;
将所述视频特征帧信息与预定行为类型库中的预存视频特征帧信息相匹配,据以确定所述视频数据对应的行为类型。
在其中一个实施例中,所述依据传感器数据,从预定行为类型库中匹配出相对应的行为类型的步骤包括:
提取所述传感器数据中的特定数据字段或信息含义;
将所述特定数据字段或所述信息含义与预定行为类型库中的预存数据字段或预存信息含义相匹配,据以确定所述传感器数据对应的行为类型。
进一步地,所述传感器数据为地理信息传感器数据,提取所述地理信息传感器数据中的地理信息数据,将所述地理信息数据与预存地理信息数据相匹配,据以确定所述地理信息传感器数据表征的行为类型,从预设对应关系数据库中确定与该行为类型相对应的机器行为指令,所述机器行为指令包括速率信息、方向信息和路程信息,发送所述行为指令至机器人以驱动该机器人执行该机器行为指令,使该机器人执行相应的输出行为,改变机器人相对于其监视对象的地理信息。
进一步地,所述传感器数据为触屏传感器数据,提取所述触屏传感器数据中的触控操作信息并将其与预定行为类型库中的预存触控操作信息相匹配,据以确定所述触屏传感器数据对应的行为类型。
在其中一个实施例中,所述预设对应关系数据库中包括预设行为类型数据表,和与预设行为类型数据表具有映射关系的机器行为指令表;所述从预设对应关系数据库中确定与该行为类型相对应机器行为指令的具体步骤为:
以所述行为类型为关键词检索对应关系数据库中的预设行为类型数据表,确定出匹配的预设行为类型,根据所述预设行为类型的映射关系映射生成机器行为指令。
在其中一个实施例中,所述机器行为指令包括:
语音指令,以驱动机器人语音播放接口输出语音,和/或
视频指令,以驱动机器人视频播放接口输出视频,和/或
动作执行指令,以驱动机器人运动单元输出动作。
在其中一个实施例中,在获取到属于摄像单元获取的其监视对象的音视频流或相关传感数据的步骤之前还包括,接收到生物特征信息传感器数据,当所述生物特征信息传感器数据与预存生物特征信息匹配,确定所述生物特征信息传感器数据对应的使用者的身份权限,响应于所述身份权限生成相对应的预设反馈指令。
在其中一个实施例中,所述生物特征信息传感器数据包括指纹信息数据、虹膜信息数据或声音信息数据中的至少一种,据以与预设身份权限信息对比确定使用者的身份权限,响应于所述身份权限开放相对应的预设反馈权限。
在其中一个实施例中,所述预设行为类型库和/或所述预设对应关系数据库由用户设定或下载自云端服务器。
进一步地,所述下载通过蓝牙、Wi-Fi网络、移动数据网络或有线网络进行。
本发明提供了一种机器人交互服务器,包括:
接收模块,用于接收到机器人上传的属于其摄像单元获取的其监视对象的音视频流或相关传感器数据;
解析模块,用于依据从所述音视频流或所述传感器数据中提取的特征数据,从预定行为类型库中匹配出相对应的行为类型;
数据生成模块,用于从预设对应关系数据库中确定与该行为类型相对应机器行为指令;
发送模块,用于发送所述行为指令至机器人以驱动该机器人执行该机器行为指令,使该机器人做出相应的输出行为,作为对其监视对象的反馈。
本发明还提供了一种机器人,包括:
获取模块,用于获取到属于摄像单元获取的对监视对象的音视频流或相关传感器数据;
分析模块,用于依据从所述音视频流或所述传感器数据中提取的特征数据,从预定行为类型库中匹配出相对应的行为类型,再从预设对应关系数据库中确定与该行为类型相对应的机器行为指令;
执行模块,用于依据所述行为指令驱动机器人相关接口或单元做出相应的输出行为,作为对其监视对象的反馈。
本发明提供的方法和设备大幅度提高了机器人的智能水平,使得机器人与人的交互更加便利、形式更加丰富,依靠机器人自身的音频、视频或者传感器设备分析其监视对象的某些动作、语言,甚至是表情,就能够做出对应的反馈行为,从而使人能够通过多种形式与机器人实现交互。而且,机器人的反馈行为也更为丰富,不仅可以通过声音、视频或者二者相结合,也可以通过动作来反馈人的某些行为,使得即使是儿童和老人,也能够与机器人方便交互,做到机器人对儿童和老人的陪护,使得机器人进入人们的家庭成为现实的可能。
附图说明
图1为本发明一实施例机器人交互控制方法流程图;
图2为本发明一实施例机器人交互服务器结构示意图;
图3为本发明另一实施例机器人交互控制方法流程图;
图4为本发明一实施例机器人的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本发明的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。应该理解,当我们称元件被“连接”或“耦接”到另一元件时,它可以直接连接或耦接到其他元件,或者也可以存在中间元件。此外,这里使用的“连接”或“耦接”可以包括无线连接或无线耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的全部或任一单元和全部组合。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语),具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语,应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样被特定定义,否则不会用理想化或过于正式的含义来解释。
本技术领域技术人员可以理解,这里所使用的“终端”、“终端设备”既包括无线信号接收器的设备,其仅具备无发射能力的无线信号接收器的设备,又包括接收和发射硬件的设备,其具有能够在双向通信链路上,进行双向通信的接收和发射硬件的设备。这种设备可以包括:蜂窝或其他通信设备,其具有单线路显示器或多线路显示器或没有多线路显示器的蜂窝或其他通信设备;PCS(Personal Communications Service,个人通信系统),其可以组合语音、数据处理、传真和/或数据通信能力;PDA(Personal Digital Assistant,个人数字助理),其可以包括射频接收器、寻呼机、互联网/内联网访问、网络浏览器、记事本、日历和/或GPS(Global Positioning System,全球定位系统)接收器;常规膝上型和/或掌上型计算机或其他设备,其具有和/或包括射频接收器的常规膝上型和/或掌上型计算机或其他设备。这里所使用的“终端”、“终端设备”可以是便携式、可运输、安装在交通工具(航空、海运和/或陆地)中的,或者适合于和/或配置为在本地运行,和/或以分布形式,运行在地球和/或空间的任何其他位置运行。这里所使用的“终端”、“终端设备”还可以是通信终端、上网终端、音乐/视频播放终端,例如可以是PDA、MID(Mobile Internet Device,移动互联网设备)和/或具有音乐/视频播放功能的移动电话,也可以是智能电视、机顶盒等设备。
机器人一般由执行机构、驱动装置、检测装置和控制系统和复杂机械等组成,能自动控制,可重复编程,多功能,有几个自由度,可固定或运动,用于相关自动化系统中。
本发明一实施例提供一种机器人交互控制方法,如图1所示,该交互控制方法包括下列步骤:
S110:接收到机器人上传的属于其摄像单元获取的其监视对象的音视频流或相关传感器数据。
作为实现交互的第一步,首先需要获取尽量丰富的原始信息,这些原始信息包括使用者各种行为或者指令,也即机器人监视对象的各种行为或者指令,包括通过机器人身上安装的摄像头获取到的音视频内容,表现在机器设备上则是音视频流,作为拟人化的描述则是机器人“听到”的声音和“看到”的图像,例如机器人上安装的话筒收录到监视对象的语音,或者安装的摄像机记录到一段有关监视对象的动作连续图像等,而相关的传感器数据则是机器人上安装的各类传感器采集到的数据,比如距离传感器、温度传感器、加速度传感器或气味传感器等等,根据不同的使用场合或者功能,对这些传感器会有根据的进行选择,对应地,这些传感器相当于机器人的“感觉”器官,获得的传感器数据则为其“感觉”。当机器人获取到这些原始数据之后,将其上传交给云端服务器进行进一步的处理,借助云端服务器强大的数据处理能力以及大数据资源,这一处理能够更加迅速而准确地进行。优选的,机器人上传数据到云端服务器的方式为实时上传,对于实际应用的机器人,网络状态良好是可以推测到的基本环境因素,实时上传可以实现机器人与云端服务器的快速沟通机制,使机器人拥有良好的信息处理能力和快速的反应性能。
S120:依据从音视频流或传感器数据中提取的特征数据,从预定行为类型库中匹配出相对应的行为类型。
云端服务器获取到音视频流或传感器数据之后对其进行解析处理,分析确定出音视频流或传感器数据所代表的被监视对象表达出的行为模式。每种数据信息中总是包括有最根本的特征数据,据以区别不同的行为,这些特征数据根据相关领域人员的总结归纳可以形成相关特征数据库,某种行为由某一种特征数据或者某几种特征数据共同构成,一些情况下甚至存在包含有同样种类数量的特征数据,而这些特征数据的排列先后次序不同,也会使其表示的行为模式不同。将每种行为具备的特征数据归类并将各种行为组合在同一个数据库中形成预定行为类型库,当云端服务器解析出音视频流或传感器数据中的特征数据,再根据这些特征数据在预定行为类型库中查找匹配,找到匹配的特征数据相对应的行为,即可确定音视频流或传感器数据对应的行为类型。可以理解地,某些行为动作包括不止一个特征数据,而且特征数据越多越完善,则描述行为动作越准确,所以预定行为类型库中每一种行为的特征数据应当是不断更新完善的,同时云端服务器解析原始数据的能力也是不断精确、细化和完善的。
优选的,依据从音视频流中提取的特征数据并进一步从预定行为类型库中匹配出相对应的行为类型的具体方法为:提取所述音视频流中音频数据的音频特征信息或关键词信息,将所述特征信息或关键词信息与预定行为类型库中的预存音频特征信息或预存关键词信息相匹配,据以确定所述音频数据对应的行为类型。一段语音信息中包含有时间、地点、人物、对象或原因等一种或多种关键词信息,还能够包括声音频率、音调、音色等音频特征信息,本领域技术人员可以做到从音视频流中的音频数据中妥善分析出这些音频特征信息或关键词信息。当分析得出这些音频特征信息或关键词信息,接下来将其与预存在云端服务器中的预存数据相对比,也即在预定行为类型库中的预存音频特征信息或预存关键词信息中查找,一旦找出匹配项,就确定出这些预存音频特征信息或预存关键词信息对应的预存行为类型,从而云端服务器也就确定出与音频数据对应的行为类型。这一技术方案使得即使是不知道如何操作计算机的老人或小孩,只要能够发出声音,就能够向机器人发出指令,实现与机器人的沟通交互。
优选的,依据从音视频流中提取的特征数据并进一步从预定行为类型库中匹配出相对应的行为类型的具体方法为:提取音视频流中视频数据的视频特征帧信息,将所述视频特征帧信息与预定行为类型库中的预存视频特征帧信息相匹配,据以确定所述视频数据对应的行为类型。视频是一定时间内由众多静止的画面组成的,原理上每一副画面即为一帧,连续的帧就形成视频。每一副图像都有其特征特点,例如其中的基本图形位置,线条形状,明暗分布等等,分析画面特征的技术即为图像识别技术,因此通过图像识别技术提取出视频数据中的视频特征帧信息,该视频特征帧信息由记载行为动作的图片信息组成,用于记载多种具有典型特征的行为类型,如人的行走、奔跑、站起、坐下、面部表情或者手势等,每一视频特征帧信息为记载着一种行为类型中的某一个动作的画面,包含有表示该动作画面的基本图形位置、线条形状或明暗分部等计算机可识别信息,这样的视频特征帧信息往往是多帧信息,并且使在预定时间内连续的若干数量,例如一秒钟内的连续十张,或者0.1秒内的连续十张,时间越短并且数量越多,则视频特征帧信息越准确。在云端服务器的数据库中有一个是预设行为类型库,预设行为类型库存在着多种行为类型,每个行为类型目录下包括若干预存视频特征帧信息(可以知道,预存视频特征帧信息越多,对应预设行为类型越准确),预存视频特征帧信息即是预先采集并存储到计算机中或者网络当中的视频特征帧信息,当云端服务器检测到从音视频流中提取的视频特征帧信息与某个行为类型目录下的预存视频特征帧信息相匹配,则确定出该音视频流中视频数据对应的行为类型,当然,这种匹配并不是视频特征信息与预存视频特征帧信息百分百相同,而是存在一定的模糊度,依靠计算机图像识别中的模糊算法来实现这种匹配,更加详细具体的方法由与计算机图像识别相关的技术人员通过相关技术手段能够实现。这一技术方案使得即使是不知道如何操作计算机的老人或小孩,也能够通过动作向机器人发出指令,实现与机器人的沟通交互。
作为另一个优选的方案,依据从传感器数据中提取的特征数据,从预定行为类型库中匹配出相对应的行为类型的具体方法为:提取所述传感器数据中的特定数据字段或信息含义;将特定数据字段或所述信息含义与预定行为类型库中的预存数据字段或预存信息含义相匹配,据以确定所述传感器数据对应的行为类型。传感器数据中包含着多种类型的数据,以不同时段来讲,就有空闲段数据(传感器处于待机状态的数据)和工作段数据,工作段数据中必然包含时间数据、检测内容数据和强度数据(衡量检测内容的表现程度,如力的大小、速度快慢)等。根据一定的算法或处理方法,从传感器数据中提取出特定数据字段或信息含义,对于具体的算法或处理方法,有关传感器数据处理的技术人员能够完成。预定行为类型库中包含有众多行为类型,每个行为类型下包括有一个或多个对应的预存数据字段或预存信息含义,云端服务器依据传感器数据中提取的数据字段或信息含义在预存数据字段或预存信息含义中检索,找到匹配项,即能确定出传感器数据对应的行为类型。根据不同的功能需求,机器人上安装有不同种类的传感器,例如在家庭当中,可能需要检测室温或家庭成员的体温,因此需要有温度传感器;也可能需要检测厨房中是否有天然气泄漏,因此可以安装气体检测传感器;也可能需要机器人伴随某一个家庭成员,实现照看功能,就需要跟随该家庭成员,因此至少需要用到地理信息传感器。
S130:从预设对应关系数据库中确定与该行为类型相对应的机器行为指令。
通过步骤S120确定出音视频流或传感器数据对应的行为类型之后,依据该行为类型在云端服务器数据库中查找,查找对象为预设对应关系数据库。预设对应关系数据库中包括行为类型以及与行为类型对应的机器行为指令。当匹配出预设对应关系数据库中的某种行为类型,即可得出相应的机器行为指令并进行下一步的操作。优选的,预设对应关系数据库中包括预设行为类型数据,众多预设行为类型数据组合在一起形成预设行为类型数据表,每一个预设行为类型数据都对应一个机器行为指令表,即预设行为类型数据与机器行为指令之间具有映射关系,当然这种映射关系并不是一一映射关系,可能多个不同的行为类型都对应同一个机器行为指令,比如语音行为“拿杯子”,和用手势表示相同的意思,最终的机器行为指令都可能是为了实现“拿来杯子”。从预设对应关系数据库中确定与该行为类型相对应的机器行为指令的具体步骤为:以行为类型为关键词,检索对应关系数据库中的预设行为类型数据表,确定出匹配的预设行为类型,根据所述预设行为类型的映射关系映射生成机器行为指令。当然,这里确定的方式也可以是计算得出,通过机器人对关键词信息的判断,对相关信息进行对应处理获得机器行为指令,例如“递杯子给我”这一行为,机器人获知“杯子”这一具体物,以及杯子的位置,获知“我”这一对象的含义,以及“我”的位置,通过自身位置判断,以及各种情景对象所在环境的地理信息,计算得出机器行为指令,并可以通过执行该机器行为指令完成相关的任务。当预设行为类型或预设对应关系数据库越丰富,机器人能够反馈的行为就越丰富,因此预设行为类型库和/或预设对应关系数据库需要有不断的更新和补充,更新和补充的方式要么可以直接在云端服务器上进行相关的设定、补充或者更新,也可以通过与云端服务器关联的用户进行设定或者更新,使得预设行为类型数据库和/或预设对应关系数据库的数据来源更加丰富,也能够更加贴近实际,这一技术方案使得相关技术人员利用互联网大数据充分分析人类行为的细节,不断完善预设行为类型数据库,使机器人的智能化充分提高,使其拟人化的程度也更加充分。
优选的,及其行为指令包括:语音指令,以驱动机器人语音播放接口输出语音,和/或视频指令,以驱动机器人视频播放接口输出视频,和/或动作执行指令,以驱动机器人运动单元输出动作。面对人类多种表达方式,机器人也应当具有多种行为表现方式,或者以声音表达,比如当人类提出让机器人播放某一段声音时,向机器人发出指令“学一下鸭子叫”,然后机器人接收该指令并上传,经过云端服务器处理后,输出机器指令“播放鸭子的叫声”,该指令驱动机器人开启发声单元播放对应音频。或者机器人捕捉到人的某些表情,比如微笑,经过上传到服务器,服务器分析处理获得相对应的机器指令,能够驱动机器人相对应的视频播放接口播放一段欢快的视频,或者显示出笑脸的表情,亦或是得出相对应的动作执行指令,能够驱动机器人运动单元,比如手,指示手臂、手掌相关机器部件形成拍手动作。这些类型的机器指令即可能单独运行,也可以同时运行,比如当人对机器人说出“我们跳一段舞蹈吧”,然后机器人将该语音信息数据上传给服务器,服务器做出判断后,发出机器行为指令,该机器行为指令可以使机器人的音响系统播放音乐,也使视频播放接口比如显示屏播放对应的舞蹈画面,或者做出表情,并且可以驱动机器人相关运动单元,比如腿部运动单元和手部运动单元一起随音乐运动。这些机器行为指令的内容是相关领域技术人员通过编程可以实现的。
S140:发送所述行为指令至机器人以驱动该机器人执行该机器行为指令,使该机器人执行相应的输出行为,作为对其监视对象的反馈。
机器行为指令产生后仍然在云端服务器,最终目的是要使机器人反馈其监视对象的某种行为,因此云端服务器处理得出的行为指令需要立即传输到机器人上,机器人根据该机器行为指令执行相应的输出行为,向其监视对象表现出相应的反馈。行为指令的执行有直接依据详细的行为指令所包含的代码来进行,例如简单的播放一段音乐指令,或者播放一段视频的行为指令,也能够通过机器人本身的计算处理能力,依据该行为指令通过内置计算机计算出实际的各部件可执行代码,例如当行为指令是“拿一本书”时,机器人根据自身的位置,书柜的位置,所处房间的布局,以及这些对象之间的距离等计算判断并执行。
作为一种优选的方案,当传感器数据为地理信息传感器数据时,云端服务器对地理信息传感器数据的处理如下:当传感器数据为地理信息传感器数据,提取其中的地理信息数据,将地理信息数据与预存在服务器中的预存地理信息数据相匹配,确定出该地理信息数据表征的行为类型,从预设对应关系数据库中确定与该行为类型相对应的机器行为指令,而所述机器行为指令包括速率信息、方向信息和路程信息,发送所述行为指令至机器人以驱动该机器人执行该机器行为指令,使该机器人执行相应的输出行为,改变机器人相对于其监视对象的地理信息。例如,当需要机器人成为家庭成员中某一个人的伙伴时(通常为老人或儿童),就设定该机器人常伴在其设定监视对象的一定距离范围内,当该监视对象运动时,机器人也会相应的运动,并且仍然与该监视对象重新保持设定的距离范围。当监视对象移动之后,超出了该设定的距离范围,机器人身上的地理信息传感器会获取到监视对象的地理信息,比如间距、经纬度、有无障碍物、或者相对坐标等,上传这些信息到云端服务器之后,云端服务器进行相应处理或计算,得出机器人需要执行的对应机器行为指令,这些行为指令包括有需要移动的速率、移动的方向和移动的距离或者路径等等内容,最终实现随监视对象的移动改变其自身的地理信息(相对于监视对象的位置或距离等),继续保持与监视对象的距离在一定范围之内,完成对监视对象的陪伴。
作为另一优选的方案,传感器数据为触屏传感器数据,提取所述触屏传感器数据中的触控操作信息并将其与预定行为类型库中的预存触控操作信息相匹配,据以确定所述触屏传感器数据对应的行为类型。通过在机器人上设置触屏传感器,如现在的触控屏就是一种很典型的触控传感器设备,在其上设置若干常用的指令选项,当机器人的监视对象对触控屏上的某一指令进行选择后,机器人将选择信息上传到云端服务器,云端服务器提取出其中代表的触控操作信息并生成对应的行为类型,之后再根据该行为类型确定出相对应的机器行为指令并交由机器人执行。此技术方案可以降低指令执行难度,减轻云端服务器处理负担,使云端服务器处理数据速度更快,指令输出更加准确,也最终使得机器人更快反馈被监视对象的指令。
优选的,通常机器人是一种贵重的设备,身份识别是其往往需要具备的功能,从机器人被开发出来到应用,其接触的对象有许多,例如在组装完成后的调试阶段,需要接触研发人员、调试人员等,而在使用时,又会遇到不同身份的使用者,这些人员相对于机器人应当有不同的权限级别,在相应的权限级别内会相应具有这一级别允许的指令修改权限、系统更新权限或者使用权限等,因此,在接收到机器人上传的属于其摄像单元获取的其监视对象的音视频流或相关传感数据的步骤之前还包括,接收到机器人上传的生物特征信息传感器数据,当所述生物特征信息传感器数据与预存生物特征信息匹配,确定所述生物特征信息传感器数据对应的使用者的身份权限,响应于所述身份权限生成相对应的预设反馈指令。在机器人接收音视频流或相关传感器数据并进行相应操作的行为之前设置一步身份验证操作,使得机器人识别出其监视对象的身份,待确认对应的权限后再进行后续操作。例如,面对家庭成员,机器人会按照预存生物特征信息的身份权限听取命令并执行动作,而对于临时客人,机器人则识别出其预存生物特征信息中并不包括该临时客人的生物特征信息,将不会听取该临时客人的指令,或者依据临时客人对应的指令执行动作,比如问好。优选的,生物特征信息传感器数据包括指纹信息数据、虹膜信息数据或声音信息数据中的至少一种,据以与预设身份权限信息对比确定使用者的身份权限,响应于所述身份权限开放相对应的预设反馈权限。通过生物特征信息能够获得准确的身份验证操作,而且这些生物特征信息的采集都十分方便。
适应前述的方法,基于模块化思维,本发明的一实施例提供一种机器人交互服务器,如图2所示,包括:
接收模块110,用于接收到机器人上传的属于其摄像单元获取的其监视对象的音视频流或相关传感器数据。待机器人通过自身的摄像录音接口以及各项传感器获取到数据之后,将其通过接收模块110上传到云端服务器当中。
解析模块120,用于依据从所述音视频流或所述传感器数据中提取的特征数据,从预定行为类型库中匹配出相对应的行为类型。云端服务器通过接收模块110获取到音视频流或传感器数据之后对其进行解析处理,分析确定出音视频流或传感器数据所代表的被监视对象表达出的行为模式。每种数据信息中总是包括有最根本的特征数据,据以区别不同的行为,这些特征数据根据相关领域人员的总结归纳可以形成相关特征数据库,某种行为由某一种特征数据或者某几种特征数据共同构成,一些情况下甚至存在包含有同样种类数量的特征数据,而这些特征数据的排列先后次序不同,也会使其表示的行为模式不同。将每种行为具备的特征数据归类并将各种行为组合在同一个数据库中形成预定行为类型库,当云端服务器解析出音视频流或传感器数据中提取的特征数据,再根据这些特征数据在预定行为类型库中查找匹配,找到匹配的特征数据相对应的行为,即可确定音视频流或传感器数据对应的行为类型。
数据生成模块130,用于从预设对应关系数据库中确定与该行为类型相对应机器行为指令。通过解析模块120确定出音视频流或传感器数据对应的行为类型之后,数据生成模块130依据该行为类型在云端服务器数据库中查找,查找对象为预设对应关系数据库。预设对应关系数据库中包括行为类型以及与行为类型对应的机器行为指令。当匹配出预设对应关系数据库中的某种行为类型,数据生成模块130即可得出相应的机器行为指令并进行下一步的操作。
发送模块140,用于发送所述行为指令至机器人以驱动该机器人执行该机器行为指令,使该机器人做出相应的输出行为,作为对其监视对象的反馈。机器行为指令产生后仍然在云端服务器,最终目的是要使机器人反馈其监视对象的某种行为,因此云端服务器处理得出的行为指令需要立即传输到机器人上,然后机器人根据该机器行为指令执行相应的输出行为,向其监视对象表现出相应的反馈。
本发明一实施例提供的机器人交互控制方法以及服务器使得机器人的智能水平大幅度提高,让人与机器的交互更加便利,依靠机器人自身的音频、视频或者传感器设备分析其监视对象的某些动作、语言,甚至是表情,就能够做出对应的反馈行为,从而使人能够通过多种形式与机器人实现交互。
本发明另一实施例提供了一种机器人交互控制方法,如图3所示,该交互控制方法包括下列步骤:
S210:获取到属于摄像单元获取的对监视对象的音视频流或相关传感器数据。
现今计算机技术发展让人瞠目结舌,体积小而性能强大的芯片层出不穷,因而可以逐步使机器人自身直接作为信息接收、信息处理和信息执行的统一体,而将云端服务器作为一种补充,能够使信息处理的效率大幅度提高。在本实施例中,作为实现交互的第一步,首先需要机器人获取尽量丰富的原始信息,这些原始信息包括使用者各种行为或者指令,也即机器人监视对象的各种行为或者指令,包括通过机器人身上安装的摄像头获取到的音视频内容,表现在机器设备上则是音视频流,作为拟人化的描述则是机器人“听到”的声音和“看到”的图像,例如机器人上安装的话筒收录到监视对象的语音,或者安装的摄像机记录到一段有关监视对象的动作连续图像等,而相关的传感器数据则是机器人上安装的各类传感器采集到的数据,比如距离传感器、温度传感器、加速度传感器或气味传感器等等,根据不同的使用场合或者功能,对这些传感器会有根据的进行选择,对应地,这些传感器相当于机器人的“感觉”器官,获得的传感器数据则为其“感觉”。当机器人获取到这些原始数据之后,将其传输到其他处理模块进行进一步的处理,借助自身携带的计算机的强大数据处理能力,这一处理能够迅速而准确地进行。
S220:依据从所述音视频流或所述传感器数据中提取的特征数据,从预定行为类型库中匹配出相对应的行为类型。
机器人获取到音视频流或传感器数据之后对其进行解析处理,分析确定出音视频流或传感器数据所代表的被监视对象表达出的行为模式。每种数据信息中总是包括有最根本的特征数据,据以区别不同的行为,这些特征数据根据相关领域人员的总结归纳可以形成相关特征数据库,某种行为由某一种特征数据或者某几种特征数据共同构成,一些情况下甚至存在包含有同样种类数量的特征数据,而这些特征数据的排列先后次序不同,也会使其表示的行为模式不同。将每种行为具备的特征数据归类并将各种行为组合在同一个数据库中形成预定行为类型库,当机器人解析出音视频流或传感器数据中的特征数据,再根据这些特征数据在预定行为类型库中查找匹配,找到匹配的特征数据相对应的行为,即可确定音视频流或传感器数据对应的行为类型。可以理解地,某些行为动作包括不止一个特征数据,而且特征数据越多越完善,则描述行为动作越准确,所以预定行为类型库中每一种行为的特征数据应当是不断更新完善的,同时机器人解析原始数据的能力也是不断精确、细化和完善的。
优选的,依据从音视频流中提取的特征数据并进一步从预定行为类型库中匹配出相对应的行为类型的具体方法为:提取所述音视频流中音频数据的音频特征信息或关键词信息,将所述特征信息或关键词信息与预定行为类型库中的预存音频特征信息或预存关键词信息相匹配,据以确定所述音频数据对应的行为类型。一段语音信息中包含有时间、地点、人物、对象或原因等一种或多种关键词信息,还能够包括声音频率、音调、音色等音频特征信息,本领域技术人员可以做到从音视频流中的音频数据中妥善分析出这些音频特征信息或关键词信息。当分析得出这些音频特征信息或关键词信息,接下来将其与预存在云端服务器中的预存数据相对比,也即在预定行为类型库中的预存音频特征信息或预存关键词信息中查找,一旦找出匹配项,就确定出这些预存音频特征信息或预存关键词信息对应的预存行为类型,从而机器人也就确定出与音频数据对应的行为类型。例如,机器人听到所监视对象发出的声音“帮我把桌子上的杯子递给我”,机器人会提取出关键信息“把桌子上的杯子递给我”,或者更进一步为服务对象“我”、操作对象“杯子”、操作对象位置信息“桌子”、操作内容“递”等等,实际音频特征信息或关键词信息提取并不局限于这一方式,可以根据实际需要进行更恰当的操作,然后机器人根据这些关键词在预定行为类型库中查找,找到与之对应的预存音频特征信息或预存关键词信息,从而确定出行为类型为“向‘我’传递杯子”。本技术方案使得即使是不知道如何操作计算机的老人或小孩,也能够通过自身的某些动作向机器人发出指令,实现与机器人的交互沟通。
优选的,依据从音视频流中提取的特征数据并进一步从预定行为类型库中匹配出相对应的行为类型的具体方法为:提取音视频流中视频数据的视频特征帧信息,将所述视频特征帧信息与预定行为类型库中的预存视频特征帧信息相匹配,据以确定所述视频数据对应的行为类型。视频是一定时间内由众多静止的画面组成的,原理上每一副画面即为一帧,连续的帧就形成视频。每一副图像都有其特征特点,例如其中的基本图形位置,线条形状,明暗分布等等,分析画面特征的技术即为图像识别技术,因此通过图像识别技术提取出视频数据中的视频特征帧信息,这样的视频特征帧信息往往是多帧信息。在云端服务器的数据库中有一个是预设行为类型库,预设行为类型库存在着多种行为类型,每个行为类型目录下包括若干预存视频特征帧信息(可以知道,预存视频特征帧信息越多,对应预设行为类型越准确),当云端服务器检测到从音视频流中提取的视频特征帧信息与某个行为类型目录下的预存视频特征帧信息相匹配,则确定出该音视频流中视频数据对应的行为类型。例如,当机器人的摄像头捕捉到其监视对象——儿童哭泣的画面,机器人则分析这一包含儿童哭泣内容的视频流,提取其中的视频特征帧信息,该视频特征帧信息可能包括一幅幅儿童面部流眼泪或者哭泣表情的画面,将其与机器人自身数据库中预存的视频特征帧信息相对比,匹配到这一儿童带有哭泣面部特征的预存视频特征帧信息,就对应判断到该儿童处于哭泣状态。或者例如,某一机器人监视对象向机器人发出手掌横放手指并拢并且向左的手势,机器人捕捉到这一信息,分析出带有手掌横放手指并拢并且向左的手势的视频特征帧信息,在自身预存行为类型库中查找,找到“向左行走”这一预存行为类型目录下预存的具有同样特征的视频特征帧信息,从而对应判断出监视对象希望其向左运动的行为类型。综上所述,这一技术方案使得即使是不知道如何操作计算机的老人或小孩,也能够通过自身的某些动作向机器人发出指令,实现与机器人的沟通交互。
作为另一个优选的方案,依据从传感器数据中提取的特征数据,从预定行为类型库中匹配出相对应的行为类型的具体方法为:提取所述传感器数据中的特定数据字段或信息含义;将特定数据字段或所述信息含义与预定行为类型库中的预存数据字段或预存信息含义相匹配,据以确定所述传感器数据对应的行为类型。传感器数据中包含着多种类型的数据,以不同时段来讲,就有空闲段数据(传感器处于待机状态的数据)和工作段数据,工作段数据中必然包含时间数据、检测内容数据和强度数据(衡量检测内容的表现程度,如力的大小、速度快慢)等。根据一定的算法或处理方法,从传感器数据中提取出特定数据字段或信息含义,对于具体的算法或处理方法,有关传感器数据处理的技术人员能够完成。预定行为类型库中包含有众多行为类型,每个行为类型下包括有一个或多个对应的预存数据字段或预存信息含义,机器人依据传感器数据中提取的数据字段或信息含义在预存数据字段或预存信息含义中检索,找到匹配项,即能确定出传感器数据对应的行为类型。根据不同的功能需求,机器人上安装有不同种类的传感器,例如在家庭当中,可能需要检测室温或家庭成员的体温,因此需要有温度传感器;也可能需要检测厨房中是否有天然气泄漏,因此可以安装气体检测传感器;也可能需要机器人伴随某一个家庭成员,实现照看功能,就需要跟随该家庭成员,因此至少需要用到地理信息传感器。
S230:从预设对应关系数据库中确定与该行为类型相对应的机器行为指令。
通过步骤S220确定出音视频流或传感器数据对应的行为类型之后,依据该行为类型在机器人数据库中查找,查找对象为预设对应关系数据库。预设对应关系数据库中包括行为类型以及与行为类型对应的机器行为指令。当匹配出预设对应关系数据库中的某种行为类型,即可得出相应的机器行为指令并进行下一步的操作。优选的,预设对应关系数据库中包括预设行为类型数据,众多预设行为类型数据组合在一起形成预设行为类型数据表,每一个预设行为类型数据都对应一个机器行为指令表,即预设行为类型数据与机器行为指令之间具有映射关系,当然这种映射关系并不是一一映射关系,可能多个不同的行为类型都对应同一个机器行为指令,比如语音行为“拿杯子”,和用手势表示相同的意思,最终的机器行为指令都可能是为了实现“拿来杯子”。从预设对应关系数据库中确定与该行为类型相对应的机器行为指令的具体步骤为:以行为类型为关键词,检索对应关系数据库中的预设行为类型数据表,确定出匹配的预设行为类型,根据所述预设行为类型的映射关系映射生成机器行为指令。当然,这里确定的方式也可以是计算得出,通过机器人对关键词信息的判断,对相关信息进行对应处理获得机器行为指令,例如“递杯子给我”这一行为,机器人获知“杯子”这一具体物,以及杯子的位置,获知“我”这一对象的含义,以及“我”的位置,通过自身位置判断,以及各种情景对象所在环境的地理信息,计算得出机器行为指令,并可以通过执行该机器行为指令完成相关的任务,更深程度的实现方法本技术领域的技术人员通过编程可以实现。当预设行为类型或预设对应关系数据库越丰富,机器人能够反馈的行为就越丰富,因此预设行为类型库和/或预设对应关系数据库需要有不断的更新和补充,更新和补充的方式要么可以直接由用户在机器人上提供的界面中进行相关的设定、补充或者更新,也可以通过与云端服务器相联并进行下载更新,使得预设行为类型数据库和/或预设对应关系数据库的数据来源更加丰富,也能够更加贴近实际,这一技术方案使得相关技术人员利用互联网大数据充分分析人类行为的细节,不断完善预设行为类型数据库,使机器人的智能化充分提高,使其拟人化的程度也更加充分。
优选的,及其行为指令包括:语音指令,以驱动机器人语音播放接口输出语音,和/或视频指令,以驱动机器人视频播放接口输出视频,和/或动作执行指令,以驱动机器人运动单元输出动作。面对人类多种表达方式,机器人也应当具有多种行为表现方式,或者以声音表达,比如当人类提出让机器人播放某一段声音时,向机器人发出指令“我们一起唱国歌”,然后机器人接收该指令,经过处理后,输出机器指令“播放国歌”,该指令驱动机器人开启发声单元播放对应音频。或者机器人捕捉到人的某些表情,比如微笑,经过分析处理获得相对应的机器指令,能够驱动机器人相对应的视频播放接口播放一段欢快的视频,或者显示出笑脸的表情,亦或是得出相对应的动作执行指令,能够驱动机器人运动单元,比如手,指示手臂、手掌相关机器部件形成拍手动作。这些类型的机器指令即可能单独运行,也可以同时运行,比如当人对机器人说出“我们跳一段舞蹈吧”,然后机器人针对该语音信息数据做出判断后,发出机器行为指令,该机器行为指令可以使机器人的音响系统播放音乐,也使视频播放接口比如显示屏播放对应的舞蹈画面,或者做出表情,并且可以驱动机器人相关运动单元,比如腿部运动单元和手部运动单元一起随音乐运动。这些机器行为指令的内容是相关领域技术人员通过编程可以实现的。
S240:依据所述机器行为指令驱动机器人相关接口或单元做出相应的输出行为,作为对其监视对象的反馈。
机器人确定出机器行为指令之后,还需要传输到其自身各个部件上去执行,比如声音播放接口、视频播放接口和/或相关的运动部件(如各种伺服电机)。行为指令的执行有直接依据详细的行为指令所包含的代码来进行,例如简单的播放一段音乐指令,或者播放一段视频的行为指令,也能够通过机器人本身的计算处理能力,依据该行为指令通过内置计算机计算出实际的各部件可执行代码,例如当行为指令是“到卧室的桌子旁边去”时,机器人根据自身的位置,卧室的位置,卧室桌子的位置,所处整个房间的布局,以及这些对象之间的距离等计算判断并执行。
作为一种优选的方案,当传感器数据为地理信息传感器数据时,机器人对地理信息传感器数据的处理如下:当传感器数据为地理信息传感器数据,提取其中的地理信息数据,将地理信息数据与预存在机器人中的预存地理信息数据相匹配,确定出该地理信息数据表征的行为类型,从预设对应关系数据库中确定与该行为类型相对应的机器行为指令,而所述机器行为指令包括速率信息、方向信息和路程信息,发送所述行为指令至机器人以驱动该机器人执行该机器行为指令,使该机器人执行相应的输出行为,改变机器人相对于其监视对象的地理信息。例如,当需要机器人成为家庭成员中某一个人的伙伴时(通常为老人或儿童),就设定该机器人常伴在其设定监视对象的一定距离范围内,当该监视对象运动时,机器人也会相应的运动,并且仍然与该监视对象重新保持设定的距离范围。当监视对象移动之后,超出了该设定的距离范围,机器人身上的地理信息传感器会获取到监视对象的地理信息,比如间距、经纬度、有无障碍物、或者相对坐标等,机器人进行相应处理或计算,得出机器人需要执行的对应机器行为指令,这些行为指令包括有需要移动的速率、移动的方向和移动的距离或者路径等等内容,最终实现随监视对象的移动改变其自身的地理信息(相对于监视对象的位置或距离等),继续保持与监视对象的距离在一定范围之内,完成对监视对象的陪伴。
作为另一优选的方案,传感器数据为触屏传感器数据,提取所述触屏传感器数据中的触控操作信息并将其与预定行为类型库中的预存触控操作信息相匹配,据以确定所述触屏传感器数据对应的行为类型。通过在机器人上设置触屏传感器,如现在的触控屏就是一种很典型的触控传感器设备,在其上设置若干常用的指令选项,当机器人的监视对象对触控屏上的某一指令进行选择后,机器人提取出其中代表的触控操作信息并生成对应的行为类型,之后再根据该行为类型确定出相对应的机器行为指令并交由机器人相关部件执行。此技术方案可以降低指令执行难度,减轻机器人内置计算机的负担,使机器人处理数据速度更快,指令输出更加准确,也最终使得机器人更快反馈被监视对象的指令。
优选的,通常机器人是一种贵重的设备,身份识别是其往往需要具备的功能,从机器人被开发出来到应用,其接触的对象有许多,例如在组装完成后的调试阶段,需要接触研发人员、调试人员等,而在使用时,又会遇到不同身份的使用者,这些人员相对于机器人应当有不同的权限级别,在相应的权限级别内会相应具有这一级别允许的指令修改权限、系统更新权限或者使用权限等,因此,在接收到机器人上传的属于其摄像单元获取的其监视对象的音视频流或相关传感数据的步骤之前还包括,接收到机器人上传的生物特征信息传感器数据,当所述生物特征信息传感器数据与预存生物特征信息匹配,确定所述生物特征信息传感器数据对应的使用者的身份权限,响应于所述身份权限生成相对应的预设反馈指令。在机器人接收音视频流或相关传感器数据并进行相应操作的行为之前设置一步身份验证操作,使得机器人识别出其监视对象的身份,待确认对应的权限后再进行后续操作。例如,面对家庭成员,机器人会按照预存生物特征信息的身份权限听取命令并执行动作,而对于临时到来的客人,机器人则识别出其预存生物特征信息中并不包括该临时客人的生物特征信息,将不会听取该客人的指令,或者依据与客人对应的预设指令执行动作,比如问好等。优选的,生物特征信息传感器数据包括指纹信息数据、虹膜信息数据或声音信息数据中的至少一种,据以与预设身份权限信息对比确定使用者的身份权限,响应于所述身份权限开放相对应的预设反馈权限。通过生物特征信息能够获得准确的身份验证操作,而且这些生物特征信息的采集都十分方便。
适应前述的方法,基于模块化思维,本发明的另一实施例提供一种机器人,如图4所示,包括:
获取模块210,用于获取到属于摄像单元获取的对监视对象的音视频流或相关传感器数据。
分析模块220,用于依据从所述音视频流或所述传感器数据中提取的特征数据,从预定行为类型库中匹配出相对应的行为类型,再从预设对应关系数据库中确定与该行为类型相对应的机器行为指令。
执行模块230,用于依据所述行为指令驱动机器人相关接口或单元做出相应的输出行为,作为对其监视对象的反馈。
本发明的另一实施例提供的机器人交互方法及机器人可以更好实现人与机器人的交互,使其不仅保证机器人具有更高的智能化水平,而且处理问题的效率更快,使机器人拟人化程度也更高。另外,机器人合理利用云端大数据的优势,不断更新自身对行为判断以及应对的数据类别和数量,使其能够应对的问题更加广泛、更加深入和准确,最终实现人与机器人的良好交互。
为便于本领域技术人员更容易理解本发明的实现方式,以下示例叙述实际场景中如何完成人与机器人的交互。
情景之一:在网络状态良好的家庭中,小孩子对伴随其身边的机器人说:“我想喝水。”,机器人通过安装在其头部的麦克风捕捉到这一语音信息,立即通过网络将此语音信息发送到云端服务器,云端服务器向机器人发送出给小孩子倒一杯水的行为指令,机器人获取到之后,按照这一行为指令驱动自身各种运动部件运转,最终到饮水机或饮水瓶出获取到一杯水,送到小孩子身边。
情景之二:在网络状态良好的家庭中,小孩子从卧室的椅子上下来,走到客厅的沙发,作为其伴随者的机器人获取到小孩子位置的变化,其与小孩子的间距超过了一定的范围,于是机器人将此信息立即发送到云端服务器,服务器经过处理后判断小孩子的位置在变动,向机器人发出行为指令,机器人各部件依据该行为指令运动,跟随上小孩子,如果小孩是跑着到的客厅,那么机器人行进速度相对较大,而如果是爬着去的,则其行进速度相对较小,直到二者间距重新符合一定的范围。
情景之三:在网络状态良好的家庭中,家中一天突然来了客人,作为家庭成员的机器人通过摄像头捕捉到该客人的面部影像,并立即将此面部影像上传到服务器,服务器通过对比识别出该客人的身份,向机器人发出行为指令,如果该客人是熟人,则行为指令中包括招待的动作,指引该客人到指定区域休息,如果该客人是陌生人,则行为指令中包括礼貌招呼用语并通过音频播放接口播放,同时开始记录该陌生人的一系列动作信息。
或者是这样的过程:
在家庭中,机器人是小孩子的伙伴,当小孩子在户外的时候,机器人通过测量与小孩子的间距以及小孩子的运动速度,确定自己的运动速度以及与小孩子的间距,当小孩子指着一朵花问“这是什么花?”,机器人身上的麦克风获取到这一声音信息,并判断出小孩子想要获取信息的行为,再通过其身上的摄像单元观察到小孩子的指向,并确定小孩子询问的对象,进一步在自身数据库中查找出与该对象相关的信息,并通过语音播放的形式向小孩子讲解其所指花朵的相关信息,比如名称、品种等。
本技术领域技术人员可以理解,可以用计算机程序指令来实现这些结构图和/或框图和/或流图中的每个框以及这些结构图和/或框图和/或流图中的框的组合。本技术领域技术人员可以理解,可以将这些计算机程序指令提供给通用计算机、专业计算机或其他可编程数据处理方法的处理器来实现,从而通过计算机或其他可编程数据处理方法的处理器来执行本发明公开的结构图和/或框图和/或流图的框或多个框中指定的方案。
本技术领域技术人员可以理解,本发明中已经讨论过的各种操作、方法、流程中的步骤、措施、方案可以被交替、更改、组合或删除。进一步地,具有本发明中已经讨论过的各种操作、方法、流程中的其他步骤、措施、方案也可以被交替、更改、重排、分解、组合或删除。进一步地,现有技术中的具有与本发明中公开的各种操作、方法、流程中的步骤、措施、方案也可以被交替、更改、重排、分解、组合或删除。
以上所述仅是本发明的部分实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。综上所述,本发明所提供的技术方案如下所述:
A1、一种机器人交互控制方法,包括以下步骤:
接收到机器人上传的属于其摄像单元获取的其监视对象的音视频流或相关传感器数据;
依据从所述音视频流或所述传感器数据中提取的特征数据,从预定行为类型库中匹配出相对应的行为类型;
从预设对应关系数据库中确定与该行为类型相对应的机器行为指令;
发送所述机器行为指令至机器人以驱动该机器人执行该机器行为指令,使该机器人执行相应的输出行为,作为对其监视对象的反馈。
A2、根据A1所述的机器人交互控制方法,所述依据从所述音视频流中提取的特征数据,从预定行为类型库中匹配出相对应的行为类型的步骤包括:
提取所述音视频流中音频数据的音频特征信息或关键词信息;
将所述特征信息或关键词信息与预定行为类型库中的预存音频特征信息或预存关键词信息相匹配,据以确定所述音频数据对应的行为类型。
A3、根据1所述的机器人交互控制方法,所述依据从所述音视频流中提取的特征数据,从预定行为类型库中匹配出相对应的行为类型的步骤包括:
提取所述音视频流中视频数据的视频特征帧信息;
将所述视频特征帧信息与预定行为类型库中的预存视频特征帧信息相匹配,据以确定所述视频数据对应的行为类型。
A4、根据A3所述的机器人交互控制方法,所述视频特征帧信息由记载行为动作的图片信息组成,预定时间内连续的若干数量所述图片信息即为所述视频特征帧信息。
A5、根据A1所述的机器人互动方法,所述依据传感器数据,从预定行为类型库中匹配出相对应的行为类型的步骤包括:
提取所述传感器数据中的特定数据字段或信息含义;
将所述特定数据字段或所述信息含义与预定行为类型库中的预存数据字段或预存信息含义相匹配,据以确定所述传感器数据对应的行为类型。
A6、根据A5所述的机器人交互控制方法,所述传感器数据为地理信息传感器数据,提取所述地理信息传感器数据中的地理信息数据,将所述地理信息数据与预存地理信息数据相匹配,据以确定所述地理信息传感器数据表征的行为类型,从预设对应关系数据库中确定与该行为类型相对应的机器行为指令,所述机器行为指令包括速率信息、方向信息和路程信息,发送所述行为指令至机器人以驱动该机器人执行该机器行为指令,使该机器人执行相应的输出行为,改变机器人相对于其监视对象的地理信息。
A7、根据A5所述的机器人交互控制方法,所述传感器数据为触屏传感器数据,提取所述触屏传感器数据中的触控操作信息并将其与预定行为类型库中的预存触控操作信息相匹配,据以确定所述触屏传感器数据对应的行为类型。
A8、根据A1所述的机器人互动方法,所述预设对应关系数据库中包括预设行为类型数据表,和与预设行为类型数据表具有映射关系的机器行为指令表;所述从预设对应关系数据库中确定与该行为类型相对应的机器行为指令的具体步骤为:
以所述行为类型为关键词检索对应关系数据库中的预设行为类型数据表,确定出匹配的预设行为类型,根据所述预设行为类型的映射关系映射生成机器行为指令。
A9、根据A1所述的机器人交互控制方法,所述机器行为指令包括:
语音指令,以驱动机器人语音播放接口输出语音,和/或
视频指令,以驱动机器人视频播放接口输出视频,和/或
动作执行指令,以驱动机器人运动单元输出动作。
A10、根据A1所述的机器人交互方法,在接收到机器人上传的属于其摄像单元获取的其监视对象的音视频流或相关传感数据的步骤之前还包括,接收到机器人上传的生物特征信息传感器数据,当所述生物特征信息传感器数据与预存生物特征信息匹配,确定所述生物特征信息传感器数据对应的使用者的身份权限,响应于所述身份权限生成相对应的预设反馈指令。
A11、根据A10所述的机器人交互方法,所述生物特征信息传感器数据包括指纹信息数据、虹膜信息数据或声音信息数据中的至少一种,据以与预设身份权限信息对比确定使用者的身份权限,响应于所述身份权限开放相对应的预设反馈权限。
A12、根据A1所述的机器人交互控制方法,所述预设行为类型库和/或所述预设对应关系数据库由云端服务器或与云端服务器关联的用户设定或更新。
A13、根据A1所述的机器人交互控制方法,所述上传方式为实时上传。
B14、一种机器人交互控制方法,包括以下步骤:
获取到属于摄像单元获取的对监视对象的音视频流或相关传感器数据;
依据从所述音视频流或所述传感器数据中提取的特征数据,从预定行为类型库中匹配出相对应的行为类型;
从预设对应关系数据库中确定与该行为类型相对应的机器行为指令;
依据所述机器行为指令驱动机器人相关接口或单元做出相应的输出行为,作为对其监视对象的反馈。
B15、根据B14所述的机器人交互控制方法,所述依据从所述音视频流中提取的特征数据,从预定行为类型库中匹配出相对应的行为类型的步骤包括:
提取所述音视频流中音频数据的音频特征信息或关键词信息;
将所述特征信息或关键词信息与预定行为类型库中的预存音频特征信息或预存关键词信息相匹配,据以确定所述音频数据对应的行为类型。
B16、根据B14所述的机器人交互控制方法,所述依据从所述音视频流中提取的特征数据,从预定行为类型库中匹配出相对应的行为类型的步骤包括:
提取所述音视频流中视频数据的视频特征帧信息;
将所述视频特征帧信息与预定行为类型库中的预存视频特征帧信息相匹配,据以确定所述视频数据对应的行为类型。
B17、根据B14所述的机器人交互控制方法,所述依据传感器数据,从预定行为类型库中匹配出相对应的行为类型的步骤包括:
提取所述传感器数据中的特定数据字段或信息含义;
将所述特定数据字段或所述信息含义与预定行为类型库中的预存数据字段或预存信息含义相匹配,据以确定所述传感器数据对应的行为类型。
B18、根据B17所述的机器人交互控制方法,所述传感器数据为地理信息传感器数据,提取所述地理信息传感器数据中的地理信息数据,将所述地理信息数据与预存地理信息数据相匹配,据以确定所述地理信息传感器数据表征的行为类型,从预设对应关系数据库中确定与该行为类型相对应的机器行为指令,所述机器行为指令包括速率信息、方向信息和路程信息,发送所述行为指令至机器人以驱动该机器人执行该机器行为指令,使该机器人执行相应的输出行为,改变机器人相对于其监视对象的地理信息。
B19、根据B17所述的机器人交互控制方法,所述传感器数据为触屏传感器数据,提取所述触屏传感器数据中的触控操作信息并将其与预定行为类型库中的预存触控操作信息相匹配,据以确定所述触屏传感器数据对应的行为类型。
B20、根据B14所述的机器人交互控制方法,所述预设对应关系数据库中包括预设行为类型数据表,和与预设行为类型数据表具有映射关系的机器行为指令表;所述从预设对应关系数据库中确定与该行为类型相对应机器行为指令的具体步骤为:
以所述行为类型为关键词检索对应关系数据库中的预设行为类型数据表,确定出匹配的预设行为类型,根据所述预设行为类型的映射关系映射生成机器行为指令。
B21、根据B14所述的机器人交互控制方法,所述机器行为指令包括:
语音指令,以驱动机器人语音播放接口输出语音,和/或
视频指令,以驱动机器人视频播放接口输出视频,和/或
动作执行指令,以驱动机器人运动单元输出动作。
B22、根据B14所述的机器人交互控制方法,在获取到属于摄像单元获取的其监视对象的音视频流或相关传感数据的步骤之前还包括,接收到生物特征信息传感器数据,当所述生物特征信息传感器数据与预存生物特征信息匹配,确定所述生物特征信息传感器数据对应的使用者的身份权限,响应于所述身份权限生成相对应的预设反馈指令。
B23、根据权利要B22所述的机器人交互控制方法,其特征在于,所述生物特征信息传感器数据包括指纹信息数据、虹膜信息数据或声音信息数据中的至少一种,据以与预设身份权限信息对比确定使用者的身份权限,响应于所述身份权限开放相对应的预设反馈权限。
B24、根据B14所述的机器人交互控制方法,所述预设行为类型库和/或所述预设对应关系数据库由用户设定或下载自云端服务器。
B25、根据B24所述的机器人交互控制方法,所述下载通过蓝牙、Wi-Fi网络、移动数据网络或有线网络进行。
C26、一种机器人交互服务器,包括:
接收模块,用于接收到机器人上传的属于其摄像单元获取的其监视对象的音视频流或相关传感器数据;
解析模块,用于依据从所述音视频流或所述传感器数据中提取的特征数据,从预定行为类型库中匹配出相对应的行为类型;
数据生成模块,用于从预设对应关系数据库中确定与该行为类型相对应机器行为指令;
发送模块,用于发送所述行为指令至机器人以驱动该机器人执行该机器行为指令,使该机器人做出相应的输出行为,作为对其监视对象的反馈。
D27、一种机器人,包括:
获取模块,用于获取到属于摄像单元获取的对监视对象的音视频流或相关传感器数据;
分析模块,用于依据从所述音视频流或所述传感器数据中提取的特征数据,从预定行为类型库中匹配出相对应的行为类型,再从预设对应关系数据库中确定与该行为类型相对应的机器行为指令;
执行模块,用于依据所述行为指令驱动机器人相关接口或单元做出相应的输出行为,作为对其监视对象的反馈。

Claims (22)

1.一种机器人交互控制方法,其特征在于,包括以下步骤:
接收到机器人上传的属于其摄像单元获取的其监视对象的音视频流或相关传感器数据;
依据从所述音视频流或所述传感器数据中提取的特征数据,从预定行为类型库中匹配出相对应的行为类型;
所述依据从所述音视频流中提取的特征数据,从预定行为类型库中匹配出相对应的行为类型的步骤包括:
提取所述音视频流中音频数据的音频特征信息或关键词信息;
将所述特征信息或关键词信息与预定行为类型库中的预存音频特征信息或预存关键词信息相匹配,据以确定所述音频数据对应的行为类型;
所述依据从所述传感器数据中提取的特征数据,从预定行为类型库中匹配出相对应的行为类型,包括:
提取所述传感器数据中的特定数据字段或信息含义;
将所述特定数据字段或所述信息含义与预定行为类型库中的预存数据字段或预存信息含义相匹配,据以确定所述传感器数据对应的行为类型;每个所述行为类型包括一个或多个对应的预存数据字段或信息含义;
从预设对应关系数据库中确定与该行为类型相对应的机器行为指令;所述预定行为类型库和/或所述预设对应关系数据库由云端服务器或与云端服务器关联的用户设定或更新;
发送所述机器行为指令至机器人以驱动该机器人执行该机器行为指令,使该机器人执行相应的输出行为,作为对其监视对象的反馈。
2.根据权利要求1所述的机器人交互控制方法,其特征在于,所述依据从所述音视频流中提取的特征数据,从预定行为类型库中匹配出相对应的行为类型的步骤包括:
提取所述音视频流中视频数据的视频特征帧信息;
将所述视频特征帧信息与预定行为类型库中的预存视频特征帧信息相匹配,据以确定所述视频数据对应的行为类型。
3.根据权利要求2所述的机器人交互控制方法,其特征在于,所述视频特征帧信息由记载行为动作的图片信息组成,预定时间内连续的若干数量所述图片信息即为所述视频特征帧信息。
4.根据权利要求1所述的机器人交互控制方法,其特征在于,所述传感器数据为地理信息传感器数据,提取所述地理信息传感器数据中的地理信息数据,将所述地理信息数据与预存地理信息数据相匹配,据以确定所述地理信息传感器数据表征的行为类型,从预设对应关系数据库中确定与该行为类型相对应的机器行为指令,所述机器行为指令包括速率信息、方向信息和路程信息,发送所述行为指令至机器人以驱动该机器人执行该机器行为指令,使该机器人执行相应的输出行为,改变机器人相对于其监视对象的地理信息。
5.根据权利要求1所述的机器人交互控制方法,其特征在于,所述传感器数据为触屏传感器数据,提取所述触屏传感器数据中的触控操作信息并将其与预定行为类型库中的预存触控操作信息相匹配,据以确定所述触屏传感器数据对应的行为类型。
6.根据权利要求1所述的机器人交互控制方法,其特征在于,所述预设对应关系数据库中包括预设行为类型数据表,和与预设行为类型数据表具有映射关系的机器行为指令表;所述从预设对应关系数据库中确定与该行为类型相对应的机器行为指令的具体步骤为:
以所述行为类型为关键词检索对应关系数据库中的预设行为类型数据表,确定出匹配的预设行为类型,根据所述预设行为类型的映射关系映射生成机器行为指令。
7.根据权利要求1所述的机器人交互控制方法,其特征在于,所述机器行为指令包括:
语音指令,以驱动机器人语音播放接口输出语音,和/或
视频指令,以驱动机器人视频播放接口输出视频,和/或
动作执行指令,以驱动机器人运动单元输出动作。
8.根据权利要求1所述的机器人交互控制方法,其特征在于,在接收到机器人上传的属于其摄像单元获取的其监视对象的音视频流或相关传感数据的步骤之前还包括,接收到机器人上传的生物特征信息传感器数据,当所述生物特征信息传感器数据与预存生物特征信息匹配,确定所述生物特征信息传感器数据对应的使用者的身份权限,响应于所述身份权限生成相对应的预设反馈指令。
9.根据权利要求8所述的机器人交互控制方法,其特征在于,所述生物特征信息传感器数据包括指纹信息数据、虹膜信息数据或声音信息数据中的至少一种,据以与预设身份权限信息对比确定使用者的身份权限,响应于所述身份权限开放相对应的预设反馈权限。
10.根据权利要求1所述的机器人交互控制方法,其特征在于,所述上传方式为实时上传。
11.一种机器人交互控制方法,其特征在于,包括以下步骤:
获取到属于摄像单元获取的对监视对象的音视频流或相关传感器数据;
依据从所述音视频流或所述传感器数据中提取的特征数据,从预定行为类型库中匹配出相对应的行为类型;
所述依据从所述音视频流中提取的特征数据,从预定行为类型库中匹配出相对应的行为类型的步骤包括:
提取所述音视频流中音频数据的音频特征信息或关键词信息;
将所述特征信息或关键词信息与预定行为类型库中的预存音频特征信息或预存关键词信息相匹配,据以确定所述音频数据对应的行为类型;
所述依据从所述传感器数据中提取的特征数据,从预定行为类型库中匹配出相对应的行为类型,包括:
提取所述传感器数据中的特定数据字段或信息含义;
将所述特定数据字段或所述信息含义与预定行为类型库中的预存数据字段或预存信息含义相匹配,据以确定所述传感器数据对应的行为类型;每个所述行为类型包括一个或多个对应的预存数据字段或信息含义;
从预设对应关系数据库中确定与该行为类型相对应的机器行为指令;所述预定行为类型库和/或所述预设对应关系数据库下载自云端服务器;
依据所述机器行为指令驱动机器人相关接口或单元做出相应的输出行为,作为对其监视对象的反馈。
12.根据权利要求11所述的机器人交互控制方法,其特征在于,所述依据从所述音视频流中提取的特征数据,从预定行为类型库中匹配出相对应的行为类型的步骤包括:
提取所述音视频流中视频数据的视频特征帧信息;
将所述视频特征帧信息与预定行为类型库中的预存视频特征帧信息相匹配,据以确定所述视频数据对应的行为类型。
13.根据权利要求11所述的机器人交互控制方法,其特征在于,所述传感器数据为地理信息传感器数据,提取所述地理信息传感器数据中的地理信息数据,将所述地理信息数据与预存地理信息数据相匹配,据以确定所述地理信息传感器数据表征的行为类型,从预设对应关系数据库中确定与该行为类型相对应的机器行为指令,所述机器行为指令包括速率信息、方向信息和路程信息,发送所述行为指令至机器人以驱动该机器人执行该机器行为指令,使该机器人执行相应的输出行为,改变机器人相对于其监视对象的地理信息。
14.根据权利要求11所述的机器人交互控制方法,其特征在于,所述传感器数据为触屏传感器数据,提取所述触屏传感器数据中的触控操作信息并将其与预定行为类型库中的预存触控操作信息相匹配,据以确定所述触屏传感器数据对应的行为类型。
15.根据权利要求11所述的机器人交互控制方法,其特征在于,所述预设对应关系数据库中包括预设行为类型数据表,和与预设行为类型数据表具有映射关系的机器行为指令表;所述从预设对应关系数据库中确定与该行为类型相对应机器行为指令的具体步骤为:
以所述行为类型为关键词检索对应关系数据库中的预设行为类型数据表,确定出匹配的预设行为类型,根据所述预设行为类型的映射关系映射生成机器行为指令。
16.根据权利要求11所述的机器人交互控制方法,其特征在于,所述机器行为指令包括:
语音指令,以驱动机器人语音播放接口输出语音,和/或
视频指令,以驱动机器人视频播放接口输出视频,和/或
动作执行指令,以驱动机器人运动单元输出动作。
17.根据权利要求11所述的机器人交互控制方法,其特征在于,在获取到属于摄像单元获取的其监视对象的音视频流或相关传感数据的步骤之前还包括,接收到生物特征信息传感器数据,当所述生物特征信息传感器数据与预存生物特征信息匹配,确定所述生物特征信息传感器数据对应的使用者的身份权限,响应于所述身份权限生成相对应的预设反馈指令。
18.根据权利要求17所述的机器人交互控制方法,其特征在于,所述生物特征信息传感器数据包括指纹信息数据、虹膜信息数据或声音信息数据中的至少一种,据以与预设身份权限信息对比确定使用者的身份权限,响应于所述身份权限开放相对应的预设反馈权限。
19.根据权利要求11所述的机器人交互控制方法,其特征在于,所述预定行为类型库和/或所述预设对应关系数据库由用户设定。
20.根据权利要求19所述的机器人交互控制方法,其特征在于,所述下载通过蓝牙、Wi-Fi网络、移动数据网络或有线网络进行。
21.一种机器人交互服务器,其特征在于,包括:
接收模块,用于接收到机器人上传的属于其摄像单元获取的其监视对象的音视频流或相关传感器数据;
解析模块,用于依据从所述音视频流或所述传感器数据中提取的特征数据,从预定行为类型库中匹配出相对应的行为类型;所述依据从所述音视频流中提取的特征数据,从预定行为类型库中匹配出相对应的行为类型的步骤包括:提取所述音视频流中音频数据的音频特征信息或关键词信息;将所述特征信息或关键词信息与预定行为类型库中的预存音频特征信息或预存关键词信息相匹配,据以确定所述音频数据对应的行为类型;所述依据从所述传感器数据中提取的特征数据,从预定行为类型库中匹配出相对应的行为类型,包括:
提取所述传感器数据中的特定数据字段或信息含义;
将所述特定数据字段或所述信息含义与预定行为类型库中的预存数据字段或预存信息含义相匹配,据以确定所述传感器数据对应的行为类型;每个所述行为类型包括一个或多个对应的预存数据字段或信息含义;
数据生成模块,用于从预设对应关系数据库中确定与该行为类型相对应机器行为指令;所述预定行为类型库和/或所述预设对应关系数据库由云端服务器或与云端服务器关联的用户设定或更新;
发送模块,用于发送所述行为指令至机器人以驱动该机器人执行该机器行为指令,使该机器人做出相应的输出行为,作为对其监视对象的反馈。
22.一种机器人,其特征在于,包括:
获取模块,用于获取到属于摄像单元获取的对监视对象的音视频流或相关传感器数据;
分析模块,用于依据从所述音视频流或所述传感器数据中提取的特征数据,从预定行为类型库中匹配出相对应的行为类型,再从预设对应关系数据库中确定与该行为类型相对应的机器行为指令;所述依据从所述音视频流中提取的特征数据,从预定行为类型库中匹配出相对应的行为类型的步骤包括:提取所述音视频流中音频数据的音频特征信息或关键词信息;将所述特征信息或关键词信息与预定行为类型库中的预存音频特征信息或预存关键词信息相匹配,据以确定所述音频数据对应的行为类型;所述依据从所述传感器数据中提取的特征数据,从预定行为类型库中匹配出相对应的行为类型,包括:
提取所述传感器数据中的特定数据字段或信息含义;
将所述特定数据字段或所述信息含义与预定行为类型库中的预存数据字段或预存信息含义相匹配,据以确定所述传感器数据对应的行为类型;每个所述行为类型包括一个或多个对应的预存数据字段或信息含义;所述预定行为类型库和/或所述预设对应关系数据库下载自云端服务器;
执行模块,用于依据所述行为指令驱动机器人相关接口或单元做出相应的输出行为,作为对其监视对象的反馈。
CN201710013365.1A 2017-01-09 2017-01-09 机器人交互控制方法、服务器和机器人 Active CN106873773B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710013365.1A CN106873773B (zh) 2017-01-09 2017-01-09 机器人交互控制方法、服务器和机器人

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710013365.1A CN106873773B (zh) 2017-01-09 2017-01-09 机器人交互控制方法、服务器和机器人

Publications (2)

Publication Number Publication Date
CN106873773A CN106873773A (zh) 2017-06-20
CN106873773B true CN106873773B (zh) 2021-02-05

Family

ID=59164756

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710013365.1A Active CN106873773B (zh) 2017-01-09 2017-01-09 机器人交互控制方法、服务器和机器人

Country Status (1)

Country Link
CN (1) CN106873773B (zh)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109165057B (zh) * 2017-06-28 2021-03-30 华为技术有限公司 一种智能设备执行任务的方法和装置
CN107221332A (zh) * 2017-06-28 2017-09-29 上海与德通讯技术有限公司 机器人的交互方法及系统
CN107463626A (zh) * 2017-07-07 2017-12-12 深圳市科迈爱康科技有限公司 一种声控式教育方法、移动终端、系统及存储介质
CN107908429B (zh) * 2017-08-10 2021-07-23 广州真诺电子科技有限公司 应用于机器人软件工程师的人机交互与编程系统
CN107807734B (zh) * 2017-09-27 2021-06-15 北京光年无限科技有限公司 一种用于智能机器人的交互输出方法以及系统
CN107770271A (zh) * 2017-10-20 2018-03-06 南方电网科学研究院有限责任公司 集群机器人云控制方法、装置和系统
CN108124008A (zh) * 2017-12-20 2018-06-05 山东大学 一种智能空间环境下的老人陪护系统及方法
CN108780361A (zh) * 2018-02-05 2018-11-09 深圳前海达闼云端智能科技有限公司 人机交互方法、装置、机器人及计算机可读存储介质
CN108491790A (zh) * 2018-03-20 2018-09-04 上海乐愚智能科技有限公司 一种目标物的确定方法、装置、存储介质及机器人
CN110415688B (zh) * 2018-04-26 2022-02-08 杭州萤石软件有限公司 一种信息交互方法及机器人
CN109189363A (zh) * 2018-07-24 2019-01-11 上海常仁信息科技有限公司 一种人机交互的机器人
WO2020077631A1 (zh) * 2018-10-19 2020-04-23 深圳配天智能技术研究院有限公司 控制机器人的方法、服务器、存储介质及云服务平台
CN109166386A (zh) * 2018-10-25 2019-01-08 重庆鲁班机器人技术研究院有限公司 儿童逻辑思维辅助训练方法、装置及机器人
CN110135317A (zh) * 2019-05-08 2019-08-16 深圳达实智能股份有限公司 基于协同计算体系的行为监控和管理系统和方法
CN110497404B (zh) * 2019-08-12 2021-12-28 安徽云探索网络科技有限公司 一种机器人仿生式智能决策系统
CN110505309B (zh) * 2019-08-30 2022-02-25 苏州博众机器人有限公司 网络通信方法、装置、设备及存储介质
CN110695989A (zh) * 2019-09-20 2020-01-17 浙江树人学院(浙江树人大学) 一种用于智能机器人的视听交互系统及其交互控制方法
CN111079116B (zh) * 2019-12-29 2020-11-24 钟艳平 基于模拟驾驶舱的身份识别方法、装置和计算机设备
CN111459451A (zh) * 2020-03-31 2020-07-28 北京市商汤科技开发有限公司 交互对象的驱动方法、装置、设备以及存储介质
CN111860231A (zh) * 2020-07-03 2020-10-30 厦门欧准卫浴有限公司 基于家用场合的通用用水模块
CN112017030A (zh) * 2020-09-01 2020-12-01 中国银行股份有限公司 一种银行网点智能服务的方法和装置
CN113625662B (zh) * 2021-07-30 2022-08-30 广州玺明机械科技有限公司 用于摇饮料机器人的数据采集传输的律动动感控制系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105912128A (zh) * 2016-04-29 2016-08-31 北京光年无限科技有限公司 面向智能机器人的多模态交互数据处理方法及装置
CN106228978A (zh) * 2016-08-04 2016-12-14 成都佳荣科技有限公司 一种语音识别方法
CN106250400A (zh) * 2016-07-19 2016-12-21 腾讯科技(深圳)有限公司 一种音频数据处理方法、装置以及系统
US9552056B1 (en) * 2011-08-27 2017-01-24 Fellow Robots, Inc. Gesture enabled telepresence robot and system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105320872A (zh) * 2015-11-05 2016-02-10 上海聚虹光电科技有限公司 基于虹膜识别的机器人操作权限设定方法
CN105468145B (zh) * 2015-11-18 2019-05-28 北京航空航天大学 一种基于手势和语音识别的机器人人机交互方法和装置
CN106055105A (zh) * 2016-06-02 2016-10-26 上海慧模智能科技有限公司 机器人和人机交互系统
CN106200962A (zh) * 2016-07-08 2016-12-07 北京光年无限科技有限公司 面向智能机器人的交互方法及系统
CN106239511A (zh) * 2016-08-26 2016-12-21 广州小瓦智能科技有限公司 一种基于头部运动的机器人移动控制方式

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9552056B1 (en) * 2011-08-27 2017-01-24 Fellow Robots, Inc. Gesture enabled telepresence robot and system
CN105912128A (zh) * 2016-04-29 2016-08-31 北京光年无限科技有限公司 面向智能机器人的多模态交互数据处理方法及装置
CN106250400A (zh) * 2016-07-19 2016-12-21 腾讯科技(深圳)有限公司 一种音频数据处理方法、装置以及系统
CN106228978A (zh) * 2016-08-04 2016-12-14 成都佳荣科技有限公司 一种语音识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"物理人_机器人交互研究与发展现状";熊根良等;《光学 精密工程》;20130215;第21卷(第2期);第356-370页 *

Also Published As

Publication number Publication date
CN106873773A (zh) 2017-06-20

Similar Documents

Publication Publication Date Title
CN106873773B (zh) 机器人交互控制方法、服务器和机器人
JP6752870B2 (ja) 複数のウェイクワードを利用して人工知能機器を制御する方法およびシステム
JP6984004B2 (ja) 自律パーソナルコンパニオンによってユーザの人工知能モデルが実行するためのユーザのコンテクスト環境を記述する識別タグに基づくシナリオの継続的選択
KR102306624B1 (ko) 지속적 컴패니언 디바이스 구성 및 전개 플랫폼
US8583287B2 (en) Robotic system, robot control method and robot control program
US8594845B1 (en) Methods and systems for robotic proactive informational retrieval from ambient context
JP5040865B2 (ja) ロボット制御システム、遠隔管理装置、遠隔管理方法及びプログラム
JP7260221B2 (ja) ロボット対話方法およびデバイス
WO2015178078A1 (ja) 情報処理装置、情報処理方法及びプログラム
WO2019072104A1 (zh) 互动方法和设备
CN107977625B (zh) 一种可寻物的智能可移动设备及智能寻物方法
WO2018108176A1 (zh) 机器人视频通话控制方法、装置及终端
KR102740847B1 (ko) 사용자 입력 처리 방법 및 이를 지원하는 전자 장치
CN106325065A (zh) 机器人交互行为的控制方法、装置及机器人
US11074491B2 (en) Emotionally intelligent companion device
KR20190079791A (ko) 인공지능 기기에서의 복수의 호출 용어를 이용한 서비스 제공 방법 및 그 시스템
CN106325228A (zh) 机器人的控制数据的生成方法及装置
JP2019012506A (ja) 機械の自動活性のための方法及びシステム
JPWO2020026799A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US20130159400A1 (en) User device, server, and operating conditions setting system
CN106325113B (zh) 机器人控制引擎及系统
WO2001082646A1 (en) Cellular phone and remote control system
WO2016206645A1 (zh) 为机器装置加载控制数据的方法及装置
CN114488879B (zh) 一种机器人控制方法以及机器人
KR20200117712A (ko) 사용자와 교감이 가능한 인공지능 스마트 스피커

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant