CN1392826A - 机器人设备及其控制方法 - Google Patents
机器人设备及其控制方法 Download PDFInfo
- Publication number
- CN1392826A CN1392826A CN01803025A CN01803025A CN1392826A CN 1392826 A CN1392826 A CN 1392826A CN 01803025 A CN01803025 A CN 01803025A CN 01803025 A CN01803025 A CN 01803025A CN 1392826 A CN1392826 A CN 1392826A
- Authority
- CN
- China
- Prior art keywords
- robot device
- behavior
- user
- awakening
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H11/00—Self-movable toy figures
- A63H11/18—Figure toys which perform a realistic walking motion
- A63H11/20—Figure toys which perform a realistic walking motion with pairs of legs, e.g. horses
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H2200/00—Computerized interactive toys, e.g. dolls
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
- Toys (AREA)
Abstract
首先,记录用户的使用历史,并且根据该使用历史确定机器人设备的下一动作。其次,根据表示在预定时间期间对于机器人设备的活动趋势的周期性的周期参数确定机器人设备的活动,机器人设备的各个部分按照所确定的动作运动。第三,评估由预定外部刺激检测装置所检测的外部刺激,判断是否该外部刺激是由于用户的行为,每个行为的外部刺激被转化为预定参数的数字值,按照该参数确定动作,机器人设备的各个部分按照所确定的动作运动。
Description
技术领域
本发明涉及一种机器人设备及其控制方法,具体来说适于应用到宠物机器人上。
背景技术
近些年来,已经由本发明的受让者提出和开发了具有四条腿的行走型机器人,它根据用户的指令和周围的环境而行动。这样的宠物机器人看起来象一条狗或一只猫,它被保持在普通的房屋内并根据用户的指令和周围的环境而自主行动。应该注意到,下面,单词“行为”用来表示一组动作。
如果这样的宠物机器人具有将宠物机器人的生活节律适应于用户的生活节律的功能,则宠物机器人可以被认为具有进一步改善的娱乐特性,作为结果,用户将获得更大的亲近感和满意感。
发明内容
本发明考虑到上述的情况而作出,并意欲获得可以提供改善的娱乐特性的一种机器人设备及其控制方法。
本发明的上述和其他目的已经通过提供一种机器人设备及其控制方法而获得,其中用户使用的历史被建立在时间轴方向上并被存储在一存储装置上,下一个行为根据用户的历史来判定。作为结果,在该机器人设备及其控制方法中,机器人设备的生活节律可以适应于用户的生活节律,因此使得有可能实现具有进一步改善的娱乐特性的一种机器人设备及其控制方法,以便用户可以从该机器人获得更大的亲近感。
而且,在本发明的机器人设备及其控制方法中,根据周期参数来确定机器人设备的行为,这使得机器人设备的行为对于每个指定的时期具有周期性的趋势,并且机器人设备的每部分被根据所确定的行为而驱动。作为结果,在机器人设备及其控制方法中,机器人设备的生活节律可以适应于用户的生活节律,因此使得有可能实现具有改善的娱乐特性的机器人设备及其控制方法,以便用户可以获得更大的亲近感。
而且,在本发明的机器人设备及其控制方法中,由指定的外界刺激检测装置检测的外界刺激被评估以判断是否该刺激来自用户,来自用户的刺激被转换为预定的数字参数并且根据该参数确定行为,然后机器人设备的每个部分被根据所确定的行为驱动。作为结果,在机器人设备及其控制方法中,机器人设备的生活节律可以适应于用户的生活节律,因此使得有可能实现具有改善的娱乐特性的机器人设备及其控制方法,以便用户可以获得更大的亲近感。
附图说明
图1是示出应用了本发明的宠物机器人的外部结构的透视图;
图2是示出宠物机器人的电路布置的方框图;
图3是示出成长模型的概念图;
图4是说明控制器的处理的方框图;
图5是说明在情感/本能模型部分中的数据处理的概念图;
图6是示出了概率机器人的概念图;
图7是示出了状态转换表的概念图;
图8是说明定向图的概念图;
图9示出了说明觉醒参数(awakening parameter)表的示意图;
图10是示出建立觉醒参数表的处理步骤的流程图;
图11是说明获得交互级(interaction level)的示意图;和
图12示出了说明按照另一个实施例的觉醒参数表的示意图。
具体实施方式
以下,参照附图来说明本发明的优选实施例:
参见图1,标号1示出了一宠物机器人,其中腿单元3A到3D被安装到身体单元2的前、后、左和右处,并且头单元4和尾单元5被安装在身体单元2的前端和后端。
在这种情况下,身体单元2包含:一控制器10,用于控制宠物机器人1的整体动作;一电池11,作为宠物机器人1的电源;和一内部传感器部分15,由电池传感器12、热传感器13和加速传感器14,如图2所示。
头单元4包括在固定位置的:一外部传感器部分19,包含一用作宠物机器人1的“耳朵”的麦克风16、一CCD(电荷耦合器件)照相机17,用作“眼睛”;一触摸传感器18;和一扬声器20,用作“嘴”;等等。
还有,传动器211至21n被安装在腿单元3A至3B、腿单元3A至3B和身体单元2的关节部分、头单元4和身体单元2的关节部分、和尾单元5与身体单元2的关节部分等处。
外部传感器部分19的麦克风16接收指示“走”、“躺下”或“追赶球”的命令声音——该命令声音由用户按音阶通过未示出的声音命令器发出——并向控制器10发送所获得的音频信号S1A。而且,CCD照相机17对周围环境照相并将所获得的视频信号S1B发送到控制器10。
而且,可以从图1看出,触摸传感器18被提供在头单元4的顶部以检测由用户的身体刺激,如“抚摸”或“打击”而产生的压力,并将检测的结果作为压力检测信号S1C发送到控制器10。
内部传感器部分15的电池传感器12检测电池11的能量级并将检测结果作为电池等级检测信号S2A发送到控制器10。热传感器13检测宠物机器人1的内部温度并将检测结果作为温度检测信号S2B发送到控制器10。加速传感器14检测在三个轴方向(X轴方向、Y轴方向和Z轴方向)上的加速度并将检测的结果作为加速度检测信号S2C发送到控制器10。
控制器10根据从外部传感器部分19发出的音频信号S1A、视频信号S1B和压力检测信号S1C(以下将它们一起称为外部信息信号S1)和从内部传感器部分15发出的电池等级信号S2A、温度检测信号S2B和加速度检测信号S2C(以下将它们一起称为内部信息信号S2)来判断外部和内部状态、来自用户的命令和来自用户的刺激的存在。
然后,控制器10根据判断结果和预先存储在存储器10A中的控制程序来确定下一个行为,并根据确定结果来驱动必要的传动器211到21n,以便作出行为或动作,例如,使得头单元4上下左右活动、使得尾单元5的尾部5A活动、使得腿单元3A到3D活动来行走,等等。
在此,如果必要的话,控制器10产生音频信号S3,并将其提供到扬声器20,以便根据音频信号S3向外部或向未示出的闪烁LED(发光二极管)输出声音,闪烁LED被安装在宠物机器人1的“眼睛”位置。
以这种方式,宠物机器人1可以自主按照外部和内部状态、来自用户的命令和来自用户的刺激等作出行为。
在前述的操作之外,宠物机器人1被安排成根据操作输入的历史,如来自用户的刺激和利用声音命令器的命令以及它自己的行为和动作,来改变它的行为和动作,就好象真正的动物成长那样。
也就是说,宠物机器人1具有“婴儿时期”、“儿童时期”、“青年时期”和“成人时期”这四个“成长步骤”作为成长过程,如图3所示。控制器10的存储器10A存储由各种控制参数和控制程序组成的行为和动作模型作为针对每个“成长步骤”的与“走”、“运动”、“行为”和“声音”相关的行为和动作的基础。
因此,按照来自外部的输入的历史和它自己的行为和动作,宠物机器人1基于“婴儿时期”、“儿童时期”、“青年时期”和“成人时期”这四个步骤成长。
注意可以从图3知道,本实施例提供了对于“儿童时期”、“青年时期”和“成人时期”中每个“成长步骤”的多个行为和动作模型。
因此,宠物机器人1可以根据来自用户的刺激和命令以及它自己的行为和动作输入的历史,来随着“成长”而改变“行为”,就好象真正的动物根据如何被它的拥有者抚养那样来作出它的行为。
(2)处理器2的处理
下面说明在宠物机器人1中由控制器10进行的具体处理。
如图4所示,由控制器2处理的内容被从功能上划分为5个部分:状态识别机构部分30,用于识别外部和内部状态;情感/本能模型部分31,用于根据从状态识别机构部分30获得的识别结果来确定情感和本能的状态;行为确定机构部分32,用于根据从状态识别机构部分30获得的识别结果和情感/本能模型部分31的输出来确定下一行为和动作;姿势转换机构部分33,用于作出关于如何使得宠物机器人1进行由行为确定机构部分32确定的行为和动作的一行动计划;和一装置控制机构部分34,用于根据姿势转换机构部分33作出的运动计划来控制传送器211到21n。
下面,将说明状态识别机构部分30、情感/本能模型部分31、行为确定机构部分32、姿势转换机构部分33、装置控制机构部分34和成长控制机构部分35。
(2-1)状态识别机构部分30的操作
状态识别机构部分30根据从外部传感器部分19(图2)发出的外部信息信号S1和从内部传感器部分15发出的内部信息信号S2来识别具体的状态,并向情感/本能模型部分31和行为确定机构部分32发出识别结果作为状态识别信息S10。
实际上,状态识别机构部分30总是查看从外部传感器部分19的麦克风16(图2)发出的音频信号S1A,并且在检测到音频信号S1A的频谱具有与从声音命令器输出的关于诸如“走”、“躺下”和“追球”的命令的命令声音相同的音阶的时候,识别该命令被发出,并将该识别结果发送到情感/本能模型部分31和行为确定机构部分32。
此外,状态识别机构部分30总是查看从CCD照相机17(图2)发出的视频信号S1B,并且当根据视频信号S1B检测到“红色的东西”或“垂直于地面和高于指定高度的平面”的时候,识别“有一个球”或“有一堵墙”,然后将识别结果发送到情感/本能模型部分31和行为确定机构部分32。
而且,状态识别机构部分30总是查看从触摸传感器18(图2)发出的压力检测信号S1C,并且当根据压力检测信号S1C检测到在短时间(例如少于两秒)中其值高于预定阈值的压力的时候,识别“它被打击(申斥)”,另一方面,当检测到在长时间(例如两秒或更多)中其值低于预定阈值的压力的时候,识别“它被抚摸(表扬)”。然后,状态识别机构部分30向情感/本能模型部分31和行为确定机构部分32提供识别结果。
而且,状态识别机构部分30总是查看从内部传感器部分15的加速度传感器14(图2)发出的加速度检测信号S2C,并且当基于加速度检测信号S2C检测到具有高于预设的预定等级的加速度的时候,识别“它收到了大的冲击”,或者当检测到象重力加速度那样的更大的加速度的时候,识别“它(从桌子等)摔下来”。然后状态识别机构部分30向情感/本能模型部分31和行为确定机构部分32发出该识别结果。
而且,状态识别机构部分30总是查看从热传感器13(图2)发出的温度检测信号S2B,并且当基于温度检测信号S2B检测到高于预定等级的温度的时候,识别“内部温度已经升高”并随后向情感/本能模型部分31和行为确定机构部分32发出该识别结果。
(2-2)通过情感/本能模型部分31的操作
如图5所示的情感/本能模型部分31具有:一组基本的情感,由作为情感模型的情感单元40A到40F组成,对应于“喜悦”、“悲伤”、“惊讶”、“恐惧”、“憎恨”和“愤怒”这六种情感;一组基本的愿望41,由作为愿望模型的愿望单元41A到41D组成,对应于“食欲”、“友爱”、“探索”和“锻炼”这四种愿望;和强度变动函数42A到42H,对应于情感单元40A到40F和愿望单元41A到41D。
例如,每个情感单元40A到40F通过它的从等级0到等级100的强度范围表示相应情感的强度,并时时地根据来自相应的强度变动函数42A到42F的强度信息A11A到A11F来改变强度。
类似于情感单元40A到40F,每个愿望单元41A到41D通过从0到100的等级范围来表示相应的愿望的强度,并时时地根据来自相应的强度变动函数42G到42K的强度信息S12G到S12F的强度来改变强度。
然后,情感/本能模型部分31通过合并这些情感单元40A到40F来确定情感,并且通过合并这些情感单元41A到41D的强度来确定感觉,并然后向行为确定机构部分32输出所确定的情感和感觉状态作为情感/本能状态信息S12。
注意,强度变动函数42A到42G是用于基于状态识别信息S10和行为信息S13而产生和输出用以根据上述的预设参数而提高或降低情感单元40A到40F的强度的强度信息S11A到A11G的函数,其中,状态识别信息S10来自状态识别机构部分30,行为信息S13来自行为确定机构部分32,指示宠物机器人1本身的现在或过去的行为,后面将对此进行说明。
在这种操作下,宠物机器人1可以通过将这些强度变动函数42A到42G的参数设置为针对每种行为和行动模型(婴儿1,儿童1,儿童2,青年1到青年3,成人1到成人4)的不同的值而具有它的诸如“好斗”或“害羞”的特点。
(2-3)行为确定机构部分32的操作
行为确定机构部分32在存储器10A种具有针对每种行为和行动模型(婴儿1,儿童1,儿童2,青年1到青年3,成人1到成人4)的多个行为模型。
基于来自状态识别机构部分30的状态识别信息S10、情感/本能模型部分31的情感单元40A到40F和愿望单元41A到41D的强度与对应的行为模型,行为确定机构部分32确定下一个行为和动作,并向姿势转换机构部分33输出改确定结果作为行为确定信息S14。
在此,作为确定下一个行为和动作的技术,行为确定机构部分32使用称为概率机器人的算法,它根据对于在节点NDA0到NDAn之间连接的弧ARA0到ARAn设定的转换概率P0到Pn,概率确定转换从一个节点(状态)NDA0到相同的或另一个节点NDA0到NDAn作出,如图6所示。
更具体而言,存储器10A存储了图7所示的状态转换表50作为对于每个节点NDA0到NDAn的行为模型,以便行为确定机构部分32根据此状态转换表50确定下一个行为和动作。
在此状态转换表50中,以优先顺序在“输入事件名称”一行中示出了作为从节点NDA0到NDAn转换的条件的输入事件(识别结果),并且在“数据名称”和“数据范围”行的相同的行中示出了对于转换条件的更多的条件。
对于在图7的状态转换表50中定义的节点ND100,在获得“发现一个球”的识别结果的情况下,或在获得“发现一个障碍物”的识别结果的情况下,使得转换到另一个节点的条件是,与识别结果一起被提供的信息,球的“大小”是“在0到1000之间(0,1000)”,或者与识别结果一起被提供的信息,与障碍物的“距离”是“在0到100之间(0,100)”。
另外,如果没有识别结果输入,则可以当在情感单元40A到40F和愿望单元41A到41D的强度中,“喜悦”、“惊讶”或“悲伤”中的任何一个情感单元40A到40F的强度“在50和100之间(50,100)”的时候进行从此节点ND100到另一个节点的转换,其中情感单元40A到40F和愿望单元41A到41D的强度被行为确定机构部分32周期性地查看。
另外,在状态转换表50中,在“向另一个节点的转换概率”列中的“转换目的节点”行中示出了可以从节点NDA0到NDAn向其转换的各节点的名称,并且在“向另一个节点的转换概率”列中的“输出行为”行中示出了向另一个节点NDA0到NDAn的转换概率,在此节点可以在满足在“输入事件名称”、“数据名”和“数据范围” 中示出的所有条件的时候进行转换。应当注意,在“向另一个节点的转换概率”列中的各行中转换概率的和是100%。
因此,对于节点NODE100这个例子,在“发现一个球”和获得指示球的“大小”在“0和1000之间(0,1000)”的识别结果的情况下,可以以概率“30%”进行向节点“NODE120(节点120)”的转换,并且在此,将输出“行动1”的行为和动作。
每个行为模型包括相互连接的节点NDA0到NDAn,它们由状态转换表50示出。
如上所述,当从状态识别机构部分30接收到状态识别信息S10的时候,或当在执行了最后的行动后过去了预定的时间的时候,行为确定机构部分32通过参照与对应于在存储器10A中存储的相应行为模型的节点NDA0到NDAn相关的状态转换表50而大概确定下一个行为和行动(在“输出行为”行中所示的行为和行动)。
(2-4)通过姿势转换机构部分33的处理
当从行为确定机构部分32接收到行为确定信息S14的时候,姿势转换机构部分33对一系列行动作出关于如何使宠物机器人1根据行为确定信息S14而执行行为或行动的一个运动(motion)计划,并然后根据该运动计划向装置控制机构部分34提供行动命令信息S15。
在此,姿势转换机构部分33,作为作出运动计划的技术,使用图8所示的定向图,其中宠物机器人1可以作出的姿势被作为节点NDB0到NDB2,在其间可以作出转换的节点NDB0到NDB2与指示行动的定向弧ARB0到ARB2连接,并且在执行一个节点NDB0到NDB2的行动的同时可以执行的每个行动被作为自行动弧ARC0到ARC2。
(2-5)通过装置控制机构部分34的处理
装置控制机构部分34根据从姿势转换机构部分33发出的行动命令信息S15产生一控制信号S16,并根据该控制信号S16驱动和控制每个传动器211到21n,以使得宠物机器人1执行指定的行为和行动。
(2-6)觉醒等级和交互等级
此宠物机器人1具有指示宠物机器人1的觉醒等级的称为觉醒等级的参数,和指示用户、所有者多长时间进行刺激的称为交互等级的参数,以便使得宠物机器人1的生活方式适应于用户的生活方式。
觉醒等级参数是允许机器人的行为和情感或行为的趋势被实施和具有某种节律(周期)的参数。例如,可以被建立这样的趋势,在早晨当觉醒等级低的时候进行迟钝的行为,在晚上当觉醒等级高的时候进行活泼的行为。这一节律对应于人类和动物的生物节律。
在本说明书中,使用所述觉醒等级参数,但是可以使用另一个词,如生物节律,只要它是发生同样结果的参数。在本实施例中,当机器人启动的时候,觉醒等级参数的值增加。然而,对于该觉醒等级参数可以预设固定的暂时变动周期。
对于此觉醒等级,一天中的24小时被按照称为时隙的预定的时长划分,例如30分钟,将24小时划分为48个时隙,觉醒等级由针对每个时隙的从0到100的等级范围表示,并被存储在控制器10的存储器10A中作为一个觉醒参数表。在此觉醒参数表中,对于所有的时隙设定相同的觉醒等级作为初始值,如图9(A)所示。
当用户接通宠物机器人1的电源以在此状态下驱动的时候,控制器10对当宠物机器人1启动时的时隙和该时间附近的时隙提高预定级别的觉醒等级,并且同时,同样地划分和降低从其他时隙相加的觉醒等级的和,然后更新觉醒参数表。
以这种方式,当用户重复启动和使用宠物机器人1的时候,控制器10调节各个时隙的觉醒等级的和以便建立适合于用户生活节律的觉醒参数表。
也就是说,当用户通过接通电源而启动宠物机器人1的时候,控制器10执行一个觉醒参数表建立处理程序RT1,如图10所示。控制器10的状态识别机构部分30启动图10的觉醒参数表建立处理程序RT1,并且在步骤SP1,根据从内部传感器部分15发出的内部信息信号S2确认宠物机器人1已经启动,并且向情感/本能模型部分31和行为确定机构部分32提供该识别结果作为状态识别信息S10。
情感/本能模型部分31,当接收到状态识别信息S10的时候,在存储器10A中取出觉醒参数表,移向步骤2,在此判断是否当前的时间Tc是用于检测宠物机器人1的驱动状态的检测时间Tu的整数倍数,并且重复处理步骤S2直到获得一个识别结果。在两个连续检测时间Tu之间的时段已经被选出以便大大短于该时隙的时长。
当在步骤SP2获得一个确认结果时,这意味着用于检测宠物机器人1的驱动状态的检测时间Tu已经到来,在这种情况下,情感/本能模型部分31移向步骤SP3,以向当前时间Tc所属的第i个时隙的觉醒等级awk[i]加上“a”个等级(例如2个等级),并且向在第i个时隙前后存在的时隙awk[i-1]和awk[i+1]加上“b”个等级(例如1个等级)。
但是,如果相加的结果超过等级100,则将觉醒等级awk设定为等级100。如上所述,情感/本能模型部分31向宠物机器人1活动时间周围的时隙的觉醒等级加入一个预定等级,因此防止了仅仅一个时隙的觉醒等级awk[i]突出和增加。
然后在步骤SP4,情感/本能模型部分31计算相加的觉醒等级awk的和(a+2b)作为Δawk,并移向下个步骤SP5,在此它从从第一时隙的觉醒等级awk[1]开始到第(i-2)个时隙的觉醒等级awk[i-2]的每个等级和从第(i+2)时隙的觉醒等级awk[i+2]开始到第48个时隙的觉醒等级awk[48]的每个等级减去Δawk/(N-3)。
在此,如果相减的结果小于等级0,则觉醒等级awk被强制设置为等级0。情感/本能模型部分31等分地划分和从除了增加的时隙之外的时隙的所有觉醒等级awk中减去相加的觉醒等级的和Δawk,如上所述,因此通过调节在一天中的觉醒等级的和而保持觉醒参数表的平衡。
然后在步骤SP6,情感/本能模型部分31向行为确定机构部分32提供在觉醒参数表中的每个时隙的觉醒等级awk,以反映关于宠物机器人1行为的在觉醒参数表中的每个觉醒等级awk的值。
具体来说,当觉醒等级awk高的时候,即使宠物机器人1非常努力地锻炼,情感/本能模型部分31也不大大降低愿望单元41D“锻炼”的愿望等级,并且另一方面,当觉醒等级awk低的时候,情感/本能模型部分31在宠物机器人1少量锻炼后立即降低愿望单元41D“锻炼”的愿望等级,以这种方式,它按照觉醒等级awk根据愿望单元41D“锻炼”的愿望等级间接地改变行动。
另一方面,关于在状态转换表50中的节点的选择,当觉醒等级awk高时,行为确定机构部分32提高向活动节点转换的转换概率,并且当觉醒等级awk低时降低向活动节点转换的转换概率,因此它按照觉醒等级awk直接地改变了行动。
因此,当觉醒等级awk低时,为了直接向用户表示宠物机器人1在睡觉,行为确定机构部分32在状态转换表50中以高概率选择一个节点,以便通过“打呵欠”、“躺下”或“伸展”表示睡觉状态。如果从情感/本能模型部分31发出的觉醒等级awk低于预定的阈值,则行为确定机构部分32将宠物机器人1关闭。
然后情感/本能模型部分31移向步骤SP7,来判断是否宠物机器人1已经被关闭,然后重复前述的步骤SP2到SP6直到获得一个确定的结果。
当在步骤SP6获得一个确定的结果的时候,这意味着觉醒等级awk低于图9(A)和9(B)中示出的预定的阈值(在此情况下选择一个低的值而不是觉醒等级awk的初始值),或意味着用户将电源关闭,然后情感/本能模型部分31移动到下个步骤SP8,以在存储器10A中存储觉醒等级awk[1]到awk[48]的值,以便更新觉醒参数表,然后移向步骤SP9,在此终止处理步骤RT1。
在此,控制器10引用存储在存储器10A中的觉醒参数表,以检测对应于其觉醒等级awk变得大于阈值的时隙的时间,并执行各种设置以便在被检测的时间重新启动宠物机器人1。
如上所述,当觉醒等级变得高于预定阈值的时候,宠物机器人1启动,另一方面,当觉醒等级变得低于预定阈值的时候,宠物机器人1关闭,因此宠物机器人1可以按照觉醒等级awk自然地醒来和睡眠,因此使得有可能将宠物机器人1的生活方式适应于用户的生活方式。
另外,宠物机器人1具有一个称为交互等级的参数,指示用户多长时间进行刺激,基于经过时间的平均方法被用作获得此交互等级的方法。
[0070]
对于该基于经过时间的平均方法通过用户的刺激的输入被首先从对宠物机器人1的输入中选出,然后对应于刺激种类决定的各个点被存储在存储器10A中。也就是说,来自用户的每个刺激被转换为一个存储在存储器10A中的数字值。在此宠物机器人1中,设置和在存储器10A中存储了针对“呼叫姓名”的15个点、针对“抚摸头部”的10个点、针对“触摸头部的开关等”的5个点、针对“打击”的2个点和针对“举起”的2个点。
控制器10的情感/本能模型部分31基于从状态识别机构部分30发出的状态识别信息S10判断是否用户已经进行了刺激。当它判断用户已经作出了刺激的时候,随后情感/本能模型部分31存储对应于刺激和时间的点数。具体来说,情感/本能模型部分31循序地在13:05:30存储5点、在13:05:10存储2点和在13:08:30存储10点,并循序地删除已经存储了固定时间(如15分钟)的数据。
在这种情况下,情感/本能模型部分31先设置用于计算交互等级的一个时段(如10分钟),并计算从在当前时间前的设置的时段到当前时间的点数的总和,如图11所示。然后情感/本能模型部分31将所计算的点数正规化到预设的范围中并将此正规化的点数作为交互等级。
随后,如图9C所示,情感/本能模型部分31将该交互等级加到对应于当获得前述的交互等级时的时段的时隙的觉醒等级上,并将其提供给行为确定机构部分32,以便该交互等级可以反映宠物机器人1的行为。
因此,即使宠物机器人1具有低于预定阈值的觉醒等级,当通过将交互等级加到觉醒等级而获得的值变得高于所述阈值的时候,宠物机器人1启动并站立以便与用户交流。
相反,如果通过将交互等级加到觉醒等级而获得的值变得低于所述阈值的时候,宠物机器人1关闭。在这种情况下,宠物机器人1通过引用存储在存储器10A中的觉醒参数表而检测对应于当通过将交互等级加到觉醒等级而获得的值变得高于所述阈值的时候的时隙的时间,并且执行各种设置以便宠物机器人1在那个时间重新启动。
如上所述,当通过将交互等级加到觉醒等级而获得的值变得高于所述阈值的时候,宠物机器人1启动,而当通过将交互等级加到觉醒等级而获得的值变得低于所述阈值的时候关闭,因此它可以按照觉醒等级而自然地醒来和睡眠,并且即使觉醒等级低,交互等级1通过用户的刺激而增加,使得宠物机器人1醒来,因此宠物机器人1可以更自然地睡眠和醒来。
而且,当交互等级高时,行为确定机构部分32提高向活动节点转换的转换概率,而当交互等级低时提高向非活动节点转换的转换概率,因此使得有可能按照交互等级而改变行为的活动性。
结果,当从状态转换表50选择了节点的时候,行为确定机构部分32在当交互等级高的时候以高概率选择用户应该看到的诸如跳舞、唱歌或大的表演的行为,而在交互等级低的时候以高概率选择用户看不到的诸如醒来、探索或玩弄东西的行为。
在此,在当交互等级变得低于阈值的情况下,行为确定机构部分32通过例如关闭不必要的传动器21的电源、降低传动器21的增益或躺下而节省消耗的能量,并且通过停止音频识别功能而减少控制器10的负载。
(3)当前实施例的操作和效果
[0080]
宠物机器人1的控制器10通过重复启动和关闭而建立指示宠物机器人1在一天中的每个时隙的觉醒等级的觉醒参数表,并将其存储在存储器10A中。
然后,控制器10参照该觉醒参数表,并当觉醒等级低于预定的阈值时关闭,并在此时,设置一个对于当觉醒等级下次变得高时的计时器来重新启动,以便宠物机器人1的生活节律可以适应于用户的生活节律。因此,用户可以更容易地交流和获得更大的亲近感。
当用户作出刺激的时候,控制器10计算指示刺激频率的交互等级,并将此交互等级加到在觉醒参数表中的相应的觉醒等级上。因此,即使在当觉醒等级低于预定阈值的情况下,当觉醒等级和交互等级的总和变得高于阈值的时候,控制器10启动并站立,作为结果,可以与用户进行交流并且用户可以获得更大的亲近感。
按照前述的操作,宠物机器人1可以按照宠物机器人1由用户使用的历史而启动和关闭,因此使得有可能将宠物机器人1的生活节律适应于用户的生活节律,以便用户可以获得更大的亲近感,并且可以改进娱乐特性。
(4)其他实施例
注意,在前述的实施例中,加入的觉醒等级的和Δawk被等分和从除了增加的时隙之外的时隙的所有觉醒等级中减去。然而,本发明不局限于此,如图12所示,对于增加的时隙,在预定时间后的时隙的觉醒等级可以部分地减小。
而且,在前述的实施例中,作为启动和关闭标准的阈值被选择为低于觉醒等级awk的初始值的值。本发明不局限于此,如图12所示,可以选择另一个高于觉醒等级awk的初始值的值。
而且,在前述的实施例中,宠物机器人1根据按照用户对宠物机器人1的使用历史而改变的觉醒参数表启动和关闭。然而,本发明不局限于此,可以利用基于宠物机器人1的年龄和特点而建立的固定觉醒参数表。
而且,在前述的实施例中,基于经过时间的平均方法被应用到交互等级的计算方法中。但是,本发明不局限于此,还可以利用另一个方法,如基于经过时间的平均加权方法或基于时间的相减方法。
在基于经过时间的平均加权方法中,以当前的时间为基础,从更新的输入中选取更高的加权系数,而从较旧的输入中选择更低的加权系数。例如,以当前时间为基础,加权系数设置为:对于在2分钟或更少时间前的输入为10;对于在前5分钟和前2分钟之间的输入为5;对于前10分钟和前5分钟之间的输入为1。
然后,情感/本能模型部分31将从在当前时间前的预定时间到当前时间的每个刺激的点数乘以相应的加权系数,并计算总和来获得交互等级。
另外,基于时间的相减方法是用于通过使用一个称为内部交互等级的变量获得交互等级。在此情况下,当用户作出一个刺激时,情感/本能模型部分31将对应于刺激种类的点数加到该内部交互等级上。同时,情感/本能模型部分31随着时间的过去通过例如每次在一分钟过去的时候将先前的内部交互等级乘以0.1而降低内部交互等级。
然后,当内部交互等级变得低于预定阈值的时候,情感/本能模型部分31将该内部交互等级作为前述的交互等级,而当内部交互等级变得高于预定阈值的时候,将阈值作为交互等级。
返回前述的实施例中,觉醒参数表和交互等级的组合被应用到使用历史上。但是本发明不局限于此,也可以应用另一种在暂时轴方向上指示用户使用历史的使用历史。
而且,在前述的实施例中,存储器10A被用做存储介质。但是本发明不局限于此,用户使用的历史也可以被存储在另一个存储介质中。
而且,在前述的实施例中,控制器10被用作行为确定装置。本发明不局限于此,可以使用另一种行为确定装置来根据使用历史确定下一行为。
而且,前述的实施例被应用到四条腿的行走机器人上,其结构如图1所示。但是本发明不局限于此,也可以用在另一种机器人上。
产业上的可利用性
本发明可以应用到例如一个宠物机器人上。
Claims (30)
1.一种机器人设备,包括:
存储装置,用于存储在一暂时轴(temporal axis)方向上建立的使用历史以指示用户使用的历史;和
行为确定装置,用于按照所述的使用历史来确定下一行为。
2.按照权利要求1的机器人设备,其中:
所述使用历史通过在暂时轴方向上改变指示所述机器人设备在过去的活动程度的活动等级而建立;和
所述行为确定装置将活动等级和预设的预定阈值相比较,并当活动等级变得高于阈值的时候启动所述的机器人设备,而当活动等级变得低于阈值的时候关闭所述的机器人设备。
3.按照权利要求2的机器人设备,其中:
所述使用历史通过在暂时轴方向上改变通过向活动等级加上一个刺激等级而获得的增加的等级而建立,该刺激等级依赖于用户的刺激的频率而确定;和
所述行为确定装置将增加的等级和预设的预定阈值相比较,并当所述增加的等级变得高于阈值的时候启动所述的机器人设备,而当所述增加的等级变得低于阈值的时候关闭所述的机器人设备。
4.一种用于机器人设备的控制方法,包括:
第一步骤,存储在暂时轴方向上建立的使用历史以指示用户使用的历史;
第二步骤,按照所述的使用历史确定下一行动。
5.按照权利要求4的用于机器人设备的控制方法,其中:
所述使用历史通过在暂时轴方向上改变指示所述机器人设备在过去的活动程度的活动等级而建立;和
所述第二步骤将活动等级和预设的预定阈值相比较,并当活动等级变得高于阈值的时候启动所述的机器人设备,而当活动等级变得低于阈值的时候关闭所述的机器人设备。
6.按照权利要求5的用于机器人设备的控制方法,其中:
所述的使用历史通过在暂时轴方向上改变通过向活动等级加上一个刺激等级而获得的增加的等级而建立,刺激等级依赖于用户的刺激的频率而确定;和
所述第二步骤将增加的等级和预设的预定阈值相比较,并当所述增加的等级变得高于阈值的时候启动所述的机器人设备,而当所述增加的等级变得低于阈值的时候关闭所述的机器人设备。
7.一种自主行动的机器人设备,包括:
行动控制装置,用于驱动所述机器人设备的每个部分;
行为确定机构部分,用于确定所述机器人设备的行为;和
存储装置,存储周期参数,该周期参数允许通过所述行为确定机构部分确定的行为在预定的时段内具有周期性的趋势;其中
所述的行为确定机构部分根据所述周期参数来确定行为;和
所述活动控制装置按照所述的确定的行为驱动所述机器人设备的每个部分。
8.按照权利要求7的机器人设备,其中
所述周期参数是一觉醒等级参数。
9.按照权利要求8的机器人设备,其中
所述觉醒等级参数的和是固定的。
10.按照权利要求8的机器人设备,其中
所述预定的时段是大约24小时。
11.按照权利要求8的机器人设备,包括:
情感模型,作出所述机器人设备的假情感;其中
所述的情感模型根据所述觉醒等级参数而改变。
12.按照权利要求12的机器人设备,包括:
外部刺激检测装置,用于检测来自外部的刺激;和
外部刺激判断装置,用于评估所检测的外部刺激,判断是否它来自用户,并对于每个来自用户的刺激,将所述的外部刺激转换为预定的数字参数,其中
所述行为确定机构部分根据所述的预定参数和所述觉醒等级参数来确定行为。
13.按照权利要求12的机器人设备,其中
所述的预定参数是交互等级。
14.按照权利要求11的机器人设备,包括
外部刺激检测装置,用于检测来自外部的刺激;和
外部刺激判断装置,用于评估所检测的外部刺激,判断是否它来自用户,并对于每个来自用户的刺激,将所述的外部刺激转换为预定的数字参数,其中
所述情感模型根据所述预定参数和所述觉醒等级参数而改变。
15.按照权利要求14的机器人设备,其中
所述的预定参数是交互等级。
16.一种自主行动的机器人设备的控制方法,包括:
第一步骤,根据允许机器人设备的行为在预定的时段中具有周期性的趋势的周期参数来确定所述机器人设备的行为;和
第二步骤,按照所述确定的行为来驱动所述机器人设备的每个部分。
17.按照权利要求16的用于机器人设备的控制方法,其中
所述周期参数是觉醒等级参数。
18.按照权利要求17的用于机器人设备的控制方法,其中
所述觉醒等级参数的和是固定的。
19.按照权利要求17的用于机器人设备的控制方法,其中
所述预定时段是大约24小时。
20.按照权利要求17的用于机器人设备的控制方法,其中
所述第一步骤是根据所述周期参数和情感模型来确定所述机器人设备的所述行为,同时根据所述的觉醒等级参数改变确定所述机器人设备的假情感的情感模型。
21.按照权利要求17的用于机器人设备的控制方法,其中
所述第一步骤是评估通过预定的外部刺激检测装置所检测的外部刺激,并判断是否它来自用户,同时在对来自所述用户的每个刺激将所述的外部刺激转换为预定的数字参数的时候,根据预定的参数和所述的觉醒等级参数来确定所述机器人设备的行为。
22.按照权利要求21的用于机器人设备的控制方法,其中
所述预定参数是交互等级。
23.按照权利要求20的用于机器人设备的控制方法,其中
所述第一步骤是评估通过指定的外部刺激检测装置所检测的外部刺激,并判断是否它来自用户,对于来自所述用户的每个刺激将所述的外部刺激转换为指定的数字参数,并根据所述指定参数和所述的觉醒等级参数来改变所述的情感模型。
24.按照权利要求23的用于机器人设备的控制方法,其中
所述指定参数是交互等级。
25.一种自动动作的机器人设备,包括:
活动控制装置,用于驱动所述机器人设备的每个部分;
行为确定机构部分,用于确定所述机器人设备的行为;
外部刺激检测装置,用于检测来自外部的刺激;和
外部刺激判断装置,用于评估所检测的外部刺激,判断是否它来自用户,并对于每个来自用户的刺激,将所述的外部刺激转换为指定的数字参数;其中
所述行为确定机构部分根据所述的指定参数来确定行为;和
所述行为控制装置根据所述所确定的行为来驱动所述机器人设备的每个部分。
26.根据权利要求25的机器人设备,其中
所述指定参数是交互等级。
27.根据权利要求26的机器人设备,包括
情感模型,作出所述机器人设备的假情感;其中
所述的情感模型根据所述交互等级而改变。
28.一种自主行动的机器人设备的控制方法,包括:
第一步骤,评估通过指定的外部刺激检测装置所检测的外部刺激,并判断是否它来自用户,对于来自所述用户的每个刺激将所述的外部刺激转换为指定的数字参数;和
第二步骤,根据所述指定参数来确定行为和按照所述确定的行为来驱动所述机器人装置的每个部分。
29.按照权利要求28的用于机器人设备的控制方法,其中
所述指定的参数是交互等级。
30.按照权利要求29的用于机器人设备的控制方法,其中
根据所述的交互等级来改变确定所述机器人设备的假情感的情感模型。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP311735/2000 | 2000-10-05 | ||
JP2000311735 | 2000-10-05 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN1392826A true CN1392826A (zh) | 2003-01-22 |
Family
ID=18791449
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN01803025A Pending CN1392826A (zh) | 2000-10-05 | 2001-10-05 | 机器人设备及其控制方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US6711467B2 (zh) |
KR (1) | KR20020067692A (zh) |
CN (1) | CN1392826A (zh) |
WO (1) | WO2002028603A1 (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100346941C (zh) * | 2003-08-25 | 2007-11-07 | 索尼株式会社 | 机器人及机器人的姿态控制方法 |
CN106462254A (zh) * | 2016-06-29 | 2017-02-22 | 深圳狗尾草智能科技有限公司 | 一种机器人交互内容的生成方法、系统及机器人 |
CN106471444A (zh) * | 2016-07-07 | 2017-03-01 | 深圳狗尾草智能科技有限公司 | 一种虚拟3d机器人的交互方法、系统及机器人 |
CN109074510A (zh) * | 2016-04-28 | 2018-12-21 | 情感爱思比株式会社 | 情感确定系统、系统以及程序 |
CN109544931A (zh) * | 2018-12-18 | 2019-03-29 | 广东赛诺科技股份有限公司 | 一种基于交通超限超载数据24小时内有效的判断方法 |
CN111496802A (zh) * | 2019-01-31 | 2020-08-07 | 中国移动通信集团终端有限公司 | 人工智能设备的控制方法、装置、设备及介质 |
CN116352727A (zh) * | 2023-06-01 | 2023-06-30 | 安徽淘云科技股份有限公司 | 一种仿生机器人的控制方法及相关设备 |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004001162A (ja) * | 2002-03-28 | 2004-01-08 | Fuji Photo Film Co Ltd | ペットロボット充電システム、受取装置、ロボット、及びロボットシステム |
US7024277B2 (en) * | 2002-11-11 | 2006-04-04 | Alfred Schurmann | Determination and control of activities of an emotional system |
US7613553B1 (en) * | 2003-07-31 | 2009-11-03 | The United States Of America As Represented By The Secretary Of The Navy | Unmanned vehicle control system |
CN100436082C (zh) * | 2003-08-12 | 2008-11-26 | 株式会社国际电气通信基础技术研究所 | 用于通信机器人的控制系统 |
JPWO2005099971A1 (ja) * | 2004-04-16 | 2007-08-16 | 松下電器産業株式会社 | ロボット、ヒント出力装置、ロボット制御システム、ロボット制御方法、ロボット制御プログラム及び集積回路 |
KR100889898B1 (ko) * | 2005-08-10 | 2009-03-20 | 가부시끼가이샤 도시바 | 로봇의 행동을 제어하기 위한 장치, 방법 및 컴퓨터 판독 가능 매체 |
KR100681919B1 (ko) * | 2005-10-17 | 2007-02-12 | 에스케이 텔레콤주식회사 | 주행로그 기반의 모바일 로봇 성격 표현 방법과 이를 위한모바일 로봇 장치 |
KR100834572B1 (ko) * | 2006-09-29 | 2008-06-02 | 한국전자통신연구원 | 외부 자극에 반응하는 로봇 구동 장치 및 제어 방법 |
US8353767B1 (en) * | 2007-07-13 | 2013-01-15 | Ganz | System and method for a virtual character in a virtual world to interact with a user |
KR100893758B1 (ko) * | 2007-10-16 | 2009-04-20 | 한국전자통신연구원 | 로봇의 감성 표현 제어 시스템 및 방법 |
JP4560078B2 (ja) * | 2007-12-06 | 2010-10-13 | 本田技研工業株式会社 | コミュニケーションロボット |
KR100831201B1 (ko) * | 2008-01-17 | 2008-05-22 | (주)다사로봇 | 로봇의 외부 자극 판별 장치 및 그 방법 |
US8483873B2 (en) * | 2010-07-20 | 2013-07-09 | Innvo Labs Limited | Autonomous robotic life form |
JP2012212430A (ja) * | 2011-03-24 | 2012-11-01 | Nikon Corp | 電子装置、操作者推定方法およびプログラム |
JP7283495B2 (ja) * | 2021-03-16 | 2023-05-30 | カシオ計算機株式会社 | 機器の制御装置、機器の制御方法及びプログラム |
US12213451B1 (en) | 2024-09-06 | 2025-02-04 | Henry Hardy Perritt, Jr. | System and method for pet recreation and exercise employing an autonomous aerial vehicle |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02136904A (ja) * | 1988-11-18 | 1990-05-25 | Hitachi Ltd | 動作系列自己生成機能を持つ運動制御装置 |
JP2836159B2 (ja) * | 1990-01-30 | 1998-12-14 | 株式会社日立製作所 | 同時通訳向き音声認識システムおよびその音声認識方法 |
JP3254994B2 (ja) | 1995-03-01 | 2002-02-12 | セイコーエプソン株式会社 | 音声認識対話装置および音声認識対話処理方法 |
JPH09313743A (ja) * | 1996-05-31 | 1997-12-09 | Oki Electric Ind Co Ltd | 疑似生物機器の表情形成機構 |
JP3389489B2 (ja) * | 1998-01-27 | 2003-03-24 | 株式会社バンダイ | 仮想生命体の育成シミュレーション装置 |
JP2000187435A (ja) | 1998-12-24 | 2000-07-04 | Sony Corp | 情報処理装置、携帯機器、電子ペット装置、情報処理手順を記録した記録媒体及び情報処理方法 |
JP4366617B2 (ja) * | 1999-01-25 | 2009-11-18 | ソニー株式会社 | ロボット装置 |
EP1112822A4 (en) * | 1999-05-10 | 2005-07-20 | Sony Corp | ROBOTS AND CONTROL PROCESSES THEREOF |
JP2001191281A (ja) * | 1999-12-29 | 2001-07-17 | Sony Corp | 編集装置、編集方法及び記録媒体 |
CN1342281A (zh) * | 1999-12-30 | 2002-03-27 | 索尼公司 | 诊断系统、诊断装置和诊断方法 |
-
2001
- 2001-10-05 CN CN01803025A patent/CN1392826A/zh active Pending
- 2001-10-05 WO PCT/JP2001/008808 patent/WO2002028603A1/ja active Application Filing
- 2001-10-05 KR KR1020027007152A patent/KR20020067692A/ko not_active Application Discontinuation
- 2001-10-05 US US10/148,758 patent/US6711467B2/en not_active Expired - Fee Related
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100346941C (zh) * | 2003-08-25 | 2007-11-07 | 索尼株式会社 | 机器人及机器人的姿态控制方法 |
CN109074510A (zh) * | 2016-04-28 | 2018-12-21 | 情感爱思比株式会社 | 情感确定系统、系统以及程序 |
CN106462254A (zh) * | 2016-06-29 | 2017-02-22 | 深圳狗尾草智能科技有限公司 | 一种机器人交互内容的生成方法、系统及机器人 |
WO2018000268A1 (zh) * | 2016-06-29 | 2018-01-04 | 深圳狗尾草智能科技有限公司 | 一种机器人交互内容的生成方法、系统及机器人 |
CN106471444A (zh) * | 2016-07-07 | 2017-03-01 | 深圳狗尾草智能科技有限公司 | 一种虚拟3d机器人的交互方法、系统及机器人 |
CN109544931A (zh) * | 2018-12-18 | 2019-03-29 | 广东赛诺科技股份有限公司 | 一种基于交通超限超载数据24小时内有效的判断方法 |
CN111496802A (zh) * | 2019-01-31 | 2020-08-07 | 中国移动通信集团终端有限公司 | 人工智能设备的控制方法、装置、设备及介质 |
CN116352727A (zh) * | 2023-06-01 | 2023-06-30 | 安徽淘云科技股份有限公司 | 一种仿生机器人的控制方法及相关设备 |
CN116352727B (zh) * | 2023-06-01 | 2023-10-24 | 安徽淘云科技股份有限公司 | 一种仿生机器人的控制方法及相关设备 |
Also Published As
Publication number | Publication date |
---|---|
WO2002028603A1 (fr) | 2002-04-11 |
US20030014159A1 (en) | 2003-01-16 |
US6711467B2 (en) | 2004-03-23 |
KR20020067692A (ko) | 2002-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN1392826A (zh) | 机器人设备及其控制方法 | |
US7117190B2 (en) | Robot apparatus, control method thereof, and method for judging character of robot apparatus | |
CN1301830C (zh) | 机器人装置 | |
CN1146493C (zh) | 自动装置、自动装置的控制方法及程序记录媒体 | |
CN1132148C (zh) | 语音识别对话装置 | |
CN1124191C (zh) | 编辑装置、编辑方法和记录媒体 | |
CN1331445A (zh) | 交互式玩具、反应行为模式生成装置及方法 | |
Sterling et al. | Principles of neural design | |
CN2420049Y (zh) | 抚养虚拟生物的模拟装置 | |
CN1304516A (zh) | 机器人装置及其控制方法和记录介质 | |
CN1392825A (zh) | 机器人设备及其控制方法 | |
JP5227362B2 (ja) | エモーションエンジン、エモーションエンジン・システムおよび電子デバイスの制御方法 | |
CN101058021A (zh) | 结合音乐管理训练强度的训练辅助系统和方法 | |
JP2003340759A (ja) | ロボット装置およびロボット制御方法、記録媒体、並びにプログラム | |
CN1459090A (zh) | 话音输出装置 | |
EP1154540A1 (en) | Robot-charging system, robot, battery charger, method of charging robot, and recording medium | |
KR20140047273A (ko) | 로봇 | |
CN1392828A (zh) | 机器人设备、信息显示系统和信息显示方法 | |
JP2002178282A (ja) | ロボット装置及びその制御方法 | |
KR20220126461A (ko) | 반려동물의 사냥 본능 유발형 놀이식 디지털 헬스케어 장치 및 그의 제어방법 | |
CN1333071A (zh) | 互动玩具和反应模式产生方法 | |
CN116352727B (zh) | 一种仿生机器人的控制方法及相关设备 | |
CN114586697B (zh) | 腿残疾宠物的智能习惯养成方法、装置、设备和介质 | |
CN114359964B (zh) | 宠物养育方法、装置、存储介质及电子设备 | |
JP2002120182A (ja) | ロボット装置及びその制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |