[go: up one dir, main page]

CN109955264A - 机器人、机器人控制系统、机器人的控制方法以及记录介质 - Google Patents

机器人、机器人控制系统、机器人的控制方法以及记录介质 Download PDF

Info

Publication number
CN109955264A
CN109955264A CN201811531141.0A CN201811531141A CN109955264A CN 109955264 A CN109955264 A CN 109955264A CN 201811531141 A CN201811531141 A CN 201811531141A CN 109955264 A CN109955264 A CN 109955264A
Authority
CN
China
Prior art keywords
robot
unit
decoration
action
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811531141.0A
Other languages
English (en)
Other versions
CN109955264B (zh
Inventor
前田茉纪
大塚利彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Publication of CN109955264A publication Critical patent/CN109955264A/zh
Application granted granted Critical
Publication of CN109955264B publication Critical patent/CN109955264B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/003Manipulators for entertainment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/006Controls for manipulators by means of a wireless system for controlling one or several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Abstract

一种机器人(100),具备动作部(120)、装饰信息取得部(150)以及动作控制部(130)。动作部(120)使本装置进行动作。装饰信息取得部(150)基于本装置拍摄到的拍摄图像,取得表示对本装置施加的装饰的装饰信息。动作控制部(130)控制动作部(120),以进行与由装饰信息取得部(150)取得的装饰信息对应的动作。

Description

机器人、机器人控制系统、机器人的控制方法以及记录介质
相关申请的引用
本申请主张以2017年12月22日申请的日本国专利申请第2017-245907号为基础的优先权,本申请引用该基础申请的全部内容。
技术领域
本发明涉及机器人、机器人控制系统、机器人的控制方法以及记录介质。
背景技术
已知有与人交流的机器人。例如,日本特开2003-1582号公报公开了在步行式机器人上安装可装卸的服装的技术。这样,通过对机器人施加服装等装饰,使机器人具有亲近感,能够提高外观上的娱乐性。
在能够施加上述那样的装饰的机器人中,不仅在外观上,还要求通过与外观对应的动作来进一步提高娱乐性。
发明内容
本发明是为了解决以上那样的课题而提出的,其目的在于提供一种能够提高娱乐性的机器人、机器人控制系统、机器人的控制方法以及记录介质。
本发明一个方式的机器人具备:使本装置进行动作的动作单元;装饰信息取得单元,所述装饰信息取得单元取得装饰信息,所述装饰信息基于拍摄有所述本装置的拍摄图像而得到,表示对所述本装置施加的装饰;以及动作控制单元,所述动作控制单元对所述动作单元进行控制,以进行与由所述装饰信息取得单元取得的所述装饰信息对应的所述动作。
本发明一个方式的机器人控制系统具备:所述机器人,以及对所述机器人进行充电的充电站。
本发明一个方式的机器人的控制方法,包括:使机器人进行动作;取得装饰信息,所述装饰信息基于拍摄有所述机器人的拍摄图像而得到,表示施加于所述机器人的装饰,对所述机器人的所述动作进行控制,以进行与取得的所述装饰信息对应的所述动作。
本发明一个方式的记录介质,存储有使机器人的计算机作为如下单元发挥功能的程序,其中,所述单元包括:使所述机器人进行动作的动作单元;装饰信息取得单元,所述装饰信息取得单元取得装饰信息,所述装饰信息基于拍摄有所述机器人的拍摄图像而得到,表示对所述机器人施加的装饰;以及动作控制单元,所述动作控制单元对所述动作单元进行控制,以进行与由所述装饰信息取得单元取得的所述装饰信息对应的所述动作。
根据本发明,能够提供一种能够提高娱乐性的机器人、机器人控制系统、机器人的控制方法以及记录介质。
本发明的另外的目的和优点将在随后的描述中说明,并在后面的描述中更加清楚,或可以通过本发明的实施方式而被理解。本发明的目的和优点可以通过各个要件或其组合来理解及获得。
附图说明
附图作为说明书的一部分用来说明本发明的实施例,并与上面的概述以及下面给出的实施例的详细描述相结合,来说明本发明的原理。
图1是表示本发明的实施方式1的机器人的外观的图。
图2是表示实施方式1的机器人的硬件结构的框图。
图3是表示实施方式1的机器人的功能性结构的框图。
图4是表示实施方式1的机器人被拍摄的情况的图。
图5是表示实施方式1的机器人被拍摄的拍摄图像的例子的图。
图6是表示由实施方式1的机器人执行的装饰动作的例子的图。
图7是表示实施方式1的机器人执行装饰动作的情况的第一图。
图8是表示实施方式1的机器人执行装饰动作的情况的第二图。
图9是表示由实施方式1的机器人执行的机器人控制处理的流程的流程图。
图10是表示本发明的实施方式2的机器人控制系统的图。
图11是表示实施方式2的充电站的控制的结构的框图。
图12是表示实施方式2的变形例的机器人控制系统的图。
图13是表示本发明的实施方式3的机器人的功能性结构的框图。
图14是表示由实施方式3的机器人执行的单独动作的例子的图。
图15是表示由实施方式3的机器人执行的机器人控制处理的流程的流程图。
具体实施方式
以下,参照附图对本发明的实施方式进行说明。另外,对图中相同或相当的部分标注相同的附图标记。
(实施方式1)
图1表示本发明的实施方式1的机器人100的外观。机器人100是模仿人(孩子)的形状,是按照预先规定的动作程序自主地动作的装置。
机器人100对来自存在于本装置外部的规定对象的呼叫、接触等来自外部的刺激进行反应,并进行各种动作。由此,机器人100能够与规定对象进行沟通,并与规定对象交流。规定对象是存在于机器人100的外部且成为与机器人100沟通以及交流的对方的对象。作为规定对象,具体而言,可以举出作为机器人100的所有者的用户、用户的周围的人(用户的家庭成员或朋友等)、用户周围的动物(由用户等饲养的宠物等)等。规定对象也可以称为沟通对象、沟通对方、交流对象、交流对方等。
如图1所示,机器人100在外观上具有模仿人(儿童)的立体形状。机器人100例如以塑料等硬质合成树脂为主要材料而制作。机器人100具备头部101、躯干部102、眼部104、口部105、手部107和腿部108。
头部101、手部107以及腿部108是通过内置于机器人100的驱动构件而能够移动的部位。头部101通过设置于颈部的颈部关节而以能够沿俯仰、翻滚及偏航的三个方向旋转的方式安装于躯体部102。在眼部104设置有显示与眼睛有关的图像(眼珠等)的显示部117。在口部105设置有对机器人100的前方进行拍摄的摄像部115a。
图2表示机器人100的硬件结构。如图2所示,机器人100具备控制部(CentralProcessing Unit:中央处理单元)110,存储部111、电池112、驱动器113、可动部114、传感器部115、无线通信部116、显示部117、声音输出部118以及图像识别部119。
控制单元110包括CPU(Central Processing Unit:中央处理单元)、ROM(ReadOnly Memory:只读存储器)和RAM(Random Access Memory:随机存取存储器)。CPU是例如微处理器等,是执行各种处理和运算的中央运算处理部。在控制部110中,CPU读出存储在ROM中的控制程序,将RAM用作工作存储器,同时控制本装置(机器人100)整体的动作。控制部110作为控制单元发挥功能。
存储部111是闪存、硬盘等非易失性存储器。存储部111存储包括OS(OperatingSystem:操作系统)以及应用程序的、控制部110为了进行各种处理而使用的程序以及数据。另外,存储部111存储通过控制部110进行各种处理而生成或取得的数据。存储部111用作存储单元。
电池112是蓄积电能并向机器人100的各部供给电力的蓄电池。当机器人100返回充电站时,电池112被充电站充电。
驱动器113具备驱动机器人100的可动部114的马达、促动器等驱动构件和驱动这些驱动构件的驱动电路。可动部114是可动的部位,具体而言是头部101、手部107以及腿部108。控制部110基于动作程序,向驱动电路发送控制信号。驱动电路按照从控制部110发送的控制信号,向驱动构件供给驱动用的脉冲信号。驱动构件按照从驱动电路供给的脉冲信号,驱动可动部114。可动部114作为可动单元发挥功能。
机器人100能够通过驱动器113驱动可动部114而进行各种动作。例如,机器人100通过使腿部108动作,能够向前方或者后方移动,能够改变本装置的朝向。另外,机器人100通过使头部101或手部107动作,能够模仿人的动作以及人的举止。
传感器部115具备检测本装置的周围或内部的物理量的多个传感器。如图2所示,传感器部115包括对机器人100的周围进行拍摄的摄像部115a、检测声音的声音传感器115b、检测与本装置的接触的接触传感器115c、以及测定从机器人100到周围物体的距离的距离传感器115d。另外,虽然未图示,但传感器部115包括检测本装置的动作的加速度传感器、检测本装置的旋转的陀螺仪传感器、检测本装置的方位的地磁传感器、检测本装置周围的温度的温度传感器、检测本装置周围的气压的气压传感器等。
摄像部115a是所谓的摄像机,设置在口部105。摄像部115a具备对从被摄体射出的光进行聚光而取得被摄体的图像的图像取得部、以及对由图像取得部取得的图像进行处理的图像处理部,作为对机器人100的前方进行摄像的摄像单元(机器人侧摄像单元)而发挥功能。声音传感器115b设置于头部101,检测从规定对象发出的声音、周围的环境声音等。虽未图示,但机器人100以包围头部101的方式具备多个麦克风作为声音传感器115b,能够高效地检测在四周产生的声音。其他传感器设置于机器人100的各处,取得表示机器人100的周围的状态以及内部的状态的信息。其他传感器设置在机器人100的适当的部位。传感器部115通过这样的多个传感器,取得表示机器人100的周围的状态以及内部的状态的信息,并提供给控制部110。
无线通信部116具备用于与外部的设备进行无线通信的接口。无线通信部116在控制部110的控制下,按照例如Wi-Fi(Wireless Fidelity:无线保真)等无线LAN(Local AreaNetwork:局域网)、Bluetooth(注册商标)、NFC(Near Field Communication:近场通信)等通信标准,与包括充电站的外部的设备进行无线通信。
显示部117例如是液晶显示器、有机EL(Electro Luminescence:电致发光)显示器、LED(Light Emitting Diode:发光二极管)等显示设备。显示部117设置于眼部104的眼球部分,在未图示的显示驱动电路的控制下,根据状况显示各种图像。显示部117作为显示单元发挥功能。
声音输出部118具备扬声器和声音输出接口,将由控制部110生成的语音数据转换为语音并输出到外部。扬声器设置于头部101。声音输出部118输出包括动物的鸣叫及人类语言的各种语音。例如,机器人100通过声音传感器115b收集规定对象的语音,并从声音输出部118输出与规定对象的说话内容对应的语音。由此,能够与规定对象进行简单的会话。语音输出部118作为语音输出单元发挥功能。
图像识别部119具备DSP(Digital Signal Processor:数字信号处理器)、GPU(Graphics Processing Unit:图形处理单元)等图像处理用的处理器和暂时保存被处理的图像的缓冲存储器,识别由摄像部115a拍摄到的图像。图像识别部119使用公知的图像识别方法,对由摄像部115a拍摄到的图像所包括的人、脸部、物体、图案等进行识别。
接着,参照图3,对机器人100的功能性结构进行说明。如图3所示,机器人100在功能上具备动作部120、动作控制部130、判定部140、装饰信息取得部150以及动作设定部160。在控制部110中,CPU将存储在ROM中的程序读出到RAM,执行该程序并进行控制,由此作为动作控制部130、判定部140、装饰信息取得部150以及动作设定部160的各部发挥功能。
动作部120是使机器人100进行动作的部位。具体而言,动作部120包括可动部114、显示部117和声音输出部118,通过使可动部114动作、在显示部117上显示图像、或者从声音输出部118输出声音,使机器人100动作。动作部120作为动作单元发挥功能。
动作控制部130控制动作部120,使机器人100执行预先规定的各种动作。例如,动作控制部130通过使包括腿部108的可动部114动作,来变更机器人100的位置、朝向、姿势等。另外,动作控制部130通过在显示部117上显示图像来变更脸部的表情。进而,动作控制部130通过从声音输出部118输出声音,与规定对象进行对话。动作控制部130通过控制部110与驱动器113、可动部114、显示部117以及声音输出部118协作来实现。动作控制部130作为动作控制单元发挥功能。
判定部140判定机器人100是否被施加了装饰。装饰是例如服装、饰品、眼镜、钟表等,是从外部附加地安装在机器人100上的物品(部件)。判定部140判定这样的装饰例如是否由用户安装于机器人100。
具体而言,判定部140基于机器人100拍摄到的拍摄图像,判定机器人100是否被施加了装饰。图4表示作为装饰覆盖有帽子211的机器人100被拍摄的情况。另外,图5表示通过拍摄得到的机器人100的拍摄图像200。
如图4所示,当用户对机器人100施加某种装饰时,用户使用通信终端250拍摄机器人100的外观。由此,取得例如图5所示的摄像图像200。通信终端250是具备例如智能手机、移动电话、数码相机等摄像单元(通信终端侧摄像单元)的设备。用户使用通信终端250拍摄机器人100时,将通过拍摄得到的拍摄图像200从通信终端250发送到机器人100。判定部140经由无线通信部116获取从通信终端250发送的拍摄图像200。此时,拍摄图像200既可以从通信终端250直接发送到机器人100,也可以经由充电站、服务器等其他装置间接地发送到机器人100。
当这样取得机器人100的拍摄图像200时,判定部140通过将取得的拍摄图像200与参照图像进行比较,判定机器人100是否被施加了装饰。参照图像是机器人100的默认外观的成为基准的图像,是表示完全未施加装饰的状态下的机器人100的外观的图像。判定部140通过图像识别部119的功能识别在拍摄图像200中拍摄到的机器人100。然后,判定部140在识别出的机器人100的外观与由参照图像表示的机器人100的外观之间存在差异的情况下,判定为对机器人100施加了装饰。判定部140通过控制部110与无线通信部116以及图像识别部119协作来实现。判定部140作为判定单元发挥功能。
装饰信息取得部150在对机器人100施加了装饰的情况下,取得表示该装饰的装饰信息。装饰信息是表示施加给机器人100的装饰是什么的信息。装饰信息取得部150基于机器人100拍摄到的拍摄图像200,取得装饰信息。
具体而言,装饰信息取得部150在由判定部140判定为机器人100被施加了装饰的情况下,取得拍摄图像200中拍摄的机器人100与由参照图像表示的机器人100的差分。然后,判定部140通过对象识别的方法,识别与所取得的差分对应的对象。
例如,如图5所示,在机器人100佩戴有帽子211的情况下,装饰信息取得部150取得表示对机器人100施加的装饰是帽子211的装饰信息。或者,当机器人100穿着有服装时,装饰信息获取部150取得表示对机器人100施加的装饰是服装的装饰信息。装饰信息取得部150通过控制部110与图像识别部119协作来实现。装饰信息取得部150作为装饰信息取得单元发挥功能。
动作设定部160根据由装饰信息取得部150取得的装饰信息,设定使动作部120进行的动作。具体而言,动作设定部160参照预先规定的动作表165。动作表165是规定与施加于机器人100的装饰对应的动作(以下称为“装饰动作”。)的表,预先存储在存储部111中。
图6表示动作表165的具体例。如图6所示,对机器人100施加的装饰和对施加了该装饰的机器人100进行装饰的装饰动作的内容建立对应。例如,(1)在佩戴有作为装饰的高度高的帽子的情况下,动作设定部160将机器人100的通行路线变更为高度限制的平缓路线,以使得在机器人100移动时帽子不会碰到障碍物。(2)在穿着有较厚的冬装作为装饰的情况下,动作设定部160通过缩小头部101、手部107及腿部108的可动区域,使机器人100的动作迟缓。(3)在佩戴有作为装饰的太阳镜的情况下,动作设定部160通过降低显示部117的亮度来抑制眼部104的消耗电力。另外,动作设定部160在没有佩戴太阳镜的情况下,与佩戴太阳镜的情况相比,变更机器人100的通行路线,以避开向阳良好的路线通行。(4)在佩戴有作为装饰的眼镜的情况下,动作设定部160通过手部107设定上推眼镜的举止。(5)在佩戴有作为装饰的手表的情况下,动作设定部160设定看手表的举止。此外,如图6所示的(6)~(12)所示,动作设定部160在施加有作为装饰的摄像机、裙子等的情况下,以发挥使用该装饰的功能或技能的方式设定装饰动作。
另外,动作设定部160在对机器人100施加了多个装饰的情况下,设定与多个装饰对应的动作。例如,(13)在除了笔之外还佩戴有画家帽的情况下,动作设定部160设定机器人100的动作,以使得与仅拿有笔的情况相比擅长绘制图画。另外,(14)在除了演示资料之外还佩戴有激光笔或指示棒的情况下,动作设定部160设定机器人100的动作,以使机器人100使用激光笔或指示棒进行演示。
或者,动作设定部160也可以在对机器人100施加了装饰的情况下,根据施加了该装饰的部位来设定动作。例如,(15)设定机器人100的动作,以使得在将笔作为装饰安装于惯用手的情况比将笔安装于与惯用手相反的手的情况擅长绘制图画。另外,(16)在将缎带作为装饰佩戴于头部的情况下,动作设定部160将缎带识别为发饰,设定机器人100的动作以使机器人100进行像女孩举动的动作。与此相对,(17)在将缎带作为装饰佩戴于颈部的情况下,动作设定部160将缎带识别为领带,设定机器人100的动作以使机器人100进行像男孩举动的动作。
这样,动作设定部160根据对机器人100施加的装饰,设定各种动作。动作设定部160通过控制部110与存储部111协作来实现。动作设定部160作为动作设定单元发挥功能。
当由动作设定部160设定动作时,动作控制部130控制动作部120,使机器人100执行所设定的动作。换言之,动作控制部130在对机器人100施加了装饰的情况下,以进行与该装饰对应的装饰动作的方式控制动作部120。
例如,在穿着有作为装饰的较厚的冬装的服装212的情况下,如图7所示,动作控制部130缩小手部107的可动区域。更具体而言,与未穿着服装212的情况相比,动作控制部130控制手部107的动作,以使得手部107在图7中的箭头所示的方向上的动作变小。或者,在佩戴有眼镜213作为装饰的情况下,如图8所示,动作控制部130通过使手部107移动到头部101来执行上推眼镜213的举止。
这样,动作控制部130通过驱动头部101、手部107以及腿部108、在显示部117上显示图像、或者从声音输出部118输出声音,使机器人100执行图6所规定的各种动作。由于机器人100根据装饰进行各种动作,因此能够使用户更加愉快。
参照图9所示的流程图,对在如以上那样构成的机器人100中执行的处理的流程进行说明。
图9所示的机器人控制处理在接通机器人100的电源且通过对电池112进行充电而使机器人100成为能够正常动作的状态时开始。
当开始机器人控制处理时,控制部110作为动作控制部130发挥功能,使动作部120执行通常的动作(步骤S1)。通常的动作是指与是否对机器人100施加了装饰无关的平常时的动作。例如,控制部110使可动部114动作来变更机器人100的位置、朝向、姿势等。或者,控制部110在显示部117上显示图像,从声音输出部118输出声音。这样,控制部110通过使动作部120执行预先规定的各种动作,来进行作为机器人100的一般的举动。
在使动作部120执行通常的动作的期间,控制部110作为判定部140发挥功能,判定机器人100是否被施加了装饰(步骤S2)。具体而言,控制部110取得通过用户对机器人100的拍摄而得到的拍摄图像200,并将取得的拍摄图像200与参照图像进行比较,由此判定机器人100是否施加了某种装饰。
在判定为机器人100未被施加装饰的情况下(步骤S2:否),控制部110停留在步骤S1,继续使动作部120执行通常的动作。
在判定为机器人100被施加了装饰的情况下(步骤S2:是),控制部110作为装饰信息取得部150发挥功能,取得对机器人100施加的装饰信息(步骤S3)。具体而言,控制部110对机器人100的拍摄图像200与参照图像的差分执行对象识别。由此,控制部110识别对机器人100施加的装饰是否是例如帽子211或是衣服212、或者眼镜213等。
当取得装饰信息时,控制部110作为动作设定部160发挥功能,设定与施加于机器人100的装饰对应的装饰动作(步骤S4)。具体而言,控制部110参照图6所示的动作表,确定与施加于机器人100的装饰对应的动作,并设定为使机器人100执行所确定的动作的动作。
当设定装饰动作时,控制部110作为动作控制部130发挥功能,使机器人100执行所设定的动作(步骤S5)。具体而言,控制部110控制可动部114、显示部117或声音输出部118,使机器人100执行例如图7或图8所示的与装饰对应的动作。
若使机器人100执行装饰动作,则控制部110使处理返回到步骤S1,重复步骤S1~步骤S5的处理。换言之,控制部110在使机器人100执行通常的动作的同时,每当对机器人100施加装饰时,反复进行使机器人100执行与该装饰对应的动作的处理。
如以上说明的那样,实施方式1的机器人100判定本装置是否被施加了装饰,在判定为本装置被施加了装饰的情况下,执行与该装饰对应的动作。由此,在用户能够按照自己喜好进行装饰的机器人100中,机器人100对施加于机器人100的装饰产生反应并进行各种动作,因此能够进一步提高娱乐性。
另外,在上述实施方式1中,判定部140基于由用户拍摄到的拍摄图像200,判定机器人100是否被施加了装饰。但是,在本发明中,判定部140也可以通过接触传感器115c或开关来判定机器人100是否被施加了装饰。例如,也可以在机器人100中的有可能被施加装饰的多个位置设置接触传感器115c或开关,比如,如果装饰是帽子211,则佩戴于头部101,如果装饰是服装212,则穿着于身体部102,如果装饰是眼镜213,则佩戴于眼部104等,可以根据装饰的种类预先决定可穿戴的部位。在该情况下,判定部140在通过任一个位置的接触传感器115c检测到接触的情况下,或者通过任一个位置的开关检测到按压的情况下,判定为施加了装饰。然后,装饰信息取得部150根据由哪个位置的接触传感器115c或开关检测到装饰,取得装饰信息,该装饰信息表示该装饰是否是例如帽子211、服装212、或者眼镜213。
或者,也可以在装饰中预先组装有IC(Integrated Circuit:集成电路)标签,判定部140通过使用了IC标签的NFC等无线通信来判定是否对机器人100施加了装饰。具体而言,判定部140在对机器人100施加了装饰时,通过无线通信部116的功能接收从组装于该装饰的IC标签发出的无线信号。判定部140在如这样从IC标签接收到无线信号的情况下,判定为施加了装饰。另外,从IC标签发出的无线信号中包括用于识别装饰的识别信息。装饰信息取得部150根据该识别信息,取得装饰信息,该装饰信息表示施加给机器人100的装饰是否是例如帽子211、服装212、或者眼镜213。
(实施方式2)
接着,对本发明的实施方式2进行说明。另外,对于与实施方式1相同的结构以及功能,适当省略说明。
上述实施方式1的机器人100基于由用户拍摄到的拍摄图像200,判定机器人100是否被施加了装饰,取得装饰信息。与此相对,实施方式2的机器人100利用充电站所具备的镜对本装置的外观进行拍摄,取得拍摄图像200。以下进行说明。
图10表示实施方式2的机器人控制系统300。机器人控制系统300具备机器人100和充电站310。机器人100具备与实施方式1相同的结构。
充电站310是用于对机器人100进行充电的设备。充电站310例如以与机器人100处于相同的房间内的方式设置在机器人100能够自主地移动(返回)到充电站310的适当的部位。
如图10所示,充电站310在上部具备镜部312,在下部具备基座311。基座311具备指示镜部312的柱状的支承部、以及使机器人100搭乘的平板状的底部。另外,如图11所示,充电站310具备控制部320、存储部321、通信部322、电源部323以及充电部324作为与控制有关的结构。
控制部320具备CPU、ROM及RAM。CPU例如是微处理器等,是执行各种处理和运算的中央运算处理部。在控制部320中,CPU读出存储在ROM中的控制程序,并且在使用RAM作为工作存储器的同时控制整个充电站310的动作。
存储部321是闪存、硬盘等非易失性存储器。存储部321存储控制部320为了进行各种处理而使用的程序以及数据。另外,存储部321存储通过控制部320进行各种处理而生成或取得的数据。
通信部322具备用于以有线或无线的方式与外部的设备进行通信的接口。通信部322在控制部320的控制下,按照Wi-Fi等无线LAN、Bluetooth(注册商标)等通信标准,与机器人100进行无线通信。
电源部323具备电源电路,生成并供给充电站310的各部所需的电力(电源)。充电部324具备充电电路,对机器人100的电池112进行充电。
如图10所示,充电部324设置在基座311的底部。当机器人100返回充电站310时,机器人100以搭乘在充电部324上的状态停留。在机器人100的腿部108的底面设置有用于接受来自充电部324的充电的电极。充电部324通过将由电源部323生成的电力经由腿部108的电极向机器人100供给,对返回的机器人100的电池112进行充电。
镜部312在与返回至充电站310的机器人100对置的位置具备对可见光进行反射的镜面。机器人100在被充电部324充电的期间,使其前方朝向镜部312。在该状态下,在机器人100的摄像部115a的拍摄范围(图10中虚线所示的范围)中包括镜部312的镜面。
在从由充电部324充电中的机器人100的摄像部115a观察的情况下,在图10中用单点划线表示的范围作为镜像映在镜部312的镜面上。这样,镜子部312的镜面的形状、尺寸以及设置位置被确定为,在充电中的机器人100的摄像部115a的拍摄范围内包括机器人100的整体作为镜像。
充电站310的位置被预先存储在存储部111中。若满足规定的充电条件,则为了对电池112进行充电,机器人100使可动部114驱动而使机器人100移动到充电站310的位置。规定的充电条件是用于对机器人100进行充电的预先确定的条件,具体而言,满足在电池112的充电量低于规定值的情况,或者在预先规定的定期的定时到来的情况。当满足这样的充电条件且机器人100移动到充电站310时,由充电部324开始充电。当充电开始时,摄像部115a经由镜部312对充电中的本装置的外观进行拍摄,取得拍摄图像200。
判定部140基于这样由本装置的摄像部115a得到的拍摄图像200,判定机器人100是否被施加了装饰。具体而言,若由摄像部115a取得机器人100的拍摄图像200,则与实施方式1同样地,判定部140通过将拍摄图像200与参照图像进行比较,来判定是否对机器人100施加了装饰。
装饰信息取得部150在由判定部140判定为机器人100被施加了装饰的情况下,取得表示该装饰的装饰信息。具体而言,装饰信息取得部150通过图像识别部119识别拍摄图像200与参照图像的差分,从而判别施加于机器人100的装饰是否是例如帽子211、服装212或者眼镜213等。动作设定部160根据由装饰信息取得部150取得的装饰信息,设定使动作部120动作的动作。动作控制部130控制动作部120,以使由动作设定部160设置的动作进行。这些各部的功能与实施方式1中说明的相同。
如以上说明的那样,实施方式2的机器人100在由充电站310进行充电的过程中,利用充电站310所具备的镜部312对自身的外观进行拍摄,由此来判定以及识别对机器人100施加的装饰。这样,实施方式2的机器人100利用镜部312拍摄自身的外观,因此如实施方式1那样,无需通过通信终端250等外部的设备对机器人100进行拍摄。因此,在根据装饰进行各种动作的机器人100中,能够以更少的劳力和时间的方法来判定以及识别对机器人100施加的装饰。
另外,在上述实施方式2中,镜部312配备于充电站310。但是,在本发明中,镜部312也可以设置在充电站310以外的部位。例如,作为家具利用的一般的镜子也可以作为用于拍摄机器人100的外观的镜部312来使用。在该情况下,镜部312的位置被预先存储在存储部111中,动作部120通过动作控制部130的控制,例如在预先决定的定期的定时使机器人100移动到具备镜部312的位置。并且,在动作部120使机器人100移动到镜部312前时,摄像部115a经由镜部312对机器人100进行拍摄而取得拍摄图像200。
或者,机器人100也可以不使用镜部312,而通过本装置所具备的摄像部115a对本装置的外观进行拍摄。例如,在摄像部115a配备于手部107的前端的情况下,机器人100通过伸出手部107使摄像部115a的拍摄范围朝向本装置的一方,能够拍摄本装置的外观。这样,通过机器人100的结构,即使不利用镜部312,也能够取得本装置拍摄到的拍摄图像200。
或者,例如如图12所示,充电站310a也可以具备拍摄机器人100的摄像部330。在图12所示的机器人控制系统300a中,充电站310a在图10中具备镜部312的位置具备摄像部330。摄像部330作为充电站侧摄像单元发挥功能,将图12中虚线所示的范围作为拍摄范围进行拍摄。由此,摄像部330取得表示在充电部324充电中的机器人100的外观的拍摄图像200。控制部320通过与通信部322协作而作为发送单元发挥功能,将由摄像部330拍摄到的拍摄图像200向机器人100发送。
在机器人100中,控制部110通过与无线通信部116协作而作为接收单元发挥功能,接收从充电站310a发送的拍摄图像200。然后,判定部140基于接收到的拍摄图像200,判定对机器人100施加的装饰。装饰信息取得部150在由判定部140判定为机器人100被施加了装饰的情况下,取得表示该装饰的装饰信息。这样,通过充电站310a具备摄像部330,即使不利用镜也能够拍摄机器人100的外观并判定对机器人100施加的装饰。
(实施方式3)
接着,对本发明的实施方式3进行说明。另外,对于与实施方式1或2相同的结构以及功能,适当省略说明。
图13表示实施方式3的机器人100a的功能性结构。如图13所示,实施方式3的机器人100a在功能上具备动作部120、动作控制部130、判定部140、装饰信息取得部150以及动作设定部160。这些各部与实施方式1或2中说明的各部同样地发挥功能。除了这些功能之外,实施方式3的机器人100a具备存在检测部170、行动检测部180和反应取得部190。在控制部110中,CPU将存储在ROM中的程序读出到RAM中,执行该程序并进行控制,由此作为这些各部发挥功能。
存在检测部170检测存在于机器人100a的外部的规定对象即用户等的存在。具体而言,存在检测部170通过摄像部115a对机器人100a的周围进行拍摄,取得表示机器人100a的周围情况的图像。并且,存在检测部170通过图像识别部119识别由摄像部115a取得的图像,判定图像中是否拍摄到人或动物。这样,存在检测部170通过控制部110与摄像部115a以及图像识别部119协作来实现。存在检测部170作为存在检测单元发挥作用。
行动检测部180检测对机器人100a的规定对象的行动。对机器人100a的规定对象的行动是指为了使规定对象与机器人100a进行交流(沟通)而施加的、对话或接触等行动。作为对机器人100a的行动,规定对象例如对机器人100a进行呼叫,接触机器人100a的表面,或者对机器人100a表示姿态(姿势,gesture)。行动检测部180通过传感器部115的各种传感器来检测这样的规定对象的行动。
具体而言,在从规定对象呼叫的情况下,行动检测部180经由声音传感器115b检测从规定对象发出的声音。另外,在从规定对象接触的情况下,行动检测部180经由接触传感器115c检测接触。或者,在从规定对象表示姿态的情况下,行动检测部180经由摄像部115a检测姿态。这样,行动检测部180通过控制部110与传感器部115的各种传感器协作来实现。行动检测部180作为行动检测单元发挥功能。
动作控制部130在行动检测部180检测到对机器人100a的规定对象的行动的情况下,控制动作部120以进行用于响应检测到的行动的交流动作。交流动作是指用于与规定对象进行交流(沟通)的动作,也称为响应动作(响应行动)。
具体而言,动作控制部130在行动检测部180检测到来自规定对象的声音、接触、姿态等的情况下,通过使头部101动作并朝向规定对象一方,或者使腿部108动作而向规定对象一方移动,从而执行交流动作。或者,动作控制部130也可以通过在显示部117上显示图像或者从声音输出部118输出声音来执行交流动作。这样,动作控制部130根据行动检测部180检测出的规定对象的行动,使机器人100a执行各种动作作为交流动作。由此,规定对象能够与机器人100a进行沟通而愉快。
另一方面,在行动检测部180未检测到对机器人100a的规定对象的行动的情况下,动作控制部130控制动作部120以进行与交流动作不同的单独动作。单独动作是指与规定对象独立的由机器人100a单独执行的动作,是不经由与规定对象的交流(沟通)的自发动作。单独动作也称为单独行动、单独游戏。
换言之,在机器人100a与存在于周围的任一对象交流的情况下,动作控制部130使机器人100a执行上述的交流动作,另一方面,在机器人100a与存在于周围的对象没有交流的情况下,使机器人100a执行单独动作,由此,能够使机器人100a执行模仿了实际的人(孩子)的自然的动作,从而提高对机器人100a的亲切。
图14表示单独动作的例子。动作控制部130在行动检测部180最后检测到对机器人100a的规定对象的行动之后经过了规定时间的情况下,使机器人100a执行图14所示的任一个单独动作。
具体而言,动作控制部130使机器人100a根据机器人100a的感情执行不同的单独动作。具体如图14所示,机器人100a通过两个感情值“calm”以及“excite”,表示“不安的心情”、“有干劲的心情”、“高兴的心情”以及“平静的心情”这四种感情。动作控制部130根据与规定对象的交流中的规定对象的行动及其他状况,使两个感情值变化,使机器人100的感情变化。
例如,在机器人100a表示“不安的心情”的感情的情况下,动作控制部130使机器人100a执行“寻找什么并移动到房间的角落并注视。”等中的任意一个单独动作。在机器人100a表示“有干劲的心情”的感情的情况下,动作控制部130使机器人100a执行“想去外面而移动到房间的一端转来转去。”等中的任意一个单独动作。在机器人100a表示“高兴的心情”的感情的情况下,动作控制部130使机器人100a执行“唱歌。”等中的任意一个单独动作。在机器人100a表示“平静的心情”的感情的情况下,动作控制部130使机器人100a执行“静静望向窗外。”等中的任意一个单独动作。随机决定执行在各感情中能够执行的多个单独动作中的哪个单独动作。
另外,机器人100a的单独动作也可以包括实施方式1的图6所记载的装饰动作。
此外,虽然未图示,但动作控制部130使机器人100a执行由机器人100a的周围的环境或时间引起的单独动作。机器人100a周围的环境是指例如音量、温度、气压、亮度、障碍物等这样的机器人100a的外部的信息,通过传感器部115所具备的各种传感器来检测。时间是当前时刻、日期、季节等信息。例如,当“听到音乐。”、“听到人与人之间的谈话。”等与环境相关的预先决定的条件成立时,动作控制部130使机器人100a执行对应的单独动作。另外,当“到睡觉的时间了。”、“是正月或生日等早上。”等与时间相关的预先确定的条件成立时,动作控制部130使机器人100a执行对应的单独动作。
如以上那样的交流动作以及单独动作作为存储于存储部111的动作表165中的一部分而被预先规定。当交流动作或单独动作的条件成立时,动作设定部160参照动作表165来设定使机器人100a执行的交流动作或者单独动作。然后,动作控制部130使机器人100a执行由动作设定部160设定的交流动作或者单独动作。
返回到图13,在机器人100a进行交流动作时,动作控制部130以进行作为装饰动作的第一动作的方式控制动作部120的情况下,反应取得部190取得对第一动作的规定对象的反应。如上所述,动作控制部130在检测到规定对象的存在、且检测到对机器人100a的规定对象的行动的情况下,使机器人100a执行交流动作。这样,在机器人100a执行交流动作时,若对机器人100a施加装饰,则动作控制部130控制动作部120,使机器人100a执行例如图6所示的动作中的某一个作为装饰动作。这样,在动作控制部130使机器人100a执行装饰动作的情况下,反应取得部190取得对该动作的规定对象的反应。
具体而言,反应取得部190在动作控制部130使机器人100a执行装饰动作后的规定时间内,通过检测从规定对象发出的声音、来自规定对象的对机器人100a的接触、或者规定对象的姿态,取得规定对象的反应。例如,在从规定对象发出了声音的情况下,反应取得部190经由声音传感器115b检测声音。另外,在机器人100a被规定对象接触的情况下,反应取得部190经由接触传感器115c检测接触。或者,在从规定对象表示了姿态的情况下,反应取得部190经由摄像部115a检测姿态。这样,反应取得部190通过控制部110与传感器部115的各种传感器协作来实现。反应取得部190作为反应取得单元发挥功能。
动作控制部130根据由反应取得部190取得的反应,以进行与第一动作不同的第二动作的方式控制动作部120。第一动作是与施加于机器人100a的装饰对应的动作,例如是图6所示的动作表165中规定的动作中的任意一个动作。与此相对,第二动作是与第一动作不同的动作,是比第一动作更详细地规定的动作(详细动作)。例如,第二动作被规定为,与第一动作相比,使可动部114更大或者花费更长的时间动作的动作。或者,第二动作也可以由可动部114、显示部117和声音输出部118比第一动作更复杂地组合来规定。作为第二动作而规定的动作与第一动作相同,可以根据施加于机器人100a的装饰而不同,也可以根据规定对象的反应而不同。
第二动作与第一动作一起被预先规定为存储于存储部111的动作表165中的一部分,动作设定部160参照动作表165来设定第二动作。或者,第二动作被规定为存储在充电站310等外部的设备中的动作程序,动作设定部160也可以从外部的设备经由无线通信取得动作程序来设定第二动作。
更详细地说明,动作设定部160在由反应取得部190取得的反应满足特定条件的情况下,设定第二动作作为使机器人100a执行的动作。在此,特定条件在认定对装饰动作的规定对象的反应在设想范围外的情况下成立。例如,在反应取得部190检测到声音作为规定对象的反应的情况下,特定条件在检测到的声音的大小比预先规定的第一阈值大的情况下成立。另外,在反应取得部190检测到对机器人100a的接触作为规定对象的反应的情况下,特定条件在检测到的接触的强度比预先规定的第二阈值大的情况下成立。或者,在反应取得部190检测到姿态作为规定对象的反应的情况下,特定条件在检测到的姿态的大小比预先规定的第三阈值大的情况下成立。
这样,特定条件在认定对装饰动作的规定对象的反应比通常大的情况下成立。从第一阈值到第三阈值,以在规定对象的反应比通常大的情况下特定条件成立的方式,预先设定为适当的值。
动作设定部160在规定对象的反应满足特定条件的情况下,作为机器人100a执行的动作,设定与之前执行的装饰动作不同的第二动作。然后,动作控制部130控制动作部120,以进行由动作设定部160设定的第二动作。这样,通过与规定对象的反应对应地由机器人100a执行进一步的动作,能够进一步提高机器人100a的娱乐性。
参照图15所示的流程图,对在如以上那样构成的机器人100a中执行的处理的流程进行说明。
图15所示的机器人控制处理在接通机器人100的电源且通过对电池112进行充电而使机器人100成为能够正常动作的状态时开始。
在图15所示的机器人控制处理中,从步骤S1到步骤S5的处理与图9所示的实施方式1的机器人控制处理中的从步骤S1到步骤S5的处理相同。具体而言,控制部110使动作部120执行通常的动作(步骤S1),在此期间,判定机器人100是否被施加了装饰(步骤S2)。作为判定的结果,在判定为机器人100未被施加装饰的情况下(步骤S2:否),控制部110在步骤S1中使动作部120继续执行通常的动作。与此相对,在判定为机器人100被施加了装饰的情况下(步骤S2:是),控制部110取得对机器人100施加的装饰信息(步骤S3)。当取得装饰信息时,控制部110设定与施加于机器人100的装饰对应的装饰动作(步骤S4),使机器人100a执行所设定的装饰动作(步骤S5)。
若这样使机器人100a执行装饰动作,则控制部110作为存在检测部170以及行动检测部180发挥功能,判定是否为与规定对象交流中(步骤S6)。具体而言,控制部110在检测到规定对象的存在、且检测到针对机器人100a的规定对象的行动的情况下,使机器人100a执行用于响应规定对象的行动的交流动作。另一方面,在即使检测到规定对象的存在,但未检测到针对机器人100a的规定对象的行动的情况下,控制部110使机器人100a执行与规定对象独立的动作即单独动作。在处于执行这样的两种动作中的交流动作的情况下、或者在当前的定时处于从执行交流动作起到接下来执行单独动作为止的期间中的情况下,控制部110判定为是与规定对象交流中。
作为判定的结果,在判定为不是与规定对象交流中的情况下(步骤S6:否),控制部110跳过以后的处理,使处理返回到步骤S1。与此相对,在判定为是与规定对象交流中的情况下(步骤S6:是),控制部110作为反应取得部190发挥功能,取得针对在步骤S5中执行的装饰动作的规定对象的反应(步骤S7)。具体而言,控制部110在刚刚执行装饰动作之后的规定时间内,检测从规定对象发出的声音、来自规定对象对机器人100a的接触、或者规定对象的姿态。
当取得了规定对象的反应时,控制部110判定所取得的反应是否在设想范围外(步骤S8)。具体而言,控制部110判定作为针对装饰动作的反应而取得的声音的大小、接触的强度、或姿态的大小是否比预先规定的阈值大。
在判定为规定对象的反应在设想范围外的情况下(步骤S8:是),控制部110作为动作设定部160发挥功能,设定详细动作(步骤S9)。具体而言,控制部110将与在步骤S5中使机器人100a执行的装饰动作不同的动作设定为使机器人100a执行的动作。
当设定了详细动作时,控制部110作为动作控制部130发挥功能,使机器人100a执行所设定的详细动作(步骤S10)。具体而言,控制部110控制可动部114、显示部117或声音输出部118,使机器人100a进行与规定对象的反应对应的详细动作。
与此相对,在判定为规定对象的反应在设想范围内的情况下(步骤S8:否),控制部110跳过步骤S9以及步骤S10的处理,不使机器人100a执行详细动作。
之后,控制部110使处理返回到步骤S1,重复步骤S1~步骤S10的处理。换言之,控制部110一边使机器人100a执行通常的动作,一边使机器人100a执行与施加于机器人100的每个装饰对应的动作,进而根据规定对象的反应,重复使机器人100a执行更详细的动作的处理。
如以上说明的那样,实施方式3的机器人100a在与规定对象交流中执行了装饰动作的情况下,根据对该装饰动作的规定对象的反应,执行与装饰动作不同的动作。这样,实施方式3的机器人100a不仅根据对本装置施加的装饰进行动作,而且以对规定对象的反应进行响应的方式进一步进行动作,因此能够使用户更加愉快,能够进一步提高娱乐性。
另外,在上述实施方式3中,机器人100a执行交流动作时的装饰动作和机器人100a执行单独动作时的装饰动作,在对机器人100a施加了相同的装饰的情况下,也可以不同。例如,动作控制部130也可以在机器人100a执行交流动作时,使机器人100a执行规定对象容易反应的动作作为装饰动作,在机器人100a执行单独动作时,使机器人100a执行装饰动作作为单独动作的一部分。这样,根据处于交流动作中还是单独动作中,使机器人100a执行与状况对应的动作作为装饰动作,由此能够进一步提高娱乐性。
(变形例)
以上,对本发明的实施方式进行了说明,但上述实施方式是一个例子,本发明的适用范围并不限定于此。即,本发明的实施方式能够进行各种应用,所有实施方式都包括在本发明的范围内。
例如,在上述实施方式中,动作设定部160基于预先存储在机器人100、100a内的动作表165来设定装饰动作。但是,在本发明中,动作设定部160也可以通过无线通信部116的功能从外部的设备取得定义了装饰动作的程序。例如,动作设定部160也可以响应于对机器人100、100a施加了装饰这一情况而与充电站进行无线通信,从充电站310取得定义了与该装饰对应的动作的程序。或者,动作设定部160也可以响应于对机器人100、100a施加了装饰这一情况,经由因特网等广域网与外部的服务器进行通信,从外部的服务器取得定义了与该装饰对应的动作的程序。另外,也可以在装饰内的IC标签中预先组装定义了与该装饰对应的动作的程序。在该情况下,动作设定部160在对机器人100、100a施加了装饰时,通过接收从IC标签发出的无线信号,取得定义了与该装饰对应的动作的程序。
另外,动作控制部130也可以使机器人100、100a执行图6所示的动作以外的各种装饰动作。进而,也可以按照每个装饰将多个装饰动作建立对应,动作控制部130从与施加于机器人100、100a的装饰对应的多个装饰动作中选择能够在当前的电池112的充电量的范围内实施的装饰动作,使机器人100、100a执行所选择的装饰动作。
在上述实施方式中,机器人100、100a具备判定部140,该判定部140判定本装置是否被施加了装饰。但是,在本发明中,也可以机器人100、100a的外部的设备具备判定部140的功能。外部的设备例如是充电站310、通信终端250等。在该情况下,外部的设备具备相当于控制部110、图像识别部119等的结构,基于拍摄到机器人100、100a的外观的拍摄图像200,判定对机器人100、100a施加的装饰。在机器人100中,装饰信息取得部150经由无线通信部116与外部的设备通信,从而从外部的设备取得由外部的设备判定的判定结果作为装饰信息。这样,通过将判定部140的功能设置在外部的设备中,能够简化机器人100、100a的结构。
在上述实施方式中,机器人100、100a是模仿人的机器人。但是,本发明的机器人100、100a不限于模仿人的形状,也可以具有任意的形状。例如,本发明的机器人100、100a也可以是外观上模仿了狗、猫、鼠、兔子等动物(宠物)的机器人。
在上述实施方式中,显示部117设置于眼部104,摄像部115a设置于口部105。但是,在本发明中,显示部117也可以设置在眼部104以外的部位,摄像部115a也可以设置在口部105以外的部位(例如鼻部等)。
在上述实施方式中,在控制部110中,CPU执行存储于ROM的程序,由此作为图3所示的各部发挥功能。但是,在本发明中,控制部110也可以代替CPU而具备例如ASIC(Application Specific Integrated Circuit:专用集成电路)、FPGA(Field-Programmable Gate Array:现场可编程门阵列)、或各种控制电路等专用的硬件,专用的硬件作为图3所示的各部发挥功能。在该情况下,可以通过单独的硬件来分别实现各部的功能,也可以将各部的功能汇总而以单一的硬件来实现。另外,也可以通过专用的硬件来实现各部的功能中的一部分,通过软件或者固件来实现另外的一部分。
此外,当然能够将用于实现本发明的功能的结构提供给作为预先具备的机器人,由此通过程序的应用,也能够使现有的信息处理装置等作为本发明的机器人发挥功能。即,通过使用于实现上述实施方式中例示的机器人100、100a的各功能结构的程序能够由控制现有的信息处理装置等的CPU等执行,从而可以作为本发明的机器人发挥功能。
另外,这样的程序的应用方法是任意的。程序例如可以存储在软盘、CD(CompactDisc:光盘)-ROM、DVD(Digital Versatile Disc:数字式激光视盘)-ROM、存储卡等计算机可读取的记录介质中来应用。此外,程序可以叠加在载波上,并且可以经由因特网等的通信介质来应用。例如,也可以在通信网络上的公告板(BBS:Bulletin Board System)上公告并发布程序。而且,也可以构成为,启动该程序,在OS(Operating System:操作系统)的控制下,通过与其他应用程序同样地执行,能够执行上述的处理。
以上,对本发明的优选的实施方式进行了说明,但本发明并不限定于特定的实施方式,在本发明中包括权利要求书所记载的发明及其等同的范围。

Claims (19)

1.一种机器人,其中,
具备:
使本装置进行动作的动作单元;
装饰信息取得单元,所述装饰信息取得单元取得装饰信息,所述装饰信息基于拍摄有所述本装置的拍摄图像而得到,表示对所述本装置施加的装饰;以及
动作控制单元,所述动作控制单元对所述动作单元进行控制,以进行与由所述装饰信息取得单元取得的所述装饰信息对应的所述动作。
2.根据权利要求1所述的机器人,其中,
还具备对所述本装置进行拍摄的摄像单元,
所述装饰信息取得单元基于由所述摄像单元拍摄有所述本装置的所述拍摄图像,取得所述装饰信息。
3.根据权利要求2所述的机器人,其中,
所述摄像单元拍摄映在镜子上的所述本装置的镜像。
4.根据权利要求3所述的机器人,其中,
所述动作单元使所述本装置移动,
所述摄像单元在所述动作单元使所述本装置移动到设置有所述镜子的位置时,拍摄映在所述镜子上的所述本装置的所述镜像。
5.根据权利要求4所述的机器人,其中,
所述镜子设置于对所述本装置充电的充电站,
所述摄像单元在所述本装置被所述充电站充电时,经由所述镜子对所述本装置进行拍摄。
6.根据权利要求1所述的机器人,其中,
还具备判定单元,所述判定单元判定是否对所述本装置施加了所述装饰,
所述装饰信息取得单元在由所述判定单元判定为对所述本装置施加了所述装饰的情况下,取得所述装饰信息。
7.根据权利要求1所述的机器人,其中,
所述本装置的外部的设备基于拍摄有所述本装置的拍摄图像,判定对所述本装置施加的所述装饰,
所述装饰信息取得单元从所述外部的设备取得由所述外部的设备判定的判定结果作为所述装饰信息。
8.根据权利要求1所述的机器人,其中,
还具备行动检测单元,所述行动检测单元检测规定对象对所述本装置的行动,
所述动作控制单元在所述行动检测单元检测到所述行动的情况下,控制所述动作单元以进行用于响应所述行动的交流动作,在所述行动检测单元未检测到所述行动的情况下,对所述动作单元进行控制,以进行不经由与所述规定对象的交流的自发的单独动作,该单独动作是与所述规定对象独立而由所述本装置单独执行的所述动作。
9.根据权利要求8所述的机器人,其中,
所述单独动作包括与所述装饰信息对应的所述动作。
10.根据权利要求8所述的机器人,其中,
还具有反应取得单元,在所述本装置进行所述交流动作时,在所述动作控制单元控制所述动作单元以进行第一动作作为与所述装饰信息对应的所述动作的情况下,取得所述规定对象对所述第一动作的反应,
所述动作控制单元根据由所述反应取得单元检测出的所述反应,控制所述动作单元以进行与所述第一动作不同的第二动作。
11.根据权利要求10所述的机器人,其中,
所述动作控制单元在由所述反应取得单元检测出的所述规定对象的所述反应处于设想范围外的情况下,控制所述动作单元以进行所述第二动作,
所述第二动作是比所述第一动作更详细地规定的详细动作。
12.根据权利要求8所述的机器人,其中,
所述规定对象是人或动物。
13.根据权利要求1所述的机器人,其中,
所述本装置的所述装饰包括服装或饰品。
14.根据权利要求8所述的机器人,其中,
即使对所述本装置施加的所述装饰相同,所述本装置执行所述交流动作时的装饰动作与所述本装置执行所述单独动作时的装饰动作也不同。
15.根据权利要求14所述的机器人,其中,
所述动作控制单元为,在所述本装置执行所述交流动作时,使所述本装置执行所述规定对象容易反应的动作作为装饰动作,在所述本装置执行所述单独动作时,使所述本装置执行装饰动作作为所述单独动作的一部分。
16.一种机器人控制系统,其中,
具备:
权利要求1至15中任一项所述的所述机器人;以及
对所述机器人进行充电的充电站。
17.根据权利要求16所述的机器人控制系统,其中,
所述充电站具备:
对所述机器人进行拍摄的充电站侧摄像单元;以及
发送单元,所述发送单元向所述机器人发送由所述充电站侧摄像单元拍摄有所述机器人的拍摄图像,
所述机器人还具备接收单元,所述接收单元接收从所述充电站发送的所述拍摄图像,
所述装饰信息取得单元基于由所述接收单元接收到的所述拍摄图像,取得所述装饰信息。
18.一种机器人的控制方法,其中,
包括:
使机器人进行动作;
取得装饰信息,所述装饰信息基于拍摄有所述机器人的拍摄图像而得到,表示施加于所述机器人的装饰,
对所述机器人的所述动作进行控制,以进行与取得的所述装饰信息对应的所述动作。
19.一种记录介质,存储有使机器人的计算机作为如下单元发挥功能的程序,其中,
所述单元包括:
使所述机器人进行动作的动作单元;
装饰信息取得单元,所述装饰信息取得单元取得装饰信息,所述装饰信息基于拍摄有所述机器人的拍摄图像而得到,表示对所述机器人施加的装饰;以及
动作控制单元,所述动作控制单元对所述动作单元进行控制,以进行与由所述装饰信息取得单元取得的所述装饰信息对应的所述动作。
CN201811531141.0A 2017-12-22 2018-12-14 机器人、机器人控制系统、机器人的控制方法以及记录介质 Active CN109955264B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-245907 2017-12-22
JP2017245907A JP6747423B2 (ja) 2017-12-22 2017-12-22 ロボット、ロボット制御システム、ロボットの制御方法及びプログラム

Publications (2)

Publication Number Publication Date
CN109955264A true CN109955264A (zh) 2019-07-02
CN109955264B CN109955264B (zh) 2022-05-03

Family

ID=64664196

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811531141.0A Active CN109955264B (zh) 2017-12-22 2018-12-14 机器人、机器人控制系统、机器人的控制方法以及记录介质

Country Status (4)

Country Link
US (1) US11325262B2 (zh)
EP (1) EP3501761B1 (zh)
JP (1) JP6747423B2 (zh)
CN (1) CN109955264B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6747423B2 (ja) * 2017-12-22 2020-08-26 カシオ計算機株式会社 ロボット、ロボット制御システム、ロボットの制御方法及びプログラム
US20210216808A1 (en) * 2018-06-05 2021-07-15 Sony Corporation Information processing apparatus, information processing system, program, and information processing method
JP7107017B2 (ja) * 2018-06-21 2022-07-27 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
CN112571433A (zh) * 2020-12-14 2021-03-30 王永安 宠物机器人的情感交流方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1835828A (zh) * 2003-08-12 2006-09-20 株式会社国际电气通信基础技术研究所 用于通信机器人的控制系统
US20070061040A1 (en) * 2005-09-02 2007-03-15 Home Robots, Inc. Multi-function robotic device
CN102059700A (zh) * 2010-11-22 2011-05-18 南京信息工程大学 迎宾机器人系统
CN104639887A (zh) * 2013-11-14 2015-05-20 欧姆龙株式会社 监视装置及监视方法
CN106293102A (zh) * 2016-10-13 2017-01-04 旗瀚科技有限公司 一种基于用户心情变化情绪的机器人情感交流方法
US20170334065A1 (en) * 2016-05-20 2017-11-23 Hon Hai Precision Industry Co., Ltd. Intelligent robot with different accouterments

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001191275A (ja) 1999-10-29 2001-07-17 Sony Corp ロボット・システム、外装及びロボット装置
JP2002144260A (ja) * 2000-11-13 2002-05-21 Sony Corp 脚式移動ロボット及びその制御方法
JP2003001582A (ja) 2001-06-21 2003-01-08 Kenji Fuse ロボットの衣装
EP2050544B1 (en) * 2005-09-30 2011-08-31 iRobot Corporation Robot system with wireless communication by TCP/IP transmissions
JP4316630B2 (ja) * 2007-03-29 2009-08-19 本田技研工業株式会社 ロボット、ロボットの制御方法およびロボットの制御プログラム
JP5857747B2 (ja) * 2012-01-05 2016-02-10 富士通株式会社 撮像装置を搭載したロボットの動作設定法。
US9618937B1 (en) * 2014-08-25 2017-04-11 Google Inc. Slip detection using robotic limbs
JP6726388B2 (ja) * 2016-03-16 2020-07-22 富士ゼロックス株式会社 ロボット制御システム
JP2017207901A (ja) * 2016-05-18 2017-11-24 株式会社Nttドコモ 応答システム及び入出力装置
WO2018008323A1 (ja) * 2016-07-08 2018-01-11 Groove X株式会社 服を着る自律行動型ロボット
JP6607162B2 (ja) * 2016-09-23 2019-11-20 カシオ計算機株式会社 ロボット、状態判定システム、状態判定方法及びプログラム
US20180229372A1 (en) * 2017-02-10 2018-08-16 JIBO, Inc. Maintaining attention and conveying believability via expression and goal-directed behavior with a social robot
US10792578B2 (en) * 2017-10-20 2020-10-06 Thinker-Tinker, Inc. Interactive plush character system
US11498206B2 (en) * 2017-12-14 2022-11-15 Sony Interactive Entertainment Inc. Entertainment system, robot device, and server device
JP6747423B2 (ja) * 2017-12-22 2020-08-26 カシオ計算機株式会社 ロボット、ロボット制御システム、ロボットの制御方法及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1835828A (zh) * 2003-08-12 2006-09-20 株式会社国际电气通信基础技术研究所 用于通信机器人的控制系统
US20070061040A1 (en) * 2005-09-02 2007-03-15 Home Robots, Inc. Multi-function robotic device
CN102059700A (zh) * 2010-11-22 2011-05-18 南京信息工程大学 迎宾机器人系统
CN104639887A (zh) * 2013-11-14 2015-05-20 欧姆龙株式会社 监视装置及监视方法
US20170334065A1 (en) * 2016-05-20 2017-11-23 Hon Hai Precision Industry Co., Ltd. Intelligent robot with different accouterments
CN106293102A (zh) * 2016-10-13 2017-01-04 旗瀚科技有限公司 一种基于用户心情变化情绪的机器人情感交流方法

Also Published As

Publication number Publication date
JP6747423B2 (ja) 2020-08-26
EP3501761B1 (en) 2025-07-23
US20190193279A1 (en) 2019-06-27
EP3501761A1 (en) 2019-06-26
JP2019111603A (ja) 2019-07-11
US11325262B2 (en) 2022-05-10
CN109955264B (zh) 2022-05-03

Similar Documents

Publication Publication Date Title
US11000952B2 (en) More endearing robot, method of controlling the same, and non-transitory recording medium
CN109955264B (zh) 机器人、机器人控制系统、机器人的控制方法以及记录介质
US20170352351A1 (en) Communication robot
JP7326707B2 (ja) ロボット、ロボットの制御方法及びプログラム
CN107870588B (zh) 机器人、故障诊断系统、故障诊断方法以及记录介质
JP2022113701A (ja) 機器の制御装置、機器、機器の制御方法及びプログラム
US20210023704A1 (en) Information processing apparatus, information processing method, and robot apparatus
JP6667878B1 (ja) 着ぐるみ演出支援装置、着ぐるみ演出支援システムおよび着ぐるみ演出支援方法
US20230191269A1 (en) Robot
WO2022158279A1 (ja) 自律移動体及び情報処理方法
JP6586810B2 (ja) 玩具
WO2019123744A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2022051982A (ja) 情報処理装置および情報処理方法
US11550528B2 (en) Electronic device and method for controlling operation of accessory-mountable robot
JP2004130427A (ja) ロボット装置及びロボット装置の動作制御方法
JP7690884B2 (ja) 自律移動体、情報処理方法、プログラム、及び、情報処理装置
JP2004066418A (ja) 自律ロボット
JP7329457B2 (ja) 着ぐるみ演出支援装置、着ぐるみ演出支援システムおよび着ぐるみ演出支援方法
US20240367065A1 (en) Autonomous mobile body, information processing method, and program
US20250083327A1 (en) Imaging system, imaging method, and storage medium
US20240367066A1 (en) Autonomous mobile body, information processing method, and program
US20230367312A1 (en) Information processing apparatus, information processing method, and program
WO2025037529A1 (ja) 制御装置及び制御方法
JP2025050107A (ja) 電子機器、電子機器の制御方法及びプログラム
WO2020080241A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant