[go: up one dir, main page]

CN102686371B - 危险提示装置、危险提示系统以及危险提示方法 - Google Patents

危险提示装置、危险提示系统以及危险提示方法 Download PDF

Info

Publication number
CN102686371B
CN102686371B CN201180005161.4A CN201180005161A CN102686371B CN 102686371 B CN102686371 B CN 102686371B CN 201180005161 A CN201180005161 A CN 201180005161A CN 102686371 B CN102686371 B CN 102686371B
Authority
CN
China
Prior art keywords
person
robot
time
posture
danger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201180005161.4A
Other languages
English (en)
Other versions
CN102686371A (zh
Inventor
佐藤太一
水谷研治
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Publication of CN102686371A publication Critical patent/CN102686371A/zh
Application granted granted Critical
Publication of CN102686371B publication Critical patent/CN102686371B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16PSAFETY DEVICES IN GENERAL; SAFETY DEVICES FOR PRESSES
    • F16P3/00Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body
    • F16P3/12Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine
    • F16P3/14Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact
    • F16P3/142Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact using image capturing devices
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40196Projecting light on floor to delimit danger zone around robot
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40203Detect position of operator, create non material barrier to protect operator

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Manipulator (AREA)

Abstract

本发明提供生成用于适当地提示因机器人的动作而引起的危险的状况的数据的危险提示装置。危险提示装置具备:人位置获得部(1102),获得作为人的位置的人位置;人视野范围决定部(1125),根据由人位置获得部(1102)获得的人位置,决定人的视野范围;位置姿势决定部(1133),决定包含在按照动作计划动作的机器人(1200)的至少一部分被包含在视野范围内的特定时刻下的机器人(1200)的位置、以及在特定时刻下的机器人(1200)的姿势之中的至少一方的位置姿势;以及图像生成部(1104),生成用于示出由位置姿势决定部(1133)决定的位置姿势的图像数据。

Description

危险提示装置、危险提示系统以及危险提示方法
技术领域
本发明涉及,生成用于提示按照动作计划动作的机器人的危险的数据的危险提示装置。 
背景技术
以往,在生产现场等使用机器人。在使用机器人时,存在人与机器人接触受伤的可能性。因此,采用由安全栅栏围绕机器人的安全对策。但是,在机器人与人之间存在安全栅栏的情况下,也有不易实现的作业。例如,在机器人与人之间存在安全栅栏的情况下,人与机器人拿着桌子的两端,来协助搬运是困难的。并且,机器人,将部件以及工具等交给进行组装作业的人也是困难的。 
在此情况下,在协助人来工作的机器人、或在人附近工作的机器人等与人之间设置安全栅栏是困难的。因此,在使用这样的机器人的情况下,机器人的使用人,需要给以比通常大的安全上的注意。 
专利文献1中公开,视觉显示在移动机器人的周围产生的危险范围的移动机器人。专利文献1所记载的移动机器人的周围产生的危险范围是,按照移动机器人想要向哪方向、以哪种速度来移动,时时刻刻发生变化的。而且,移动机器人,根据移动时的移动速度等的移动计划,决定危险范围。 
图38是示出移动机器人停止时的危险范围的图。图38所示的移动机器人9001具备,移动机器人9001的前方的投影仪9101、后方的投影仪9102、右侧的投影仪9103、以及左侧的投影仪9104。图38所示的危险范围9060是,移动机器人9001停止时的危险范围。危险范围9060,由4个投影仪9101、9102、9103以及9104投影来提示给人。 
图39是示出图38所示的移动机器人9001移动时的危险范围9060的图。图39所示的危险范围9060是,移动机器人9001以速度V1向左侧行走时的危险范围。危险范围9060,在作为行走方向的移动机器人9001的左侧的区域,比停止时大。 
图40是示出图38所示的移动机器人9001以比速度V1更高速移动时的危险范围9060的图。危险范围9060,变得比以速度V1移动时更大。 
图41是示出图38所示的移动机器人9001的左的臂部9012动作时的危险范围9060的图。危险范围9060,在左的臂部9012附近的区域变大。 
(现有技术文献) 
(专利文献) 
专利文献1:(日本)特开2009-123045号公报 
发明概要
发明要解决的问题 
然而,机器人,即使在该周围提示危险范围,也会有不能向人适当地通知该危险的情况。例如,机器人,即使在人不能看的地方提示危险范围,也不能向人适当地通知该危险。而且,在人与机器人冲突的情况下,产生对机器人的顺利动作的障碍。 
并且,根据被显示在机器人的周围的危险范围,人准确地感知危险状况是困难的。例如,人不易感知若向哪方向移动则能够回避危险、若向哪方向行走则更危险、哪区域是危险更低的区域、或现在处于哪种程度危险的状态等的危险状况。以下,说明更具体的例子。 
图42是示出以往技术的问题的图。位于危险范围9060的人9061,从图42所示的人9061的位置,不能直接看移动机器人9001的右的臂部9011以及左的臂部9012。因此,人9061,即使已经知道位于危险范围9060的内部,也不能预测右的臂部9011以及左的臂部9012的哪一方移动来。因此,人9061,不能预测从哪方向移动机器人9001的臂部移动来,不能判断若向哪方向行走则能够回避危险。 
发明内容
于是,本发明的目的在于提供生成用于适当地提示因机器人的动作而引起的危险的状况的数据的危险提示装置。 
用于解决问题的手段 
为了解决所述的问题,本发明的危险提示装置具备:人位置获得部, 获得作为人的位置的人位置;人视野范围决定部,根据由所述人位置获得部获得的所述人位置,决定所述人的视野范围;位置姿势决定部,决定位置姿势,该位置姿势包含在按照动作计划动作的机器人的至少一部分被包含在所述视野范围内的特定时刻下的所述机器人的位置、以及在所述特定时刻下的所述机器人的姿势之中的至少一方;以及图像生成部,生成用于示出由所述位置姿势决定部决定的所述位置姿势的图像数据。 
据此,危险提示装置,能够生成用于提示机器人包含在人的视野内的时刻的机器人的状态的数据。因此,危险提示装置,能够生成用于适当地提示因机器人的动作而引起的危险的状况的数据。 
并且,也可以是,所述危险提示装置,还具备危险区域生成部,该危险区域生成部,根据所述动作计划,将所述机器人动作的区域作为危险区域来生成,所述位置姿势决定部,根据所述人位置以及所述动作计划,决定在包含预测到所述人与所述机器人的冲突的时刻的期间内的所述特定时刻下的所述位置姿势,所述图像生成部,生成用于示出由所述位置姿势决定部决定的所述位置姿势、和所述危险区域的所述图像数据。 
据此,危险提示装置,能够生成用于示出预测到冲突的时刻附近的机器人的位置或姿势的数据。也就是说,危险提示装置,能够生成用于适当地提示机器人周边的危险状况的数据。 
并且,也可以是,所述位置姿势决定部,决定在作为预测到所述冲突的时刻之前的时刻的所述特定时刻下的所述位置姿势。 
据此,危险提示装置,能够生成用于示出预测到冲突的时刻之前的时刻的机器人的位置或姿势的数据。 
并且,也可以是,所述位置姿势决定部,决定在所述特定时刻下的所述位置姿势,该特定时刻是所述人位置与所述机器人正在动作的位置的距离为预先规定的距离以上的时刻、且是预测到所述冲突的时刻之前的时刻、且是与预测到所述冲突的时刻最近的时刻。 
据此,在机器人的位置姿势与人之间具有充分的距离。据此,危险提示装置,能够生成用于更适当地提示机器人的位置姿势的数据。 
并且,也可以是,所述位置姿势决定部,根据由所述人位置获得部获得的所述人位置,将经过规定时间后的所述人的位置预测为所述人位置, 根据预测到的所述人位置以及所述动作计划,预测所述人与所述机器人的所述冲突,决定在包含预测到所述冲突的时刻的期间内的所述特定时刻下的所述位置姿势。 
据此,更准确地预测机器人与人的冲突。因此,生成精度更高的数据。 
并且,也可以是,所述位置姿势决定部,决定在作为预测到所述冲突的时刻的所述特定时刻下的所述位置姿势。 
据此,决定因人移动而冲突时的位置以及姿势。因此,更准确地表现冲突时的状况。 
并且,也可以是,所述位置姿势决定部,决定在所述特定时刻下的所述位置姿势,该特定时刻是所述机器人按照所述动作计划在规定时间内动作的区域的动作区域与所述视野范围重叠的大小为预先规定的大小以上的时刻、且是预测到所述人与所述机器人的最初的冲突的时刻以后的时刻、且是与预测到所述最初的冲突的时刻最近的时刻。 
据此,机器人,在特定时刻下,以规定的大小以上的大小被包含在人的视野内。据此,危险提示装置,能够生成更适当的数据。 
并且,也可以是,所述位置姿势决定部,在预测到所述人与所述机器人的冲突、且符合所述特定时刻的时刻不存在的情况下,使警告输出装置输出警告。 
据此,即使存在冲突的可能性,也在机器人不进入视野内的情况下,危险提示装置,能够通过警告声或警告显示等的警告,向人通知危险。 
并且,也可以是,所述位置姿势决定部,在所述特定时刻为与所述机器人通过由所述人位置获得部获得的所述人位置的时刻相同的时刻、或所述机器人通过由所述人位置获得部获得的所述人位置的时刻之后的时刻的情况下,使警告输出装置输出警告。 
据此,在存在因机器人进入视野内的定时而人误认危险状况的可能性的情况下,危险提示装置,能够通过警告声或警告显示等的警告,向人通知危险。 
并且,也可以是,所述图像生成部,在所述特定时刻为所述机器人通过由所述人位置获得部获得的所述人位置的时刻之前的时刻的情况下,生成所述图像数据。 
据此,在存在因机器人进入视野内的定时而人误认危险状况的可能性的情况下,危险提示装置,能够通过警告声或警告显示等的警告,向人通知危险。而且,在人误认危险状况的可能性低的情况下,危险提示装置,生成用于示出位置以及姿势的数据。 
并且,也可以是,所述危险提示装置,还具备:人朝向获得部,获得作为所述人的朝向的人朝向;以及障碍信息获得部,获得作为遮挡所述视野范围的障碍的信息的障碍信息,所述人视野范围决定部,根据由所述人位置获得部获得的所述人位置、由所述人朝向获得部获得的所述人朝向、以及由所述障碍信息获得部获得的所述障碍信息,决定所述视野范围。 
据此,根据人的位置、人的朝向、以及成为视野范围的障碍的信息,更详细地决定视野范围。因此,生成更适当的数据。 
并且,也可以是,所述图像生成部,生成用于示出从现在到所述特定时刻为止的到达时间、和所述位置姿势的所述图像数据。 
据此,危险提示装置,能够生成示出机器人何时接近的数据。也就是说,危险提示装置,能够生成示出危险的程度的数据。 
并且,也可以是,所述图像生成部,根据从现在到所述特定时刻为止的到达时间,决定所述位置姿势的显示形式,生成用于以决定的所述显示形式来示出所述位置姿势的所述图像数据。 
据此,危险提示装置,能够生成与危险的程度对应的数据。 
并且,也可以是,所述图像生成部,决定所述显示形式,并生成用于以决定的所述显示形式来示出所述位置姿势的所述图像数据,以使得在所述到达时间为第一时间的情况下,明度变得比所述到达时间为比所述第一时间长的第二时间的情况高。 
据此,危险提示装置,在危险的程度高的情况下,生成以高的明度示出机器人的数据。因此,危险提示装置,能够示出危险的程度。 
并且,本发明的危险提示系统也可以是,具备所述危险提示装置的危险提示系统。 
据此,所述危险提示装置,以具备所述危险提示装置的危险提示系统来实现。 
并且,也可以是,所述危险提示系统,还具备按照所述动作计划动作 的所述机器人。 
据此,危险提示系统能够生成用于适当地提示因机器人的动作而引起的危险的状况的数据。 
并且,也可以是,所述危险提示系统还具备显示装置,该显示装置将由所述图像生成部生成的所述图像数据作为图像来提示。 
据此,显示装置能够将由危险提示装置生成的数据提示为图像。因此,适当地提示危险状况。 
并且,也可以是,所述危险提示系统,还具备输出警告声的警告声输出装置。 
据此,危险提示系统,在人的视野范围内不能提示机器人的位置或姿势的情况下等,能够输出用于向人通知危险的警告声。 
并且,也可以是,本发明的危险提示方法包括:人位置获得步骤,获得作为人的位置的人位置;人视野范围决定步骤,根据由所述人位置获得步骤获得的所述人位置,决定所述人的视野范围;位置姿势决定步骤,决定位置姿势,该位置姿势包含在按照动作计划动作的机器人的至少一部分被包含在所述视野范围内的特定时刻下的所述机器人的位置、以及在所述特定时刻下的所述机器人的姿势之中的至少一方;以及图像生成步骤,生成用于示出由所述位置姿势决定步骤决定的所述位置姿势的图像数据。 
据此,所述危险提示装置,以危险提示方法来实现。 
并且,也可以是,本发明的程序,用于使计算机执行以下的步骤:人位置获得步骤,获得作为人的位置的人位置;人视野范围决定步骤,根据由所述人位置获得步骤获得的所述人位置,决定所述人的视野范围;位置姿势决定步骤,决定位置姿势,该位置姿势包含在按照动作计划动作的机器人的至少一部分被包含在所述视野范围内的特定时刻下的所述机器人的位置、以及在所述特定时刻下的所述机器人的姿势之中的至少一方;以及图像生成步骤,生成用于示出由所述位置姿势决定步骤决定的所述位置姿势的图像数据。 
据此,所述危险提示方法,以程序来实现。 
发明效果 
根据本发明,生成用于适当地提示因机器人的动作而引起的危险的状 况的数据。 
附图说明
图1是实施例1的危险提示系统的概念图。 
图2是实施例1的危险提示系统的整体图。 
图3是实施例1的机器人的外观图。 
图4是示出实施例1的旋转角的图。 
图5是示出实施例1的时刻和旋转角的关系的图。 
图6是示出实施例1的位置姿势决定部决定冲突提示位置的处理的流程图。 
图7是示出实施例1的特征姿势的图。 
图8是示出实施例1的危险提示系统所显示的像的图。 
图9是实施例2的危险提示系统的整体图。 
图10是示出实施例2的位置姿势决定部决定冲突提示位置的处理的流程图。 
图11是示出实施例2的可动部的移动区域和人预测位置的关系的图。 
图12是实施例3的危险提示系统的整体图。 
图13是示出实施例3的人的视野范围的图。 
图14是示出实施例3的朝向相对于机器人而相反的方向的人的视野范围的图。 
图15是示出实施例3的朝向相对于可动部的移动方向而相同的方向的人的视野范围的图。 
图16是示出实施例3的位置姿势决定部决定冲突提示位置的处理的流程图。 
图17是示出实施例3的可动部的移动区域和人预测位置和视野范围的关系的图。 
图18是示出实施例3的被提示在人的视野的特征姿势以及特征位置的图。 
图19是实施例4的危险提示系统的概念图。 
图20是实施例4的危险提示系统的整体图。 
图21是示出实施例4的人的视野范围的图。 
图22是示出时刻0的没有墙壁的状态的图。 
图23是示出时刻4的没有墙壁的状态的图。 
图24是示出时刻6的没有墙壁的状态的图。 
图25是示出时刻8的没有墙壁的状态的图。 
图26是示出时刻0的存在墙壁的状态的图。 
图27是示出时刻4的存在墙壁的状态的图。 
图28是示出时刻6的存在墙壁的状态的图。 
图29是示出时刻8的存在墙壁的状态的图。 
图30是示出实施例4的危险提示系统的处理的流程图。 
图31是示出实施例4的危险提示系统的处理的变形例的流程图。 
图32是示出实施例4的显示形式决定处理的流程图。 
图33是示出时刻0的改进后的状态的图。 
图34是示出时刻4的改进后的状态的图。 
图35是示出时刻6的改进后的状态的图。 
图36是示出时刻8的改进后的状态的图。 
图37是示出实施例4的朝向相反方向时的动作的概念图。 
图38是示出以往技术的移动机器人停止时提示的危险范围的图。 
图39是示出以往技术的移动机器人移动时提示的危险范围的图。 
图40是示出以往技术的移动机器人快速移动时提示的危险范围的图。 
图41是示出以往技术的移动机器人的臂部动作时提示的危险范围的图。 
图42是示出以往技术的问题的图。 
具体实施方式
(实施例1) 
实施例1的危险提示系统,将危险区域等提示给位于危险区域的人,以便得知机器人从哪方向接近来。而且,实施例1的危险提示系统是,以1自由度的旋转型机器人为对象的危险提示系统。而且,1自由度的旋转型机器人是,作为本发明的对象的机器人的一个例子。作为本发明的对象的 机器人也可以是,多自由度、直动型、移动型、以及它们的组合等的机器人。 
图1是实施例1的危险提示系统的概念图。图1所示的危险提示系统1000具备,危险提示装置1100、机器人1200以及显示装置1300。危险提示系统1000,将危险区域31投影到机器人1200的周边。进而,危险提示系统1000,投影在特定的时刻下的机器人1200的姿势。危险提示系统1000,也可以投影用于示出在特定的时刻下的机器人1200的位置的点等。 
据此,危险提示系统1000,向人51提示机器人1200从哪方向接近来。以下,说明实现所述提示的危险提示系统1000。 
图2是图1所示的危险提示系统1000的整体图。危险提示装置1100具备,危险区域生成部1101、人位置获得部1102、位置姿势决定部1103、以及图像生成部1104。机器人1200具备,动作计划部1201、动作控制部1202、以及可动部1203。以下,说明各个构成要素。 
可动部1203是,机器人1200的能够物理移动的部分。而且,可动部1203,向会有与人接触的可能性的空间移动。例如,在机器人1200具有用于将物体移动的手臂的情况下,手臂是可动部1203。并且,在机器人1200的主体移动的情况下,机器人1200的主体是可动部1203。 
图3是图1所示的机器人1200的外观图。机器人1200具备,可动部1203、以及不会物理移动的基(base)部2001。可动部1203,在搬运物体2002时移动。而且,图3中没有示出的动作计划部1201以及动作控制部1202,在物理上,被包含在可动部1203或基部2001中。动作计划部1201以及动作控制部1202,也可以被包含在可动部1203以及基部2001的任一方。 
动作计划部1201,输出示出可动部1203如何移动的动作计划。例如,动作计划是,示出使可动部1203旋转几度的角度的集合,或者,是按顺序排列的旋转角的集合。在实施例1中,动作计划是,以初始状态为时刻0,在时刻0、时刻1、时刻2、……、时刻n的可动部1203的旋转角的集合{R_0、R_1、R_2、……、R_n}。 
图4是示出旋转角的图。图4所示的XY平面是,包含在水平面上设 置的机器人1200的水平面。点A(AX,AY)示出,可动部1203的旋转的中心位置。点B(X_0,Y_0)示出,初始状态下的可动部1203的端的位置。在此,可动部1203的端的位置是,可动部1203的不是旋转的中心位置的一侧的端的位置。点C(X_n,Y_n)示出,使可动部1203的端旋转270度时的位置。 
此时,旋转角是,由以点A(AX,AY)为起点且以点B(X_0,Y_0)为终点的第一有向线段AB、与以点A(AX,AY)为起点且以点C(X_n,Y_n)为终点的第二有向线段AC而成的角度。并且,危险区域31是,在根据机器人1200的动作计划,第一有向线段AB移动到第二有向线段AC的位置时,第一有向线段AB通过的区域。在人51在危险区域31存在的情况下,会有人51与机器人1200冲突的危险。 
而且,具有正的值的旋转角示出,使可动部1203以逆时针方向旋转并移动的动作计划。具有负的值的旋转角示出,使可动部1203以顺时针方向旋转并移动的动作计划。 
图5是示出时刻和旋转角的关系的一个例子的图。时刻1的旋转角是,图5所示的旋转角R_1,是从机器人1200的初始位置开始10度。时刻2的旋转角是,图5所示的旋转角R_2,是从机器人1200初始位置开始20度。时刻27的旋转角是,图5所示的旋转角R_27,是从机器人1200初始位置开始270度。 
在以后的说明中,将按顺序排列的旋转角的集合中包含的旋转角,从最初的旋转角开始,依次称为第0个旋转角、第1个旋转角、第2个旋转角、……、第n个旋转角。在此,对于编号,不是从第1开始,而是从第0开始。由于时刻从0开始,因此旋转角也从0开始。据此,在时刻为0时的旋转角成为R_0,添加字的编号一致。 
例如,在时刻0、时刻1、……、时刻27的各个时间间隔为1秒,可动部1203以按每1秒10度的速度来逆时针方向旋转270度的情况下,旋转角的集合{0、10、20、……、270}成为动作计划。 
在此,在动作计划部1201,预先存储有该旋转角的集合。动作计划部1201,根据来自外部的请求,输出被指定的时刻的旋转角。也就是说,在时刻0、时刻1、时刻2、……、时刻27被指定的情况下,动作计划部1201, 输出0、10、20、……、270,以作为旋转角。或者,在第0、第1、第2、……、第27被指定的情况下,动作计划部1201,输出0、10、20、……、270,以作为旋转角。 
而且,在此,对于动作计划,以每个规定的时间间隔的角度来示出,但也可以是时刻和旋转角的组合的集合{(t0,Θ0)、(t1,Θ1)、(t2,Θ2)、……、(tn,Θn)}。 
并且,动作计划部1201也可以,根据预先保持的环境地图信息、或由视觉传感器获得的外界信息等,计划机器人1200的移动。并且,动作计划部1201也可以,不直接计划可动部1203的移动目的地的位置,而计划目标移动速度、目标加速度、以及可动部1203的关节的目标角度轨道等。 
动作控制部1202,根据由动作计划部1201决定的动作计划,使可动部1203移动。 
危险区域生成部1101,根据由动作计划部1201决定的动作计划,形成危险区域31。具体而言,危险区域生成部1101,通过计算在按照动作计划部1201的动作计划来使可动部1203移动时的可动部1203通过的区域,从而生成危险区域31。 
更具体地说明图4的危险区域31。首先,危险区域生成部1101,预先保持作为可动部1203的轴的位置的点A(AX,AY)、以及作为时刻0时的可动部1203的位置的点B(X_0,Y_0)。接着,危险区域生成部1101,获得动作计划部1201保持的最后的旋转角“270”。 
接着,危险区域生成部1101,将XY平面上的点(X,Y)中的、满足以下的两个条件的点的集合作为危险区域31。 
第一条件是指,点(X,Y)和点A(AX,AY)的距离,比点B(X_0,Y_0)和点A(AX,AY)的距离短。 
第二条件是指,由以点A(AX,AY)为起点且以点B(X_0,Y_0)为终点的第一矢量、与以点A(AX,AY)为起点且以点(X,Y)为终点的第二矢量而成的角度,为0以上、且动作计划的最后的旋转角“270”以下。 
如此决定的危险区域31,由图1所示的显示装置1300显示。显示装置1300是,被设置在机器人1200被设置的房间的天花板的投影仪,向人51存在的一侧、即地面一侧投影危险区域31、以及后述的特征姿势。 
而且,在此,危险区域生成部1101,仅根据动作计划部1201保持的最后的旋转角决定扇形,但也可以,根据动作计划部1201保持的第k和第(k-1)(但是,k=1、2、……、n)的两个旋转角,将由可动部1203的端的两个位置和点A(AX,AY)围绕的扇形的区域,决定为危险区域31。并且,危险区域生成部1101也可以,作为扇形的近似,根据动作计划部1201保持的第k和第(k-1)(但是,k=1、2、……、n)的两个旋转角,将由可动部1203的端的两个位置和点A(AX,AY)围绕的三角形的区域,决定为危险区域31。 
人位置获得部1102,获得人51的位置。例如,由被设置在天花板的未图示的摄像部拍摄人51,人位置获得部1102,利用图像处理技术获得人51的位置。或者,也可以由预先人51所持的未图示的位置传感器,人位置获得部1102,获得人51的位置。 
位置姿势决定部1103,决定用于提示给人51的机器人1200的位置(以下,也称为特征位置),以及机器人1200的一个姿势(以下,也称为特征姿势)中的至少一方(以下,也称为位置姿势)。此时,位置姿势决定部1103,决定位置姿势,以使人51能够适当地感知机器人1200的周边的危险状况。位置姿势决定部1103决定的特征位置或特征姿势,由后述的显示装置1300,提示给处于危险的状况的人51。 
在实施例1中,特征姿势是,在预测到人51与可动部1203冲突的时刻之前规定时间的时刻下的可动部1203的姿势。而且,特征位置是,可动部1203中包含的点中的、与人最接近的点。在此,特征姿势的对象的时刻,不是冲突的时刻,而是冲突之前的时刻。危险提示系统1000,通过提示冲突之前的时刻的位置,从而向人51准确地通知可动部1203从哪方向接近来。 
而且,特征位置也可以是,表示在对象的时刻下的机器人1200或可动部1203的中心的位置。例如,在机器人1200整体移动的情况下,通过危险提示系统1000将中心的位置表示为特征位置,人51能够感知机器人1200从哪方向接近来。 
图6是示出图2所示的位置姿势决定部1103的处理的流程的流程图。而且,本说明中,k是变量,由CPU的寄存器、ROM、RAM或HDD等 的存储区域保持。 
图7是示出位置姿势决定部1103决定的特征姿势61的图。在图7中,点(X_0,Y_0)、点(X_1,Y_1)、……、点(X_27,Y_27)分别示出,时刻0、时刻1、时刻2、……、时刻27时的可动部1203的端的位置。并且,点(PX,PY)示出,作为由人位置获得部1102获得的人51的位置的人位置。 
以下,利用图6以及图7,说明位置姿势决定部1103进行的处理的流程。 
首先,位置姿势决定部1103,由人位置获得部1102获得人51的位置(S101)。在图7所示的例子的情况下,位置姿势决定部1103,获得人位置(PX,PY)。 
接着,位置姿势决定部1103,设为k=1(S102)。接着,位置姿势决定部1103,从动作计划部1201获得时刻(k-1)的动作计划(S103)。此时,k=1,因此,位置姿势决定部1103,获得第0个旋转角“0”。在图7所示的例子的情况下,位置姿势决定部1103,在k=1时,获得与位置(X_0,Y_0)对应的旋转角“0”。 
接着,位置姿势决定部1103,从动作计划部1201获得时刻k的动作计划(S104)。在图7所示的例子的情况下,位置姿势决定部1103,在k=1时,获得与位置(X_1,Y_1)对应的旋转角“10”,在k=2时,获得与位置(X_2,Y_2)对应的旋转角“20”。 
在从动作计划部1201没能获得第k个动作计划的情况下,位置姿势决定部1103,结束处理。具体而言,在图7所示的例子中,在k=28的情况下,动作计划部1201,没有保持第28个动作计划。在此情况下,位置姿势决定部1103,结束处理。 
而且,在此,位置姿势决定部1103,只要动作计划部1201具有动作计划,就继续获得动作计划。但是,为了削减处理量,优选的是,在k的值成为一定以上的值的情况下,即使动作计划部1201具有动作计划,位置姿势决定部1103,也结束处理。 
在从动作计划部1201获得了第k个动作计划的情况下,位置姿势决定部1103,生成可动部1203从时刻(k-1)到时刻k为止移动时通过的区域(也称为移动区域或动作区域)(S105)。 
在此,位置姿势决定部1103,生成包含以下的三个点的扇形。首先,作为扇形的中心的第一点是,可动部1203的旋转的中心的点A(AX,AY)。第二点是,作为时刻(k-1)的可动部1203的端的位置的点(X_k-1,Y_k-1)。也就是说,第二点是,动作计划部1201的第(k-1)个旋转角的可动部1203的端的位置。第三点是,作为时刻k的可动部1203的端的位置的点(X_k,Y_k)。也就是说,第三点是,动作计划部1201的第k个旋转角时的可动部1203的端的位置。 
具体而言,在图7所示的例子中,在k=1的情况下,位置姿势决定部1103,生成由(AX,AY)和(X_0,Y_0)和(X_1,Y_1)围绕的扇形。在k=18的情况下,位置姿势决定部1103,生成由(AX,AY)和(X_17,Y_17)和(X_18,Y_18)围绕的扇形。 
接着,位置姿势决定部1103,判定从人位置获得部1102获得的人51的位置,是否被包含在可动部1203的移动区域中(S106)。 
具体而言,在图7所示的例子中,在k=1的情况下,扇形的内部不包含人位置。而且,k从1依次增加,在k=18时,人位置,被包含在由点A(AX,AY)和点(X_17,Y_17)和点(X_18,X_18)围绕的可动部1203的移动区域(在此,扇形)中。因此,位置姿势决定部1103,在k=0、1、2、……、17时,判定为人51的位置没有被包含在可动部1203的移动区域中,在k=18时,判定为人51的位置被包含在可动部1203的移动区域中。 
在移动区域中没有包含人位置的情况下(S106的“否”),位置姿势决定部1103,将k与1相加的值存储到k(S108)。而且,位置姿势决定部1103,从动作计划部1201获得时刻k的动作计划(S104),反复以后的处理。 
在移动区域中包含人位置的情况下(S106的“是”),位置姿势决定部1103,将时刻(k-1)时的可动部1203的姿势决定为特征姿势(S107)。也就是说,在图7所示的例子的情况下,在k=18时,人51的位置被包含在扇形中,因此,将k=17时的可动部1203的姿势作为特征姿势。更具体地说,位置姿势决定部1103,将连接点A(AX,AY)和点(X_17,Y_17)的线段作为特征姿势。 
在此,对于决定特征姿势时的对象的时刻,不是冲突的时刻,而是冲突之前的时刻。据此,危险提示系统1000,提示冲突之前的时刻的位置, 能够向人51准确地通知可动部1203从哪方向接近来。k-1是,一个例子,被决定的时刻也可以是,更以前的时刻。 
并且,对象的时刻也可以是,位置姿势决定部1103测量k-1、k-2、……、0的时刻的特征姿势的线段与人51的位置的距离,测量的距离最初成为规定的距离以上的时刻。人51,根据与人51远离规定的距离以上的特征姿势,能够更容易感知危险状况。 
接着,位置姿势决定部1103,决定特征位置(S109)。也就是说,将连接点A(AX,AY)和点(X_17,Y_17)的线段上的点中的、与人位置(PX,PY)最近的点决定为特征位置。 
图像生成部1104,生成示出危险区域生成部1101生成的危险区域31、以及位置姿势决定部1103决定的特征的图像。也就是说,生成在危险区域生成部1101生成的危险区域31上、重叠了位置姿势决定部1103决定的特征姿势以及特征位置的图像。 
显示装置1300是,显示由图像生成部1104生成的图像的装置。 
图8是示出显示装置1300显示由图像生成部1104生成的图像的情况的图。被设置在机器人1200被设置的房间的上部的显示装置1300,在机器人1200的周边提示危险区域31。进而,显示装置1300,提示特征姿势71以及特征位置72的像。 
如上所述,实施例1的危险提示系统1000,在机器人1200的周边提示危险区域31。进而,危险提示系统1000,提示特征姿势71的像。 
人51,根据前者,得知机器人1200的可动部1203动作的危险区域31。但是,不能仅据此得知机器人从哪方向接近来。因此,在人51想要从危险区域31逃走移动时,会有与可动部1203更接近的情况。 
并且,人51,根据后者,得知可动部1203从哪方向接近来。但是,不能得知可动部1203接近后,向哪方向移动。因此,会有人51在可动部1203的可动区域内一直乱逃的情况。 
但是,通过得知实施例1的危险提示系统1000显示的危险区域31和特征姿势等,人51能够判断向哪方向移动是安全的。 
(实施例2) 
实施例1的危险提示系统,向位于危险区域的内部的人,提示危险区 域等。实施例2的危险提示系统,进一步,将危险区域等提示给,即使是不位于危险区域的内部的人,也是有可能以后移动到危险区域的人。 
图9是实施例2的危险提示系统的整体图。实施例2的危险提示系统1010具备,危险提示装置1110、机器人1200以及显示装置1300。而且,危险提示装置1110具备,进行与实施例1的位置姿势决定部1103不同的动作的位置姿势决定部1113。对于其他的构成要素,由于与实施例1同样,因此省略说明。 
图10是示出图9所示的位置姿势决定部1113决定冲突提示位置的处理的流程图。图11是示出可动部1203的移动区域和人预测位置的关系的图。以下,利用图10以及图11,说明位置姿势决定部1113进行的处理的流程。 
首先,位置姿势决定部1113,获得人位置(S101)。接着,位置姿势决定部1113,将变量k设为1(S102)。接着,位置姿势决定部1113,获得第k-1个动作计划(S103)。接着,位置姿势决定部1113,获得第k个动作计划,判定是否获得了(S104)。 
而且,位置姿势决定部1113,在没能获得动作计划的情况下,结束处理,在获得了动作计划的情况下,生成可动部1203的移动区域(S105)。到此为止,位置姿势决定部1113,进行与图6所示的实施例1同样的处理。 
位置姿势决定部1113,在生成可动部1203的移动区域(S105)后,预测第k个时刻的人存在的位置(S201)。例如,位置姿势决定部1113,预先保持人的平均移动速度V,预测到在时刻k时,位于与初始位置的距离为k×V以下的范围内。在图11中,P_1、P_2、……、P_k分别示出,从初始状态的时刻0开始时刻1、时刻2,……、时刻k的人的预测位置。示出预测位置的各个圆是,以人位置(PX,PY)为中心、半径为1×V、2×V、……、k×V的圆。 
而且,位置姿势决定部1113,计算在可动部1203的移动区域中,是否包含人的预测位置的一部分。具体而言,位置姿势决定部1113,判定是否存在被包含在示出可动部1203的移动区域的扇形中的点、且被包含在示出人的预测位置的圆中的点(S202)。 
在移动区域中不包含人的预测位置的情况下(S202的“否”),位置姿 势决定部1113,与图6所示的实施例1同样,将k与1相加的值存储到k(S108)。 
在移动区域中包含人的预测位置的情况下(S202的“是”),位置姿势决定部1113,将时刻k时的可动部1203的位置决定为特征姿势(S203)。也就是说,位置姿势决定部1113,在k=18时,在人的预测位置被包含在扇形中的情况下,将k=18时的可动部1203的姿势作为特征姿势。更具体地说,位置姿势决定部1113,将连接点A(AX,AY)和点(X_18,Y_18)的线段作为特征姿势。 
实施例1的位置姿势决定部1103,在决定特征姿势时,利用预测到冲突的时刻之前的时刻决定特征姿势,但是,实施例2的位置姿势决定部1113,也可以利用预测到冲突的时刻决定特征姿势。即使在利用预测到冲突的时刻的情况下,通过预测人移动的位置,从而能够提示若向哪方向移动则与可动部1203接触。 
而且,位置姿势决定部1113,与实施例1同样,也可以以预测到冲突的时刻之前的时刻为基准,决定特征姿势。据此,危险提示系统1010,能够更准确地提示可动部1203从哪方向移动来。 
接着,位置姿势决定部1113,将时刻k的、预测到冲突的位置决定为特征位置(S204)。例如,位置姿势决定部1113,将示出特征姿势的线段与示出人的预测位置的圆的交点决定为特征位置。在图11所示的例子中,特征位置73,存在两个。位置姿势决定部1113,可以将两个特征位置73的双方决定为特征位置,也可以将某一方决定为特征位置。 
并且,位置姿势决定部1113,可以将两个特征位置73的中心决定为特征位置。两个特征位置73的中心为,与作为人的位置的(PX,PY)最近、冲突的可能性高的位置。 
如此决定的特征姿势以及特征位置,由危险提示系统1010提示。 
如上所述,实施例2的危险提示系统1010,在机器人1200的周边提示危险区域31。进而,危险提示系统1010,提示特征姿势71的可动部的像。通过得知危险提示系统1010显示的危险区域和特征姿势,人51能够判断向哪方向移动是安全的。 
并且,在人51在机器人1200的周边移动的情况下,会有向更危险的 区域移动的情况。但是,危险提示系统1010,通过预测人51的移动,能够向人51提示若向哪方向移动则与会有与机器人1200冲突的危险。 
(实施例3) 
实施例1以及实施例2的危险提示系统,在会有人与机器人冲突的可能性的情况下,将会有时间上最先冲突的可能性的地方显示为特征位置,或者,将此时的机器人的姿势提示为特征姿势。但是,根据人朝向的方向,会有人不能看到被提示的特征位置或特征姿势的可能性。实施例3的危险提示系统,考虑人朝向的方向,在人看到的区域提示特征位置或特征姿势。 
图12是实施例3的危险提示系统1020的整体图。实施例3的危险提示系统1020具备,危险提示装置1120、机器人1200、显示装置1300、以及警告声输出装置1400。危险提示装置1120具备,进行与实施例1的位置姿势决定部1103不同的动作的位置姿势决定部1123。危险提示装置1120还具备人视野范围决定部1125。对于其他的构成要素,由于与实施例1同样,因此省略说明。 
人视野范围决定部1125,根据此时人朝向的姿势,决定人看的视野范围(也称为视野、视野区域或人视野范围)。例如,人预先装戴在前部和后部具备位置传感器的头盔,人视野范围决定部1125,假定人看到连接由该两个传感器获得的位置的直线的方向,决定人的视野范围。 
图13是示出根据由传感器获得的值决定的视野区域的图。人前方位置(FX,FY)示出,设置在头盔的前方的位置传感器的位置,人后方位置(BX,BY)示出,设置在头盔的后方的位置传感器的位置。 
人视野范围决定部1125,将作为以人前方位置(FX,FY)为中心、半径为D的圆的一部分的、在连接人后方位置(BX,BY)和人前方位置(FX,FY)的方向上以顺时针方向以及逆时针方向分别按照旋转角α旋转而形成的扇形(图13示出的视野74)的范围,决定为视野范围。 
而且,人视野范围决定部1125,也可以根据个人空间(personal space)的想法,决定半径D。个人空间是指,『若人以及同种的生物侵入,则通常有可能导致否定性反应的、位于人以及动物的身体周围的区域(心理学词典,藤永保,仲真理子编辑,丸善,2004年)』。 
于是,危险提示系统1020,通过将机器人的特征姿势以及特征位置提 示在个人空间的范围内,从而能够使人具有想要从该区域逃走的心情。 
而且,爱德华·霍尔(Edward Hall)示出,根据与对方的关系的亲密度,个人空间发生变化。而且,可以认为,随着机器人的使用次数、接触次数以及观察时间等增加,人对机器人的亲密度就提高。于是,人视野范围决定部1125也可以,根据机器人的使用次数、接触次数以及观察时间等,将个人空间变窄,将视野74变窄。 
也就是说,也可以是,危险提示系统1020具备,获得机器人的使用次数、接触次数以及观察时间的单元,人视野范围决定部1125,随着机器人的使用次数、接触次数以及观察时间增加,就将半径D变小。例如,针对具有对机器人的亲密度的人,半径D被设定为45cm,针对不具有亲密度的人,半径D被设定为120cm或350cm。 
进而,个人空间的距离,也根据人种以及对象者的性格等不同。因此,也可以是,危险提示系统1020具备,获得人种以及对象者的性格等的单元,人视野范围决定部1125,根据人种以及对象者的性格等,决定个人空间。 
而且,人视野范围决定部1125也可以,通过根据由被设置在头盔的前方的相机得到的图像,推定相机位置,从而决定视野区域。在此,相机也可以,不被设置在头盔,而被设置在眼镜、人携带的包类,以及,在人坐轮椅的情况下,被设置在轮椅等。并且,人视野范围决定部1125也可以,通过由被设置在室内的相机拍摄人的脸,从而根据人的眼睛的位置,推定人的视线方向。 
并且,实施例3的危险提示系统1020,在视野74提示特征位置或特征姿势,但是,也会有在视野74不能提示特征位置或特征姿势、或者在视野74不提示特征位置或特征姿势为好的情况。以下,进行具体说明。 
图14是示出实施例3的朝向相对于机器人而相反的方向的人的视野范围的图。 
人51,位于危险区域31之外。而且,人51的视野74,不与危险区域31重叠。并且,由于人51移动,因此预测到时刻k的冲突。 
在此情况下,即使危险提示系统1020示出特征姿势61以及特征位置73的像,像在人51的视野74也不出现。因此,在此情况下,危险提示系统1020,为了向人51通知危险,使警告声输出装置1400输出警告声。 而且,也可以构成为,在向人51通知危险时,不使用警告声输出装置1400,而使用显示装置1300,将“从后边机器人接近。”等的消息提示到人51的视野的范围内。并且,也可以构成为,使显示装置1300的输出亮灭,向人51通知从后边的机器人接近。 
在不根据这样的结构,时常输出警告声、提示消息、或进行亮灭显示的情况下,人频繁受到这样的警告,有可能导致注意力降低。但是,由于采用这样的结构,仅在由特征姿势的危险的提示不有效的情况下,人受到这样的警告。因此,注意力提高,针对如从背后机器人接近那样的冲突的危险,人能够进行更有效的判断。 
图15是示出实施例3的朝向相对于可动部1203的移动方向而相同的方向的人51的视野范围的图。 
人51,位于危险区域31之内。而且,在时刻k-1,由于人51移动,因此预测到人51与可动部1203的冲突。但是,在时刻k-1,在视野74不出现可动部1203。实施例3的危险提示系统1020,由于在人51看到的区域提示特征位置或特征姿势,因此,不将时刻k-1的机器人1200的姿势决定为特征姿势。 
接着,在时刻k,预测到人51与可动部1203的冲突。而且,在时刻k-1,在视野74出现可动部1203。在将时刻k的机器人1200的位置以及姿势作为特征位置以及特征姿势来提示给人51的情况下,会有人51误认从人51的前方机器人1200的可动部1203接近的可能性。 
因此,危险提示系统1020,不将与机器人1200通过人51的位置的时刻相同时刻、或之后的时刻的特征位置以及特征姿势提示给人51。在此情况下,危险提示系统1020,为了向人51通知危险,使警告声输出装置1400输出警告声。或者,危险提示系统1020,使显示装置1300输出警告。 
而且,如上所述,显示装置1300以及警告声输出装置1400可以,作为输出警告的警告装置来发挥功能。显示装置1300以及警告声输出装置1400是,警告装置的例子,危险提示系统1020可以具备其他的警告装置。并且,危险提示装置1120可以具备输出警告的警告装置。 
图16是示出图12所示的位置姿势决定部1123决定冲突提示位置的处理的流程图。图17是示出实施例3的可动部1203的移动区域和人预测 位置和视野范围的关系的图。以下,利用图16以及图17说明位置姿势决定部1123进行的处理的流程。 
对于图16所示的获得人位置的处理(S101)、将变量k设为1的处理(S102)、获得第k-1个动作计划的处理(S103)、获得第k个动作计划的处理(S104)、生成可动部1203的移动区域的处理(S105)、以及将k与1相加的处理(S108),由于是与图6所示的实施例1的处理同样的处理,因此省略记载。 
并且,对于图16所示的预测第k个时刻的人位置的处理(S201)、判定移动区域中是否包含人预测位置的处理(S202)、以及决定特征位置的处理(S203),由于是与图10所示的实施例2的处理同样的处理,因此省略记载。 
位置姿势决定部1123,获得人位置(S101)后,利用人视野范围决定部1125决定视野范围(S301)。 
并且,位置姿势决定部1123,在移动区域中包含人预测位置的情况下(S202的“是”),判定在移动区域的一部分是否包含视野区域的一部分(S302)。具体而言,位置姿势决定部1123,判定是否包含XY平面上的点(X,Y)中的、预先决定的规定的数量以上的、满足以下的两个条件的点。 
第一条件为,点(X,Y)是,由生成可动部1203的移动区域的处理(S105)获得的移动区域的点。 
第二条件为,点(X,Y)是,由获得视野区域的处理(S301)获得的视野区域的点。 
在此,在移动区域中不包含视野区域的情况下(S302的“否”),位置姿势决定部1123,将k与1相加的值存储到k(S108)。 
另一方面,在移动区域中包含视野区域的情况下(S302的“是”),位置姿势决定部1123,判定移动区域中是否包含人的初始位置(S305)。 
在此,在移动区域中包含人的初始位置的情况下(S305的“是”),如图15所示的例子,由于显示移动后的机器人1200的姿势,因此会有人误认机器人1200的移动方向的可能性。因此,在此情况下,位置姿势决定部1123,使警告声输出装置1400输出警告声(S304)。或者,位置姿势决定部1123也可以,通过图像生成部1104,使显示装置1300输出警告。或者,位置姿势决定部1123也可以,不通过图像生成部1104,而直接使显 示装置1300输出警告。 
另一方面,在移动区域中不包含人的初始位置的情况下(S305的“否”),位置姿势决定部1123,与实施例2同样,决定特征姿势(S203)。 
而且,位置姿势决定部1123,决定特征位置(S306)。在此,位置姿势决定部1123也可以,与实施例2同样决定特征位置。或者,也可以将与视野的中央近的部分决定为特征位置。 
并且,位置姿势决定部1123,在由获得第k个动作计划的处理(S104)没能获得第k个动作计划的情况下,判定是否存在过移动区域中包含人预测位置的状态(S303)。也就是说,位置姿势决定部1123,判定在移动区域中是否包含人预测位置的判定(S202)中是否存在过判定为移动区域中包含人预测位置的情况。 
具体而言,位置姿势决定部1123,准备初始值为0的变量,在移动区域中包含人预测位置的情况下(S202的“是”),将1代入到该变量。而且,在该变量的值为1的情况下,位置姿势决定部1123,判定为存在过移动区域中包含人预测位置的情况(S303的“是”),在该变量的值为0的情况下,判定为没有存在过移动区域中包含人预测位置的情况(S303的“否”)。 
在此,在没有存在过移动区域中包含人预测位置的情况的情况下(S303的“否”),位置姿势决定部1123,结束处理。 
另一方面,位置姿势决定部1123,在存在过移动区域中包含人预测位置的情况的情况下(S303的“是”),使警告声输出装置1400输出警告声(S304)。或者,位置姿势决定部1123,使显示装置1300输出警告。据此,危险提示系统1020,解决尽管存在冲突的可能性,也在视野不能显示特征姿势或特征位置的坏影响。 
而且,位置姿势决定部1123,在判定视野区域中是否包含移动位置的处理(S302)中,在满足两个条件的点为预先决定的规定的数量以上的情况下,判定为视野区域中包含移动位置。但是,位置姿势决定部1123也可以,在满足所述两个条件的点相对于仅满足第二条件的点的比例为规定的比例以上的情况下,判定为视野区域中包含移动位置。 
据此,例如,在人位于与房间的端近的地方,看房间的端的方向,因此视野区域中包含的区域窄的情况下,危险提示系统1020,也能够提示特 征位置或特征姿势。 
并且,在判定视野区域中是否包含移动位置的处理(S302)中,可以根据人的大小(面积),决定用于判定的规定的数量。 
也就是说,一般而言,人具有对比人巨大的生物感到恐怖的倾向。因此,也可以根据视野内所提示的机器人的大小(面积)是否比人的大小大,决定规定的数量。而且,也可以从由相机等获得的图像中提取人物,从而决定人的大小。并且,也可以预先提供人的大小。并且,人具有对如人的2倍、3倍那样的、更大的生物感到更强的恐怖的倾向。因此,也可以不与人的大小直接进行比较,而与人的大小的定数倍进行比较,从而决定规定的数量。 
并且,规定的数量的值也可以是1。据此,位置姿势决定部1123,在移动区域的至少一部分与视野区域重叠的情况下,判定为视野区域中包含移动位置。 
图18是示出实施例3的被提示在人的视野的特征姿势以及特征位置的图。 
机器人1200位于视野74。因此,人51能够感知机器人1200的存在。但是,人51不能感知从哪方向接近来。在图18所示的例子的情况下,机器人1200,按照动作计划,以逆时针方向旋转,从人51的左边接近人51。 
此时,危险提示系统1020,即使提示不充分进入视野74的特征姿势81以及特征位置82的像,人51,也不能准确地感知危险。因此,危险提示系统1020,提示充分进入视野74的特征姿势71以及特征位置72的像。 
而且,示出了危险区域生成部1101利用动作计划部1201保持的所有的计划决定危险区域31的范围的情况,但优选的是,被构成为,根据机器人1200到达特征姿势71(或特征位置72)为止的范围的动作计划,生成危险区域31。 
例如,在图18示出的机器人1200旋转360度的情况下,危险区域31为,机器人1200旋转一周时移动的区域。因此,即使在特征姿势71被提示的情况下,也不易知道机器人1200是以顺时针旋转接近来、还是以逆时针旋转接近来。但是,在将直到机器人1200到达特征姿势71为止机器人1200移动的区域设为危险区域31的情况下,能够使机器人1200从 哪方向接近更明确。 
并且,危险提示系统1020也可以被构成为,不是继续提示特征姿势71,而是将多个特征姿势切换来动态地显示,以作为动画。例如,危险提示系统1020也可以,将作为在视野开始看到特征姿势的最初的姿势的特征姿势81设为动画的最初的显示,将作为在视野开始充分看到特征姿势的姿势的特征姿势71设为动画的最后的显示。 
并且,危险提示系统1020也可以,将所述的最初的显示与最后的显示之间的姿势包含来提示为动画。根据这样的结构,更易于知道机器人1200以逆时针旋转接近来。 
而且,在不根据这样的结构,而根据动作计划部1201保持的计划,提示动画的情况下,发生在机器人1200进入人51的视野之前开始动画,尽管成为在人51的视野不能看到也动画还未结束的情况。 
另一方面,在本结构中,根据机器人1200进入视野的时刻、以及在视野充分看到机器人1200的时刻等,决定开始动画的时刻、以及结束的时刻。因此,人51易于识别动画。而且,人51易于识别机器人1200从哪方向接近来。危险提示系统1020,在动画的结束后,可以继续提示特征姿势71,也可以返回到动画的最初,反复进行显示。 
如上所述,实施例3的危险提示系统1020,在机器人1200的周边提示危险区域31。进而,危险提示系统1020,提示特征姿势71的可动部的像。通过得知危险提示系统1020显示的危险区域和特征姿势,人51能够判断向哪方向移动是安全的。 
进而,实施例3的危险提示系统1020,按照动作计划,在时间上依次推定可动部1203的位置。而且,危险提示系统1020,将另外推定的人51的视野区域中包含可动部1203的时间的可动部1203的位置或姿势,作为特征位置或特征姿势来提示给人51。据此,要提示的特征位置或特征姿势,被提示到人51看到的位置。因此,能够避免人51看漏它们的情况。 
进而,危险提示系统1020,直到特征位置或特征姿势满足规定的条件为止,在时间上依次推定可动部1203的位置。而且,危险提示系统1020,决定满足条件的提示位置。据此,危险提示系统1020,能够回避或减少特征位置或特征姿势被提示在视野的角落的情况。因此,能够抑制看漏被提 示的特征位置或特征姿势。 
进而,实施例3的危险提示系统1020,在虽然会有人51与可动件1203冲突的危险,但在视野区域不能发现特征位置或特征姿势的情况下,发出警告声。据此,危险提示系统1020,能够向人51警告在视野区域外的与可动部1203的冲突。 
(实施例4) 
在实施例1至3中示出了,以旋转型机器人为对象的危险提示系统。其中示出了,在将旋转型机器人的将来的姿势作为危险来提示时,根据该姿势,会有人不能感知危险的情况。而且,示出了与此有关的改进后的危险提示系统。 
实施例4涉及的危险提示系统,以移动型机器人为对象。在将移动型机器人的将来的姿势作为危险来提示时,根据机器人的位置,被提示的机器人的像躲藏在墙壁的后面。在这样的情况下,人不能感知危险。在此,说明即使在这样的情况下也能够提示危险的危险提示系统。 
图19是用于说明实施例4的作业空间2701的图。危险提示系统1030是,针对人51,进行用于通知危险的提示的装置。危险提示系统1030具备,机器人1200、危险提示装置1130以及显示装置1300。显示装置1300是,针对人51,进行用于通知危险的显示的投影仪等的显示单元。危险提示装置1130,生成用于将危险显示为图像等的数据。 
在作业空间2701中,存在人51、机器人1200以及墙壁2802。该图中,人51、机器人1200以及墙壁2802的位置关系是一个例子。根据这样的位置关系,人51不能直接看机器人1200。 
在这样的状况下,人51不易预知与机器人1200冲突的危险。因此,为了安全,而通过某种方法向人51提示危险是有效的。实施例4的危险提示系统1030,通过向人51视觉表示机器人1200从哪方向出现,从而提示危险。 
图20是示出实施例4的危险提示系统1030的图。危险提示系统1030具备,机器人1200、危险提示装置1130以及显示装置1300。实施例4的机器人1200是移动型机器人,且具备动作计划部1201、动作控制部1202以及可动部1203。 
动作计划部1201,计划机器人1200的将来的位置。具体而言,例如,动作计划部1201,输出被指定的时刻T(T=0、1、……)的位置P_T。根据单纯的结构,动作计划部1201,在表中预先保持时刻T的机器人1200的位置P_T。而且,动作计划部1201,参照表,输出被指定的时刻的机器人1200的位置P_T。 
可动部1203是,机器人1200的物理移动的部分。典型而言,可动部1203是,车轮或脚部。动作控制部1202,对可动部1203进行控制。而且,动作控制部1202,根据动作计划部1201保持的动作计划,使机器人1200移动。具体而言,动作控制部1202,对可动部1203进行控制,以使时刻T的机器人1200的位置成为位置P_T。 
危险提示装置1130具备,人位置获得部1102、人朝向获得部1141、人视野范围决定部1125、位置姿势决定部1133、图像生成部1104、以及障碍信息获得部1142。 
人位置获得部1102是,获得人51的位置的单元。例如,预先,人51装备位置传感器,人位置获得部1102,从已装备的位置传感器获得位置。 
人朝向获得部1141,获得在机器人1200移动的空间内,人51朝向哪方向。例如,人51,装戴在前部和后部预先具备位置传感器的头盔,人朝向获得部1141,假设人51正在看连接由该两个传感器获得的位置的直线的方向,决定人51的朝向。 
障碍信息获得部1142是,获得遮挡人51的视野的障碍物的位置信息的单元。具体而言,障碍信息获得部1142,获得墙壁2802等的位置信息。 
人视野范围决定部1125,决定人51的视野范围。图21是说明人51的视野范围的图。 
首先,人视野范围决定部1125,利用人位置获得部1102,获得人51的位置。接着,人视野范围决定部1125,利用人朝向获得部1141,获得人51朝向的方向。在图21中,人朝向矢量4201是,表示人51朝向的方向(人朝向)的矢量。 
接着,人视野范围决定部1125,由障碍信息获得部1142获得作业空间2701中的障碍物的信息。例如,图21的墙壁2802的位置,由人视野范围决定部1125获得。接着,人视野范围决定部1125,将作业空间2701 内的点中的、满足以下的第一条件至第三条件的点X的集合决定为人视野范围74。 
第一条件是指,由连接人51的位置和点X的矢量、与人朝向矢量4201而成的角度为55度以下的条件。第二条件是指,在连接人51的位置和点X的线段上没有墙壁2802等的障碍物。第三条件是指,人51的位置和点X的距离为25cm以上。 
图21所示的人视野范围74是,满足所述内容的人视野范围的一个例子。第一条件表示,以人51的正面为中心的左右55度的范围被包含在人视野范围74内。并且,第二条件表示,在由墙壁2802遮挡的部分的远方,不被包含在人视野范围74内。并且,第三条件表示,人51的脚下等的、与人51非常近的部分,不被包含在人视野范围74内。 
而且,在此,人视野范围74是,以人51的正面为中心的左右55度的范围,但是,这是一个例子,也可以是其他的角度的范围。若人视野范围74成为更窄的范围,则更成为人51容易发现的范围。并且,也可以是,按照人51移动的速度,能够改变该角度。 
例如,也可以是,在人51的动作比规定的速度慢的情况下,人视野范围74的范围为55度的范围,在人51的动作比规定的速度快的情况下,人视野范围74的范围为30度的范围。通过采用这样的结构,即使在因人51的动作快而注意力降低时,人51也不易看漏对象。反而,在人51的动作慢的情况下,对象物被提示在不会障碍的位置。 
并且,在此,与人51的距离远离25cm以上的部分,被视为人视野范围74。但是,该距离是一个例子,也可以是其他的距离。若与人51的距离成为更长的距离,人视野范围74成为人51更容易发现的范围。并且,也可以是,按照人51移动的速度,能够改变该距离。 
例如,也可以是,在人51的动作比规定的速度慢时的情况下,人视野范围74是与人51的距离为25cm,在人51的动作比规定的速度快的情况下,人视野范围74是与人51的距离为50cm。根据这样的结构,即使在因人51的动作快而注意力降低时,人51也不易看漏对象。反而,在人51的动作慢的情况下,对象物被提示在不会障碍的位置。 
并且,在此,人视野范围决定部1125,根据人的位置、人的朝向、以 及障碍的信息,决定人视野范围74。但是,人视野范围决定部1125也可以,根据它们的某个,推定人视野范围74。 
位置姿势决定部1133,为了向人51通知机器人1200的接近,决定显示在作业空间2701的机器人1200的图像的位置。后面进行详细说明。 
图像生成部1104,为了向人51通知机器人1200的接近,生成显示在作业空间2701的机器人1200的图像。并且,图像生成部1104,决定为了向人51通知机器人1200的接近而显示的机器人1200的显示形式。决定显示形式的处理,也可以由未图示的显示形式决定部执行。对于由图像生成部1104的显示形式决定处理,在后面进行详细说明。 
显示装置1300,在位置姿势决定部1133决定的位置,以图像生成部1104决定的显示形式,提示机器人1200。具体而言,显示装置1300是,投影仪等的单元。 
以下,说明本实施例涉及的问题。首先,对于若没有墙壁2802,则没有问题的情况,进行说明。接着,对于若存在墙壁2802,则发生问题的情况,进行说明。然后,对于即使存在墙壁2802,也不会发生问题的方法,进行说明。 
首先,对于位置姿势决定部1133,单纯地提示规定时间后的机器人1200的位置的情况,进行说明。对于在作业空间2701没有墙壁2802的情况、和存在墙壁2802的情况的概要,依次进行说明。首先,对于没有墙壁2802的情况,利用图22至图25进行说明。 
图22是示出时刻0的机器人1200、人51、和机器人1200的像2902的位置关系的图。机器人1200的像2902是,从时刻0规定时间后的机器人1200的位置的像。在此,将规定时间设为2。机器人1200的像2902是,示出时刻2的机器人1200的位置的像。图中的箭头,示出时刻0以后的机器人1200的移动路径。实际上,在作业空间没有示出这样的线。 
移动路径包含,人51存在的地方。因此,若人51不回避,则人51与机器人1200接触。或者,机器人1200,为了回避冲突,而需要迂回或停止等。但是,在机器人1200迂回或停止的情况下,机器人1200的作业效率降低。在人51和机器人1200共享作业空间2701,高效率性地进行作业的情况下,优选的是,人51,把握机器人1200的计划,判断是否自 己回避。 
人视野范围74是,时刻0的人51的视野范围。在人视野范围74,都不包含机器人1200、以及机器人1200的像2902。因此,人51不能预知机器人1200的接近。 
图23是示出时刻4的机器人1200、人51、和机器人1200的像2902的位置关系的图。机器人1200的像2902是,示出从时刻4规定时间后(即,时刻6)的机器人1200的位置的像。人视野范围74是,时刻4的人51的视野范围。在人视野范围74,包含机器人1200的像2902。因此,人51能够预知机器人1200的接近。也就是说,人51能够开始向后边回避等的回避行动的准备。 
图24是示出时刻6的机器人1200、人51、和机器人1200的像2902的位置关系的图。机器人1200的像2902是,示出从时刻6规定时间后(即,时刻8)的机器人1200的位置的像。人视野范围74是,时刻6的人51的视野范围。在人视野范围74,包含机器人1200、和机器人1200的像2902。人51,在图23的时刻已经开始回避准备。因此,人51,在该时刻能够开始实际的移动。因此,在该时刻,人51开始移动。 
图25是示出时刻8的机器人1200、人51、和机器人1200的像2902的位置关系的图。机器人1200的像2902是,示出从时刻8规定时间后(即,时刻10)的机器人1200的位置的像。人视野范围74是,时刻6的人51的视野范围。在人视野范围74,包含机器人1200、和机器人1200的像2902。时刻8的机器人1200的位置是,与时刻0人51存在过的位置大致相同的位置。但是,人51已经进行回避行动,因此,能够避免冲突。 
如上所述,通过提示机器人1200的将来的位置的像2902,人51能够回避与机器人1200的冲突。但是,在存在墙壁2802的情况下,会有人51不能回避冲突的可能性。对此,利用图26至图29进行说明。 
图26是示出时刻0的机器人1200、人51、和机器人1200的像2902的位置关系的图。与图22的情况同样,时刻0的人视野范围74,都不包含机器人1200、和机器人1200的像2902。因此,人51不能预知机器人1200的接近。 
图27是示出时刻4的机器人1200、人51、和机器人1200的像2902 的位置关系的图。机器人1200的像2902是,示出从时刻4规定时间后(即,时刻6)的机器人1200的位置的像。人视野范围74是,时刻4的人51的视野范围。在人视野范围74,不包含机器人1200的像2902。因此,人51不能预知机器人1200的接近。因此,与图23的情况不同,人51不能开始回避行动的准备。 
图28是示出时刻6的机器人1200、人51、和机器人1200的像2902的位置关系的图。机器人1200的像2902是,示出从时刻6规定时间后(即,时刻8)的机器人1200的位置的像。到了该时刻,在人视野范围74内才包含机器人1200的像2902。在该时刻,人51开始回避行动的准备。 
在图24的情况下,人51开始回避,对此,在图28的情况下,虽然是相同的时刻,但是,人51才开始回避的准备。也就是说,人51的回避耽误。 
图25是示出时刻8的机器人1200、人51、和机器人1200的像2902的位置关系的图。回避耽误的结果是,人51与机器人1200冲突。 
如上所述,人51,因墙壁2802,而不能看被提示的机器人1200的像2902。因此,人51会有,回避行动的开始耽误,与机器人1200冲突的情况。因此,实施例4的危险提示系统1030,考虑人51的人视野范围74,决定机器人1200的像2902的位置。利用图30,说明危险提示系统1030进行的处理。 
首先,位置姿势决定部1133,向人视野范围决定部1125发出人视野范围74的获得的指示(指令)。人视野范围决定部1125接受指示后,由人位置获得部1102获得人51的位置(S2501)。 
接着,人视野范围决定部1125,由人朝向获得部1141获得人51的朝向(S2502)。 
接着,人视野范围决定部1125,获得由人位置获得部1102获得的人51的位置、和由人朝向获得部1141获得的人51的朝向,决定人视野范围74(S2503)。详细内容与实施例3同样。人视野范围决定部1125,将获得的人视野范围74通知给位置姿势决定部1133。 
接着,位置姿势决定部1133,向变量T代入T0(S2504)。变量T是指,保持要提示从现在多长时间后的机器人位置的暂时的值的变量。例如,在 变量T的值为2的情况下,在2秒后的机器人1200的预测位置提示表示机器人1200的像2902。以下的处理中,位置姿势决定部1133,一边改变变量T的值,一边决定最终的变量T的值。在此,设想,代入到变量T的初始值T0为“2”。 
接着,位置姿势决定部1133,从动作计划部1201获得从现在时间T后的机器人1200的位置(S2505)。 
接着,位置姿势决定部1133,判定时间T后的机器人1200位置是否包含在人视野范围74内(S2506)。判定的方法,与实施例3同样。 
在此,在时间T后的机器人1200的位置不包含在人视野范围74内的情况下(S2506的“否”),位置姿势决定部1133,将变量T与1相加(S2507)。而且,位置姿势决定部1133,再次,从动作计划部1201获得时间T后的机器人1200的位置(S2505)。也就是说,位置姿势决定部1133,在时刻T的机器人1200的位置不包含在人视野范围74内的情况下,将时刻按每一个单位拨快,直到成为包含在人视野范围74内为止。 
另一方面,在时间T后的机器人1200的位置包含在人视野范围74内的情况下(S2506的“是”),位置姿势决定部1133,将时间T后的机器人1200的位置决定为特征位置(以下,也称为显示位置)。而且,图像生成部1104,决定显示机器人1200的像2902的颜色、以及轮廓线的粗细等的显示形式(S2508)。而且,图像生成部1104,生成用于将像2902显示在显示位置的图像数据。 
在此,图像生成部1104改变示出机器人1200的像2902的显示形式,据此,人51易于把握直到冲突为止还有多长时间。后面进行详细说明。 
最后,显示装置1300,在位置姿势决定部1133决定的位置,以图像生成部1104决定的显示形式,显示机器人1200的像2902(S2509)。 
而且,图31是示出图30所示的处理的变形例的流程图。在图31中,位置姿势决定部1133,在将变量T与1相加之后(S2507),判定变量T是否比最大值T_MAX小(S2510)。而且,在变量T比最大值T_MAX小的情况下(S2510的“是”),与图30示出的处理同样,位置姿势决定部1133,再次,从动作计划部1201获得时间T后的机器人1200的位置(S2505)。 
另一方面,在变量T为最大值T_MAX以上的情况下(S2510的“否”), 危险提示系统1030,结束处理。据此,不显示远的未来的机器人1200的像2902。也就是说,在危险小的状态下,不显示像2902。 
并且,在此,说明了危险提示系统1030进行一次的危险提示的处理,但是,危险提示系统1030,实际上,也可以按每一定时间间隔进行多次的危险提示。 
接着,说明图像生成部1104进行的显示形式决定处理。在危险提示系统1030中,对于要提示在作业空间2701的机器人1200的像2902,会有被提示在时间T0后的机器人1200的位置的情况,也会有被提示在时间T0+1、T0+2、……后的机器人1200的位置的情况。因此,人51,根据自己看到的机器人1200的像2902,不能得知机器人1200何时接近来。 
于是,图像生成部1104,在直到机器人1200到达决定的显示位置为止的时间短的情况下,决定显示形式,以使得以更显眼的显示形式显示机器人1200的像2902。反而,图像生成部1104,在直到机器人1200到达决定的显示位置为止的时间长的情况下,决定显示形式,以使得以更不显眼的显示形式显示机器人1200的像2902。 
例如,图像生成部1104,在直到机器人1200到达显示位置为止的时间短的情况下,将示出机器人1200的像2902的明度设为高的值。也就是说,图像生成部1104,使像2902成为明亮的显示。反而,图像生成部1104,在直到机器人1200到达显示位置为止的时间长的情况下,将示出机器人1200的像2902设为低的明度。 
并且,例如,在直到机器人1200到达显示位置为止的时间比规定的时间短的情况下,与直到到达为止的时间为规定的时间以上的情况相比,图像生成部1104,使像2902成为明亮的显示,使像2902显眼。但是,在房间通过照明而明亮的情况下,图像生成部1104也可以,通过使照明不太照射到像2902的部分,从而使像2902变暗,使像2902显眼。 
并且,例如,图像生成部1104,在直到机器人1200到达显示位置为止的时间短的情况下,使示出机器人1200的像2902的轮廓线变粗。另一方面,图像生成部1104,在直到机器人1200到达显示位置为止的时间长的情况下,使示出机器人1200的像2902的轮廓线变细。 
并且,例如,在直到机器人1200到达显示位置为止的时间比规定的时 间短的情况下,与直到到达为止的时间为规定的时间以上的情况相比,图像生成部1104,使轮廓线变粗,使像显眼。 
并且,例如,图像生成部1104,生成用于将示出直到机器人1200到达显示位置为止的时间的值,提示在机器人1200的像2902的周边的图像数据。 
以下,利用图32说明图像生成部1104的处理的流程。而且,以下的处理是,图30所示的流程图中的显示形式决定处理(S2508)的例子。 
并且,图像生成部1104,进行机器人显示颜色的决定(S2601)。例如,图像生成部1104,根据“(明度的最大值)×T0/(变量T的值)”(式1)计算值,将计算出的值,分配给机器人1200的显示颜色。在此,对于明度的最大值,例如,在将白的明度假设为“255”、将黑的明度假设为“0”的情况下,“255”(白的明度)是明度的最大值。 
并且,对于“T0/(变量T的值)”(式2),在变量T的值为“T0”的情况下,为“1”,在变量T的值为“T0×2”的情况下,为“1/2”。也就是说,在直到机器人1200到达显示位置为止的时间短的情况下,式2的值为“1”,时间越长,式2的值,越变得比它小的值。因此,图像生成部1104,在直到机器人1200到达显示位置为止的时间短的情况下,将机器人1200的像2902的明度设定为高的值,在长的情况下,将明度设定为低的值。 
接着,图像生成部1104,决定显示机器人1200的像2902时的轮廓线的粗细(S2602)。 
例如,图像生成部1104,根据“5×T0/(变量T的值)”(式3),决定轮廓线的粗细。对于式3的值,在变量T的值为“T0”时,为“5”,在变量T的值为“T0×2”时,为“2.5”。也就是说,在直到机器人1200到达显示位置为止的时间短的情况下,式3的值为“5”,时间越长,式3的值,越变得比它小的值。 
也就是说,图像生成部1104,在直到机器人1200到达显示位置为止的时间短的情况下,将机器人1200的像2902的轮廓线变粗,在长的情况下,将轮廓线变细。 
接着,图像生成部1104,决定直到机器人1200到达显示位置为止的 时间的值(S2603)。决定的值,由显示装置1300,提示在机器人1200的像2902的周边。具体而言,该值是,变量T的值,是示出直到机器人1200到达显示位置为止的时间的值。图像生成部1104,根据需要,对该值,进行小数点以下的舍去、或向秒的变换等的变换处理。 
利用图33至图36说明使用了本手法的情况的概要。 
图33是示出时刻0的机器人1200、人51、和机器人1200的像2902的位置关系的图。机器人1200的像2902是,从时刻0时间8后的机器人1200的位置的像。在此,“8”是,规定时间的“2”以后的、机器人1200的像2902包含在人视野范围74内的时间。此时,在机器人1200的周围显示到该个位置的到达时间3702。 
并且,机器人1200的像2902的明度为,“255×2/8”(式1)。也就是说,明度为“63.75”。根据式3,轮廓的粗细为“5×2/8”。也就是说,轮廓的粗细为“1.25”。 
图33所示的人51,得知机器人1200从墙壁的后边接近来。并且,机器人1200的像2902被提示的位置,与人51近,但是,像2902的明度浅,轮廓比较细。因此,人51,能够判断为直到冲突为止还有时间上的富余、能够继续进行现在的作业。 
图34是示出时刻4的机器人1200、人51、和机器人1200的像2902的位置关系的图。机器人1200的像2902是,从时刻4时间4后的机器人1200的位置的像。人视野范围74是,时刻4的人51的视野范围。此时,由于在人视野范围74内包含机器人1200的像2902,因此人51能够预知机器人1200的接近。 
机器人1200的像2902的明度为,“255×2/4”(式1)。也就是说,明度为“127.5”。根据式3,轮廓的粗细为“5×2/4”。也就是说,轮廓的粗细为“2.5”。与图33的情况相比,机器人1200的像2902的明度更明亮、轮廓也更粗,因此,人51得知终于机器人1200快要接近。而且,人51,能够开始回避的准备。 
图35是示出时刻6的机器人1200、人51、和机器人1200的像2902的位置关系的图。机器人1200的像2902是,从时刻6时间2后的机器人1200的位置的像。人视野范围74是,时刻6的人51的视野范围。此时, 在人视野范围74内包含机器人1200的像2902。 
机器人1200的像2902的明度为“255×2/2”(式1)。也就是说,明度为“255”。根据式3,轮廓的粗细为“5×2/2”。也就是说,轮廓的粗细为“5”。与图34的情况相比,机器人1200的像2902的明度更明亮、轮廓也更粗,因此,人51得知终于机器人1200接近。并且,人51,在图34的时刻开始了回避的准备,因此,在图35的时刻能够开始回避行动。 
图36是示出时刻8的机器人1200、人51、和机器人1200的像2902的位置关系的图。机器人1200的像2902是,从时刻8时间2后(即时刻10)的机器人1200的位置的像。人视野范围74是,时刻8的人51的视野范围,在人视野范围74内包含机器人1200、和机器人1200的像2902。 
时刻8的机器人1200的位置是,与时刻0人51存在过的位置大致相同的位置。但是,人51已经进行回避行动,因此,能够避免冲突。 
图37是示出人51朝向与机器人1200接近人51的方向相反的方向的状态的图。在图37中,在人51的地方,提示机器人1200的像2902。在此情况下,人51受到用于显示像2902的照明。而且,在人51知道受到照明的状态为危险的情况下,人51能够识别危险。 
并且,机器人1200与人51越接近,明度就越高,人51受到更明亮的照明。因此,人51,根据明度的不同,能够识别危险的接近。如上所述,危险提示系统1030,能够不通过警告声等,向人51通知危险。 
如上所述,实施例4的危险提示系统1030,在人视野范围74内提示将来的时刻的机器人1200的像2902。因此,危险提示系统1030,能够适当地提示危险的状况。而且,在实施例4中,提示移动型机器人的特征位置,但也可以提示旋转型机器人的特征姿势。 
以上,如多个实施例所示,基于本发明的危险提示系统,适当地提示机器人周边的危险状况。而且,基于本发明的危险提示装置,能够生成用于适当地提示机器人周边的危险状况的数据。生成后的数据,由显示装置,显示为机器人等的像。据此,人能够准确地感知机器人周边的危险状况。 
而且,这样的实施例是例子,本发明不仅限于这样的实施例。对这样的实施例实施以由从业者想到的变形的方式,以及任意组合这样的实施例中的结构要件来实现的其他的方式,也能够生成用于适当地提示危险状况 的数据,包含在本发明中。 
并且,本发明,除了能够以危险提示装置来实现以外,还能够以将构成危险提示装置的处理单元作为步骤的方法来实现。典型而言,这样的方法中包含的步骤,由计算机执行。而且,本发明,能够以使计算机执行这样的方法中包含的步骤的程序来实现。进而,本发明,能够以存储有该程序的CD-ROM等的计算机可读取的存储介质来实现。 
产业上的可利用性 
本发明的危险提示装置,能够生成用于适当地提示因机器人的动作而引起的危险的状况的数据,特别是,在机器人的附近人进行作业的生产现场等能够利用。 
符号说明
31 危险区域 
51、9061 人 
61、71、81 特征姿势 
72、73、82 特征位置 
74 视野(人视野范围) 
1000、1010、1020、1030 危险提示系统 
1100、1110、1120、1130 危险提示装置 
1101 危险区域生成部 
1102 人位置获得部 
1103、1113、1123、1133 位置姿势决定部 
1104 图像生成部 
1125 人视野范围决定部 
1141 人朝向获得部 
1142 障碍信息获得部 
1200 机器人 
1201 动作计划部 
1202 动作控制部 
1203 可动部 
1300 显示装置 
1400 警告声输出装置 
2001 基部 
2002 物体 
2701 作业空间 
2802 墙壁 
2902 像 
3702 到达时间 
4201 矢量 
9001 移动机器人 
9011、9012 臂部 
9060 危险范围 
9101、9102、9103、9104 投影仪 

Claims (19)

1.一种危险提示装置,其特征在于,具备:
人位置获得部,获得作为人的位置的人位置;
人视野范围决定部,根据由所述人位置获得部获得的所述人位置,决定所述人的视野范围;
位置姿势决定部,确定按照动作计划动作的机器人的至少一部分被包含在所述视野范围内的特定时刻,决定位置姿势,该位置姿势包含在所述特定时刻下的所述机器人的位置、以及在所述特定时刻下的所述机器人的姿势之中的至少一方;以及
图像生成部,生成用于示出由所述位置姿势决定部决定的所述位置姿势的图像数据。
2.如权利要求1所述的危险提示装置,
所述危险提示装置,还具备危险区域生成部,该危险区域生成部,根据所述动作计划,将所述机器人动作的区域作为危险区域来生成,
所述位置姿势决定部,根据所述人位置以及所述动作计划,决定在包含预测到所述人与所述机器人的冲突的时刻的期间内的所述特定时刻下的所述位置姿势,
所述图像生成部,生成用于示出由所述位置姿势决定部决定的所述位置姿势、和所述危险区域的所述图像数据。
3.如权利要求2所述的危险提示装置,
所述位置姿势决定部,决定在作为预测到所述冲突的时刻之前的时刻的所述特定时刻下的所述位置姿势。
4.如权利要求2所述的危险提示装置,
所述位置姿势决定部,决定在所述特定时刻下的所述位置姿势,该特定时刻是所述人位置与所述机器人正在动作的位置的距离为预先规定的距离以上的时刻、且是预测到所述冲突的时刻之前的时刻、且是与预测到所述冲突的时刻最近的时刻。
5.如权利要求2所述的危险提示装置,
所述位置姿势决定部,根据由所述人位置获得部获得的所述人位置,将经过规定时间后的所述人的位置预测为所述人位置,根据预测到的所述人位置以及所述动作计划,预测所述人与所述机器人的所述冲突,决定在包含预测到所述冲突的时刻的期间内的所述特定时刻下的所述位置姿势。
6.如权利要求5所述的危险提示装置,
所述位置姿势决定部,决定在作为预测到所述冲突的时刻的所述特定时刻下的所述位置姿势。
7.如权利要求1或2所述的危险提示装置,
所述位置姿势决定部,决定在所述特定时刻下的所述位置姿势,该特定时刻是所述机器人按照所述动作计划在规定时间内动作的区域的动作区域与所述视野范围重叠的大小为预先规定的大小以上的时刻、且是预测到所述人与所述机器人的最初的冲突的时刻以后的时刻、且是与预测到所述最初的冲突的时刻最近的时刻。
8.如权利要求1至6的任一项所述的危险提示装置,
所述位置姿势决定部,在预测到所述人与所述机器人的冲突、且符合所述特定时刻的时刻不存在的情况下,使警告输出装置输出警告。
9.如权利要求1至6的任一项所述的危险提示装置,
所述位置姿势决定部,在所述特定时刻为与所述机器人通过由所述人位置获得部获得的所述人位置的时刻相同的时刻、或所述机器人通过由所述人位置获得部获得的所述人位置的时刻之后的时刻的情况下,使警告输出装置输出警告。
10.如权利要求9所述的危险提示装置,
所述图像生成部,在所述特定时刻为所述机器人通过由所述人位置获得部获得的所述人位置的时刻之前的时刻的情况下,生成所述图像数据。
11.如权利要求1至6的任一项所述的危险提示装置,
所述危险提示装置,还具备:
人朝向获得部,获得作为所述人的朝向的人朝向;以及
障碍信息获得部,获得作为遮挡所述视野范围的障碍的信息的障碍信息,
所述人视野范围决定部,根据由所述人位置获得部获得的所述人位置、由所述人朝向获得部获得的所述人朝向、以及由所述障碍信息获得部获得的所述障碍信息,决定所述视野范围。
12.如权利要求1至6的任一项所述的危险提示装置,
所述图像生成部,生成用于示出从现在到所述特定时刻为止的到达时间、和所述位置姿势的所述图像数据。
13.如权利要求1至6的任一项所述的危险提示装置,
所述图像生成部,根据从现在到所述特定时刻为止的到达时间,决定所述位置姿势的显示形式,生成用于以决定的所述显示形式来示出所述位置姿势的所述图像数据。
14.如权利要求13所述的危险提示装置,
所述图像生成部,决定所述显示形式,并生成用于以决定的所述显示形式来示出所述位置姿势的所述图像数据,以使得在所述到达时间为第一时间的情况下,明度变得比所述到达时间为比所述第一时间长的第二时间的情况高。
15.一种危险提示系统,其特征在于,
具备权利要求1至6的任一项所述的危险提示装置。
16.如权利要求15所述的危险提示系统,
所述危险提示系统,还具备按照所述动作计划动作的所述机器人。
17.如权利要求15所述的危险提示系统,
所述危险提示系统还具备显示装置,该显示装置将由所述图像生成部生成的所述图像数据作为图像来提示。
18.如权利要求15所述的危险提示系统,
所述危险提示系统,还具备输出警告声的警告声输出装置。
19.一种危险提示方法,其特征在于,包括:
人位置获得步骤,获得作为人的位置的人位置;
人视野范围决定步骤,根据由所述人位置获得步骤获得的所述人位置,决定所述人的视野范围;
位置姿势决定步骤,确定按照动作计划动作的机器人的至少一部分被包含在所述视野范围内的特定时刻,决定位置姿势,该位置姿势包含在所述特定时刻下的所述机器人的位置、以及在所述特定时刻下的所述机器人的姿势之中的至少一方;以及
图像生成步骤,生成用于示出由所述位置姿势决定步骤决定的所述位置姿势的图像数据。
CN201180005161.4A 2010-01-25 2011-01-19 危险提示装置、危险提示系统以及危险提示方法 Active CN102686371B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010013658 2010-01-25
JP2010-013658 2010-01-25
PCT/JP2011/000237 WO2011089885A1 (ja) 2010-01-25 2011-01-19 危険提示装置、危険提示システム、危険提示方法およびプログラム

Publications (2)

Publication Number Publication Date
CN102686371A CN102686371A (zh) 2012-09-19
CN102686371B true CN102686371B (zh) 2015-01-14

Family

ID=44306687

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201180005161.4A Active CN102686371B (zh) 2010-01-25 2011-01-19 危险提示装置、危险提示系统以及危险提示方法

Country Status (4)

Country Link
US (1) US8816874B2 (zh)
JP (1) JP5059978B2 (zh)
CN (1) CN102686371B (zh)
WO (1) WO2011089885A1 (zh)

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5523386B2 (ja) * 2011-04-15 2014-06-18 三菱電機株式会社 衝突回避装置
JP5680225B2 (ja) * 2012-01-13 2015-03-04 三菱電機株式会社 リスク測定システム及びリスク測定装置
JP5978028B2 (ja) * 2012-06-28 2016-08-24 本田技研工業株式会社 移動ロボットの制御装置
ITRN20120036A1 (it) * 2012-07-09 2014-01-10 Wide Automation S R L Sistema e procedimento di supervisione
US9694497B2 (en) 2012-07-10 2017-07-04 Siemens Aktiengesellschaft Robot arrangement and method for controlling a robot
US9498885B2 (en) 2013-02-27 2016-11-22 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with confidence-based decision support
US9393695B2 (en) 2013-02-27 2016-07-19 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with person and object discrimination
US9798302B2 (en) * 2013-02-27 2017-10-24 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with redundant system input support
US9804576B2 (en) * 2013-02-27 2017-10-31 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with position and derivative decision reference
JP5673716B2 (ja) * 2013-03-19 2015-02-18 株式会社安川電機 ロボットシステム及び被加工物の製造方法
JP5673717B2 (ja) * 2013-03-19 2015-02-18 株式会社安川電機 ロボットシステム及び被加工物の製造方法
EP2824522B1 (en) * 2013-05-06 2017-11-29 ABB Schweiz AG Human safety provision in mobile automation environments
JP5850003B2 (ja) * 2013-07-26 2016-02-03 株式会社安川電機 ロボットシステム、ロボットシステムのロボット管理コンピュータ及びロボットシステムの管理方法
JP6397226B2 (ja) * 2014-06-05 2018-09-26 キヤノン株式会社 装置、装置の制御方法およびプログラム
CN106660215B (zh) * 2014-07-02 2021-09-17 西门子公司 预警系统和机器人系统
US9283678B2 (en) * 2014-07-16 2016-03-15 Google Inc. Virtual safety cages for robotic devices
US9373257B2 (en) * 2014-09-29 2016-06-21 Lytx, Inc. Proactive driver warning
CN104750249B (zh) * 2015-03-02 2020-02-21 联想(北京)有限公司 一种信息处理方法及电子设备
WO2016173609A1 (en) * 2015-04-27 2016-11-03 Abb Technology Ltd A movement indicator for a robot
JP6824622B2 (ja) * 2015-05-01 2021-02-03 キヤノン株式会社 ロボットの制御装置、制御方法およびシステム
US10668623B2 (en) * 2015-05-29 2020-06-02 Abb Schweiz Ag Method and system for robotic adaptive production
JP6554946B2 (ja) * 2015-07-03 2019-08-07 株式会社デンソーウェーブ ロボットシステム
JP6464945B2 (ja) * 2015-07-03 2019-02-06 株式会社デンソーウェーブ ロボットシステム
JP6554945B2 (ja) 2015-07-03 2019-08-07 株式会社デンソーウェーブ ロボットシステム
JP6088605B1 (ja) * 2015-08-31 2017-03-01 ファナック株式会社 視覚センサを用いたロボットシステム
US9855664B2 (en) * 2015-11-25 2018-01-02 Denso Wave Incorporated Robot safety system
JP6657858B2 (ja) * 2015-11-30 2020-03-04 株式会社デンソーウェーブ ロボット操作システム
DE102015224309A1 (de) 2015-12-04 2017-06-08 Kuka Roboter Gmbh Darstellung variabler Schutzfelder
JP6504072B2 (ja) * 2016-02-15 2019-04-24 オムロン株式会社 作業領域推定装置、制御装置、制御システム、作業領域推定方法およびプログラム
JP2017148905A (ja) * 2016-02-25 2017-08-31 ファナック株式会社 ロボットシステムおよびロボット制御装置
US10924881B2 (en) * 2016-03-03 2021-02-16 Husqvarna Ab Device for determining construction device and worker position
DK201700203A1 (en) * 2017-03-23 2018-11-27 Mrr Safety system for collaborative robot
JP2018176397A (ja) * 2017-04-21 2018-11-15 オムロン株式会社 ロボットシステム
CN108010271B (zh) * 2017-06-15 2019-06-28 深圳市远弗科技有限公司 一种看护机器人、报警系统和方法
EP3422053B1 (en) * 2017-06-28 2021-05-19 Datalogic IP Tech S.r.l. Safety system
JP2019010704A (ja) * 2017-06-30 2019-01-24 Idec株式会社 照光表示装置
DE102017009641A1 (de) * 2017-10-17 2019-04-18 Kuka Deutschland Gmbh Verfahren und System zum Betreiben eines Roboterarms
EP3726328A4 (en) * 2017-12-12 2021-01-13 Sony Corporation DEVICE AND PROCESS FOR PROCESSING INFORMATION
US10676022B2 (en) 2017-12-27 2020-06-09 X Development Llc Visually indicating vehicle caution regions
KR102499576B1 (ko) 2018-01-08 2023-02-15 삼성전자주식회사 전자 장치 및 그 제어 방법
JP7146402B2 (ja) * 2018-01-18 2022-10-04 キヤノン株式会社 情報処理装置、および情報処理方法
JP7170411B2 (ja) * 2018-03-29 2022-11-14 キヤノン株式会社 情報処理装置および方法およびコンピュータプログラム、並びに監視システム
EP3810374B1 (en) 2018-06-19 2022-06-01 BAE SYSTEMS plc Workbench system
EP3584039A1 (en) * 2018-06-19 2019-12-25 BAE SYSTEMS plc Workbench system
CN108972551B (zh) * 2018-07-12 2021-10-26 上海常仁信息科技有限公司 基于机器人危险动作识别和预判的智能控制系统
IT201800007934A1 (it) * 2018-08-07 2020-02-07 Universita' Degli Studi Di Siena Metodo per generare un segnale di consapevolezza di un robot collaborativo e relativo sistema hardware
US20220063100A1 (en) * 2018-12-28 2022-03-03 Kyocera Document Solutions Inc. Control apparatus
US11295541B2 (en) * 2019-02-13 2022-04-05 Tencent America LLC Method and apparatus of 360 degree camera video processing with targeted view
US10940796B2 (en) * 2019-04-05 2021-03-09 Ford Global Technologies, Llc Intent communication for automated guided vehicles
JP7162564B2 (ja) * 2019-04-16 2022-10-28 清水建設株式会社 情報表示システムおよび情報表示方法
JP7137609B2 (ja) * 2020-12-11 2022-09-14 Idec株式会社 照光表示装置
WO2024166238A1 (ja) * 2023-02-08 2024-08-15 三菱電機株式会社 ロボット制御装置、ロボット制御システム、およびロボット制御方法

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59205298A (ja) 1983-05-06 1984-11-20 株式会社日立製作所 ロボツトの安全領域監視方法
JP3174218B2 (ja) 1994-04-21 2001-06-11 キヤノン株式会社 工業用ロボットの制御方法
JP2001001284A (ja) * 1999-06-17 2001-01-09 Nippon Telegr & Teleph Corp <Ntt> オペレータの視野情報を用いたロボット制御装置
JP4161584B2 (ja) * 2002-02-07 2008-10-08 トヨタ自動車株式会社 移動体用安全装置
JP2004171269A (ja) 2002-11-20 2004-06-17 Enii Kk 移動体衝突予測装置および移動体衝突予測方法
JP2004243427A (ja) 2003-02-12 2004-09-02 Yaskawa Electric Corp ロボット制御装置およびロボット制御方法
JPWO2005015466A1 (ja) * 2003-08-07 2006-10-05 松下電器産業株式会社 生活支援システム及びその制御用プログラム
JP2005066766A (ja) * 2003-08-25 2005-03-17 Saichiro Yamashita 全面モニタ付きロボット
US7317388B2 (en) 2004-03-31 2008-01-08 Honda Motor Co., Ltd. Position detection system for mobile object
JP4477921B2 (ja) * 2004-03-31 2010-06-09 本田技研工業株式会社 移動ロボット
DE102004043514A1 (de) * 2004-09-08 2006-03-09 Sick Ag Verfahren und Vorrichtung zum Steuern einer sicherheitsrelevanten Funktion einer Maschine
WO2006043396A1 (ja) * 2004-10-19 2006-04-27 Matsushita Electric Industrial Co., Ltd. ロボット装置
JP4830438B2 (ja) 2005-10-04 2011-12-07 トヨタ自動車株式会社 自律移動装置
JP4811128B2 (ja) 2006-05-25 2011-11-09 トヨタ自動車株式会社 自律移動装置
US8676379B2 (en) * 2006-07-04 2014-03-18 Panasonic Corporation Device and method for controlling robot arm, robot, and robot arm control program
JP2008117197A (ja) 2006-11-06 2008-05-22 Denso Corp 自動運転装置の安全装置及び自動運転装置の制御方法
JP4371153B2 (ja) 2007-06-15 2009-11-25 トヨタ自動車株式会社 自律移動装置
US7747351B2 (en) * 2007-06-27 2010-06-29 Panasonic Corporation Apparatus and method for controlling robot arm, and robot and program
JP4983458B2 (ja) 2007-07-23 2012-07-25 トヨタ自動車株式会社 自律移動装置
JP4565196B2 (ja) * 2007-08-30 2010-10-20 株式会社国際電気通信基礎技術研究所 コミュニケーションロボット
JP2009113190A (ja) 2007-11-09 2009-05-28 Toyota Motor Corp 自律動作型ロボットおよび自律動作型ロボットの動作制御方法
JP2009123045A (ja) * 2007-11-16 2009-06-04 Toyota Motor Corp 移動ロボット及び移動ロボットの危険範囲の表示方法
US8249747B2 (en) * 2008-12-03 2012-08-21 Abb Research Ltd Robot safety system and a method
CN102056715B (zh) * 2009-01-09 2012-12-26 松下电器产业株式会社 机器人手臂的控制装置及控制方法、机器人、机器人手臂的控制程序及集成电子电路

Also Published As

Publication number Publication date
US8816874B2 (en) 2014-08-26
CN102686371A (zh) 2012-09-19
WO2011089885A1 (ja) 2011-07-28
US20120182155A1 (en) 2012-07-19
JP5059978B2 (ja) 2012-10-31
JPWO2011089885A1 (ja) 2013-05-23

Similar Documents

Publication Publication Date Title
CN102686371B (zh) 危险提示装置、危险提示系统以及危险提示方法
US11840251B2 (en) Image processing device
JP6051307B2 (ja) 運転支援装置
EP3533665B1 (en) Apparatus that presents result of recognition of recognition target
JP6381807B2 (ja) 表示制御装置、表示装置および表示制御方法
CN109963745B (zh) 通知装置、自动驾驶车辆、通知方法、程序、非临时性记录介质以及通知系统
US9262924B2 (en) Adapting a warning output based on a driver&#39;s view
US20240059309A1 (en) Image processing device
US9785042B2 (en) Vehicular lighting apparatus
US10474907B2 (en) Apparatus that presents result of recognition of recognition target
US20160188123A1 (en) Projection device
US20150042485A1 (en) Projection Unit for a Self-Directing Mobile Platform, Transport Robot and Method for Operating a Self-Directing Mobile Platform
WO2011074165A1 (ja) 自律移動装置
US11148299B2 (en) Teaching apparatus and teaching method for robots
JP2016157427A (ja) 視界遮断環境における自律移動体の操作方法
JP6425857B2 (ja) 認知領域推定装置、認知領域推定方法および認知領域推定プログラム
US20190322210A1 (en) Apparatus and method for notifying expected motion of vehicle
JPWO2018047223A1 (ja) 障害物判定方法、駐車支援方法、出庫支援方法、及び障害物判定装置
WO2018173454A1 (ja) 情報表示装置、情報表示方法及びプログラム
JP2017013172A (ja) 視覚センサを用いたロボットシステム
JP2008003880A (ja) 車両周辺監視システム、車両周辺監視プログラム、車両周辺監視システムの構築方法およびサーバ
JP2009157735A (ja) 移動体、及び車両用警告装置
JP2006092253A (ja) 自律移動装置
JP2019196149A (ja) 光情報表示方法、制御装置、移動体、及び、プログラム
KR102621245B1 (ko) 차량 및 그 제어방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant