WO2024185745A1 - ロボットの制御システム、ロボットの制御プログラム、ロボットの管理システム - Google Patents
ロボットの制御システム、ロボットの制御プログラム、ロボットの管理システム Download PDFInfo
- Publication number
- WO2024185745A1 WO2024185745A1 PCT/JP2024/008072 JP2024008072W WO2024185745A1 WO 2024185745 A1 WO2024185745 A1 WO 2024185745A1 JP 2024008072 W JP2024008072 W JP 2024008072W WO 2024185745 A1 WO2024185745 A1 WO 2024185745A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- robot
- work
- unit
- type
- tool
- Prior art date
Links
- 238000000034 method Methods 0.000 claims description 176
- 230000008569 process Effects 0.000 claims description 134
- 238000003860 storage Methods 0.000 claims description 117
- 230000008439 repair process Effects 0.000 claims description 86
- 230000032258 transport Effects 0.000 claims description 68
- 238000007726 management method Methods 0.000 claims description 52
- 230000033001 locomotion Effects 0.000 claims description 46
- 239000000463 material Substances 0.000 claims description 43
- 238000012545 processing Methods 0.000 claims description 40
- 238000007689 inspection Methods 0.000 claims description 31
- 238000001514 detection method Methods 0.000 claims description 29
- 238000004891 communication Methods 0.000 claims description 24
- 230000006870 function Effects 0.000 claims description 24
- 239000000203 mixture Substances 0.000 claims description 8
- 238000012544 monitoring process Methods 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 5
- 238000009472 formulation Methods 0.000 claims description 5
- 239000002699 waste material Substances 0.000 claims description 5
- 230000007613 environmental effect Effects 0.000 claims description 4
- 239000002920 hazardous waste Substances 0.000 claims description 4
- 238000004886 process control Methods 0.000 claims description 3
- 239000002994 raw material Substances 0.000 claims description 2
- 239000010819 recyclable waste Substances 0.000 claims description 2
- 210000003811 finger Anatomy 0.000 description 37
- 230000010365 information processing Effects 0.000 description 34
- 238000010586 diagram Methods 0.000 description 28
- 238000013473 artificial intelligence Methods 0.000 description 23
- 238000004458 analytical method Methods 0.000 description 14
- 238000010422 painting Methods 0.000 description 12
- 239000011347 resin Substances 0.000 description 11
- 229920005989 resin Polymers 0.000 description 11
- 239000011230 binding agent Substances 0.000 description 9
- 230000015654 memory Effects 0.000 description 9
- 239000007921 spray Substances 0.000 description 7
- 238000005553 drilling Methods 0.000 description 6
- 238000004519 manufacturing process Methods 0.000 description 6
- 238000005476 soldering Methods 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 238000004806 packaging method and process Methods 0.000 description 5
- 239000000843 powder Substances 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 239000003795 chemical substances by application Substances 0.000 description 4
- 239000007788 liquid Substances 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 239000003973 paint Substances 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 229920000742 Cotton Polymers 0.000 description 3
- XEEYBQQBJWHFJM-UHFFFAOYSA-N Iron Chemical group [Fe] XEEYBQQBJWHFJM-UHFFFAOYSA-N 0.000 description 3
- 230000005484 gravity Effects 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 238000002347 injection Methods 0.000 description 3
- 239000007924 injection Substances 0.000 description 3
- 239000000155 melt Substances 0.000 description 3
- 229910052751 metal Inorganic materials 0.000 description 3
- 239000002184 metal Substances 0.000 description 3
- 238000012856 packing Methods 0.000 description 3
- 230000002829 reductive effect Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000010146 3D printing Methods 0.000 description 2
- 229920000491 Polyphenylsulfone Polymers 0.000 description 2
- XECAHXYUAAWDEL-UHFFFAOYSA-N acrylonitrile butadiene styrene Chemical compound C=CC=C.C=CC#N.C=CC1=CC=CC=C1 XECAHXYUAAWDEL-UHFFFAOYSA-N 0.000 description 2
- 239000004676 acrylonitrile butadiene styrene Substances 0.000 description 2
- 229920000122 acrylonitrile butadiene styrene Polymers 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- -1 conditioner Substances 0.000 description 2
- 239000002537 cosmetic Substances 0.000 description 2
- 238000000151 deposition Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000001125 extrusion Methods 0.000 description 2
- 235000013305 food Nutrition 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- 238000003475 lamination Methods 0.000 description 2
- 210000004932 little finger Anatomy 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000007500 overflow downdraw method Methods 0.000 description 2
- 239000000123 paper Substances 0.000 description 2
- 239000004033 plastic Substances 0.000 description 2
- 229920003023 plastic Polymers 0.000 description 2
- 229920000747 poly(lactic acid) Polymers 0.000 description 2
- 239000004417 polycarbonate Substances 0.000 description 2
- 239000004848 polyfunctional curative Substances 0.000 description 2
- 239000004626 polylactic acid Substances 0.000 description 2
- 238000007639 printing Methods 0.000 description 2
- 238000007790 scraping Methods 0.000 description 2
- 239000002453 shampoo Substances 0.000 description 2
- 235000011888 snacks Nutrition 0.000 description 2
- 229910000679 solder Inorganic materials 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- 239000000606 toothpaste Substances 0.000 description 2
- 229940034610 toothpaste Drugs 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- 238000003466 welding Methods 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 1
- OYPRJOBELJOOCE-UHFFFAOYSA-N Calcium Chemical compound [Ca] OYPRJOBELJOOCE-UHFFFAOYSA-N 0.000 description 1
- JHWNWJKBPDFINM-UHFFFAOYSA-N Laurolactam Chemical compound O=C1CCCCCCCCCCCN1 JHWNWJKBPDFINM-UHFFFAOYSA-N 0.000 description 1
- 239000004677 Nylon Substances 0.000 description 1
- 229920000299 Nylon 12 Polymers 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 239000002390 adhesive tape Substances 0.000 description 1
- 229910052782 aluminium Inorganic materials 0.000 description 1
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000011575 calcium Substances 0.000 description 1
- 229910052791 calcium Inorganic materials 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 239000000919 ceramic Substances 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 229920006351 engineering plastic Polymers 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 210000001145 finger joint Anatomy 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000004519 grease Substances 0.000 description 1
- 239000010440 gypsum Substances 0.000 description 1
- 229910052602 gypsum Inorganic materials 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 231100001261 hazardous Toxicity 0.000 description 1
- 230000020169 heat generation Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 229910052742 iron Inorganic materials 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 230000008018 melting Effects 0.000 description 1
- 238000002844 melting Methods 0.000 description 1
- 239000003595 mist Substances 0.000 description 1
- 229920001778 nylon Polymers 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 229920000515 polycarbonate Polymers 0.000 description 1
- 238000004801 process automation Methods 0.000 description 1
- 238000011112 process operation Methods 0.000 description 1
- 238000003908 quality control method Methods 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007779 soft material Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000000243 solution Substances 0.000 description 1
- 238000007592 spray painting technique Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 239000001993 wax Substances 0.000 description 1
- 238000005493 welding type Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J15/00—Gripping heads and other end effectors
- B25J15/04—Gripping heads and other end effectors with provision for the remote detachment or exchange of the head or parts thereof
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J15/00—Gripping heads and other end effectors
- B25J15/08—Gripping heads and other end effectors having finger members
- B25J15/10—Gripping heads and other end effectors having finger members with three or more finger members
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/06—Safety devices
Definitions
- This disclosure relates to a robot control system, a robot control program, and a robot management system.
- JP 2019-093506 A describes posture control for humanoid robots.
- WO2011/001569 also describes a robot arm having multiple joints that is driven by an elastic actuator, and is controlled by a hand support member that is disposed at the hand of the robot arm and supports the robot arm by contacting a support surface, and a control unit that controls the contact force between the hand support member and the support surface and also controls the position and orientation of the hand of the robot arm.
- the motor is controlled in a control mode designed to perform high-load tasks such as gripping and moving heavy loads, and a low-load, detailed task is performed, it will not be possible to achieve the required level of precision. Furthermore, if the motor is controlled in a control mode designed to perform low-load tasks that require precision, such as turning small screws with a screwdriver, and a high-load task is performed, it will not be possible to perform the task efficiently.
- the tasks involved in various types of work include some that do not require high accuracy but require high speed, and others that can be done slowly but require high accuracy, so simply switching the tool used depending on the task makes it difficult to perform the appropriate task.
- the robot's gripping part is changed to a tool suited to the task depending on the type of work being performed, it will be possible to efficiently carry out a variety of different types of work.
- the objective of the present disclosure is to provide a robot control system, a robot control program, and a robot management system that can reduce the control burden by directly executing multiple types of work, including gripping cargo using a gripper.
- the objective of this disclosure is to provide a robot control system, a robot control program, and a robot management system that can reduce the control burden by directly executing multiple types of work.
- the objective of this disclosure is to obtain a robot control system and a robot control program that can eliminate work loss and reduce the control burden by directly executing multiple types of work.
- the objective of this disclosure is to provide a robot control system and a robot control program that can appropriately perform a variety of different types of work using the same motor.
- the objective of the present disclosure is to provide a robot control system and a robot control program that can prevent a situation in which, when multiple robots are performing tasks side by side, the task performed by one robot impedes the task of another adjacent robot.
- the robot control system is a control system for a robot comprising a gripping unit that is detachably attached to the arm of the robot and is attached with the primary purpose of grasping an object, and one or more robot tools that are detachable from the arm depending on a work type other than the gripping of the gripping unit and perform a job corresponding to the work type, and has a determination unit that determines the work type of the object, and a control unit that controls the operation of attaching the gripping unit to the arm if the work type determined by the determination unit is the primary purpose, and controls the operation of attaching the robot tool to the arm and the operation corresponding to the work type if the determination result of the determination unit is a work type other than the primary purpose.
- the determination unit determines the type of work the target object is to do, and the control unit attaches a gripper to the arm if the type of work determined by the determination unit is the main purpose, and controls the operation of attaching a robot tool to the arm and also controls the operation according to the type of work if the result of the determination unit's determination is a type of work other than the main purpose.
- the present disclosure is characterized in that the robot tool is attached in place of the entire gripping portion.
- the present disclosure is characterized in that the robot tool is attached in place of a portion of the gripper.
- the present disclosure is characterized in that the gripping portion has a plurality of finger portions, and a portion of the gripping portion is located on the tip side of the finger portions.
- the present disclosure is characterized in that the robot tools are attached to multiple finger portions that are part of the gripping portion, and each robot tool can work away from the finger portions when performing the type of work assigned to it.
- the robot tool is connected to the finger portion by an extension bar, and the extension bar transmits to the robot tool a motion suitable for the type of work of the robot tool.
- the robot tool is detachable from the finger portion, and its operation is controlled by wireless or wired communication.
- the determination unit makes a determination based on information from a sensor unit equipped with a camera mounted on the gripping unit or the robot tool that takes an image of the object and identifies the type of the object, and a motion processing unit that identifies the position of the object.
- the robot management system is a robot management system that manages work performed by a robot that is selectively equipped with multiple robot tools and performs work on an object according to the type of work, and includes a robot control device that includes a determination unit that determines the type of work on the object, a first control unit that controls the execution of work using the robot tool that corresponds to the type of work determined by the determination unit, and issues a request notification to request the missing robot tool when the robot tool that corresponds to the type of work is insufficient, and a mobile object management server that includes a second control unit that receives the request notification, loads the required robot tool in a storage facility that stores the robot tools, and controls the operation of a mobile object that transports the robot to the work site.
- the robot control device controls the execution of work using a robot tool that corresponds to the type of work determined by the determination unit, and when there is a shortage of robot tools that correspond to the type of work, transmits a request notification to request the missing robot tool.
- the mobile object management server receives the request notification, loads the required robotic tools in the storage facility where the robotic tools are kept, and controls the operation of the mobile object to be transported to the work site.
- the robot basically holds the robot tool, but even if irregular work occurs, it can continue working by linking with the mobile object without leaving the work site.
- the moving body is a flying object capable of autonomous flight based on the identification information of the robot that sent the request notification, the location information of the robot's work site, and the type information of the required robot tool.
- the robot tool has a sensor unit equipped with a camera that takes an image of the object and identifies the type of the object, and a motion processing unit that identifies the position of the object, and is characterized in that the information required for the flying object to fly independently is obtained from the sensor unit.
- the flying object according to the present disclosure can obtain the information necessary for the flying object to fly autonomously from a sensor unit mounted on the robot tool.
- a robot control system includes a determination unit that determines a type of work to be performed on an object, a sensor unit that identifies the object and locates the position of the object, and a control unit that selects a robot tool required for the work type determined by the determination unit, attaches the robot to the robot, and causes the robot to perform a task corresponding to the work type based on detection information detected by the sensor unit,
- the type of work determined by the determination unit is a special job in which the three-dimensional relative position between the robot tool and the object, which changes over time from the start of the work to the end of the work, requires a predetermined accuracy
- the control unit acquires common reference information for the robot tool and the object, and performs the work while monitoring the relative position between the robot tool and the object, which changes over time.
- the control unit acquires common reference information for the robot tool and the object, and performs the task while monitoring the relative position between the robot tool and the object, which changes over time.
- the sensor unit includes a camera that captures an image of the object and identifies the type of object, and a motion processing unit that identifies the position of the object.
- the present disclosure is characterized in that the special operation is a three-dimensional modeling process operation, and the reference information is original position information of x-y-z coordinates set on a modeling stage to which three-dimensional modeling material is supplied.
- the robot control system is a robot control system having a determination unit that determines the type of work to be performed on an object, a sensor unit that identifies the object and locates the position of the object, and a control unit that selects a robot tool required for the type of work determined by the determination unit, attaches the robot to the robot, and causes the robot to perform work according to the type of work based on detection information detected by the sensor unit, characterized in that when the type of work determined by the determination unit is three-dimensional modeling processing using a three-dimensional modeling device, a function is selected for the robot tool to supply three-dimensional modeling material as a raw material for the object to a modeling stage, and the control unit performs the work while monitoring the relative position of the robot tool and the modeling stage, which changes over time during the three-dimensional modeling process, as common reference information for the robot tool and the object.
- the robot control system is a robot control system that equips a robot with a robot tool required for a type of work to be performed on an object and causes the robot to perform work corresponding to the type of work, and has a selection unit that selects a robot tool equipped with multiple attribute information detection units capable of detecting each of multiple attribute information obtainable from the object, an attribute information acquisition unit that obtains attribute information of a type that can identify the object using the multiple attribute information detection units under environmental conditions in which multiple objects are mixed, and a position identification unit that identifies the position of the object for which the type of work has been specified by comparing the attribute information of the object for which the type of work has been specified with the attribute information acquired by the attribute information acquisition unit.
- the present disclosure is characterized in that the attribute information acquisition unit acquires attribute information of a type capable of identifying the object under environmental conditions in which a plurality of the objects are mixed.
- the selection unit selects a robot tool equipped with multiple attribute information detection units capable of detecting each of multiple pieces of attribute information obtainable from an object.
- the attribute information acquisition unit obtains, by using the multiple attribute information detection units, attribute information of a type capable of identifying an object, for example, under environmental conditions in which multiple objects are mixed.
- the position identification unit identifies the position of the object for which a work type has been specified by comparing the attribute information of the object for which a work type has been specified with the attribute information acquired by the attribute information acquisition unit. This makes it possible to reduce the control burden by directly executing work of multiple work types.
- the present disclosure is characterized in that the attribute information detection unit detects attribute information for each of the senses of sight, hearing, smell, touch, and taste, and identifies the object by combining multiple pieces of attribute information.
- the type of work is characterized in that it involves picking work to pick specified waste from a storage area that contains a mixture of multiple types of recyclable waste and multiple types of hazardous waste.
- the robot is characterized by having a camera that takes an image of the object and identifies the type of the object, and a motion processing unit that identifies the position of the object.
- the robot control system is a robot control system that can be selected from a plurality of robot tools classified into a plurality of inspection tools for inspecting the condition of an object and a plurality of work tools for performing work on the object and can be attached to the robot, and has a process control device that causes the robot to perform work based on the robot tool, and the process control device has an information acquisition unit that is attached to the robot tool belonging to the inspection tool and acquires information about the object, a formulation unit that formulates a work process based on the information acquired by the information acquisition unit, and an execution control unit that switches from the robot tool belonging to the inspection tool to a robot tool belonging to the work tool and executes the work in accordance with the work process formulated by the formulation unit.
- the information acquisition unit attaches a robot tool belonging to the inspection tool set and acquires information about the target object.
- the planning unit plans a work process based on the information acquired by the information acquisition unit.
- the execution control unit replaces the robot tool belonging to the inspection tool set with a robot tool belonging to the work tool set and executes the work process formulated by the planning unit.
- the robot can automatically carry out a series of tasks, including inspecting the object, identifying the fault, formulating the work process, and executing the work. This reduces the control burden by directly executing multiple types of work.
- the robot is characterized by having a camera that takes an image of the object and identifies the type of the object, and a motion processing unit that identifies the position of the object.
- the robot control system has a transport control unit that moves a transport device between a storage base that stores objects and multiple types of tools that can be attached to the robot and the robot's workspace, a robot control unit that controls a robot present in the workspace using the tools attached to the robot placed in the workspace, a normal work instruction unit that instructs the transport control unit to move the object using the transport device for the purpose of the robot control unit performing normal work on the object, an acquisition unit that acquires tool replacement request information from the robot control unit, and an interrupt work instruction unit that interrupts the normal work and instructs the transport control unit to transport the tool when the acquisition unit acquires the tool replacement request information.
- a transport control unit that moves the transport device back and forth between a storage base that stores objects and multiple types of tools that can be attached to the robot and the robot's workspace, and a robot control unit that controls the robot present in the workspace using the tools attached to the robot placed in the workspace, work in cooperation with each other.
- the normal work instruction unit instructs the transport control unit to move the object using the transport device for the purpose of the robot's normal work on the object.
- the interrupt work instruction unit interrupts the normal work and instructs the transport control unit to transport the tool.
- the present disclosure is characterized in that the instruction given by the interrupt work instruction unit to the transport control unit includes an instruction to take the specified tool from the storage base and transport it to the work space, and an instruction to transport the tool after it has been removed by the robot to the storage base and store it there.
- the present disclosure is characterized in that the normal operations of the robot on the object in the work space are an outgoing operation of taking the object out of the storage base, and an ingoing operation of putting the object into the storage base.
- the work of the transport device is characterized in that the robot or another robot performs the work as part of the normal work.
- the robot is characterized by having a camera that takes an image of the object and identifies the type of the object, and a motion processing unit that identifies the position of the object.
- the camera identifies the photographed object (hereinafter sometimes referred to as luggage) based on the captured image information.
- luggage the photographed object
- its role is to obtain information to identify the type of object (shape, size, hardness, etc.).
- the motion processing unit outputs vector information of the movement of a point indicating the location of an object along a specified coordinate axis as position information together with the movement information.
- the movement information output from the MoPU contains only information indicating the movement (movement direction and movement speed) on the coordinate axes (x-axis, y-axis, z-axis) of the center point (or center of gravity) of the object. In other words, it is possible to provide accurate guidance on the trajectory of the gripper as it approaches the object.
- a robot control system includes a gripping unit that is detachably attached to an arm of a robot and is attached mainly for the purpose of gripping an object, one or more robot tools that are detachably attached to the arm and are used to perform a task other than gripping an object, a motor for operating the gripping unit and the robot tool, and a drive device for driving the motor,
- a determination unit that determines a type of work to be performed on the object; and a control unit that, when the type of work determined by the determination unit is grasping of an object, causes the gripping unit to be attached to the arm, and, when the type of work determined by the determination unit is a type of work other than grasping of an object, performs control to cause a robot tool corresponding to the work type among the one or more robot tools to be attached to the arm, and controls the drive device in a control mode corresponding to the work type determined by the determination unit to perform work on an object corresponding to the work type.
- the determination unit determines the type of work to be performed on the target object, and the control unit executes control to attach a gripping unit to the arm if the type of work determined by the determination unit is grasping of the target object, and executes control to attach a robot tool to the arm if the type of work determined by the determination unit is a type of work other than grasping of the target object.
- control unit controls the drive device using a control mode corresponding to the type of work determined by the determination unit, and performs work on the target object according to the type of work.
- this disclosure makes it possible to appropriately perform a variety of different types of work using the same motor.
- the control modes include a high-load task control mode and a precision task control mode
- the control unit determines that the work to be performed on the object is high-load work, it may control the drive device in the high-load work control mode, and when it determines that the work to be performed on the object is low-load work, it may control the drive device in the precision work control mode.
- control unit switches the control mode when controlling the drive device between a high-load work control mode and a precision work control mode depending on the load of the work to be performed on the target object, making it possible to perform the work in a control mode that matches the load of the work.
- the determination unit estimates a workload when a task is performed on the object
- the control unit controls the drive device in a control mode corresponding to the type of work and the workload determined by the determination unit, to perform work on an object according to the type of work.
- the workload which is the amount of work load on an object
- the workload is estimated based on not only the type of work but also the object's characteristics such as size and weight, making it possible to control the drive device and perform the work using a control mode that corresponds to the actual workload.
- the determination unit may determine the type of work to be performed on the object and the workload when the work is performed based on information from a sensor unit equipped with a camera mounted on the gripping unit or the robot tool that takes an image of the object and identifies the type of the object, and a motion processing unit that identifies the position of the object.
- control unit may select one of a position control mode, a speed control mode, and a torque control mode depending on the type of work determined by the determination unit, and control the drive device.
- control unit may control the drive device by changing the resolution of the pulse signal from the detector by changing the multiplication factor when the pulse signal from the detector that detects the rotational motion of the motor is multiplied in the drive device according to the type of work determined by the determination unit.
- the robot tool may be attached to the arm instead of the entire gripping portion.
- the robot tool may be attached to the arm instead of a part of the gripper.
- the gripping portion may have a plurality of finger portions, and a portion of the gripping portion may be the tip of the finger portions.
- a robot control system is a robot control system for controlling a robot including a gripping unit that is detachably attached to an arm of the robot and is attached mainly for the purpose of gripping an object, and one or more robot tools that are detachably attached to the arm and are used to perform a task other than gripping an object,
- a determination unit that determines a type of work to be performed on the object;
- An acquisition unit that acquires information on a type of work that another adjacent robot is about to perform or is currently performing; and a control unit that, when it is determined that the work type determined by the determination unit is a work type that cannot be performed adjacent to the work type of another adjacent robot acquired by the acquisition unit, controls the work type determined by the determination unit not to be performed on an object.
- the determination unit determines the type of work to be performed on the target object, and the control unit executes control to attach a gripping unit to the arm if the type of work determined by the determination unit is grasping of the target object, and executes control to attach a robot tool to the arm if the type of work determined by the determination unit is a type of work other than grasping of the target object.
- control unit determines that the work type determined by the determination unit is a work type that cannot be performed adjacent to the work type of the work of another adjacent robot acquired by the acquisition unit, the control unit performs control so that the work of the work type determined by the determination unit is not performed on the target object.
- the control unit determines that the work type determined by the determination unit is a work type that cannot be performed adjacent to the work type of the work of another adjacent robot acquired by the acquisition unit, the control unit controls the robot to perform work of a work type other than the work type determined by the determination unit on an object.
- the control unit determines that the work type determined by the determination unit is a work type that cannot be performed adjacent to the work type of the other adjacent robot acquired by the acquisition unit, the control unit moves the robot from its current position, thereby preventing a combination of work types that cannot be performed adjacently between the work type of the other adjacent robot and the work type of the work that the robot is attempting to perform.
- the management server may control the operations of a plurality of robots so that adjacent two robots do not execute a task of a type that cannot be executed simultaneously.
- the determination unit determines the type of work to be performed on the object based on information from a sensor unit equipped with a camera mounted on the gripping unit or the robot tool that takes an image of the object and identifies the type of object, and a motion processing unit that identifies the position of the object.
- the robot control system is characterized in that a computer is operated as the determination unit and the control unit of the robot control system.
- the robot control system is characterized in that it operates a computer as the normal work instruction unit, the acquisition unit, and the interrupt work instruction unit of the management server.
- the robot control system is characterized in that it operates a computer as the selection unit, the attribute information acquisition unit, and the position identification unit of the robot control system.
- the robot control system is characterized in that it causes a computer to operate as the selection unit, the attribute information acquisition unit, and the position identification unit of the robot control system.
- control burden can be reduced by directly performing multiple types of work, including gripping cargo using the gripper.
- control burden can be reduced by directly executing multiple types of work.
- control burden can be reduced by directly executing multiple types of work.
- the present disclosure has the effect of making it possible to appropriately perform a variety of different types of work using the same motor.
- the present disclosure has the effect of preventing a situation in which, when multiple robots work side by side, the work performed by one robot impedes the work of other adjacent robots.
- FIG. 1 is a front view of a humanoid robot according to a first embodiment.
- FIG. 1 is a side view of a humanoid robot according to a first embodiment.
- FIG. 2 is a front view of the palm side of the grip part according to the first embodiment.
- FIG. 2 is a front view of a robot tool stored in a holder according to the first embodiment.
- FIG. 2 is a front view showing a state in which the robot tool according to the first embodiment is performing a task.
- FIG. 2 is a front view showing a state in which the robot tool according to the first embodiment is performing a task.
- FIG. 2 is a front view showing a state in which the robot tool according to the first embodiment is performing a task.
- FIG. 2 is a front view showing a state in which the robot tool according to the first embodiment is performing a task.
- FIG. 1 is a front view of a humanoid robot according to a first embodiment.
- FIG. 1 is a side view
- FIG. 2 is a diagram illustrating an example of a functional configuration of a humanoid robot according to a first embodiment.
- 13 is a flowchart showing a procedure of gripping control when gripping an item by a gripper in conjunction with the overall movement of the humanoid robot.
- 13 is a control flowchart showing details of a robot tool application processing subroutine.
- FIG. 11 is a front view of a grip part according to a second embodiment.
- 13 is a table showing a list of work types of a gripping portion according to the second embodiment.
- FIG. 13 is a front view of a hand tool 50 according to a third embodiment.
- FIG. 13 is a side view showing a first joint portion that moves on a substrate by remote control (wireless communication) according to a modified example of the third embodiment.
- This is an overhead view showing a work site where a humanoid robot is working and an air vehicle that can move around the site.
- FIG. 13 is a perspective view of an aircraft according to a fourth embodiment.
- 13 is a control flowchart showing details of a robot tool application processing subroutine.
- 5 is a flowchart showing a robot tool transport control routine according to the first embodiment.
- 13A to 13C are process diagrams showing a modeling operation process in a three-dimensional modeling apparatus 460 according to an example to which the fifth embodiment is applied.
- 13A to 13C are process diagrams showing a modeling operation process in a three-dimensional modeling apparatus 460 according to an example to which the fifth embodiment is applied.
- 13A to 13C are process diagrams showing a modeling operation process in a three-dimensional modeling apparatus 460 according to an example to which the fifth embodiment is applied.
- 13A to 13C are process diagrams showing a modeling operation process in a three-dimensional modeling apparatus 460 according to an example to which the fifth embodiment is applied.
- FIG. 16A to 16C are diagrams showing the work steps performed by a humanoid robot 1.
- FIG. 16A to 16C are diagrams showing the work steps performed by a humanoid robot 1.
- FIG. 13 is a front view showing a form of a sorting picking operation according to a sixth embodiment;
- FIG. 23 is a functional block diagram of an information processing device for executing a sorting picking operation according to a sixth embodiment.
- 23 is a control flowchart showing a processing procedure of a sorting picking operation according to a sixth embodiment.
- FIG. 23 is a perspective view showing an engine room of a vehicle according to a modified example of the sixth embodiment.
- FIG. 23 is a front view showing a working state of the humanoid robot according to the seventh embodiment, illustrating the inspection and repair process planning phase.
- FIG. 23 is a front view showing a working state of the humanoid robot according to the seventh embodiment, illustrating the repair process execution phase.
- FIG. 23 is a functional block diagram specialized for control of repair work, executed by an information processing device of a humanoid robot according to a seventh embodiment.
- 23 is a flowchart showing a flow of control of repair work executed by an information processing device of a humanoid robot according to a seventh embodiment.
- FIG. 23 is a perspective view of a storage base in a warehouse of a logistics center according to an eighth embodiment, in which cargo as objects is stored.
- FIG. 23 is an enlarged view of a warehouse in a logistics center according to an eighth embodiment, showing how packages are stored.
- FIG. 23 is an enlarged view of a warehouse in a logistics center according to an eighth embodiment, showing how tools are stored.
- FIG. 23 is a functional block diagram when controlling a robot and a transport device in cooperation with each other, which is executed by a storage base management server according to the eighth embodiment.
- 13 is a flowchart showing a work instruction control main routine according to the eighth embodiment.
- FIG. 13 is a diagram showing a specific example of the configuration for the control unit 142 to control the operations of the gripper 20 and the robot tool 21EX.
- FIG. 11 is a diagram showing an example of a control mode selection table in which a control mode is set for each work type.
- 23 is a flowchart showing a control procedure when a gripper 20 or a robot tool 21EX according to the ninth embodiment performs a task on a luggage 100.
- 23 is a flowchart showing a control procedure when a gripper 20 or a robot tool 21EX according to the tenth embodiment performs a task on a luggage 100.
- 1 is a diagram showing three humanoid robots 1A to 1C attempting to perform tasks on three pieces of luggage 100 placed on a table.
- FIG. 1 is a diagram showing how each of humanoid robots 1A to 1C transmits and receives data to and from another adjacent humanoid robot 1 via a wireless communication line.
- FIG. 13 is a diagram showing an example of a work range setting table in which a work range is set for each work type;
- FIG. 13 is a diagram showing an example of an adjacent work prohibition table in which combinations of work types that cannot be executed simultaneously by two adjacent humanoid robots 1 are registered.
- 9 is a diagram showing a configuration in which the operations of multiple humanoid robots 1A to 1C are managed by a management server 980.
- FIG. 1 is a diagram illustrating an example of computer hardware that functions as an information processing device.
- Fig. 1 is a front view of a humanoid robot 1 according to a first embodiment.
- the humanoid robot 1 according to the first embodiment includes an upper body 2, legs 3, and a connector 4 that rotatably connects the upper body 2 to the legs 3.
- the humanoid robot 1 is placed, for example, on a production line in a factory, and performs work on a line including shelves on which packages 100 (see Fig. 3) or the like that are to be picked are displayed, or on objects (such as fallen objects) on the floor.
- the work includes, in addition to picking to grasp the packages 100 from the shelves, packing to accommodate the grasped packages 100 in a predetermined case (such as a cardboard box), painting the grasped work object, drilling holes in the work object, screwing, and the like.
- the upper body 2 has two arms 5, 6.
- the arms 5, 6 are attached to the left and right of the upper body 2 so that they can rotate freely.
- gripping parts 20L, 20R (described in detail later) for gripping luggage are attached to the tips of the arms 5, 6, respectively. Note that in the following, when the gripping parts 20L, 20R are described without specifying them, the gripping parts 20L, 20R may be collectively referred to as gripping part 20.
- the number of arms is not limited to two, and there may be one or three or more.
- the robot control system in this embodiment is equipped with not only a gripping unit 20 that is detachably attached to the arms 5 and 6 of the humanoid robot 1 and is attached primarily for the purpose of grasping a load, which is an object, but also one or more robot tools 21EX that are detachably attached to the arms 5 and 6 and are used to perform a type of work other than grasping a load.
- FIG. 1 three types of robot tools 21EXA to 21EXC are held by holders on belt 28. Details of these robot tools 21EXA to 21EXC will be described later.
- the leg 3 has two wheels 7 and 8 attached to its bottom, allowing it to move across the floor on which the humanoid robot 1 is placed.
- the connecting part 4 connects the upper body 2 and the legs 3 in a rotatable manner. This allows the upper body 2 to lean forward and backward relative to the legs 3. As a result, the humanoid robot 1 according to the first embodiment can lean the upper body 2 forward relative to the legs 3, as shown in FIG. 2, and pick up luggage 100 placed on a shelf, luggage 100 placed on the floor, and luggage 100 that has fallen to the floor during work.
- the legs 3 have a balancing function to prevent the humanoid robot 1 from falling over when the upper body 2 leans forward or backward relative to the legs 3 or when the humanoid robot 1 moves.
- the connecting part 4 has a function that allows the distance between the upper body part 2 and the legs 3 to be changed, as shown in FIG. 1. Therefore, the vertical position of the upper body part 2 relative to the legs 3 can be adjusted, as shown by arrow A, to match the height of the workbench on the production line.
- the humanoid robot 1 is controlled by a control system 10 implemented within the humanoid robot 1.
- the gripping unit 20 attached to the tip of the arm 5, 6 has a structure similar to that of a human hand (Intelligent Hand System).
- the gripping unit 20 is attached to each of the arm 5, 6 so as to be freely rotatable.
- the gripping unit 20 is a portion beyond the wrist that is connected to the arm 5, 6, and the gripping unit 20 is detachable from this wrist portion and can be replaced with a robot tool 21EX, which will be described later.
- the grip portion 20 has a palm portion as a base corresponding to a so-called human palm, and five fingers 22A, 22B, 22C, 22D, and 22E each having a plurality of joints are attached to the palm portion. Note that, although the number of fingers on the grip portion 20L is five in the first embodiment, a finger structure having a different number of fingers, such as three fingers, may be used.
- a palm sensor 26 is attached to the palm.
- the high-resolution camera constituting the palm sensor 26 in the first embodiment identifies what the photographed baggage 100 is, for example, whether it is a care product such as shampoo, conditioner, cosmetics, or toothpaste, or whether it is food such as instant ramen or a bag of snacks, based on the captured image information.
- the high-resolution camera serves to obtain information to identify the type of luggage 100 (shape, size, hardness, etc.).
- the MoPU which constitutes the palm sensor 26 of the first embodiment together with the high-resolution camera, outputs, from an image of the luggage 100 captured at a frame rate of 1000 frames/second or more, motion information indicating the motion of the captured luggage 100 (in this case, the relative motion between the arms 5, 6) at a frame rate of, for example, 1000 frames/second or more.
- the frame rate may be increased, and when detecting a fixed object (luggage 100 that does not move), the frame rate may be decreased.
- the MoPU outputs, as motion information, vector information on the movement of a point indicating the location of the luggage 100 along a specified coordinate axis.
- the motion information output from the MoPU does not include information necessary to identify what the photographed luggage 100 is (the care product or food) and only includes information indicating the movement (direction and speed of movement) of the center point (or center of gravity) of the luggage 100 on the coordinate axes (x-axis, y-axis, z-axis).
- the trajectory of the gripping portion 20 as it approaches the luggage 100 can be accurately guided.
- the information processing device 14 uses information from a palm sensor 26 including a high-resolution camera and MoPU to pinpoint the position of the luggage 100 with high precision, calculates the degree of spread of the fingers 22A, 22B, 22C when gripping, the strength of the grip, and the suction force of the suction pad 24, and accurately controls the minute movements of the arms 5, 6 and the gripping part 20, making it possible to handle the picking of a variety of luggage 100.
- the main purpose of the work type for the luggage 100 is to use the gripping unit 20 to grip the luggage 100 with the gripping unit 20 .
- the gripper 20 it is possible for the gripper 20 to grip tools corresponding to various tasks and face the load 100, but if the same type of task is to be performed continuously, the burden of maintaining and controlling the gripping state (such as controlling the relative position between the gripper and the gripped tool) is large.
- a robot tool 21EX (in the first embodiment, three types: 21EXA, 21EXB, and 21EXC) is provided depending on the type of work to be done on the luggage 100, and as necessary, the gripping unit 20 is replaced with the robot tool 21EX to perform work according to a type of work other than gripping the luggage 100.
- Robot Tool 21EX (Storage example of Robot Tool 21EX) 1, the humanoid robot 1 is fitted with a belt 28 around the lower part of the upper body 2 (at the waist), and holders for detachably holding three robot tools 21EXA, 21EXB, and 21EXC are attached to the belt 28.
- robot tools 21EXA, 21EXB, and 21EXC are described without specifying each of them, they are referred to as robot tool 21EX.
- robot tools 21EX In FIG. 1, three robot tools 21EX are shown, but the number of robot tools 21EX may be one, two, or four or more types, and the number to be attached can be determined according to the attributes of the luggage 100, which will be described later.
- FIGS. 4A to 4D show the detailed configurations of three types of robot tools 21EX (21EXA, 21EXB, 21EXC) that are equipped on the humanoid robot 1 of the first embodiment, in addition to the gripping unit 20, and their relationship to their uses.
- FIG. 4A is a front view of the belt 28 attached to the humanoid robot 1 of FIG. 1.
- the robot tools 21EX are each removably attached.
- Figures 4B to 4D show how the robot tool 21EX is used to perform work on the luggage 100.
- the type of work performed by the robot tool 21EXA is painting, and a spray gun is attached as a tool.
- a spray gun is a type of pistol-shaped painting device used for spray painting. It uses compressed air from a compressor to turn the paint into a mist that is then sprayed out from the tip of the spray gun, making it possible to paint the surface evenly.
- the type of work of the robot tool 21EXB is grasping, just like the gripping unit 20, but it is structured to be able to grasp special cargo 100 that is difficult to grasp with the gripping unit 20.
- the robot tool 21EXB has a structure similar to that of a two-pronged fork used, for example, as an attachment for heavy machinery.
- the robot tool 21EXB has a two-finger structure, and the two fingers open and close due to pressure supplied from a pressure source through piping, which increases the strength of gripping the load 100, although it is less versatile than a gripping operation (gripping unit 20) using a motor or the like.
- the type of work performed by the robot tool 21EXC is drilling, and a drill is attached as a tool.
- a drill bit of a specified diameter can be removably attached to the drill, and the drill bit is pre-installed according to the hole dimensions to be drilled in the luggage 100.
- the most suitable robot tool 21EX is selected based on the type of work to be performed on the luggage 100 (see Table 1), and the gripper 20 is replaced with the selected robot tool 21EX to perform the processing.
- each robot tool 21EX is also equipped with a sensor unit equivalent to the palm sensor unit 26.
- FIG. 5 is a schematic diagram of an example of a control system for a humanoid robot according to the first embodiment.
- the control system 10 includes a sensor 12 mounted on the humanoid robot, a palm sensor 26 including a high-resolution camera and a MoPU, and an information processing device 14.
- the sensor 12 sequentially acquires information in the vicinity of the humanoid robot 1 that indicates at least the distance and angle between the luggage 100 on which the humanoid robot 1 is working and the arms 5, 6.
- the sensor 12 may be a high-performance camera, a solid-state LiDAR (Light Detection And Ranging), a multi-color laser coaxial displacement meter, or a variety of other sensors.
- the sensor 12 include a vibration meter, a thermo camera, a hardness meter, a radar, LiDAR, a high-pixel, telephoto, ultra-wide-angle, 360-degree, high-performance camera, vision recognition, fine sound, ultrasound, vibration, infrared, ultraviolet, electromagnetic waves, temperature, humidity, spot AI (Artificial Intelligence) weather forecast, high-precision multi-channel GPS (Global Positioning System), low-altitude satellite information, or long-tail incident AI data.
- a vibration meter a thermo camera
- a hardness meter a radar
- LiDAR LiDAR
- LiDAR LiDAR
- a high-pixel high-pixel
- telephoto ultra-wide-angle
- 360-degree high-performance camera
- vision recognition fine sound, ultrasound, vibration, infrared, ultraviolet, electromagnetic waves, temperature, humidity
- spot AI Artificial Intelligence
- GPS Global Positioning System
- low-altitude satellite information or long-tail incident AI data.
- the sensor 12 detects images, distance, vibration, heat, smell, color, sound, ultrasound, ultraviolet light, or infrared light.
- Other information detected by the sensor 12 includes the movement of the center of gravity of the humanoid robot 1, the material of the floor on which the humanoid robot 1 is placed, the outside air temperature, the outside air humidity, the up/down/side/diagonal inclination angle of the floor, the amount of moisture, etc.
- the sensor 12 performs these detections, for example, every nanosecond.
- the palm sensor 26 (high-resolution camera and MoPU) is a sensor provided on the gripping portion 20 of the arms 5 and 6, and has a camera function for photographing the luggage 100 and a positioning function for identifying the position of the luggage 100, separate from the sensor 12.
- MoPU When one MoPU is used, it is possible to obtain vector information of the movement of a point indicating the location of luggage 100 along each of two coordinate axes (x-axis and y-axis) in a three-dimensional orthogonal coordinate system.
- two MoPUs may be used to output vector information of the movement of a point indicating the location of luggage 100 along each of three coordinate axes (x-axis, y-axis, z-axis) in a three-dimensional orthogonal coordinate system.
- the z-axis is the axis along the depth direction.
- the information processing device 14 includes an information acquisition unit 140, a determination unit 141, a control unit 142, and an information storage unit 144.
- the information acquisition unit 140 acquires information about the luggage 100 detected by the sensor 12 and the palm sensor 26 (high-resolution camera and MoPU). The various information acquired by the information acquisition unit 140 is stored in the information storage unit 144. The determination unit 141 determines the type of work to be performed on the target object, the luggage 100.
- the control unit 142 uses the information acquired by the information acquisition unit 140 from the sensor 12 and AI (artificial intelligence) to control the rotational movement of the connecting unit 4, the movement of the arms 5 and 6, etc.
- AI artificial intelligence
- the control unit 142 also uses the information acquired by the information acquisition unit 140 from the palm sensor 26 (high-resolution camera and MoPU) to determine the type (shape, size, hardness, etc.) and position of the luggage 100 in detail, and controls the gripping units 20 to face each other and be sucked by the suction pads 24 and/or grasped with, for example, three or five fingers 22A-22F according to the external shape and position (gripping control).
- the type of luggage 100 may be determined based on the external shape information, and gripping control (such as "suction” only, “grasping” only, or a combination of "suction” and "grasping”) may be selected.
- control unit 142 attaches the gripping unit 20 to the arms 5 and 6 and controls the gripping unit 20 to perform the task of gripping luggage 100.
- control unit 142 executes the following processes as an overall operation:
- the connecting part 4 is driven to tilt the upper body part 2 forward or backward so that the luggage 100 on the shelf or floor can be picked up.
- the upper body 2 is driven up and down relative to the legs 3 to match the height of the workbench on the production line.
- the information processing device 14 when picking up luggage 100 lying on the floor, acquires information about the luggage 100 detected by the sensor 12, and using the acquired information about the luggage 100 and AI, controls the connecting unit 4 and the arms 5 and 6 to pick up the luggage 100 lying on the floor and move the picked-up luggage 100 to a specified position.
- FIG. 6 is a flowchart showing a procedure of gripping control when the gripper 20 grips the luggage 100.
- step 150 it is determined whether or not an instruction to grasp the luggage 100 has been given. If a positive determination is made, the process proceeds to step 152, where the humanoid robot 1 is moved (e.g., the arms 5 and 6 are operated) so that the palm side faces the target luggage 100, and the process proceeds to step 154.
- the humanoid robot 1 is moved (e.g., the arms 5 and 6 are operated) so that the palm side faces the target luggage 100, and the process proceeds to step 154.
- step 154 the palm side 20A is turned toward the palm sensor 26 (high resolution camera and MoPU) to detect information about the baggage 100.
- step 156 the information detected by the palm sensor 26 is analyzed to obtain a detailed understanding of the type (shape, size, hardness, etc.) and position of the luggage 100, and the process proceeds to step 158.
- step 158 a selection process is performed for the type of work to be performed by the gripping unit 20 (gripping or a type of work other than gripping) according to the attributes of the luggage 100.
- the selection process will be described in detail with reference to FIG. 7, but if the type of work is gripping in the selection process of FIG. 7, the process proceeds to step 160.
- step 160 an operation for grasping the luggage 100 is selected. For example, only “suction” is selected, only “grabbing” is selected, or a combination of “suction” and “grabbing” is selected, and the process proceeds to step 162.
- step 162 grasping of the luggage 100 is performed ("suction" only, “grab” only, “suction” and “grab”).
- next step 164 it is determined whether the gripping of the luggage 100 was successful, and if the determination is positive, the gripped luggage 100 is carried to a predetermined location, and the process proceeds to step 150 to wait for an instruction to grip the next luggage 100.
- step 164 If the result of step 164 is negative, the process proceeds to step 166 and error processing is performed.
- the gripper 20 is equipped with a palm sensor 26 including a high-resolution camera and MoPU, so by attaching the gripper 20 with the above structure to the arms 5 and 6 of the humanoid robot 1, objects can be picked up reliably by the suction surface, and even if the humanoid robot 1 moves quickly, the baggage 100 can be carried without dropping from the gripper 20.
- the palm sensor 26 (high-resolution camera and MoPU) is mounted on the palm side 20A, so the baggage 100 can be captured with high accuracy, and tasks that require minute movements can also be handled.
- FIG. 7 is a control flow chart showing the details of the work type selection process (robot tool selection process subroutine) in step 158 in FIG.
- step 198 it is determined whether the type of work is grasping or a job other than grasping. If the type of work is determined to be grasping in this step 198, an instruction to return to step 160 in FIG. 6 is issued in step 199, and this subroutine ends.
- step 199 the process proceeds to step 200, where a robot tool 21 is selected based on the type of work for the load 100 (see Table 1).
- the selection of the type of robot tool based on the type of work for the luggage 100 shown in Table 1 is just one example, and the selection can be determined based on the type and number of robot tools possessed.
- the tool attached to the replacement arm 6 (usually the gripper 20, but there may be cases where another robot tool 21 is already attached) is removed.
- the arm 6 (or 5) to be replaced is moved to the position of the belt 28, and the robot tool 21 is attached.
- control burden (such as the burden associated with controlling the relative position between the gripper 20 and the tool) that arises when the gripper in the comparative example grips and works on the tool required for the job can be eliminated by directly attaching the robot tool 21.
- the second embodiment is characterized in that the tip of the finger, which is the gripping portion 20, can be changed to a tool according to the type of work, like the robot tool described in the first embodiment.
- the hand tool 50 of the second embodiment is primarily intended to grip the load 100, similar to the gripping unit 20 of the first embodiment.
- the first joint 50C is a "stick” and is used when holding a part with a rod-shaped member.
- the first joint 50D is a "cotton swab," a spherical cotton swab used to wipe off dirt from parts or remove moisture.
- the first joint 50E is a "camera” and is used when photographing parts (especially close-ups).
- the first joint 50F is a "screwdriver" and is used when tightening or loosening a screw.
- the hand tool according to the second embodiment is particularly suitable for tasks such as assembling and disassembling small parts (electronic parts, precision parts, etc.).
- the third embodiment is characterized in that the part of the hand tool 50 beyond the first joint 50A in the second embodiment (see Figures 8A and 8B) is separated from the hand tool 50 and performs work.
- the first joint 50A of the hand tool 50 has a lid shape that can be opened and closed, and a tool corresponding to the type of work shown in FIG. 8B is attached inside the finger, and each tool is connected to an extension bar 60.
- the extension bar 60 can expand and contract, change angle, and rotate, and when separated from the first joint 50A, the type of work corresponding to each tool is performed.
- FIGS. 10A and 10B show an example of a job type of the hand tool 50 according to the third embodiment, in which the first joint 50F shown in FIG. 8B is used as a "screwdriver.”
- Figures 10A and 10B show the screwing process (tightening and removing screws 66) involved in attaching, detaching, repairing, etc., of electronic components 64 installed in a stuffed toy-type AI robot 62 covered with a soft material.
- the hand tool 50 cannot enter the gap 68 of the AI robot 62, so the "screwdriver" cannot be brought directly close to the tightening position of the screw 66 of the electronic component 64.
- the "screwdriver" extended by the extension bar 60 can be brought close to the tightening position of the screw 66 of the electronic component 64, where tightening work can be performed. The same can be done to remove the screw 66.
- the first joint 50E moves over the board 74 by remote control (e.g., wireless communication with the information processing device 14 shown in FIG. 5) and takes an image of, for example, the state of soldering on the board 74.
- the information processing device 14 analyzes the captured image to determine whether the soldering state of the board 74 is appropriate, and if necessary, issues an instruction to perform repair as the next task. For example, an instruction may be given to perform soldering repair using a different tool, but this repair task may also be performed separately from the hand tool 50. Note that since soldering consumes more power than camera monitoring, it is preferable to wire a power supply line.
- remote control is performed by wireless communication, but wired communication may also be used.
- the humanoid robot 1 when a task other than that of the robot tool 21 (for example, the three types of robot tools 21 (21EXA, 21EXB, 21EX) held on the belt 28 is requested, the humanoid robot 1 must be individually moved to a storage facility where the other types of robot tools 21 are kept and reattached to the belt 28.
- the time it takes for the humanoid robot 1 to travel to the storage facility, as well as congestion of multiple humanoid robots 1 in the storage facility, may cause problems with the actual work.
- a mobile body 360 is provided that can carry a robot tool 21 and move between each of the multiple humanoid robots 1 working on-site and the storage facility.
- the mobile body 360 can be of any type, such as a humanoid robot that specializes in transporting the robot tool 21, a transport vehicle that moves on the road, or an aircraft that moves through the air. In the fourth embodiment, however, an aircraft 360A that moves through the air is used as the mobile body 360.
- FIG. 12 is an overhead view showing a work site 362 where a humanoid robot 1 is working, and an air vehicle 360A as a mobile body 360 that can move around the site.
- the flying object 360A has propellers 366 attached to each of the four corners of the roughly rectangular body 364.
- the flying object 360A is managed by an flying object management server 368, and when the flying object management server 368 instructs a flight route, etc. for a specific flying object 360A, the rotation speed, direction, etc. of each propeller 366 of the supported flying object 360A are controlled by a controller 370 built into the body 364, and the flying object moves to the destination along the specified route (i.e., automatic driving is performed).
- the upper surface of the main body 364 is a mounting table 364A on which the robot tool 21 to be transported is placed and held.
- a camera is attached to the main body 364, and by transmitting captured images to the controller 370, when the flying object 360A flies based on specified route information, it monitors the area around the route in addition to position management control using GPS (Global Positioning System) and the like.
- GPS Global Positioning System
- the camera may only have a photographing element, but it is preferable that it has the same functions (high-resolution camera function and MoPU function) as the palm sensor 26 attached to the gripping part 20. Also, instead of providing the camera on the main body 364, it is possible to use the palm sensor 26 provided on the robot tool 21 placed on the mounting table 364A.
- the humanoid robot 1 is working at a work desk 372 while equipped with the necessary robot tool 21.
- the work site 362 is also provided with a transfer table 374 for transferring the robot tool 21 between the flying object 360A and the humanoid robot 1.
- the humanoid robot 1 When the humanoid robot 1 is working on the work desk 372 and a robot tool 21 of a different type than the robot tool 21 it is holding is required, the humanoid robot 1 requests the required robot tool 21.
- the aircraft management server 368 which manages the aircraft 360A, selects a specific aircraft 360A, launches it from the base 378, and instructs it to fly between the storage facility 376 and the work site 362.
- the storage facility 376 is provided with multiple storage sections 376A, and each storage section 376A stores a robot tool 21.
- the aircraft management server 368 instructs the specific aircraft 360A that has been instructed to fly to retrieve the necessary robot tool 21 from the storage facility 376 and provide route information and other instructions for transporting it to the work site 362 where the requesting humanoid robot 1 will be working.
- the humanoid robot 1 can replace the robot tool 21 that was transported and perform work.
- the flying object 60A returns the robot tool 21 that was originally attached to the humanoid robot 1, or the transported robot tool 21 (which is replaced again after work is completed) to the mounting platform 364A, to the storage facility 376, and then returns to the base 378.
- (Grabbing control of luggage 100) 6 is a flowchart showing a procedure of gripping control when gripping the luggage 100 by the gripper 20. Only the points different from the first to third embodiments will be described.
- step 158 a selection process is performed for the type of work to be performed by the gripping unit 20 (gripping or a type of work other than gripping) according to the attributes of the luggage 100.
- the selection process will be described in detail with reference to FIG. 14, but if the type of work is gripping in the selection process of FIG. 14, the process proceeds to step 160.
- step 160 an operation for grasping the luggage 100 is selected. For example, only “suction” is selected, only “grabbing” is selected, or a combination of “suction” and “grabbing” is selected, and the process proceeds to step 162.
- FIG. 14 is a control flow chart showing the details of the work type selection process (robot tool application process) subroutine in step 158 in FIG.
- step 198 it is determined whether the type of work is grasping or a job other than grasping. If the type of work is determined to be grasping in this step 198, an instruction is given to return to step 160 in FIG. 6, and this routine ends.
- step 199 the process proceeds to step 200, where a robot tool 21 is selected based on the type of work for the load 100 (see Table 1).
- step 201A it is determined whether or not the selected robot tool is equipped, and if the determination is negative, the process proceeds to step 201B, where a request is made to procure a robot tool.
- step 201C a robot tool procurement process is executed, and the process proceeds to step 202. Also, if the determination is positive in step 201A, the process proceeds to step 202.
- step 206 the tool originally attached to the replacement arm 6 (or 5) that is being held by the non-replacement arm 5 (or 6) is stored in a holder on the belt 28, and the process proceeds to step 208.
- step 208 the programmed tasks for each robot tool are executed.
- step 210 a restart of the flowchart in FIG. 6 (transition to step 150) is instructed, and this routine ends.
- FIG. 15 is a flowchart showing a robot tool transport control routine that is executed when the humanoid robot 1 is working at the work site 362 and a robot tool 21 of a type different from the robot tool 21 that the humanoid robot 1 is holding becomes necessary.
- This robot tool transport control routine is executed by the air vehicle management server 368 in cooperation with the information processing device 14 (see FIG. 5) mounted on the humanoid robot 1 and the controller 370 (see FIG. 13) of the air vehicle 360A. That is, the robot tool transport control is initiated by a request from the information processing device 14 to the robot tool 21. Furthermore, the transport (flight control) of the robot tool 21 by the air vehicle 360A itself is performed automatically by the controller 370 of the air vehicle 360A.
- step 250 of FIG. 15 it is determined whether or not a request for the robot tool 21 has been received from the information processing device 14 of the humanoid robot 1, and if the determination is negative, this routine ends.
- step 250 If the determination in step 250 is affirmative, the process proceeds to step 252, where (1) the identification information of the humanoid robot 1, (2) the identification information of the work site 362, and (3) the transport information including the type of robot tool 21 are recognized, and the process proceeds to step 254.
- step 254 the flying object 360A is selected and designated as the specific flying object 360A, and then the process proceeds to step 256, in which the controller 370 of the flying object 360A is notified of the transport information, and the process proceeds to step 258.
- step 258 the controller 370 of the flying object 360A is instructed to start transportation.
- the flying object 360A takes off from the base 378, moves to the storage facility 376, removes the specified robot tool 21 from the storage section 376A, places it on the mounting platform 364A, and moves to the work site 362. It then lands on the transfer platform 374 and waits.
- the work time for each of the above tasks 1 to 4 can be roughly recognized as a task unit.
- next step 260 it is determined whether or not a notification has been received from the controller 370 of the flying object 360A indicating that the handover of the robot tool 21 has been completed.
- the above-mentioned task 2 is taken as an example of the end of the tasks, and once task 2 has been completed, the handover of the robot tool 21 to the humanoid robot 1 is completed, and the humanoid robot 1 can continue its original task.
- step 260 If a negative judgment is made in step 260, the process proceeds to step 262, where it is determined whether or not a trouble notification has been received from controller 370 of aircraft 360A. If a positive judgment is made in this step 262, it is predicted that some kind of malfunction has occurred between the series of tasks 1 to 4, causing the task to stop, and the process proceeds to step 270, where error processing is performed, and this routine ends if the error is resolved.
- step 262 determines whether the determination in step 262 is negative. If the determination in step 262 is negative, the process proceeds to step 264 to determine whether a predetermined time has elapsed. Since the work time from Task 1 to Task 2 is roughly predictable, if the work is not completed after a preset predetermined time has elapsed (positive determination in step 264), it is determined that an event that is interfering with the work has occurred, and the process proceeds to step 270 to execute error processing, and this routine ends if the error is resolved.
- step 264 If the result of step 264 is negative, it is determined that work is in progress and the process returns to step 260, where steps 260, 262, and 264 are repeated until the result of step 260 is positive.
- step 260 If a positive judgment is made at step 260, it is determined that tasks 1 and 2 have been completed successfully, and the process proceeds to step 266, where a return notification has been received from aircraft 360A and it is determined whether the return has been confirmed. If a positive judgment is made at step 266, it is confirmed that all tasks have been completed, and this routine ends.
- step 266 determines whether a predetermined time has elapsed.
- the predetermined time in step 268 is the work time between tasks 1 and 4, and is set to be longer than the predetermined time in step 264 (the work time between tasks 1 and 2).
- step 268 If the answer in step 268 is positive, it is determined that some kind of trouble occurred during the return of the flying object 360A, and the process proceeds to step 270, where error processing is performed, and this routine ends if the error is resolved.
- step 268 If the result of step 268 is negative, the process returns to step 266, and steps 266 and 268 are repeated until the result of step 266 is positive.
- the necessary robot tool 21 is transported from the storage facility 76 by the flying object 60A, so that the humanoid robot 1 does not need to interrupt its work and go to get the robot tool 21 by itself.
- the humanoid robot 1 basically holds the extra robot tool 21EX, but even if irregular work occurs, it can continue the work without leaving the work site 362 by coordinating with the flying object 360A.
- the flying object 360A has been described as an example of the moving object 360, but it may also be a humanoid robot that specializes in transporting the robot tool 21, or a transport vehicle that moves on the road surface.
- the object to be transported is not limited to the missing robot tool, but may be a disposable item (cotton swabs, cutter blades, adhesive tape, etc.) that is attached to the robot tool 21 for use, or a robot tool 21 of the same type may be transported to a robot tool 21 that needs to be repaired or replaced.
- Special tasks are tasks that require a relative positional relationship with a predetermined accuracy or higher between the three-dimensional position information of the humanoid robot (including the three-dimensional position information of the robot tool 21EX) and the three-dimensional position information of the target object.
- FIGS. 16A to 16D are process diagrams showing the modeling process in the three-dimensional modeling device 460.
- the type of three-dimensional modeling device 460 shown in Figures 16A to 16D uses a powdered modeling material and ejects a hardener as a binder using a nozzle.
- the three-dimensional modeling device 460 has a box 462 with an open top, and a table 64 that forms the modeling area is disposed in the top opening.
- the table 464 is supported by a pair of supports 466 and can move up and down inside the box 462.
- the table 464 can be moved up and down with an accuracy of at least one unit of the model thickness, for example, by driving the motor 468A of the ball screw mechanism 468.
- the table 464 has a home position one unit of modeling thickness below the top end of the box body 462, and a modeling area (space) is formed by the table 464 and the four corner walls of the box body 462, into which one layer of powdered modeling material is laid from the modeling material supply unit 470.
- This modeling material supply unit 470 is one of the robot tools 21EX, as shown in Figures 17A and 17B.
- a nozzle head 472 that ejects a binder (hardening agent) is disposed on the top of the box body 462. As shown in Figures 17A and 17B, this nozzle head 472 is one of the robot tools 21EX.
- the nozzle head 472 can move two-dimensionally at regular intervals over the modeling area (space) relative to the top surface of the powdered modeling material laid on the table 464, and ejects binder (hardening agent) based on modeling information corresponding to each layer.
- Step i The table 464 is positioned at the home position, and the modeling material supply unit 470 supplies a powdered modeling material for one layer to the modeling area.
- a binder (hardening agent) is discharged from the nozzle head 472.
- the modeling material in the portion where the binder is discharged hardens.
- Step iii Every time modeling of one layer is completed, the table 462 is lowered by the thickness of one layer, and the modeling process (laying of modeling material and discharging of binder) is repeated (for a total of N layers).
- Step iv The robot tool 21EX is replaced with a scraping tool 474 and a blower tool 476, and when the printing of N layers is completed, the table 464 is raised to the top (e.g., the home position or higher), and the unhardened printing material is scraped off with the scraping tool 474 and blown away with the blower tool 476.
- Step v The non-hardening agent is removed leaving the hardened build material and the build is complete.
- a high-precision x-y-z table was essential to ensure the relative positional relationship between the modeling material supply unit 470, the nozzle head 472, and the table 464.
- the modeling material supply unit 470 and nozzle head 472 are attached to the humanoid robot 1 as the robot tool 21EX, and the positional relationship with the table 464 is determined based on detection information from the palm sensor 26, etc., eliminating the need for a high-precision x-y-z table.
- FIGS. 17A and 17B show the work steps in which the humanoid robot 1 executes the work steps in FIG. 16A to FIG. 16D.
- the humanoid robot 1 faces a predetermined position on the modeling work base 478.
- a part of the three-dimensional modeling device 460 (the modeling material supply device 470 and the assembly 460A incorporated in the box body 462, excluding the nozzle head 472) is placed in a predetermined position on the modeling work base 478.
- Controller 480 communicates (wirelessly or wired) with information processing device 14 of humanoid robot 1 to exchange information regarding their respective positional relationships.
- the relative positions of the humanoid robot 1 and assembly 460A are recognized based on the original position (x-y-z coordinates) for three-dimensional modeling, which is set at a predetermined position on the modeling work base 478.
- the positional relationship between the humanoid robot 1 and assembly 460A can be grasped with high accuracy.
- steps i through iv of the above work process are performed. Also, in FIG. 17B, step v of the above work process is performed.
- the palm sensor 26 (or equivalent sensor unit) of each robot tool 21EX constantly monitors its relative position with the assembly 460A while performing each process. Note that the precision of the robot tool 21EX during operation can be improved by separately attaching a high-resolution camera and a sensor unit 26A such as MoPU or LiDAR to the head of the humanoid robot 1.
- the robot tool 21EX is used for special tasks that require a relative positional relationship of at least a specified level with respect to the target object.
- the work steps (i to v) for three-dimensional modeling can be performed with high accuracy using information detected by the palm sensor 26 of the humanoid robot 1, etc.
- the 3D modeling device 460 is described as a device that performs 3D modeling using a powder modeling material and a hardener as a binder, but it may also be a resin injection type 3D modeling device that ejects heat-molten resin material in thread form and layers it to form a model.
- the robot tool 21 is a combination of a melting furnace head tool that melts the resin material and a head that ejects the molten resin material, and in the z direction (height direction), the table may move up and down, or the robot tool 21 may move up and down.
- this embodiment can also be applied to three-dimensional printing devices such as those shown in (Modeling method 1) to (Modeling method 7) below.
- (Modeling method 1) to (Modeling method 7) show examples of the relationship between the type and function of the modeling method and the materials suitable for each modeling method.
- Binder jetting method (applied in the above examples) Binder-jetting 3D modeling machines spray a liquid binder onto a bed of powder, which then selectively solidifies.
- Example materials include gypsum, ceramics, sand, calcium, and plastic.
- Modeling method 2 Directed energy deposition method
- a 3D modeling device using the directed energy deposition method controls the position of heat generation by concentrating a beam or the like while supplying material, and selectively melts and bonds the material.
- An example of the material is metal.
- Material extrusion method A material extrusion type 3D modeling device extrudes a fluid material from a nozzle, deposits it, and solidifies it at the same time.
- materials include ABS (acrylonitrile butadiene styrene resin), PLA (polylactic acid), nylon 12, PC (polycarbonate), and PPSF (polyphenylsulfone).
- Modeling method 4 Material injection method "corresponding to the resin injection type exemplified as a modified example of the above embodiment”
- Material jetting 3D modeling devices jet droplets of material, selectively deposit and solidify them.
- the 3D modeling device uses the inkjet method, which is a typical modeling method. Examples of materials include UV-curable resin, grease, wax, and solder.
- Powder bed fusion method 5 Powder bed fusion method
- Powder bed fusion method 3D modeling equipment selectively melts and bonds a certain area where powder is laid by irradiating heat energy from a laser.
- Example materials include engineering plastics, nylon, and metal.
- Sheet lamination method A 3D modeling device using the sheet lamination method is a method in which sheet-shaped materials are adhered to each other. Examples of materials include paper, resin sheets, aluminum sheets, wax, and solder.
- Modeling method 7 Liquid tank photopolymerization method A three-dimensional modeling device using the liquid tank photopolymerization method selectively hardens a liquid photocurable resin stored in a tank by photopolymerization.
- An example of the material is a UV-curable resin.
- the 3D modeling device may use a modeling method different from (Modeling Method 1) to (Modeling Method 7).
- the sorting and picking work refers to the work of selecting and picking out garbage 562 of a specific attribute (type) from garbage 562 of different attributes (types) mixed together and stored in a single box 560, as shown in Figure 18.
- sensor units 551A-551E (described in detail below) capable of detecting the attributes of dirt 562 are attached to the fingertips of the hand tool 50, and the hand tool 50 is placed opposite the box body 560 to detect the attributes using the sensor units 551A-551E.
- Sensors 551A to 551E attached to each finger are shown below.
- Taste sensor 551E that detects taste information as attribute information
- the hand tool 50 has finger joints that can move freely relative to one another above the box body 560, so the sensor units 551A to 551E on each fingertip can freely change their detection area. This allows the entire area of the box body 560 to be the detection area.
- the sensor units 551A-551E on the fingertips can be detached from the fingertips and enter the space in the box 560 that contains the garbage 562, making it possible to detect attribute information of garbage in a visually hidden position.
- the attributes of the garbage 562 to be picked are read from the object-attribute information database 578 (see FIG. 19) and compared with the attribute information detected by the sensor units 551A to 551E, thereby identifying the position coordinates (three-dimensional) of the garbage 62 to be picked.
- the gripper 20 shown in FIG. 3 is attached and the picking operation is performed.
- the hand tool 50 of the third embodiment can be attached to the right hand side and the gripper 20 for the picking operation can be attached to the left hand side in advance.
- FIG. 19 is a functional block diagram specialized for object attribute determination control executed in the information processing device 14 (see FIG. 5). Note that each block shown in FIG. 19 is classified by function, and some or all of the object attribute determination control function may be operated by a software program using a microcomputer (including ASIC, etc.).
- the object attribute determination control function of the information processing device 14 includes a data acquisition unit 570.
- the data acquisition unit 570 acquires detection data of each of the sensor units 551A to 551E attached to the fingertips of the hand tool 50.
- the data acquisition unit 570 is connected to the matching unit 572.
- the data acquisition unit 572 sends the acquired detection data from each of the sensor units 551A to 551E to the matching unit 572.
- the object attribute determination control function of the information processing device 14 also includes a picking object information acquisition unit 574.
- the picking object information acquisition unit 574 acquires information about the garbage to be picked (picking object information).
- This picking object information acquisition unit 574 is connected to a search unit 576 and sends out the picking object information.
- the search unit 576 accesses the object-attribute information database 578 and reads out the attribute information of the object specified for picking.
- the attribute information read by the search unit 576 is sent to the matching unit 572.
- the matching unit 572 matches the attribute information received from the search unit 576 with the attribute information received from the data acquisition unit 570, and sends the matching result to the picking position coordinate identification unit 579.
- the picking position coordinate identification unit 579 identifies the position coordinates (three-dimensional coordinates) of the object (garbage 562) in the box 560 (see FIG. 18) whose attribute information matches the match.
- the position coordinates identified by the picking position coordinate identification unit 579 are sent to the picking control unit, which is another function of the information processing device 14, via the coordinate information output unit 580.
- the picking control unit controls the operation of the gripping unit 20 for the picking operation based on the received position information, making it possible to pinpoint the garbage 562 that is specified for picking and is located within the box 560.
- a sensor function is attached to each fingertip of the hand tool 50.
- a visual sensor 551A is attached to the thumb
- an auditory sensor 551B is attached to the index finger
- an olfactory sensor 551C is attached to the middle finger
- a tactile sensor 551D is attached to the ring finger
- a taste sensor 551E is attached to the little finger.
- finger type and sensor type may be changed, and only the necessary and sufficient number of sensors may be attached.
- the hand tool 50 as the gripping unit 20 is attached to the arms 5 and 6, and the sensors 551A to 551E are attached to the fingertips.
- the arms 5 and 6 may be replaced with a robot tool 21EX that belongs to the robot tool 21EX shown in the first embodiment and has a sensor function in advance.
- each sensor unit 551A-551E is placed opposite the box body 560 that contains a mixture of objects, and the process proceeds to step 586.
- step 86 the sensor units 551A-551E acquire attribute information for each individual object.
- step 588 information on the object to be picked is obtained.
- information on the object to be picked is obtained.
- Batteries have almost no sense of hearing, smell, or taste, but can be distinguished from other waste 562 based on sight and touch.
- spray cans that are hazardous waste can be distinguished from other waste 562 by sight, touch, and smell (thinner smell, etc.).
- step 590 the attribute information of the object to be picked is read from the object-attribute information database (DB), and the process proceeds to step 592, where the attribute information is compared.
- the read attribute information is compared with the detected attribute information.
- step 594 the location that matches as a result of the comparison is set as the picking position, and the coordinates of that picking position (three-dimensional coordinates set in the space inside the box 560) are identified, and then the process proceeds to step 596, where the identified picking position coordinates are sent to the picking control unit, and this routine ends.
- the picking control unit controls the gripper 20 based on the identified picking position coordinates to pick up the target object, the garbage 562.
- the task of separating and picking garbage is exemplified, but an example of a task in which different sensors 551A to 551E are attached to each fingertip of the hand tool 50 is inspection of the inside of an engine compartment 598A of a vehicle 598, as shown in FIG. 21.
- the humanoid robot 1 can inspect the engine room 598A and detect oil leaks from the engine, damage and cracks in resin and rubber products, loose bolts, poor contact in electrical parts, falling off parts, and other defects while pinpointing their locations.
- a seventh embodiment of the present disclosure will be described below. Note that in the seventh embodiment, the robot tool 21EX described in the first embodiment will be applied. Note that, in the following, repair work will be described as an example of work, but the work is not limited to repair, and may be any two-step work such as assembly, disassembly, packaging, painting, cleaning, etc., in which a work process is automatically established before the work and the work is performed based on the established work process.
- a workbench 662 is provided on top of a table 660, and an object 100A requiring repair (here, an electronic circuit board or the like) is placed on it.
- a humanoid robot 1 faces this table 660, and in FIG. 22A robot tools 21EXD and 21EXE are attached to its arms 5 and 6, respectively, and in FIG. 22B robot tools 21EXF and 21EXG are attached to its arms 5 and 6, respectively.
- robot tool 21EXD is a tool with a camera function
- robot tool 21EXE is a tool with a tester function
- the camera function here may be a high-resolution camera mounted on palm sensor 26 permanently installed on humanoid robot 1, or on surveillance camera 26A attached to the part of humanoid robot 1 that corresponds to the eyes, but depending on the size and shape of the object, it may also include special cameras such as a high-magnification microscope camera, an endoscope camera, or an infrared camera.
- robot tool 21EXF is a tool with tweezers functions
- robot tool 21EXG is a tool with a soldering iron function, and both are classified as repair tools.
- humanoid robot 1 equipped with robot tools 21EXD, 21EXE belonging to the inspection tool group inspects target object 100A, analyzes the repair locations and repair procedures, etc., and formulates a repair work process.
- Formulation through analysis for example, uses AI to learn related repair work from detected image data, etc., with reference to big data on past repair work, and formulates the optimal repair process for this repair based on the searched repair work, while also taking into account the schedule, work environment, parts procurement status, etc. Note that formulation of repair work processes is not limited to AI analysis.
- the humanoid robot 1 switches from the robot tools 21EXD, 21EXE, which belong to the inspection tool group, to the robot tools 21EXF, 21EXG, which belong to the repair tool group, and performs the repair work based on the formulated work process.
- FIG. 23 is a functional block diagram specialized for controlling repair work in the seventh embodiment, which is executed by the information processing device 14 of the humanoid robot 1. Note that each block in FIG. 23 does not limit the hardware configuration of the information processing device 14, and some or all of the blocks may be operated by software programming.
- the repair instruction receiving unit 664 is connected to the inspection tool mounting instruction unit 666.
- the repair instruction receiving unit 664 receives a repair instruction, it activates the inspection tool mounting instruction unit 666.
- the inspection tool mounting instruction unit 666 receives the activation instruction, it instructs the tool attachment/detachment control unit 668 to attach a robot tool (robot tools 21EXD and 21EXE in FIG. 22A) that belongs to the inspection tool group.
- the tool attachment/detachment control unit 668 controls the attachment of robot tools belonging to the group of inspection tools to the humanoid robot 1 according to instructions from the inspection tool attachment instruction unit 666. As a result, as shown in FIG. 22A, robot tools 21EXD and 21EXE are attached to the humanoid robot 1.
- the tool attachment/detachment control unit 668 is connected to the detection information acquisition unit 670.
- the detection information acquisition unit 670 receives a notification of attachment completion from the tool attachment/detachment control unit 668, it acquires detection information from each of the attached inspection tools.
- the detection information acquisition unit 670 is connected to the AI failure analysis unit 672 and sends the detection information to the AI failure analysis unit 672.
- the AI failure analysis unit 672 uses AI analysis to identify the location of the failure and analyzes failure information including the state of the failure, its relationship to past failures, the parts required for repair, and the repair time. To add to that, the AI failure analysis unit 672 has a trained model that has learned in advance the correspondence between images and sensor information at the time of failure and failure patterns, and failure information can be obtained by inputting detection information obtained from images, sensor information, etc. into this trained model.
- the failure information analyzed by the AI failure analysis unit 672 is extracted by the failure information extraction unit 674 and sent to the AI repair process analysis unit 676.
- the AI-repair process analysis unit 676 formulates a repair process (work process) based on the failure information.
- the AI-repair process analysis unit 676 is connected to the repair tool selection unit 678 and the repair process execution unit 680.
- the repair tool selection unit 678 selects a robot tool belonging to the required repair tool group based on the formulated repair process, and activates the repair tool attachment instruction unit 682. Upon receiving an instruction to start, the repair tool attachment instruction unit 682 instructs the tool attachment/detachment control unit 668 to attach a robot tool (21EXF, 21EXG in FIG. 22B) belonging to the repair tool group.
- the tool attachment/detachment control unit 668 controls the attachment of robot tools belonging to the inspection tool group to the humanoid robot 1 according to instructions from the repair tool attachment instruction unit 682. As a result, as shown in FIG. 22B, robot tools 21EXF and 21EXG are attached to the humanoid robot 1.
- the tool attachment/detachment control unit 668 is connected to the repair process execution unit 680.
- the repair process execution unit 680 executes repairs using the robot tools 21EXF and 21EXG based on the repair process received from the AI-repair process analysis unit 676.
- the repair process execution unit 680 is connected to the repair completion notification unit 684, and when the repair is completed, the repair completion notification unit 684 sends out a repair completion notification.
- step 300 it is determined whether or not the repair has been accepted, and if the determination is negative, this routine ends. If the determination is positive in step 300, the process proceeds to step 302, where an instruction is given to attach an inspection attachment tool, and the process proceeds to step 304.
- step 304 the tools, i.e., in FIG. 22A, the robot tools 21EXD and 21EXE are attached, and the process proceeds to step 306.
- step 306 detection information is obtained from the attached inspection tools (in FIG. 22A, robot tools 21EXD and 21EXE), and then the process proceeds to step 308, where failure analysis is performed using AI.
- failure information (such as the state of the failure, its relationship to past failures, parts required for repair, and repair time) is extracted from the results of the AI analysis in step 308, and the process proceeds to step 312.
- an AI-based repair process is formulated taking into consideration the extracted failure information, as well as the schedule, work environment, parts procurement status, etc.
- the humanoid robot 1 formulates the optimal repair process for the time, which can be said to be a quick and appropriate repair process.
- step 314 the group of repair tools required for the repair is selected, and then the process proceeds to step 316, where an instruction is given to remove the group of inspection tools attached to the humanoid robot 1 and to attach the group of repair tools, and the process proceeds to step 318.
- step 318 the tools, i.e., in FIG. 22B, the robot tools 21EXF and 21EXG are attached, and the process proceeds to step 320.
- step 320 repairs are carried out based on the established repair process, and once the repairs are complete, the process proceeds to step 322, where the completion of the repairs is notified, and the routine ends.
- a humanoid robot 1 equipped with robot tools 21EXD and 21EXE belonging to a group of inspection tools inspects an object 100A, analyzes the repair locations and repair procedures, etc., and creates a repair work process.
- the humanoid robot 1 switches from the robot tools 21EXD, 21EXE belonging to the group of inspection tools to the robot tools 21EXF, 21EXG belonging to the group of repair tools, and performs the repair work based on the formulated work process.
- the humanoid robot 1 formulates the optimal repair process for the time itself and continues the repair, making it possible to perform repairs quickly and appropriately.
- the robot tool 21EX is configured to be attached by selecting from a group of inspection tools or a group of repair tools, but different inspection tools or repair tools may be attached to the fingertips of the hard tool 50 shown in the second embodiment.
- a group of inspection tools such as a camera tool and a tester tool
- a group of repair tools such as a soldering iron tool, a screwdriver tool, and a tweezers tool are attached to the first joints 51 of each of the five fingers, so that the process from inspection to repair can be carried out continuously during a single confrontation with the object.
- the left hand may be used for inspection and the right hand for repair.
- work processes can be automatically created for various tasks where there is no work schedule and different items are handled each time (repair, assembly, manufacturing, etc.).
- Example 1 Using a trained model, the system infers what parts are included in a box from the label on the box and the packaging, and then selects tools to open, assemble, and repackage the box, and performs the tasks in sequence.
- Example 2 Retrain a trained model based on the actual work process to optimize the work process. In this way, instead of creating a work plan first, it is possible to make a work plan and select the necessary tools while determining the condition of the target object, for example, through image analysis using AI.
- the humanoid robot 1 mainly performs the work of storing and retrieving the target object, the baggage 100.
- the eighth embodiment is characterized in that, when working on an object, a necessary tool 770 (the tool 770 is a collective term for the gripper 20, the robot tool 21, and the hand tool 50 in the first and second embodiments) is not present at hand and must be taken out of a predetermined storage location, and an unnecessary tool 770 must be stored in a storage location.
- the eighth embodiment is specialized in the task of taking out the tool 770 and the task of storing the tool 770, thereby improving the efficiency of the task.
- the storage location of tool 770 and the logistics center DC (see FIG. 25A) where the objects are stored are located in the same area.
- the distribution center DC will be described below with reference to Figures 25A to 25C.
- FIG. 25A is a perspective view of a storage base 751 which is a warehouse of a logistics center DC according to this embodiment and which stores luggage 100 (see FIG. 25B) as an object.
- a number of shelves 752 are arranged on the storage base 751. As an example, six shelves 752 are arranged in a row, with two rows forming what are known as "islands.” The formation of islands and the number of shelves 752 are not limited to the arrangement in FIG. 25A.
- the shelf 752 is provided with a plurality of storage spaces 752A, and each storage space 752A can accommodate luggage 100.
- multiple transport devices 754 are arranged so as to be movable within the storage base 751.
- the operation of the transport device 754 is controlled by commands from a storage base management server 756, which collectively manages the controlled devices in the storage base 751, and the transport device 754 moves, for example, between a predetermined waiting position, an arrangement position on the shelf 752, and a picking station 758.
- the transport device 754 faces the shelf 752, it can enter the gap under the shelf 752 and lift it up, lifting it off the floor of the storage base 751. Therefore, the shelf 752 can be moved to a desired position by moving the transport device 754.
- a plurality of picking stations 758 are arranged at predetermined positions on the storage base 751. In FIG. 25A, two picking stations 758 are illustrated, but there may be one or three or more picking stations 758. A humanoid robot 1 is arranged at each picking station 758.
- the humanoid robot 1 performs the tasks it receives commands to perform under the management of the storage base management server 756, in cooperation with the information processing device 14 (see Figure 5) installed in the humanoid robot 1.
- the humanoid robot 1 receives commands from the storage base management server 756 and performs the storage and retrieval operations of the luggage 100.
- each humanoid robot 1 possesses.
- the picking station 758 has an opening 758A where the shelves 752 are arranged, as well as a work space 758B where sorting and packaging are performed.
- the unloading process involves removing the packages 100 stored on the shelves 752 according to their destination, sorting them according to their destination, and packing them into boxes 760 (transportation materials) for each destination.
- the warehousing operation involves sorting the luggage 100 that has arrived at the warehouse into the storage shelves 752 on which it will be stored, and then placing the sorted luggage 100 in the designated positions on the shelves 752.
- each task in the outbound work and each task in the inbound work are defined as follows:
- Returning Work 3 This is a work in which picking work for the shelf 752 arranged at the entrance 758A is completed and the next shelf 752 is requested.
- Storage Operation 2 Assortment Operation This is the operation of storing the luggage 100 taken out to the work space 758B on the shelf 752 according to the storage destination.
- Storage Work 3 This is a work in which the assortment work for the shelf 752 arranged at the entrance 758A is completed and the next shelf 752 is requested.
- information relating to the work of each humanoid robot 1 is sequentially sent from the information processing device 14 of the humanoid robot 1 to the storage base management server 756.
- the storage base management server 756 collectively manages the operating status (work progress information) of multiple humanoid robots 1.
- a part of the shelf 752 serves as a tool storage shelf 752T that stores tools 770 to be attached to the arms 5 and 6 of the humanoid robot 1.
- Each tool 770 is stored in the storage space 752A of this tool storage shelf 752T (see FIG. 25C).
- One tool 770 is stored in one storage space 752A, but assuming multiple humanoid robots 1, it is preferable to store the same tool 770 in multiple storage spaces 52A. Note that although FIG. 25A shows one tool storage shelf 752T, multiple shelves may be provided.
- the storage base management server 756 can control the transport device 754 to transport the tool storage shelf 752T to the picking station 758 using the same control as that used to transport the luggage 100 to the picking station 758.
- the humanoid robot 1 can continue working at the picking station 758 while waiting for the tool storage shelf 752T to arrive.
- the humanoid robot 1 picks the required tool 770 from the tool storage shelf 752T that has arrived, and performs the operation of returning the currently attached tool 770 to the tool storage shelf 752T.
- FIG. 26 is a functional block diagram for executing simultaneous work control, which is executed in cooperation with the storage base management server 756 and each information processing device 14 of the humanoid robot 1.
- the storage base management server 756 includes a work status management unit 762.
- the work status management unit 762 is connected to a work schedule database 764 and a communication I/F 766.
- the communication I/F 766 communicates with the information processing device 14 of the humanoid robot 1 and the control device 754A of the transport device 754, exchanging information.
- the work status management unit 762 sequentially obtains information related to the work schedule from the work schedule database 764, and also obtains work progress information of the control objects (information processing device 14 of the humanoid robot 1, control device 754A of the transport device 754) performing work on the storage base 751 via the communication I/F 766, thereby managing the work schedule, including instructions for allocating the next task.
- the communication I/F 766 is connected to a humanoid robot work status information acquisition unit 768.
- the humanoid robot work status information acquisition unit 768 acquires information on the work status when the humanoid robot 1 is working (for example, the position of the picking station 758, the identification of the shelf 752 arranged in the entrance 758A, and whether a notification of a request to replace the tool 770 has been output, etc.), and acquires detailed information on specific work during the retrieval or storage work, as well as tool replacement work.
- the humanoid robot work status information acquisition unit 768 notifies the work status management unit 762, which then creates a future work plan and executes work allocation instructions, etc.
- the humanoid robot work status information acquisition unit 768 sends it to a tool information identification unit 774.
- the tool information identification unit 774 identifies the requested tool type and storage location based on the tool request information, and sends information related to the identified requested tool type and storage location to a tool transport instruction unit 776.
- the tool transport instruction unit 776 is connected to the work status management unit 762.
- the tool transport instruction unit 776 determines that the tool 770 needs to be transported (take-out work and storage work)
- it instructs the work status management unit 762 to perform tool exchange work so as to interrupt the normal warehousing or warehousing work.
- FIG. 27 is a flowchart showing the main routine of normal work instruction control based on a work schedule by the storage base management server 756, which is executed in the storage base 751 (see FIG. 25A).
- step 7290 it is determined whether or not a request for tool 770 (tool transport instruction) has been made, and if a negative determination is made, the process proceeds to step 7300 to perform normal unloading or loading operations.
- step 7290 If the result of step 7290 is negative, the process proceeds to step 7292 to perform the tool transport operation.
- step 7292 the requested tool 770 is identified, that is, the type of tool and its storage location are identified, and the process proceeds to step 7294.
- step 7294 the control device 754A of the transport device 754 is instructed to transport the tool storage shelf 752T in which the tool 770 is stored.
- step 7296 the information processing device 14 of the humanoid robot 1 is instructed to change the tool, and the process proceeds to step 7298.
- the transport device 754 and the humanoid robot 1 exchange the tool 770 by executing their respective processes.
- step 7298 it is determined whether or not a notification of the end of tool change has been received, and if the determination is positive, the process returns to step 7290.
- step 7300 the work schedule is read, and then the process proceeds to step 7302 to execute the allocation process.
- the allocation process in step 7302 can be executed using a worksheet or the like that indicates which shelf 752 is to be transported to which picking station 758 by which transport device 754, and which humanoid robot 1 is to perform the retrieval or storage work.
- step 7304 the transport device 754 is instructed to transport the shelf 752, and then in step 7306, the humanoid robot 1 is instructed to perform a take-out or take-in operation, and the process proceeds to step 7308.
- step 7308 it is determined whether or not a work completion notification has been received, and if the determination is affirmative, the process proceeds to step 7310 to confirm the work instruction target, then to step 7312 to update the work progress log for each work instruction target, and then to step 7314.
- step 7308 determines whether there is no notification of the end of work in step 7308. If there is no notification of the end of work in step 7308, the process proceeds to step 7314 to continue and perform other work.
- step 7314 it is determined whether there is a next task, and if the determination is positive (there is a next task), the process returns to step 7290 and the above process is repeated. If the determination is negative (there is no next task) in step 7314, this routine ends.
- the normal retrieval or storage work is interrupted, and the same work as the retrieval or storage work is performed to transport the shelf 752 (transport the tool storage shelf 752T) using the transport device 754.
- the transport device 754 is used for the shelf 752 (and the tool storage shelf 752T), but the humanoid robot 1 may be used instead of the transport device 754.
- one (one) humanoid robot 1 may go to the shelf 752 of the storage base 751 to pick up the luggage 100, move to the picking station 758 to work on it, and take it out of the warehouse, or may transport the tool 770 during normal work such as working on the received luggage 100 at the picking station 758 and putting it on the shelf.
- the humanoid robot 1 that serves as a substitute for the transport device and the humanoid robot 1 that works at the picking station 758 may be the same or different.
- FIG. 28 shows a specific example of the configuration for the control unit 142 to control the operation of the gripper 20 and the robot tool 21EX.
- control unit 142 controls the operation of the gripping unit 20 and the robot tool 21EX via a servo mechanism including a servo driver 861, a servo motor 862 for operating the gripping unit 20 and the robot tool 21EX, and a rotary encoder 863.
- the operation of the gripper 20 and the robot tool 21EX is controlled by the rotational operation of the servo motor 862.
- Information on the rotational speed, rotational position, etc. of the servo motor 862 is detected by the rotary encoder 863 and fed back to the servo driver 861 as a pulse signal.
- the servo driver 861 functions as a drive device for driving the servo motor 862, and controls the output torque, rotational speed, and rotational position of the servo motor 862 based on operational instructions from the control unit 142. At that time, the servo driver 861 inputs a pulse signal from a rotary encoder 863, and detects the actual rotational position, rotational speed, and output torque of the servo motor 862, thereby executing processing such that the servo motor 862 operates in accordance with the operational instructions from the control unit 142.
- the control unit 142 performs control to attach a robot tool 21EX corresponding to the type of work among one or more robot tools 21EX to the arms 5 and 6.
- the control unit 142 controls the servo driver 861 in a control mode corresponding to the type of work determined by the determination unit 141, and performs work on the luggage 100 corresponding to the determined type of work.
- control modes of the servo driver 861 include a high-load work control mode and a precision work control mode
- the control unit 142 switches the control mode so that the servo driver 861 operates in a control mode that is preset for each type of work.
- control mode selection table An example of how the control mode is set for each type of work is shown in the control mode selection table in Figure 29.
- control mode selection table in Figure 29 we can see that when the work type is painting, drilling, or screwing, the precision work control mode is selected, and when the work type is special gripping, the high-load work control mode is selected.
- control unit 142 determines that the work to be performed on the luggage 100 is high-load work, it controls the servo driver 861 in the high-load work control mode. And when the control unit 142 determines that the work to be performed on the luggage 100 is low-load work, it controls the servo driver 861 in the precision work control mode.
- the determination unit 141 may also estimate not only the type of work to be performed on the luggage 100, but also the workload when the work is performed on the luggage 100. For example, the determination unit 141 estimates the workload based on the determined type of work and the properties of the luggage 100, which is the object of the work, etc.
- the determination unit 141 estimates the type of work to be performed on the luggage 100 and the workload when that work is performed based on information from a camera mounted on the gripping unit 20 or the robot tool 21EX that takes an image of the luggage 100 and identifies the type of luggage 100, and a palm sensor 26 equipped with an MoPU that identifies the position of the luggage 100.
- the determination unit 141 estimates the weight from the size (and surface material, etc.) of the luggage 100 to be grasped, and if it determines that it would be difficult to lift the luggage 100 using normal grasping with the gripping unit 20, it determines that the type of work to be performed on the luggage 100 is special grasping (strength-increased grasping). Also, for example, if the type of work to be performed is drilling and the material of the luggage 100, which is the work object, is metal, the determination unit 141 estimates that the workload will be large if the work is performed.
- control unit 142 controls the servo driver 861 according to a control mode corresponding to the work type and workload determined by the determination unit 141 to perform work on the luggage 100 according to the work type.
- the control unit 142 may also select one of the position control mode, speed control mode, and torque control mode depending on the type of work determined by the determination unit 141 to control the servo driver 861.
- control unit 142 may control the servo driver 61 by changing the resolution of the pulse signal from the rotary encoder 63 by changing the multiplication factor when the pulse signal from the rotary encoder 863, which is a detector that detects the rotational motion of the servo motor 862, is multiplied in the servo driver 61 according to the type of work determined by the determination unit 141.
- the number of pulses generated by the rotary encoder 863 when the servo motor 862 makes one rotation is 1024, i.e., 1024 pulses/revolution.
- the pulse signal in the servo driver 861 is multiplied by two, it becomes 2048 pulses/revolution, and if it is multiplied by four, it becomes 4096 pulses/revolution. Therefore, by increasing the multiplication factor, the rotation angle per pulse becomes smaller, making it possible to achieve more precise positioning and realizing a highly accurate control system.
- FIG. 30 is a flowchart showing a control procedure when the gripper 20 or the robot tool 21EX performs a task on the luggage 100.
- step 8150 it is determined whether or not an instruction to perform work on the luggage 100 has been received, and if a positive determination is made, the process proceeds to step 8152, where the humanoid robot 1 is moved (e.g., the arms 5 and 6 are operated) to bring the gripping unit 20 into opposition to the target luggage 100, and the process proceeds to step 8154.
- the humanoid robot 1 is moved (e.g., the arms 5 and 6 are operated) to bring the gripping unit 20 into opposition to the target luggage 100, and the process proceeds to step 8154.
- step 8154 the gripping parts 20 are placed facing each other and information about the luggage 100 is detected by the palm sensor 26 (high resolution camera and MoPU).
- step 8156 the information detected by the palm sensor 26 is analyzed to obtain a detailed understanding of the type (shape, size, hardness, etc.) and position of the luggage 100, and the process proceeds to step 8158.
- step 8158 the type of work to be performed on the luggage 100 is determined, and the robot tool 21EX corresponding to the determined type of work is selected from the gripper 20 or the robot tool 21EX, and attached to the arms 5 and 6, and the process proceeds to step 8160.
- step 8160 the control mode of the servo driver 861 is switched to a control mode that corresponds to the determined type of work.
- step 8162 the gripper 20 or the robot tool 21EX is used to perform an operation on the luggage 100.
- next step 8164 it is determined whether the work performed on the luggage 100 was successful, and if the determination is positive, the luggage 100 after the work has been performed is transported to a specified location, and the process proceeds to step 8150 to wait for an instruction to perform work on the next luggage 100.
- step 8164 the process proceeds to step 8166, where error processing such as retry or cancellation is performed.
- the error processing may involve switching to a task of a different type from the task type determined by the determination unit 141.
- the retry processing in the event of an error may involve changing the control settings, such as changing the multiplication factor by which the pulse signal is multiplied in the servo driver 861.
- FIG. 31 is a flowchart showing the control procedure when the gripper 20 or the robot tool 21EX performs a task on the luggage 100.
- the flowchart in FIG. 31 differs from the flowchart in FIG. 30 in that there is no step 160 between step 158 and step 162.
- the humanoid robot 1 in this embodiment selects a tool from the gripper 20 and the robot tool 21EX according to the type of work to be performed, and performs the work.
- the arms of adjacent humanoid robots 1 may collide with each other, making it impossible to perform the work safely.
- Figure 32 shows how multiple such humanoid robots 1 perform tasks in a small space.
- Figure 32 shows three humanoid robots 1A to 1C each attempting to perform a task on three pieces of luggage 100 placed on a table.
- the robot control system of this embodiment uses the method described below to prevent situations in which, when multiple robots are performing tasks side by side, the tasks performed by one robot interfere with the tasks of other adjacent robots.
- the information acquisition unit 140 acquires information on the type of work that another adjacent humanoid robot 1 is about to perform or is currently performing.
- the information acquisition unit 140 acquires information on the type of work that another adjacent humanoid robot 1 is about to perform or is currently performing via a wireless LAN such as Wi-Fi (registered trademark) or a short-range wireless communication line such as Bluetooth (registered trademark).
- a wireless LAN such as Wi-Fi (registered trademark) or a short-range wireless communication line such as Bluetooth (registered trademark).
- each of humanoid robots 1A-1C transmits and receives data to and from another adjacent humanoid robot 1 via a wireless communication line to obtain information on the type of work that the other robot 1 is performing or is about to perform.
- a wireless communication line such as Bluetooth (registered trademark)
- humanoid robots 1A-1C can adjust the size of the adjacent range by setting the radio wave strength of each transmitted radio wave.
- the range over which radio waves can reach may be a range over which radio waves of sufficient strength can reach so as not to cause erroneous transmission or reception.
- control unit 142 judges whether or not the work type judged by the judgment unit 141 is a work type that cannot be performed adjacent to the work type of the work of the adjacent other humanoid robot 1 acquired by the information acquisition unit 140. Then, when the control unit 142 judges that the work type judged by the judgment unit 141 is a work type that cannot be performed adjacent to the work type of the work of the adjacent other humanoid robot 1 acquired by the information acquisition unit 140, it controls so that the work of the work type judged by the judgment unit 141 is not performed on the target object.
- a combination of work types that cannot be performed simultaneously by two adjacent humanoid robots 1 is set based on the possibility of contact according to the size of the working range of each work type.
- a work range setting table as shown in FIG. 34 is stored in each of the humanoid robots 1A to 1C.
- a work range is set for each work type.
- the work range for the work type "normal gripping” is set to "small,” i.e., narrow
- the work range for the work type "painting” is set to "large,” i.e., wide.
- control unit 142 determines that the two works are works that cannot be performed by the adjacent humanoid robot 1.
- the combination of tasks that two adjacent humanoid robots 1 cannot perform simultaneously may be set based on safety reasons involving (dangerous) chemical reactions.
- an adjacent work prohibition table as shown in FIG. 35 is stored in each of the humanoid robots 1A to 1C.
- a work type called "painting” and a work type called “welding” are registered as a work type combination that cannot be performed simultaneously by two adjacent humanoid robots 1.
- a work range setting table which is information on combinations of work types that cannot be performed simultaneously by two adjacent humanoid robots 1, and an adjacent work prohibition table are stored in each of the multiple humanoid robots 1A to 1C.
- control unit 142 determines that the work type determined by the determination unit 141 is a work type that cannot be performed adjacent to the work type of the work of another adjacent humanoid robot 1 acquired by the information acquisition unit 140, the control unit 142 controls the robot 1 to perform work of a work type other than the work type determined by the determination unit 141 on the target object.
- control unit 142 may move the mounted humanoid robot 1 from its current position so that the work type of the adjacent other humanoid robot 1 and the work type of the work that the humanoid robot 1 is attempting to perform are not combined as work types that cannot be performed adjacently.
- a management server 980 could be installed to manage the operations of multiple humanoid robots 1A to 1C, as shown in FIG. 36.
- the above-mentioned work range setting table and adjacent work prohibition table which are information on combinations of work types that cannot be performed simultaneously by two adjacent humanoid robots 1, are stored in the management server 980 that manages the operations of multiple humanoid robots 1.
- the management server 980 controls the operations of multiple humanoid robots 1 so that two adjacent humanoid robots 1 do not perform a task type that cannot be performed simultaneously.
- the management server 980 and the humanoid robots 1A-1C are connected via a wireless LAN such as Wi-Fi (registered trademark) or a short-distance wireless communication line such as Bluetooth (registered trademark) as described above.
- the management server 80 obtains information on the type of work being performed by each of the humanoid robots 1A-1C and information on the type of work that each of the humanoid robots is about to perform via such wireless communication line.
- the management server 80 also obtains current position information from the humanoid robots 1A-1C and information on adjacent humanoid robots 1 via such wireless communication line.
- the management server 80 manages the work performed by the humanoid robots 1A-1C based on information such as the work range setting table and adjacent work prohibition table described above, thereby controlling adjacent humanoid robots 1 to prevent the simultaneous execution of work that is prohibited.
- FIG. 31 is a schematic diagram showing an example of a hardware configuration of a computer 1200 functioning as the information processing device 14.
- a program installed in the computer 1200 can cause the computer 1200 to function as one or more "parts" of the apparatus according to the first to tenth embodiments, or cause the computer 1200 to execute operations associated with the apparatus according to the first to tenth embodiments or one or more "parts", and/or cause the computer 1200 to execute a process according to the first to tenth embodiments or a step of the process.
- Such a program may be executed by being loaded into a CPU 1212, which is an example of a hardware processor, to cause the computer 1200 to execute specific operations associated with some or all of the blocks in the flowcharts and block diagrams described in this specification.
- the computer 1200 includes a CPU 1212, a RAM 1214, and a graphics controller 1216, which are connected to each other by a host controller 1210.
- the computer 1200 also includes input/output units such as a communication interface 1222, a storage device 1224, a DVD drive, and an IC card drive, which are connected to the host controller 1210 via an input/output controller 1220.
- the DVD drive may be a DVD-ROM drive, a DVD-RAM drive, etc.
- the storage device 1224 may be a hard disk drive, a solid state drive, etc.
- the computer 1200 also includes input/output units such as a ROM 1230 and a keyboard, which are connected to the input/output controller 1220 via an input/output chip 1240.
- the CPU 1212 operates according to the programs stored in the ROM 1230 and the RAM 1214, thereby controlling each unit.
- the graphics controller 1216 acquires image data generated by the CPU 1212 into a frame buffer or the like provided in the RAM 1214 or into itself, and causes the image data to be displayed on the display device 1218.
- the communication interface 1222 communicates with other electronic devices via a network.
- the storage device 1224 stores programs and data used by the CPU 1212 in the computer 1200.
- the DVD drive reads programs or data from a DVD-ROM or the like and provides them to the storage device 1224.
- the IC card drive reads programs and data from an IC card and/or writes programs and data to an IC card.
- ROM 1230 stores therein a boot program, etc., which is executed by computer 1200 upon activation, and/or a program that depends on the hardware of computer 1200.
- I/O chip 1240 may also connect various I/O units to I/O controller 1220 via USB ports, parallel ports, serial ports, keyboard ports, mouse ports, etc.
- the programs are provided by a computer-readable storage medium such as a DVD-ROM or an IC card.
- the programs are read from the computer-readable storage medium, installed in storage device 1224, RAM 1214, or ROM 1230, which are also examples of computer-readable storage media, and executed by CPU 1212.
- the information processing described in these programs is read by computer 1200, and brings about cooperation between the programs and the various types of hardware resources described above.
- An apparatus or method may be constructed by realizing the operation or processing of information according to the use of computer 1200.
- CPU 1212 may execute a communication program loaded into RAM 1214 and instruct communication interface 1222 to perform communication processing based on the processing described in the communication program.
- communication interface 1222 reads transmission data stored in a transmission buffer area provided in RAM 1214, storage device 1224, a DVD-ROM, or a recording medium such as an IC card, and transmits the read transmission data to the network, or writes received data received from the network to a reception buffer area or the like provided on the recording medium.
- the CPU 1212 may also cause all or a necessary portion of a file or database stored in an external recording medium such as a storage device 1224, a DVD drive (DVD-ROM), an IC card, etc. to be read into the RAM 1214, and perform various types of processing on the data on the RAM 1214. The CPU 1212 may then write back the processed data to the external recording medium.
- an external recording medium such as a storage device 1224, a DVD drive (DVD-ROM), an IC card, etc.
- the CPU 1212 may then write back the processed data to the external recording medium.
- CPU 1212 may perform various types of processing on data read from RAM 1214, including various types of operations, information processing, conditional judgment, conditional branching, unconditional branching, information search/replacement, etc., as described throughout this disclosure and specified by the instruction sequence of the program, and write back the results to RAM 1214.
- CPU 1212 may also search for information in a file, database, etc. in the recording medium.
- CPU 1212 may search for an entry whose attribute value of the first attribute matches a specified condition from among the multiple entries, read the attribute value of the second attribute stored in the entry, and thereby obtain the attribute value of the second attribute associated with the first attribute that satisfies a predetermined condition.
- the above-described programs or software modules may be stored in a computer-readable storage medium on the computer 1200 or in the vicinity of the computer 1200.
- a recording medium such as a hard disk or RAM provided in a server system connected to a dedicated communication network or the Internet can be used as a computer-readable storage medium, thereby providing the programs to the computer 1200 via the network.
- the blocks in the flowcharts and block diagrams in the first to tenth embodiments may represent stages of a process in which an operation is performed or "parts" of a device responsible for performing an operation. Particular stages and “parts" may be implemented by dedicated circuitry, programmable circuitry provided with computer-readable instructions stored on a computer-readable storage medium, and/or a processor provided with computer-readable instructions stored on a computer-readable storage medium.
- the dedicated circuitry may include digital and/or analog hardware circuitry, and may include integrated circuits (ICs) and/or discrete circuits.
- the programmable circuitry may include reconfigurable hardware circuitry including AND, OR, XOR, NAND, NOR, and other logical operations, flip-flops, registers, and memory elements, such as, for example, field programmable gate arrays (FPGAs), programmable logic arrays (PLAs), and the like.
- FPGAs field programmable gate arrays
- PLAs programmable logic arrays
- a computer-readable storage medium may include a non-transitory storage medium, which is any tangible device capable of storing instructions that are executed by a suitable device, such that a computer-readable storage medium having instructions stored thereon comprises an article of manufacture, including instructions that can be executed to create a means for performing the operations specified in the flowchart or block diagram.
- Examples of computer-readable storage media may include electronic storage media, magnetic storage media, optical storage media, electromagnetic storage media, semiconductor storage media, and the like.
- Computer-readable storage media may include floppy disks, diskettes, hard disks, random access memories (RAMs), read-only memories (ROMs), erasable programmable read-only memories (EPROMs or flash memories), electrically erasable programmable read-only memories (EEPROMs), static random access memories (SRAMs), compact disk read-only memories (CD-ROMs), digital versatile disks (DVDs), Blu-ray disks, memory sticks, integrated circuit cards, and the like.
- RAMs random access memories
- ROMs read-only memories
- EPROMs or flash memories erasable programmable read-only memories
- EEPROMs electrically erasable programmable read-only memories
- SRAMs static random access memories
- CD-ROMs compact disk read-only memories
- DVDs digital versatile disks
- Blu-ray disks memory sticks, integrated circuit cards, and the like.
- the computer readable instructions may include either assembly instructions, instruction set architecture (ISA) instructions, machine instructions, machine-dependent instructions, microcode, firmware instructions, state setting data, or source or object code written in any combination of one or more programming languages, including object-oriented programming languages such as Smalltalk (registered trademark), JAVA (registered trademark), C++, etc., and traditional procedural programming languages such as the "C" programming language or similar programming languages.
- ISA instruction set architecture
- machine instructions machine-dependent instructions
- microcode firmware instructions
- state setting data or source or object code written in any combination of one or more programming languages, including object-oriented programming languages such as Smalltalk (registered trademark), JAVA (registered trademark), C++, etc., and traditional procedural programming languages such as the "C" programming language or similar programming languages.
- the computer-readable instructions may be provided to a processor of a general-purpose computer, special-purpose computer, or other programmable data processing apparatus, or to a programmable circuit, either locally or over a local area network (LAN), a wide area network (WAN) such as the Internet, so that the processor of the general-purpose computer, special-purpose computer, or other programmable data processing apparatus, or to a programmable circuit, executes the computer-readable instructions to generate means for performing the operations specified in the flowcharts or block diagrams.
- processors include computer processors, processing units, microprocessors, digital signal processors, controllers, microcontrollers, etc.
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Manipulator (AREA)
Abstract
ロボットの腕部に着脱可能に装着され、対象物の把持を主目的として取り付けられた把持部と、前記把持部の把持とは異なる仕事種に応じて前記腕部に着脱可能であり当該仕事種に応じた仕事を実行する1又は複数のロボットツールと、を備える前記ロボットの制御システムであって、前記対象物の仕事種を判定する判定部と、前記判定部で判定された仕事種が、前記主目的の場合は前記腕部に前記把持部を装着させ、前記判定部の判定結果が前記主目的以外の仕事種の場合は、前記腕部に前記ロボットツールを装着させる動作を制御すると共に前記仕事種に応じた動作を制御する制御部と、を有する。
Description
本開示は、ロボットの制御システム、ロボットの制御プログラム、ロボットの管理システムに関する。
工場の生産ラインにおいては作業を自動で行うための人型ロボットが使用されている。特開2019-093506号公報には、人型ロボットの姿勢制御について記載されている。
また、WO2011/001569公報には、弾性体アクチュエータで駆動されて複数の関節を有するロボットアームであって、ロボットアームの手先部に配設され支持面と接触することによりロボットアームを支持する手先支持部材と、手先支持部材と支持面との接触する力を制御すると同時にロボットアームの手先部の位置及び姿勢を制御する制御部により制御することが記載されている。
しかしながら、人型ロボットによる倉庫内でのピッキング作業において、例えば、荷物が陳列されている棚から当該荷物(シャンプーや、コンディショナー、化粧品、歯磨き粉、カップラーメン、菓子袋等の形状や重さ、硬さ、壊れやすさが違うもの)をピックアップし、所定の包装体(箱等)に収容してパッキングするような場面において、現状では人の手に頼っている。
また、ロボットの把持部の構造をフィンガータイプとして対応しようとしても、指や腕の動きが遅いため、生産性が低い。さらに、荷物の把持以外の仕事種の作業を実行する場合、把持部で必要な工具(例えば、ドリル、スクリュードライバ等)を把持して作業することになり、把持状態の管理制御が加わった間接的な作業となるため、制御負担が大きくなる場合がある。
さらに、ロボットの把持部は、作業対象により、異なるツール種に交換をする必要がある場合があるが、その交換作業によって、通常の作業(例えば、出庫作業及び入庫作業等)を含む全体作業の作業ロスを招く恐れがある。
たとえ、実行しようとする作業の仕事種に応じて、ロボットの把持部を作業内容に応じたツールに付け替えて作業を行おうとしても、重い荷物を把持するような作業と、小さなビスをスクリュードライバ等により回すような作業とを同じ制御モードで同一のモータを制御して実現しなければならない。
しかし、重い荷物を把持して移動するような高負荷の作業を実行するような制御モードでモータを制御して、低負荷の細かい作業を実行したのでは、必要な精度による作業を実現することはできない。また、小さなビスをスクリュードライバ等により回すような低負荷だが精密さが要求された作業を実行するような制御モードでモータを制御して、高負荷の作業を実行したのでは、効率的な作業を行うことはできない。
また、様々な仕事種の作業の作業内容には、精度はそれほど必要ないが高速であることが要求されるものや、低速でもかまわないが高い精度が要求されるようなものが存在するため、単に作業内容に応じて使用するツールを切り替えただけでは、作業内容に応じた適切な作業を実現することは難しい。
実行しようとする作業の仕事種に応じて、ロボットの把持部を作業内容に応じたツールに付け替えて作業を行うようにすれば、様々な仕事種の作業を効率良く実行することが可能となる。
しかし、複数のロボットが隣接して作業を実行する場合に、アームの動きが大きいような作業を実行しているロボットどうしが隣接している場合、一方のロボットのアームが他方のロボットのアームと接触する等によりロボットが実行している作業の障害となってしまう可能性がある。
例えば、スプレーガンを用いて対象物に塗料を噴霧する塗装という仕事種の作業を行う2体のロボットが隣接して作業を行った場合、ロボットのアームどうしが接触したりして一方のロボットの作業により他方のロボットの作業が邪魔されるような事態となる可能性がある。また、例えば、塗装という仕事種の作業を行うロボットに隣接して、溶接のような仕事種の作業を行うロボットが存在したのでは溶接の火花により塗料が引火する等の危険性がある場合もある。
本開示の目的は、把持部による荷物の把持を含む複数の仕事種の仕事を直接的に実行することで、制御負担を軽減することができるロボットの制御システム、ロボットの制御プログラム、ロボットの管理システムを得ることである。
本開示の目的は、複数の仕事種の仕事を直接的に実行することで、制御負担を軽減することができるロボットの制御システム、ロボットの制御プログラム、ロボットの管理システムを得ることである。
本開示の目的は、複数の仕事種の仕事を直接的に実行することで、作業ロスを無くし、かつ、制御負担を軽減することができるロボットの制御システム、ロボットの制御プログラムを得ることである。
本開示の目的は、作業内容が異なる様々な仕事種の作業を同一のモータを用いて適切に実行することが可能なロボット制御システム、及びロボット制御プログラムを提供することである。
本開示の目的は、複数のロボットが隣接して作業を実行する場合に、あるロボットが実行する作業が隣接する他のロボットの作業の障害になるような事態の発生を防ぐことが可能なロボット制御システム、及びロボット制御プログラムを提供することである。
本開示に係るロボットの制御システムは、ロボットの腕部に着脱可能に装着され、対象物の把持を主目的として取り付けられた把持部と、前記把持部の把持とは異なる仕事種に応じて前記腕部に着脱可能であり当該仕事種に応じた仕事を実行する1又は複数のロボットツールと、を備える前記ロボットの制御システムであって、前記対象物の仕事種を判定する判定部と、前記判定部で判定された仕事種が、前記主目的の場合は前記腕部に前記把持部を装着させ、前記判定部の判定結果が前記主目的以外の仕事種の場合は、前記腕部に前記ロボットツールを装着させる動作を制御すると共に前記仕事種に応じた動作を制御する制御部と、を有している。
本開示によれば、ロボットは、ロボットの腕部に着脱可能に装着され、対象物の把持を主目的として取り付けられた把持部と、前記把持部の把持とは異なる仕事種に応じて前記腕部に着脱可能であり当該仕事種に応じた仕事を実行する1又は複数のロボットツールと、備えている。
判定部では、対象物の仕事種を判定し、制御部では、判定部で判定された仕事種が、主目的の場合は腕部に把持部を装着させ、判定部の判定結果が主目的以外の仕事種の場合は、腕部にロボットツールを装着させる動作を制御すると共に仕事種に応じた動作を制御する。
これにより、把持部による荷物の把持を含む複数の仕事種の仕事を直接的に実行することで、制御負担を軽減することができる。
本開示において、前記ロボットツールが、前記把持部全体に代えて装着されることを特徴としている。
本開示において、前記ロボットツールが、前記把持部の一部に代えて装着されることを特徴としている。
本開示において、前記把持部が、複数の指部を備え、前記把持部の一部が、指部の先端側であることを特徴としている。
本開示において、前記ロボットツールが、前記把持部の一部である複数の指部に取り付けられ、各ロボットツールに与えられた仕事種の実行の際に、前記指部から離れた状態で作業し得ることを特徴としている。
本開示において、前記ロボットツールが、前記指部に対してエクステンションバーで連結されており、前記エクステンションバーが、前記ロボットツールの仕事種に適した動作を、前記ロボットツールに伝達することを特徴としている。
本開示において、前記ロボットツールが、前記指部から離脱可能であり、無線通信又は有線通信によって動作が制御されることを特徴としている。
本開示において、前記判定部が、前記把持部又は前記ロボットツールに搭載された、前記対象物の画像を撮影して当該対象物の種類を識別するカメラ、及び、前記対象物の位置を特定するモーションプロセンシングユニットを備えたセンサ部からの情報で判定することを特徴としている。
本開示に係るロボットの管理システムは、複数のロボットツールが選択的に装着され、対象物に対する仕事種に応じた作業を実行するロボットを主体とする作業を管理するロボット管理システムであって、前記対象物の仕事種を判定する判定部と、前記判定部で判定された前記仕事種に対応する前記ロボットツールを装着した作業の実行を制御し、かつ、前記仕事種に対応する前記ロボットツールが不足しているとき、不足しているロボットツールを要求するための要求通知を発信する第1制御部と、を備えたロボット制御装置と、前記要求通知を受けて、前記ロボットツールを保管する保管庫で必要なロボットツールを搭載して、前記ロボットの作業現場まで搬送する移動体の動作を制御する第2制御部を備えた移動体管理サーバと、を有している。
本開示によれば、ロボット制御装置は、判定部で判定された仕事種に対応するロボットツールを装着した作業の実行を制御し、かつ、仕事種に対応するロボットツールが不足しているとき、不足しているロボットツールを要求するための要求通知を発信する。
移動体管理サーバは、要求通知を受けて、ロボットツールを保管する保管庫で必要なロボットツールを搭載して、作業現場まで搬送する移動体の動作を制御する。
これにより、ロボットの作業効率を低下させることなく、作業を継続することができる。例えば、ロボットは、基本的にはロボットツールを保持しているが、イレギュラーな作業が発生したとしても、移動体と連携することで、作業現場を離れることなく、作業を継続することができる。
本開示において、前記移動体が、前記要求通知の発信元のロボットの識別情報、前記ロボットの作業現場の位置情報、必要な前記ロボットツールの種類情報に基づき、自立飛行可能な飛行体である、ことを特徴としている。
本開示において、前記ロボットツールが、前記対象物の画像を撮影して当該対象物の種類を識別するカメラ、及び、前記対象物の位置を特定するモーションプロセンシングユニットを備えたセンサ部を有し、前記飛行体が自立飛行するために必要な情報を、前記センサ部から取得する、ことを特徴としている。
本開示に係る飛行体は、ロボットツールに搭載されたセンサ部から、飛行体が前記自立飛行するために必要な情報を取得することができる。
本開示に係るロボットの制御システムは、対象物に対して実行する仕事種を判定する判定部と、前記対象物を識別し、かつ前記対象物の位置を特定するセンサ部と、前記判定部で判定された仕事種に必要なロボットツールを選択してロボットに装着させ当該ロボットを前記センサ部で検出した検出情報に基づいて、前記仕事種に応じた作業を実行させる制御部と、を有するロボットの制御システムであって、
前記判定部で判定された前記仕事種が、作業開始から作業終了まで時系列で変化する前記ロボットツールと前記対象物との三次元の相対位置が、予め定めた精度を必要とする特殊作業の場合に、前記制御部が、前記ロボットツール及び前記対象物の共通の基準情報を取得して、前記時系列で変化する前記ロボットツールと前記対象物との相対位置を監視し
ながら、作業を実行する、ことを特徴としている。
前記判定部で判定された前記仕事種が、作業開始から作業終了まで時系列で変化する前記ロボットツールと前記対象物との三次元の相対位置が、予め定めた精度を必要とする特殊作業の場合に、前記制御部が、前記ロボットツール及び前記対象物の共通の基準情報を取得して、前記時系列で変化する前記ロボットツールと前記対象物との相対位置を監視し
ながら、作業を実行する、ことを特徴としている。
本開示によれば、判定部で判定された仕事種が、作業開始から作業終了まで時系列で変化するロボットツールと対象物との三次元の相対位置が、予め定めた精度を必要とする特殊作業の場合に、制御部が、ロボットツール及び対象物の共通の基準情報を取得して、時系列で変化するロボットツールと対象物との相対位置を監視しながら、作業を実行する。
これにより、予め定めた精度を必要とする特殊作業の精度管理が確実となる。
前記センサ部が、前記対象物の画像を撮影して当該対象物の種類を識別するカメラ、及び、前記対象物の位置を特定するモーションプロセンシングユニットを備える。
本開示において、前記特殊作業が、三次元造形処理作業であり、前記基準情報が、三次元造形材料が供給される造形ステージに設定されたx-y-z座標の原位置情報である、ことを特徴としている。
本開示に係るロボットの制御システムは、対象物に対して実行する仕事種を判定する判定部と、前記対象物を識別し、かつ前記対象物の位置を特定するセンサ部と、前記判定部で判定された仕事種に必要なロボットツールを選択してロボットに装着させ当該ロボットを前記センサ部で検出した検出情報に基づいて、前記仕事種に応じた作業を実行させる制御部と、を有するロボットの制御システムであって、前記判定部で判定された前記仕事種が、三次元造形装置を用いた三次元造形処理の場合に、前記ロボットツールとして、前記対象物の原料としての三次元造形材料を造形ステージへ供給する機能が選択され、前記制御部が、前記ロボットツール及び前記対象物の共通の基準情報として、三次元造形処理過程において時系列で変化する前記ロボットツールと前記造形ステージとの相対位置を監視しながら、作業を実行する、ことを特徴としている。
本開示に係るロボットの制御システムは、対象物に対して実行する仕事種に必要なロボットツールをロボットに装着させ、当該ロボットを前記仕事種に応じた作業を実行させるロボットの制御システムであって、前記対象物から取得可能な複数の属性情報の各々を検出可能な複数の属性情報検出部が装着されたロボットツールを選択する選択部と、前記複数の属性情報検出部により、複数の前記対象物が混在する環境条件の下で、前記対象物を識別可能な種類の属性情報を取得する属性情報取得部と、前記仕事種を指定された前記対象物の属性情報と、前記属性情報取得部で取得した属性情報とを照合することで、前記仕事種を指定された前記対象物の位置を特定する位置特定部と、を有している。
本開示において、前記属性情報取得部が、複数の前記対象物が混在する環境条件の下で
、前記対象物を識別可能な種類の属性情報を取得する、ことを特徴としている。
、前記対象物を識別可能な種類の属性情報を取得する、ことを特徴としている。
本開示によれば、選択部は、対象物から取得可能な複数の属性情報の各々を検出可能な複数の属性情報検出部が装着されたロボットツールを選択する。属性情報取得部は、複数の属性情報検出部により、例えば、複数の対象物が混在する環境条件の下で、対象物を識別可能な種類の属性情報を取得する。位置特定部は、仕事種を指定された対象物の属性情報と、属性情報取得部で取得した属性情報とを照合することで、仕事種を指定された対象物の位置を特定する。これにより、複数の仕事種の仕事を直接的に実行することで、制御負担を軽減することができる。
本開示において、前記属性情報検出部が、視覚、聴覚、嗅覚、触覚、及び味覚の各々の属性情報を検出し、複数の属性情報の組み合わせによって、前記対象物を識別する、ことを特徴としている。
本開示において、前記仕事種が、複数種類の資源ごみ及び複数種類の有害ごみが混在した収容部の中から、指定されたごみをピッキングするピッキング作業である、ことを特徴としている。
本開示において、前記ロボットが、前記対象物の画像を撮影して当該対象物の種類を識別するカメラ、及び、前記対象物の位置を特定するモーションプロセンシングユニットを備える、ことを特徴としている。
本開示に係るロボットの制御システムは、対象物の状態を検査するための複数の検査用ツール、及び、前記対象物に対して作業を施す複数の作業用ツールに分類された複数のロボットツールから選択してロボットに装着可能であり、当該ロボットツールに基づく作業を、ロボットに実行させる処理制御装置を備えたロボットの制御システムであって、前記処理制御装置が、前記検査用ツールに属するロボットツールを装着して、前記対象物に関する情報を取得する情報取得部と、前記情報取得部で取得した情報に基づいて、作業工程を策定する策定部と、前記検査用ツールに属するロボットツールから前記作業用ツールに属するロボットツールに付け替えて、前記策定部で策定された作業工程に従い作業を実行する実行制御部と、を有している。
本開示によれば、情報取得部が、検査用ツールに属するロボットツールを装着して、対象物に関する情報を取得する。策定部では、情報取得部で取得した情報に基づいて、作業工程を策定する。実行制御部では、検査用ツールに属するロボットツールから前記作業用ツールに属するロボットツールに付け替えて、策定部で策定された作業工程に従い作業を実行する。
すなわち、予めシーケンスによる作業工程は存在せず、ロボットが対象物を検査し、故障箇所を特定し、作業工程を策定し、作業を実行するという、一連の作業を自動で行うことができる。これにより、複数の仕事種の仕事を直接的に実行することで、制御負担を軽減することができる。
本開示において、前記作業が、前記対象物の修理作業であり、前記策定部では、前記情報取得部で取得した情報に基づいて前記対象物の故障箇所を特定し、故障の状態、過去の故障との関連、修理に必要な部品、及び修理時間を含む故障情報を解析し、前記故障情報に基づいて作業工程を策定する、ことを特徴としている。
本開示において、前記ロボットが、前記対象物の画像を撮影して当該対象物の種類を識別するカメラ、及び、前記対象物の位置を特定するモーションプロセンシングユニットを備える、ことを特徴としている。
本開示に係るロボットの制御システムは、対象物及びロボットに装着可能な複数種類のツールを保管する保管ベースと前記ロボットの作業スペースとの間で搬送装置を行き来させる搬送制御部と、前記作業スペースに配置された前記ロボットに装着されたツールを利用して、前記作業スペースに存在するロボットを制御するロボット制御部と、前記ロボット制御部による、前記ロボットの前記対象物に対する通常作業を目的として、前記搬送装置を用いた前記対象物の移動を前記搬送制御部へ指示する通常作業指示部と、前記ロボット制御部からの前記ツールの交換要求情報を取得する取得部と、前記取得部で前記ツールの交換要求情報を取得した場合に、前記通常作業に割り込んで、前記ツールを搬送するように前記搬送制御部へ指示する割込作業指示部と、を有している。
本開示によれば、対象物及びロボットに装着可能な複数種類のツールを保管する保管ベースとロボットの作業スペースとの間で搬送装置を行き来させる搬送制御部と、作業スペースに配置されたロボットに装着されたツールを利用して、作業スペースに存在するロボットを制御するロボット制御部と、は連携して動作する。
通常作業指示部は、前記ロボットの前記対象物に対する通常作業を目的として、前記搬送装置を用いた前記対象物の移動を前記搬送制御部へ指示する。この通常作業中に、取得部がボット制御部からの前記ツールの交換要求情報を取得すると、割込作業指示部では、通常作業に割り込んで、前記ツールを搬送するように前記搬送制御部へ指示する。
これにより、複数の仕事種の仕事を直接的に実行することで、作業ロスを無くし、かつ、制御負担を軽減することができる。
本開示において、前記割込作業指示部による前記搬送制御部への指示が、前記保管ベースから指定された前記ツールを持ち出して前記作業スペースへ搬送する指示と、前記ロボットが取り外した後の前記ツールを前記保管ベースへ搬送して格納する指示と、を含む、ことを特徴としている。
本開示において、前記作業スペースにおける、前記ロボットの対象物に対する通常作業が、前記対象物を前記保管ベースから出庫させる出庫作業、及び、前記対象物を前記保管ベースへ入庫させる入庫作業である、ことを特徴としている。
本開示において、前記搬送装置の作業は、前記ロボットまたは他のロボットが、前記通常作業の範疇として実行する、ことを特徴としている。
本開示において、前記ロボットが、前記対象物の画像を撮影して当該対象物の種類を識別するカメラ、及び、前記対象物の位置を特定するモーションプロセンシングユニットを備える、ことを特徴としている。
カメラは、撮影した画像情報に基づき、撮影された対象物(以下、荷物という場合がある。)を識別する。すなわち、対象物の種類(形状、大きさ、硬さ等)を特定するための情報を取得する役目を有する。
モーションプロセンシングユニット(MoPU)は、対象物の存在位置を示す点の、所定の座標軸に沿った動きのベクトル情報を動き情報と共に位置情報として出力する。すなわち、MoPUから出力される動き情報には、対象物の中心点(又は重心点)の座標軸(x軸、y軸、z軸)上の動き(移動方向と移動速度)を示す情報のみが含まれている。すなわち、把持部が対象物に接近するときの軌跡を精度よく案内することができる。
本開示に係るロボット制御システムは、ロボットの腕部に着脱可能に装着され、対象物の把持を主目的として取り付けられた把持部と、前記腕部に着脱可能に構成され対象物の把持とは異なる仕事種の作業を実行するための1又は複数のロボットツールと、前記把持部及び前記ロボットツールを動作させるためのモータと、前記モータを駆動するための駆動装置と、を備えるロボット制御システムであって、
前記対象物に対して実行すべき作業の仕事種を判定する判定部と、
前記判定部により判定された仕事種が対象物の把持である場合には、前記腕部に前記把持部を装着させ、前記判定部により判定された仕事種が対象物の把持以外の仕事種の場合には、前記1又は複数のロボットツールのうち当該仕事種に応じたロボットツールを前記腕部に装着させるための制御を行うとともに前記判定部により判定された仕事種に応じた制御モードにより前記駆動装置を制御して前記仕事種に応じた作業を対象物に対して実行する制御部と、を有している。
前記対象物に対して実行すべき作業の仕事種を判定する判定部と、
前記判定部により判定された仕事種が対象物の把持である場合には、前記腕部に前記把持部を装着させ、前記判定部により判定された仕事種が対象物の把持以外の仕事種の場合には、前記1又は複数のロボットツールのうち当該仕事種に応じたロボットツールを前記腕部に装着させるための制御を行うとともに前記判定部により判定された仕事種に応じた制御モードにより前記駆動装置を制御して前記仕事種に応じた作業を対象物に対して実行する制御部と、を有している。
本開示によれば、判定部では、対象物に対して実行すべき作業の仕事種を判定し、制御部では、判定部により判定された仕事種が、対象物の把持である場合には腕部に把持部を装着させ、判定部により判定された仕事種が対象物の把持以外の仕事種の場合には、腕部にロボットツールを装着させるための制御を実行する。
そして、本開示では、制御部は、判定部により判定された仕事種に応じた制御モードにより駆動装置を制御して仕事種に応じた作業を対象物に対して実行する。
そのため、本開示によれば、作業内容が異なる様々な仕事種の作業を同一のモータを用いて適切に実行することが可能となる。
さらに、本開示に係るロボット制御システムでは、前記制御モードには、高負荷作業用制御モード及び精密作業用制御モードが含まれ、
前記制御部は、前記対象物に対して実行すべき作業が高負荷の作業であると判定した場合には、前記高負荷作業用制御モードにより前記駆動装置を制御し、前記対象物に対して実行すべき作業が低負荷の作業であると判定した場合には、前記精密作業用制御モードにより前記駆動装置を制御するようにしてもよい。
前記制御部は、前記対象物に対して実行すべき作業が高負荷の作業であると判定した場合には、前記高負荷作業用制御モードにより前記駆動装置を制御し、前記対象物に対して実行すべき作業が低負荷の作業であると判定した場合には、前記精密作業用制御モードにより前記駆動装置を制御するようにしてもよい。
本開示によれば、制御部は、対象物に対して実行すべき作業の負荷量に応じて、駆動装置を制御する際の制御モードを、高負荷作業用制御モード及び精密作業用制御モードのいずれかに切り替えることにより、作業の負荷量に合致した制御モードにより作業を実行することが可能となる。
さらに、本開示に係るロボット制御システムでは、前記判定部は、前記対象物に対して作業を実行した場合の作業負荷を推測し、
前記制御部は、前記判定部により判定された仕事種と作業負荷に応じた制御モードにより、前記駆動装置を制御して前記仕事種に応じた作業を対象物に対して実行する。
前記制御部は、前記判定部により判定された仕事種と作業負荷に応じた制御モードにより、前記駆動装置を制御して前記仕事種に応じた作業を対象物に対して実行する。
本開示によれば、作業の仕事種だけではなく、大きさや重量等の対象物の特性に応じて、対象物に対する作業の負荷量である作業負荷を推測するようにしているので、実際の作業負荷に対応した制御モードにより駆動装置を制御して作業を実行することが可能となる。
さらに、本開示に係るロボット制御システムでは、前記判定部が、前記把持部又は前記ロボットツールに搭載された、前記対象物の画像を撮影して当該対象物の種類を識別するカメラ、及び、前記対象物の位置を特定するモーションプロセシングユニットを備えたセンサ部からの情報に基づいて、前記対象物に対して実行すべき作業の仕事種及び当該作業を実行した場合の作業負荷を判定するようにしてもよい。
また、本開示のロボット制御システムでは、前記制御部は、前記判定部により判定された仕事種に応じて、位置制御モード、速度制御モード及びトルク制御モードのうちのいずれかの制御モードを選択して、前記駆動装置を制御するようにしてもよい。
さらに、本開示のロボット制御システムでは、前記制御部は、前記判定部により判定された仕事種に応じて、前記モータの回転動作を検出する検出器からのパルス信号を前記駆動装置において逓倍する際の逓倍数を変えることにより、前記検出器からのパルス信号の分解能を変化させて、前記駆動装置を制御するようにしてもよい。
また、本開示のロボット制御システムでは、前記ロボットツールが、前記把持部全体に代えて前記腕部に装着されるものであってもよい。
さらに、本開示のロボット制御システムでは、前記ロボットツールが、前記把持部の一部に代えて前記腕部に装着されるものであってもよい。
この場合、前記把持部が、複数の指部を備え、前記把持部の一部が、指部の先端部であってもよい。
本開示に係るロボット制御システムは、ロボットの腕部に着脱可能に装着され、対象物の把持を主目的として取り付けられた把持部と、前記腕部に着脱可能に構成され対象物の把持とは異なる仕事種の作業を実行するための1又は複数のロボットツールと、を備えるロボットを制御するためのロボット制御システムであって、
前記対象物に対して実行すべき作業の仕事種を判定する判定部と、
隣接する他のロボットが実行しようとする作業又は実行中の作業の仕事種の情報を取得する取得部と、
前記判定部により判定された仕事種が、前記取得部により取得された隣接する他のロボットの作業の仕事種と隣接して実行することができない仕事種であると判定した場合、前記判定部により判定された仕事種の作業を対象物に対して実行しないように制御する制御部と、を有している。
前記対象物に対して実行すべき作業の仕事種を判定する判定部と、
隣接する他のロボットが実行しようとする作業又は実行中の作業の仕事種の情報を取得する取得部と、
前記判定部により判定された仕事種が、前記取得部により取得された隣接する他のロボットの作業の仕事種と隣接して実行することができない仕事種であると判定した場合、前記判定部により判定された仕事種の作業を対象物に対して実行しないように制御する制御部と、を有している。
本開示によれば、判定部では、対象物に対して実行すべき作業の仕事種を判定し、制御部では、判定部により判定された仕事種が、対象物の把持である場合には腕部に把持部を装着させ、判定部により判定された仕事種が対象物の把持以外の仕事種の場合には、腕部にロボットツールを装着させるための制御を実行する。
そして、本開示では、制御部は、判定部により判定された仕事種が、取得部により取得された隣接する他のロボットの作業の仕事種と隣接して実行することができない仕事種であると判定した場合には、判定部により判定された仕事種の作業を対象物に対して実行しないように制御する。
そのため、本開示によれば、複数のロボットが隣接して作業を実行する場合に、あるロボットが実行する作業が隣接する他のロボットの作業の障害になるような事態の発生を防ぐことが可能となる。
さらに、本開示に係るロボット制御システムでは、前記制御部は、前記判定部により判定された仕事種が、前記取得部により取得された隣接する他のロボットの作業の仕事種と隣接して実行することができない仕事種であると判定した場合、前記判定部により判定された仕事種以外の仕事種の作業を対象物に対して実行するように制御する。
さらに、本開示に係るロボット制御システムでは、前記制御部は、前記判定部により判定された仕事種が、前記取得部により取得された隣接する他のロボットの作業の仕事種と隣接して実行することができない仕事種であると判定した場合、当該ロボットを現在の位置から移動させることにより、隣接する他のロボットの作業の仕事種と当該ロボットが実行しようとする作業の仕事種とが隣接して実行することができない仕事種の組み合わせとならないようにする。
本開示によれば、あるロボットに対して実行しようとする作業の仕事種を変更しなくても、あるロボットが実行する作業が隣接する他のロボットの作業の障害になるような事態の発生を防ぐことが可能となる。
本開示に係るロボット制御システムでは、隣接する2台のロボットが同時に実行することができない仕事種の組み合わせが、それぞれの仕事種の作業範囲の大きさに基づいて設定される。
また、本開示に係るロボット制御システムでは、隣接する2台のロボットが同時に実行することができない仕事種の組み合わせが、安全上の理由に基づいて設定される。
また、本開示に係るロボット制御システムでは、隣接する2台のロボットが同時に実行することができない仕事種の組み合わせの情報が、複数のロボットのそれぞれにおいて記憶されている。
本開示によれば、管理サーバを必要とすることなくロボット間で直接通信を行って隣接するロボットが実行しようとする作業の仕事種の情報を取得するだけで、あるロボットが実行する作業が隣接する他のロボットの作業の障害になるような事態の発生を防ぐことが可能となる。
また、本開示に係るロボット制御システムでは、隣接する2台のロボットが同時に実行することができない仕事種の組み合わせの情報が、複数のロボットの動作を管理している管理サーバにおいて記憶され、
前記管理サーバが、隣接する2台のロボットどうしが同時に実行することができない仕事種の作業をそれぞれ実行しないように複数のロボットの動作を制御するようにしてもよい。
前記管理サーバが、隣接する2台のロボットどうしが同時に実行することができない仕事種の作業をそれぞれ実行しないように複数のロボットの動作を制御するようにしてもよい。
本開示によれば、複数のロボットがそれぞれ実行する作業の仕事種を管理サーバにおいて管理することにより、あるロボットが実行する作業が隣接する他のロボットの作業の障害になるような事態の発生を防ぐことが可能となる。
さらに、本開示に係るロボット制御システムでは、前記判定部が、前記把持部又は前記ロボットツールに搭載された、前記対象物の画像を撮影して当該対象物の種類を識別するカメラ、及び、前記対象物の位置を特定するモーションプロセシングユニットを備えたセンサ部からの情報に基づいて、前記対象物に対して実行すべき作業の仕事種を判定する。
本開示に係るロボットの制御システムは、コンピュータを上記のロボットの制御システムの前記判定部、前記制御部として動作させる、ことを特徴としている。
本開示に係るロボットの制御システムは、コンピュータを、上記の管理サーバの、前記通常作業指示部、前記取得部、及び前記割込作業指示部として動作させる、ことを特徴としている。
本開示に係るロボットの制御システムは、コンピュータを、上記のロボットの制御システムの前記選択部、前記属性情報取得部、及び前記位置特定部として動作させる、ことを特徴としている。
本開示に係るロボットの制御システムは、コンピュータを、上記のロボットの制御システムの前記選択部、前記属性情報取得部、及び前記位置特定部として動作させる、ことを特徴としている。
なお、上記の概要は、本開示の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、本開示に含まれ得る。
以上説明したように本開示によれば、把持部による荷物の把持を含む複数の仕事種の仕事を直接的に実行することで、制御負担を軽減することができる。
本開示によれば、複数の仕事種の仕事を直接的に実行することで、制御負担を軽減することができる。
本開示によれば、複数の仕事種の仕事を直接的に実行することで、制御負担を軽減することができる。
以上説明したように本開示によれば、作業内容が異なる様々な仕事種の作業を同一のモータを用いて適切に実行することが可能になるという効果を得ることができる。
以上説明したように本開示によれば、複数のロボットが隣接して作業を実行する場合に、あるロボットが実行する作業が隣接する他のロボットの作業の障害になるような事態の発生を防ぐことが可能になるという効果を得ることができる。
以下、実施の形態を説明するが、以下の実施の形態は限定を意図するものではない。また、実施の形態の中で説明されている特徴の組み合わせの全てが解決手段に必須であるとは限らない。
(第1の実施の形態)
図1は第1の実施の形態に係る人型ロボット1の正面図である。図1に示すように、第1の実施の形態に係る人型ロボット1は、上半身部2、脚部3、および上半身部2を脚部3に対して回動可能に連結する連結部4を備え、例えば工場の生産ライン等に配置されて、ピッキング対象物である荷物100(図3参照)等が陳列されている棚を含むライン上、又は床上の対象物(落下物等)に対して作業を行うものである。なお、作業は、棚から荷物100を把持するピッキング以外に、把持した荷物100を所定の筐体(ダンボール等)に収容するパッキングや、把持した作業対象物の塗装、作業対象物に対する穿孔、ビス締め等の作業を含む。
図1は第1の実施の形態に係る人型ロボット1の正面図である。図1に示すように、第1の実施の形態に係る人型ロボット1は、上半身部2、脚部3、および上半身部2を脚部3に対して回動可能に連結する連結部4を備え、例えば工場の生産ライン等に配置されて、ピッキング対象物である荷物100(図3参照)等が陳列されている棚を含むライン上、又は床上の対象物(落下物等)に対して作業を行うものである。なお、作業は、棚から荷物100を把持するピッキング以外に、把持した荷物100を所定の筐体(ダンボール等)に収容するパッキングや、把持した作業対象物の塗装、作業対象物に対する穿孔、ビス締め等の作業を含む。
上半身部2は2本の腕部5、6を有する。腕部5、6は上半身部2の左右に回動自在に取り付けられている。また、腕部5、6の先端には荷物を把持するための把持部20L、20R(詳細後述)がそれぞれ取り付けられている。なお、以下においては、把持部20L、20Rを特定せずに説明する場合には、把持部20L、20Rをまとめて把持部20として示す場合がある。また、腕部は2本に限定されるものではなく、1本あるいは3本以上であってもよい。
このように、本実施形態におけるロボット制御システムには、人型ロボット1の腕部5、6に着脱可能に装着され、対象物である荷物の把持を主目的として取り付けられた把持部20だけでなく、腕部5、6に着脱可能に構成され荷物の把持とは異なる仕事種の作業を実行するための1又は複数のロボットツール21EXが備えられている。
なお、図1では、3種類のロボットツール21EXA~21EXCがベルト28のホルダに保持されている。このロボットツール21EXA~21EXCの詳細については後述する。
脚部3は2つの車輪7、8がその下部に取り付けられており、人型ロボット1が配置される床の上を移動可能とされている。
連結部4は、上半身部2と脚部3を回動可能に連結する。このため、上半身部2は、脚部3に対して前傾および後傾が可能となっている。このため、第1の実施の形態に係る人型ロボット1は、図2に示すように、脚部3に対して上半身部2を前傾させて、棚に置かれた荷物100や、床に置かれていた荷物100、及び作業中に床に落ちたりした荷物100を拾うことが可能である。
なお、脚部3は、上半身部2が脚部3に対して前傾または後傾したり、人型ロボット1が移動したりした際に、人型ロボット1が転倒しないようにするためのバランス機能を有する。
また、連結部4は、図1に示すように上半身部2と脚部3との距離を変更可能な機能を有する。このため、生産ラインにおける作業台の高さに合うように、脚部3に対する上半身部2の上下方向の位置を矢印Aに示すように調整することができる。
また、第1の実施の形態に係る人型ロボット1は、人型ロボット1内に実装された制御システム10によりその駆動が制御される。
(把持部20の構造)
図3に示される如く、腕部5、6の先端に取り付けられた把持部20は、人間の手と同様の構造とされている(Intelligent Hand System)。把持部20は、腕部5、6に対し
て、それぞれ回転自在に取り付けられている。把持部20は、腕部5、6と連結する手首よりも先の部分であり、把持部20は、この手首部分で着脱可能とされ、後述するロボットツール21EXと取り替えることが可能となっている。
図3に示される如く、腕部5、6の先端に取り付けられた把持部20は、人間の手と同様の構造とされている(Intelligent Hand System)。把持部20は、腕部5、6に対し
て、それぞれ回転自在に取り付けられている。把持部20は、腕部5、6と連結する手首よりも先の部分であり、把持部20は、この手首部分で着脱可能とされ、後述するロボットツール21EXと取り替えることが可能となっている。
(把持部20)
図3に示される如く、第1の実施の形態に係る把持部20は、所謂人間の掌に相当する基部として掌部を備え、掌部には、各々複数の関節を備えた5本の指部22A、22B、22C、22D、22Eが取り付けられている。なお、第1の実施の形態では、把持部20Lの指の数を5本としているが、3本指などの数の異なる指構造であってもよい。
図3に示される如く、第1の実施の形態に係る把持部20は、所謂人間の掌に相当する基部として掌部を備え、掌部には、各々複数の関節を備えた5本の指部22A、22B、22C、22D、22Eが取り付けられている。なお、第1の実施の形態では、把持部20Lの指の数を5本としているが、3本指などの数の異なる指構造であってもよい。
掌部には、掌センサ26が取り付けられている。第1の実施の形態に係る掌センサ26を構成する高解像度カメラは、撮影した画像情報に基づき、撮影された荷物100が何であるか、例えば、シャンプー、コンディショナー、化粧品、歯磨き粉等のケア商品なのか、又は、カップラーメン、菓子袋等の食品なのかを識別する。
言い換えると、高解像度カメラは、荷物100の種類(形状、大きさ、硬さ等)を特定するための情報を取得する役目を有する。
一方、高解像度カメラと共に、第1の実施の形態の掌センサ26を構成するMoPUは、1000フレーム/秒以上のフレームレートで撮影された荷物100の画像から、撮影された荷物100の動き(この場合、腕部5、6との間の相対的な動きとなる。)を示す動き情報を、例えば1000フレーム/秒以上のフレームレートで出力する。なお、移動中の荷物100を検知する場合、フレームレートを上げて、固定物(移動しない荷物100)を検知する場合、フレームレートを下げるようにしてもよい。
MoPUは、荷物100の存在位置を示す点の、所定の座標軸に沿った動きのベクトル情報を動き情報として出力する。すなわち、MoPUから出力される動き情報には、撮影された荷物100が何であるか(上記ケア商品、食品)を識別するために必要な情報は含まれておらず、当該荷物100の中心点(又は重心点)の座標軸(x軸、y軸、z軸)上の動き(移動方向と移動速度)を示す情報のみが含まれている。
すなわち、把持部20が荷物100に接近するときの軌跡を精度よく案内することができる。
高解像度カメラ及びMoPUを含む掌センサ26から出力された情報は、情報処理装置14に供給される。
情報処理装置14は、高解像度カメラ及びMoPUを含む掌センサ26からの情報により、高精度に荷物100の位置を特定し、把持するときの指部22A、22B、22Cの広がり度合い、掴むときの強度、及び吸着パッド24による吸着力等を演算し、腕部5、6及び把持部20の微小な動きを、精度よくコントロールし、様々な荷物100のピッキング作業に対応することができる。
(ロボットツール21EX)
第1の実施の形態では、荷物100に対する仕事種として、把持部20を用い、荷物100で把持することを主目的としている。
第1の実施の形態では、荷物100に対する仕事種として、把持部20を用い、荷物100で把持することを主目的としている。
一方、荷物100に対する仕事種が把持ではなく、他の仕事種(例えば、塗装、強度アップ把持(特殊把持)、ドリルによる穿孔等)の場合がある。
この場合、把持部20で各種仕事に対応する工具を把持して、荷物100に対峙することも可能であるが、同一の仕事種を継続的に実行する場合は、把持状態の維持制御(把持部と把持している工具との相対位置制御等)の負担が大きい。
そこで、第1の実施の形態では、把持部20に代えて、荷物100に対する仕事種に応じて、図1及び図4に示すように、ロボットツール21EX(第1の実施の形態では、21EXA、21EXB、21EXCの3種類)を具備しておき、必要に応じて、把持部20から、ロボットツール21EXに交換して、荷物100の把持とは別の仕事種に応じた仕事を実行する構成とした。
(ロボットツール21EXの保管例)
図1に示される如く、人型ロボット1は、上半身部2の下部(所謂、腰位置)にベルト28が装着され、ベルト28には、3個のロボットツール21EXA、21EXB、21EXCの各々を着脱可能に保持するホルダが取り付けられている。なお、ロボットツール21EXA、21EXB、21EXCのそれぞれを特定せずに説明する場合にはロボットツール21EXとして示す。
図1に示される如く、人型ロボット1は、上半身部2の下部(所謂、腰位置)にベルト28が装着され、ベルト28には、3個のロボットツール21EXA、21EXB、21EXCの各々を着脱可能に保持するホルダが取り付けられている。なお、ロボットツール21EXA、21EXB、21EXCのそれぞれを特定せずに説明する場合にはロボットツール21EXとして示す。
図1では、3個のロボットツール21EXとしているが、ロボットツール21EXの数は、1種類、2種類、又は4種類以上であってもよく、後述する荷物100の属性に合わせて、装着する数を決めればよい。
図4A~図4Dには、把持部20とは別に、第1の実施の形態の人型ロボット1に装備された3種類のロボットツール21EX(21EXA、21EXB、21EXC)の詳細構成と、その用途との関係が示されている。
図4Aは、図1の人型ロボット1に取り付けられたベルト28の正面図である。
図4Aに示される如く、ロボットツール21EXが、それぞれ着脱可能に取り付けられている。
図4B~図4Dは、ロボットツール21EXを用いて、荷物100に対する作業を行う際の様子を示している。
図4Bに示される如く、ロボットツール21EXAの仕事種は塗装であり、ツールとして、スプレーガンが取り付けられている。
スプレーガンは、吹き付け塗装で使用されるピストル状の塗装機器の一つである。コンプレッサーの圧縮空気を利用し塗料を霧状にして、スプレーガンの先端から噴出させる構造となっており、被塗装面に対してムラなく塗装することが可能である。
図4Cに示される如く、ロボットツール21EXBの仕事種は、把持部20と同様に把持であるが、把持部20では把持が困難な特殊な荷物100を把持することができる構造となっている。
すなわち、ロボットツール21EXBは、例えば、重機のアタッチメントとして適用される二枚爪フォークと同様の構造である。第1の実施の形態では、ロボットツール21EXBは、2本指構造となっており、圧力源から配管を介して供給される圧力により、2本の指が開いたり閉じたりすることで、モータ等による把持動作(把持部20)に比べて、汎用性は低いが、荷物100を掴む強度が増強されている。
図4Dに示される如く、ロボットツール21EXCの仕事種は穿孔であり、ツールとして、ドリルが取り付けられている。
ドリルには、所定の径寸法のドリル刃が着脱可能に取り付け可能であり、ドリル刃は、荷物100に穿孔するための孔寸法に合わせて事前に装着されている。
ここで、把持部20で処理可能な仕事種(把持)とは異なる場合、荷物100に対して実行する仕事種に基づいて、最適なロボットツール21EXを選択し(表1参照)、把持部20から、選択したロボットツール21EXに付け替えて、処理を実行する。
なお、各々のロボットツール21EXにも掌センサ部26に相当するセンサ部が取り付けられている。
図5は、第1の実施の形態に係る人型ロボットの制御システムの一例の概略図である。制御システム10は、人型ロボットに搭載されるセンサ12と、高解像度カメラ及びMoPUを含む掌センサ26と、情報処理装置14とを備えている。
センサ12は、人型ロボット1の周辺にある、人型ロボット1が作業する荷物100と腕部5、6との距離および角度を少なくとも表す情報を逐次取得する。センサ12としては、最高性能のカメラ、ソリッドステートLiDAR(Light Detection And Ranging)、マルチカラーレーザ同軸変位計、又はその他様々なセンサ群が採用され得る。また他には、センサ12としては、振動計、サーモカメラ、硬度計、レーダー、LiDAR、高画素・望遠・超広角・360度・高性能カメラ、ビジョン認識、微細音、超音波、振動、赤外線、紫外線、電磁波、温度、湿度、スポットAI(Artificial Intelligence)天気予報、高精度マルチチャネルGPS(Global Positioning System)、低高度衛星情報、又はロングテールインシデントAIデータ等が挙げられる。
なお、センサ12は、上記の情報のほかに、画像、距離、振動、熱、匂い、色、音、超音波、紫外線、又は赤外線等を検知する。他にセンサ12が検知する情報としては、人型ロボット1の重心移動、人型ロボット1が設置される床の材質の検知、外気温度の検知、外気湿度の検知、床の上下横斜め傾き角度の検知、水分量の検知等が挙げられる。
センサ12は、これらの検知を例えばナノ秒毎に実施する。
掌センサ26(高解像度カメラ及びMoPU)は、腕部5、6の把持部20に設けられるセンサであり、センサ12とは別に、荷物100を撮影するカメラ機能、及び、荷物100の位置を特定する位置特定機能を有する。
なお、1つのMoPUを用いた場合には、荷物100の存在位置を示す点の、三次元直交座標系における2つの座標軸(x軸及びy軸)の各々に沿った動きのベクトル情報を取得することが可能である。ステレオカメラの原理を利用して、2つのMoPUを用いて、荷物100の存在位置を示す点の、三次元直交座標系における3つの座標軸(x軸、y軸、z軸)の各々に沿った動きのベクトル情報を出力してもよい。z軸は、奥行方向に沿った軸である。
情報処理装置14は、情報取得部140と、判定部141と、制御部142と、情報蓄積部144とを備えている。
情報取得部140は、センサ12及び掌センサ26(高解像度カメラ及びMoPU)によって検知された荷物100の情報を取得する。情報取得部140により取得された各種情報は情報蓄積部144に蓄積される。判定部141は、対象物である荷物100に対して実行すべき作業の仕事種を判定する。
制御部142は、情報取得部140がセンサ12から取得した情報とAI(Artificial intelligence)とを用いて、連結部4の回動動作、上下方向の移動動作および腕部5、6の動作等を制御する。
また、制御部142は、情報取得部140が掌センサ26(高解像度カメラ及びMoPU)から取得した情報を用いて、荷物100の種類(形状、大きさ、硬さ等)及び位置を詳細に把握し、当該外形や位置に応じて、把持部20を対峙させ、吸着パッド24により吸着し、かつ/または、例えば、3本または5本の指部22A~22Fで掴むように制御する(把持制御)。なお、外形情報に基づいて、荷物100の種類を把握して把持制御(「吸着」のみ、「掴み」のみ、「吸着」と「掴み」の併用等)を選択してもよい。
そして、制御部142は、判定部141により判定された仕事種が荷物100の把持である場合には、腕部5、6に把持部20を装着させて、把持部20を制御して荷物100を把持する作業を実行する。
例えば、制御部142は、全体の動作として、以下の各処理を実行する。
(1)棚及び床にある荷物100を拾い上げることが可能なように連結部4を駆動して、上半身部2を前傾または後傾させる。
(2)荷物100をつかむことが可能なように腕部5、6および把持部を駆動する。
(3)生産ラインの作業台の高さに合うように、上半身部2を脚部3に対して上下に駆動する。
(4)人型ロボット1の転倒を防ぐために、バランスを取る。
(5)人型ロボット1がカート等を押し進めることができるように、車輪7、8の駆動を制御する。
情報処理装置14は、例えば、床にある荷物100を拾う場合、センサ12によって検知された荷物100の情報を取得し、取得された荷物100の情報とAIとを用いて、連結部4および腕部5、6を制御することにより、床にある荷物100を拾い上げ、拾った荷物100を所定位置へ移動する。
以下に第1の実施の形態の作業を説明する。
(荷物100の把持制御)
図6は、把持部20によって荷物100を把持する際の把持制御の手順を示すフローチャートである。
図6は、把持部20によって荷物100を把持する際の把持制御の手順を示すフローチャートである。
ステップ150では、荷物100の把持の指示があったか否かを判断し、肯定判定されると、ステップ152へ移行して、人型ロボット1を移動させ(例えば、腕部5、6を動作させ)、対象の荷物100に掌側を対峙させ、ステップ154へ移行する。
ステップ154では、掌側20Aを対向させて、掌センサ26(高解像度カメラ及びMoPU)で荷物100の情報を検出する。
次のステップ156では、掌センサ26による検出情報を解析して、荷物100の種類(形状、大きさ、硬さ等)及び位置を詳細に把握し、ステップ158へ移行する。
ステップ158では、荷物100の属性に応じた、把持部20の仕事種(把持又は把持以外の仕事種)の選択処理を実行する。選択処理は、図7に基づき、詳細に説明するが、図7の選択処理において、仕事種が把持の場合は、ステップ160へ移行する。
ステップ160では、荷物100の把持のための作業を選択する。例えば、「吸着」のみ、「掴み」のみ、「吸着」と「掴み」の併用等から選択し、ステップ162へ移行する。
ステップ162では、荷物100の把持(「吸着」のみ、「掴み」のみ、「吸着」と「掴み」)を実行する。
次のステップ164では、荷物100の把持が成功したか否かを判定し、肯定判定された場合は、把持した荷物100を所定の場所へ運び、ステップ150へ移行して、次の荷物100の把持の指示を待つ。
また、ステップ164で否定判定された場合は、ステップ166へ移行して、エラー処理を実行する。
把持部20には、高解像度カメラ及びMoPUを含む掌センサ26を取り付けているので、上記の構造の把持部20を人型ロボット1の腕部5、6に装着することにより、吸着面によりモノを確実にピックすることができ、人型ロボット1の動きが早くても荷物100を把持部20から落とさずに運ぶことができる。
また、掌センサ26(高解像度カメラ及びMoPU)が掌側20Aに搭載されているので、高精度に荷物100を捉えることができ、微小な動きをする作業にも対応することができる。
さらに、非常に柔らかく壊れやすいものは、吸着パッド24を使わずに、指部22A、22B、22Cの動きにより掴むこともできるし、掴む力を調整することにより、柔らかい荷物100の破損等を防止することかできる。
(ロボットツール選択処理の詳細)
図7は、図6のステップ158における、仕事種の選択処理(ロボットツール選択処理サブルーチン)の詳細を示す制御フローチャートである。
図7は、図6のステップ158における、仕事種の選択処理(ロボットツール選択処理サブルーチン)の詳細を示す制御フローチャートである。
ステップ198では、仕事種が、把持であるか、把持以外の仕事であるかを判断する。このステップ198で仕事種が把持と判定された場合は、ステップ199で、図6のステップ160へ戻るように指示し、このサブルーチンは終了する。
また、ステップ199で、仕事種が把持以外と判定された場合は、ステップ200へ移行して、荷物100に対する仕事種(表1参照)に基づき、ロボットツール21を選択する。
すなわち、表1に示される如く、荷物100に対する仕事種に応じて、必要なロボットツール21の種類が決まる。
なお、表1に示す荷物100に対する仕事種に基づくロボットツールの種類の選択は一例であり、所持しているロボットツールの種類や数に基づき定めればよい。
第1の実施の形態では、3種類のロボットツール21がベルト28に装着されているため、この3種類のロボットツール21からの選択になるが、ベルト28への装着数を増加したり、作業現場に応じて、多種のロボットツール21の中から選択してベルト28に予め装着しておいてもよい。また、人型ロボット1毎に異なる種類のロボットツール21を装着するようにしてもよい。
次のステップ202では、交換側の腕部6(又は5)に装着されたツール(通常は把持部20であるが、既に別のロボットツール21が装着されている場合もある。)を取り外す。
次のステップ204では、交換側の腕部6(又は5)を、ベルト28の位置に移動し、ロボットツール21を装着する。
次のステップ206では、非交換側の腕部5(又は6)で把持している、交換側の腕部6(又は5)にもともと装着されていたツールを、ベルト28のホルダに格納し、ステップ208へ移行する。
ステップ208では、ロボットツール毎にプログミングされた仕事を実行する。次のステップ210では、図6のフローチャートのリスタート(ステップ150への移行)を指示して、このルーチンは終了する。
以上説明したように第1の実施の形態では、把持部20による把持動作制御に加え、例えば、荷物100に対する仕事種に応じて、ロボットツール21を準備しておく。
これにより、比較例の把持部で、仕事種に必要な工具を把持して仕事することで生じる制御負担(把持部20と工具との相対位置制御に係る負担等)を、直接ロボットツール21を装着することで解消することができる。
(第2の実施の形態「指の先端の交換」)
以下に第2の実施の形態について説明する。なお、第1の実施の形態と同一構成部分には、同一の符号を付してその構成の説明を省略する。
以下に第2の実施の形態について説明する。なお、第1の実施の形態と同一構成部分には、同一の符号を付してその構成の説明を省略する。
第2の実施の形態の特徴は、把持部20である指の先端を、第1の実施の形態で説明したロボットツールのように、仕事種に応じたツールに変更可能とした点にある。
図8Aに示される如く、第2の実施の形態に係るハンドツール50は、基本的には、第1の実施の形態の把持部20と同様に、荷物100を把持することを主目的としている。
このハンドツール50は、各指が選択的に着脱可能となっている。図8Aの状態は、上記主目的のための第1関節部50A(図8Bに示す「finger tip」)が装着されている。
一方、この各指部は、図8Bに示される如く、仕事種に応じた形状の第1関節部50B~50Fに交換可能である。
第1関節部50Bは「tweezer」であり、所謂ピンセットであり、薄肉の部材をはさんで掴むときに適用される。
第1関節部50Cは、「stick」であり、棒状の部材で部品を押さえるときに適用される。
第1関節部50Dは、「cotton swab」であり、球体形状の綿体で部品の汚れを拭き取ったり、水分を除去するときに適用される。
第1関節部50Eは、「camera」であり、部品を撮影(特に接写)するときに適用される。
第1関節部50Fは、「screwdriver」であり、螺子を締めつけたり、緩めるときに適用される。
第2の実施の形態によるハンドツールによれば、特に、細かい部品(電子部品や精密部品等)の組み立てや分解といった作業に最適である。
(第3の実施の形態「指部の遠隔操作」)
以下に本開示の第3の実施の形態について説明する。なお、第1または第2の実施の形態と同一構成部分には、同一の符号を付してその構成の説明を省略する。
以下に本開示の第3の実施の形態について説明する。なお、第1または第2の実施の形態と同一構成部分には、同一の符号を付してその構成の説明を省略する。
第3の実施の形態の特徴は、第2の実施の形態(図8A及び図8B参照)に示したハンドツール50において、第1関節部50Aよりも先の部分がハンドツール50から離れて仕事をする点にある。
図9に示される如く、ハンドツール50の第1関節部50Aは、開閉可能な蓋形状であり、指の内部に、図8Bに示す仕事種に応じたツールが組み込まれ、各ツールは、エクステンションバー60に連結されている。エクステンションバー60は、伸縮、角度変化、回転可能であり、第1関節部50Aから離れた状態で、各ツールに応じた仕事種が実行される。
図10A及び図10Bは、第3の実施の形態に係るハンドツール50の仕事種として、図8Bに示す第1関節部50Fである、「screwdriver」を用いた場合の仕事例を示す。
図10A及び図10Bでは、柔らかい素材で覆われたぬいぐるみ型のAIロボット62に仕込まれた電子部品64の着脱、修理等に伴う螺合処理(螺子66の締め付け、取り外し)の状況を示している。
図10Aに示される如く、ハンドツール50は、AIロボット62の隙間68に入ることができないため、直接、電子部品64の螺子66の締め付け位置に、「screwdriver」を近づけることができない。
そこで、エクステンションバー60を伸ばした状態で、螺子66を「screwdriver」の先端に装着し、隙間68へ挿入する。
図10Bに示される如く、エクステションバー60で延長された「screwdriver」は、電子部品64の螺子66の締め付け位置に近づけることができ、ここでは、締め付け作業が可能となる。なお、螺子66の取り外し作業も同様である。
(第3の実施の形態の変形例)
なお、第3の実施の形態では、エクステンションバー60を用いて、ハンドツール50から離れた位置で、作業を実行可能とする構成を説明したが、第1関節部50A~50Fを、ハンドツール50から離して(指部の先端から離脱して)、作業を行うようにしてもよい。
なお、第3の実施の形態では、エクステンションバー60を用いて、ハンドツール50から離れた位置で、作業を実行可能とする構成を説明したが、第1関節部50A~50Fを、ハンドツール50から離して(指部の先端から離脱して)、作業を行うようにしてもよい。
図11は、電子部品70において、筐体72に覆われた状態の基板74へ、第1関節部50E(「camera」)を送り込む状況を示している。
第1関節部50Eは、遠隔操作(例えば、図5に示す情報処理装置14との間の無線通信)によって、基板74上を移動し、基板74上で、例えば、半田付けの状態を撮影する。情報処理装置14では、撮影された画像を解析して、基板74の半田付け状態の適否を判定し、必要に応じて、次の作業として、修理を指示する。例えば、別のツールを用いて、半田付け修理等を実行することを指示するが、この修理作業においても、ハンドツール50から分離して作業を行うようにしてもよい。なお、半田付け作業は、カメラ監視よりも電力を消費するため、電力供給線を配線することが好ましい。
なお、第3の実施の形態の変形例では、遠隔操作を無線通信で行うようにしたが、有線通信であってもよい。
(第4の実施の形態)
以下に本開示の第4の実施の形態について説明する。なお、第1、第2または第3の実施の形態と同一構成部分には、同一の符号を付してその構成の説明を省略する。
以下に本開示の第4の実施の形態について説明する。なお、第1、第2または第3の実施の形態と同一構成部分には、同一の符号を付してその構成の説明を省略する。
(ロボットツール21の変更)
第4の実施の形態では、人型ロボット1の上半身部2の下部(所謂、腰位置)にベルト28(ホルダを含む)を介して、3個のロボットツール21EXA、21EXB、21EXCの各々を着脱可能に保持する構成としている。このとき、理論上は、ホルダへ保持し得る数に制限はないが(1個又は4個以上)、物理的に、保持する数には制限が発生する。
第4の実施の形態では、人型ロボット1の上半身部2の下部(所謂、腰位置)にベルト28(ホルダを含む)を介して、3個のロボットツール21EXA、21EXB、21EXCの各々を着脱可能に保持する構成としている。このとき、理論上は、ホルダへ保持し得る数に制限はないが(1個又は4個以上)、物理的に、保持する数には制限が発生する。
このため、ベルト28に保持したロボットツール21(例えば、3種類のロボットツール21(21EXA、21EXB、21EX)の仕事種以外の仕事が要求された場合、人型ロボット1は、個別に、その他の種類のロボットツール21が保管されている保管庫へ移動して、ベルト28に装着し直す必要がある。
このため、人型ロボット1が保管庫へ移動するための移動期間、並びに、保管庫での複数の人型ロボット1の渋滞等に起因して、本来の作業に支障をきたす場合がある。
そこで、第4の実施の形態では、現場で作業している複数の人型ロボット1の各々と、保管庫との間を、ロボットツール21を搭載して移動可能な移動体360を設けた。
移動体360は、ロボットツール21を運搬することを専門とする人型ロボット、路面を移動する運搬車、及び、空中を移動する飛行体等、移動形態は問わないが、第4の実施の形態では、移動体360として、空中を移動する飛行体360Aを採用した。
図12は、人型ロボット1が作業をしている作業現場362と、その周辺を移動可能な移動体360としての飛行体360Aと、が示された俯瞰図である。
図13に示される如く、飛行体360Aは、略矩形状の本体364の四方の角部に、それぞれプロペラ366が取り付けられている。飛行体360Aは、飛行体管理サーバ368によって管理されており、当該飛行体管理サーバ368から特定の飛行体360Aに対して飛行航路等が指示されると、支持された飛行体360Aは、本体364に内蔵されたコントローラ370による制御で各プロペラ366の回転速度、向き等が制御され、所定の航路に沿って目的地へ移動する(即ち、自動運転が行われる)。
本体364の上面は、搬送するロボットツール21を載せて保持する載置台364Aとなっている。
また、本体364には、カメラが取り付けられ、撮影した画像をコントローラ370へ送信することで、飛行体360Aが所定の航路情報に基づき飛行するときに、GPS(Global Positioning System)等の位置管理制御に加え、航路周囲を監視する。
カメラは、撮影素子だけでもよいが、把持部20に取り付けられた掌センサ26と同等の機能(高解像度カメラ機能及びMoPU機能)を持つことが好ましい。また、カメラは、本体364に設けず、載置台364Aに載せたロボットツール21に設けられた掌センサ26を利用することが可能である。
図12に示される如く、作業現場362では、人型ロボット1が、必要なロボットツール21を装着した状態で、作業机372に向かって作業を行っている。
作業現場362には、作業机372の他に、飛行体360Aと人型ロボット1との間で、ロボットツール21を受け渡すための受け渡し台374が設けられている。
人型ロボット1は、作業机372での作業において、自身が保持しているロボットツール21と異なる種類のロボットツール21が必要となった場合に、必要とするロボットツール21を要求する。
この要求に応じて、飛行体360Aを管理する飛行体管理サーバ368では、特定の飛行体360Aを選択し、基地378から発進させると共に、保管庫376と作業現場362との間の飛行を指示する。
保管庫376は、複数の収容部376Aが設けられており、それぞれの収容部376Aにロボットツール21が収容されている。
飛行体管理サーバ368では、飛行を指示した特定の飛行体360Aに対して、保管庫376から必要なロボットツール21を取り出し、要求をしてきた人型ロボット1が作業する作業現場362へ搬送するための航路情報等を指示する。
これにより、人型ロボット1は、搬送されたロボットツール21に付け替えて作業が可能となる。なお、飛行体60Aは、元々人型ロボット1に装着されたロボットツール21、又は搬送してきたロボットツール21(作業終了後に再度付け替え)を載置台364Aに載せた状態で、保管庫376へ戻し、基地378へ帰還することになる。
以下に第4の実施の形態の作業を説明する。
(荷物100の把持制御)
図6は、把持部20によって荷物100を把持する際の把持制御の手順を示すフローチャートである。第1~第3実施形態と異なる点についてのみ説明する。
(荷物100の把持制御)
図6は、把持部20によって荷物100を把持する際の把持制御の手順を示すフローチャートである。第1~第3実施形態と異なる点についてのみ説明する。
ステップ158では、荷物100の属性に応じた、把持部20の仕事種(把持又は把持以外の仕事種)の選択処理を実行する。選択処理は、図14に基づき、詳細に説明するが、図14の選択処理において、仕事種が把持の場合は、ステップ160へ移行する。
ステップ160では、荷物100の把持のための作業を選択する。例えば、「吸着」のみ、「掴み」のみ、「吸着」と「掴み」の併用等から選択し、ステップ162へ移行する。
(ロボットツール適用処理の詳細)
図14は、図6のステップ158における、仕事種の選択処理(ロボットツール適用処理)サブルーチンの詳細を示す制御フローチャートである。
図14は、図6のステップ158における、仕事種の選択処理(ロボットツール適用処理)サブルーチンの詳細を示す制御フローチャートである。
ステップ198では、仕事種が、把持であるか、把持以外の仕事であるかを判断する。このステップ198で仕事種が把持と判定された場合は、ステップ199で、図6のステップ160へ戻るように指示し、このルーチンは終了する。
また、ステップ199で、仕事種が把持以外と判定された場合は、ステップ200へ移行して、荷物100に対する仕事種(表1参照)に基づき、ロボットツール21を選択する。
第4の実施の形態では、3種類のロボットツール21がベルト28に装着されているため、この3種類のロボットツール21からの選択になるが、ベルト28への装着数を増加したり、作業現場に応じて、多種のロボットツール21の中から選択してベルト28に予め装着しておいてもよい。また、人型ロボット1毎に異なる種類のロボットツール21を装着するようにしてもよい。次のステップ201Aでは、選択したロボットツールを装備しているか否かを判断し、否定判定された場合は、ステップ201Bへ移行して、ロボットツールの調達を要求する。次のステップ201Cでは、ロボットツールの調達処理が実行され、ステップ202へ移行する。また、ステップ201Aで肯定判定された場合も、ステップ202へ移行する。
次のステップ206では、非交換側の腕部5(又は6)で把持している、交換側の腕部6(又は5)にもともと装着されていたツールを、ベルト28のホルダに格納し、ステップ208へ移行する。
ステップ208では、ロボットツール毎にプログラミングされた仕事を実行する。次のステップ210では、図6のフローチャートのリスタート(ステップ150への移行)を指示して、このルーチンは終了する。
(ロボットツール21の搬送制御)
図15は、人型ロボット1が作業現場362で作業する際に、自身が保持しているロボットツール21とは異なる種類のロボットツール21が必要になった場合に実行される、ロボットツール搬送制御ルーチンを示すフローチャートである。
図15は、人型ロボット1が作業現場362で作業する際に、自身が保持しているロボットツール21とは異なる種類のロボットツール21が必要になった場合に実行される、ロボットツール搬送制御ルーチンを示すフローチャートである。
なお、このロボットツール搬送制御ルーチンは、飛行体管理サーバ368によって実行されるが、人型ロボット1に搭載された情報処理装置14(図5参照)、及び、飛行体360Aのコントローラ370(図13参照)と連携して実行される。すなわち、ロボットツール搬送制御は、情報処理装置14からロボットツール21の要求により起動する。また、飛行体360Aによるロボットツール21の搬送(飛行制御)自体は、飛行体360Aのコントローラ370による自動運転が実行される。
図15のステップ250では、人型ロボット1の情報処理装置14から、ロボットツール21の要求があったか否かを判断し、否定判定された場合は、このルーチンは終了する。
また、ステップ250で肯定判定されると、ステップ252へ移行して、(1)人型ロボット1の識別情報、(2)作業現場362の識別情報、及び(3)ロボットツール21の種類を含む搬送情報を認識し、ステップ254へ移行する。
ステップ254では、飛行体360Aを選択し、特定の飛行体360Aとし、次いで、ステップ256へ移行して、飛行体360Aのコントローラ370へ、搬送情報を通知し、ステップ258へ移行する。
ステップ258では、飛行体360Aのコントローラ370へ、搬送開始を指示する。この指示によって、飛行体360Aは、基地378から発進し、保管庫376へ移動して、収容部376Aから所定のロボットツール21を取り出し、載置台364Aに載せた状態で、作業現場362まで移動する。その後、受け渡し台374へ着地し、待機する。
以後、正常な作業が実行される場合、以下の手順で作業が実行される。
(作業1) 人型ロボット1は、現在装着しているロボットツール21から、飛行体360Aに載せられたロボットツール21に付け替える。
(作業2) 付け替えが終了すると、飛行体360Aは、受け渡し台374から離陸する。
(作業3) 飛行体360Aは、保管庫376でロボットツール21を戻す。
(作業4) 飛行体360Aは、基地378へ帰還する。
(作業1) 人型ロボット1は、現在装着しているロボットツール21から、飛行体360Aに載せられたロボットツール21に付け替える。
(作業2) 付け替えが終了すると、飛行体360Aは、受け渡し台374から離陸する。
(作業3) 飛行体360Aは、保管庫376でロボットツール21を戻す。
(作業4) 飛行体360Aは、基地378へ帰還する。
なお、上記作業1~作業4の各作業時間は、作業単位で概ね認識可能である。
次のステップ260では、飛行体360Aのコントローラ370から、ロボットツール21の受け渡し作業の終了した旨を示す通知を受信したか否かを判断する。ここでは、作業の終了の一例として、上記作業2までとしており、作業2まで終了すれば、人型ロボット1へのロボットツール21の受け渡し作業は完了することになり、本来の人型ロボット1の作業は継続可能となる。
ステップ260において否定判定されると、ステップ262へ移行して、飛行体360Aのコントローラ370からトラブル通知を受信したか否かを判断する。このステップ262で肯定判定された場合は、一連の作業1~作業4の間で、何らかの不具合が発生し、作業が停止していると予測され、ステップ270へ移行して、エラー処理を実行し、エラー解消を条件に、このルーチンは終了する。
また、ステップ262で否定判定された場合は、ステップ264へ移行して、所定時間が経過したか否かを判断する。作業1~作業2までの作業時間は、概ね予測可能であるため、予め設定した所定時間が経過しても、作業が終了していない場合(ステップ264の肯定判定)は、作業に支障がある事象が発生していると判断し、ステップ270へ移行して、エラー処理を実行し、エラー解消を条件に、このルーチンは終了する。
また、ステップ264で否定判定された場合は、作業中であると判断し、ステップ260へ戻り、このステップ260で肯定判定されるまで、ステップ260、ステップ262、ステップ264を繰り返す。
ここで、ステップ260で肯定判定されると、作業1~作業2までの作業が無事に終了したと判断し、ステップ266へ移行して、飛行体360Aから帰還の通知があり、帰還を確認したか否かを判断する。このステップ266で肯定判定されると、全ての作業が終了したことが確認され、このルーチンは終了する。
一方、ステップ266で否定判定されると、ステップ268へ移行して、所定時間が経過したか否かを判断する。このステップ268の所定時間は、作業1~作業4の間の作業時間であり、ステップ264の所定時間(作業1~作業2の作業時間)よりも長い設定となる。
ステップ268で肯定判定されると、飛行体360Aの帰還の際に、何等かのトラブルが発生したと判断し、ステップ270へ移行して、エラー処理を実行し、エラー解消を条件に、このルーチンは終了する。
また、ステップ268で否定判定された場合は、ステップ266へ戻り、ステップ266で肯定判定されるまで、ステップ266、268を繰り返す。
以上説明したように、第4の実施の形態では、作業現場62において、人型ロボット1が作業するときのロボットツール21が不足しているとき(エキストラとして保持しているロボットツール21に必要なロボットツール21が存在しないとき)、飛行体60Aによって、保管庫76から必要なロボットツール21を搬送してくるため、人型ロボット1は、作業を中断して、自身でロボットツール21を取りに移動する必要がない。
このため、人型ロボット1の本体の作業効率を低下させることなく、作業を継続することができる。
例えば、人型ロボット1は、基本的にはエキストラロボットツール21EXを保持しているが、イレギュラーな作業が発生したとしても、飛行体360Aと連携することで、作業現場362を離れることなく、作業を継続することができる。
なお、第4の実施の形態では、移動体360として、飛行体360Aを例示して説明したが、ロボットツール21を運搬することを専門とする人型ロボット、路面を移動する運搬車であってもよい。また、搬送する対象は、不足しているロボットツールに限らず、ロボットツール21に取り付けて使用する使い捨てアイテム(綿棒、カッターの刃、粘着テープ等)を搬送してもよいし、修理交換を要するロボットツール21に対して、同一種類のロボットツール21を搬送してもよい。
(第5の実施の形態)
以下に本開示の第5の実施の形態について説明する。なお、第1、第2、第3または第4の実施の形態と同一構成部分には、同一の符号を付してその構成の説明を省略する。
以下に本開示の第5の実施の形態について説明する。なお、第1、第2、第3または第4の実施の形態と同一構成部分には、同一の符号を付してその構成の説明を省略する。
(特殊作業の実施例)
以下に、本実施の形態(主として、第5の実施の形態)において、人型ロボット1が、特殊作業の実施例について説明する。
以下に、本実施の形態(主として、第5の実施の形態)において、人型ロボット1が、特殊作業の実施例について説明する。
特殊作業とは、人型ロボットの三次元位置情報(ロボットツール21EXの三次元位置情報を含む)と、対象物の三次元位置情報との間で、予め定めた精度以上の相対位置関係を必要とする作業である。
本実施例では、x-y-zテーブルが必須の3Dプリンタに代わり、人型ロボット1が、三次元造形物を造形する作業を例示している。なお、特殊作業としては、精密機械(時計塔)の組み立て、修理作業、顕微鏡を用いた分子レベルの化学反応の活性化作業等、移動単位が少なくとも1mm単位~1μm単位以下の精度が必要な作業を挙げることができる。
図16A~図16Dは、三次元造形装置460における、造形作業工程を示す工程図である。
図16A~図16Dに示す三次元造形装置460の種類は、造形材料が粉末状であり、バインダーとしての硬化剤をノズルを用いて吐出するものである。
図16Aに示される如く、三次元造形装置460は、上部が開口された箱体462を備え、上部開口には、造形エリアを形成するテーブル64が配置されている。テーブル464は、一対の支持体466によって支持された状態で、箱体462の内部で上下動可能となっている。
テーブル464は、例えば、ボールねじ機構部468のモータ468Aの駆動によって、少なくとも、1単位の造形厚さの精度で上下動させることが可能である。
テーブル464は、箱体462の上端に対して、1単位の造形厚さ分下がった位置がホームポジションとされ、テーブル464及び箱体462の四隅の壁によって、造形エリア(空間)が構成され、造形材料供給部470から、1層分の粉末状の造形材料が敷設される。この造形材料供給部470は、図17A及び図17Bに示される如く、ロボットツール21EXの1つである。
箱体462の上部には、バインダー(硬化剤)を吐出するノズルヘッド472が配置されている。このノズルヘッド472は、図17A及び図17Bに示される如く、ロボットツール21EXの1つである。
ノズルヘッド472は、造形エリア(空間)上を、テーブル464に敷設された粉末状の造形材料の上面に対して一定の間隔で二次元移動可能となっており各層に対応する造形情報に基づき、バインダー(硬化剤)が吐出される。
以下、図16A~図16Dの時間の流れに従い、造形工程を説明する。
(工程i) テーブル464をホームポジションに位置決めし、造形材料供給部470から造形エリアに1層分の粉末状の造形材料を供給する。
(工程ii) 1層毎の断面形状情報に基づき、ノズルヘッド472からバインダー(硬化剤)を吐出する。バインダーが吐出された部分の造形材料が硬化する。
(工程iii) 1層の造形が完了する毎に、テーブル462を1層分の厚さだけ下げて、造形処理(造形材料の敷設、及び、バインダーの吐出)を繰り返す(全N層)。
(工程iv) ロボットツール21EXとして、掻き取りツール474及びブロワーツール476に取り替えて、N層分の造形が終了すると、テーブル464を最上部(例えば、ホームポジション又はそれ以上)まで上昇させ、非硬化造形材料を掻き取りツール474で掻き取り、かつブロワーツール476で吹き飛ばす。
(工程v) 非硬化剤が取り除かれると、硬化した造形材料が残り、造形が完了する。
(工程ii) 1層毎の断面形状情報に基づき、ノズルヘッド472からバインダー(硬化剤)を吐出する。バインダーが吐出された部分の造形材料が硬化する。
(工程iii) 1層の造形が完了する毎に、テーブル462を1層分の厚さだけ下げて、造形処理(造形材料の敷設、及び、バインダーの吐出)を繰り返す(全N層)。
(工程iv) ロボットツール21EXとして、掻き取りツール474及びブロワーツール476に取り替えて、N層分の造形が終了すると、テーブル464を最上部(例えば、ホームポジション又はそれ以上)まで上昇させ、非硬化造形材料を掻き取りツール474で掻き取り、かつブロワーツール476で吹き飛ばす。
(工程v) 非硬化剤が取り除かれると、硬化した造形材料が残り、造形が完了する。
ここで、上記作業工程においては、造形材料供給部470、ノズルヘッド472、及びテーブル464の相対位置関係を確保するために、高精度のx-y-zテーブルが必須であった。
これに対して、本実施例では、造形材料供給部470及びノズルヘッド472を、ロボットツール21EXとして、人型ロボット1に装着し、テーブル464との位置関係を、掌センサ26等の検出情報に基づき確保することで、高精度のx-y-zテーブルを不要とした。
図17A及び図17Bは、図16A~図16Dの作業工程を、人型ロボット1が実行する場合の作業工程が示されている。
人型ロボット1は、造形作業ベース478の所定位置に対峙している。造形作業ベース478の上の所定位置には、三次元造形装置460の一部(造形材料供給装置470と、ノズルヘッド472を除く箱体462に組み込まれたアッセンブリ460A)が置かれている。
アッセンブリ460Aの位置は、コントローラ480によって把握されている。コントローラ480は、人型ロボット1の情報処理装置14と通信(無線又は有線)によって、それぞれの位置関係に関する情報がやりとりされる。
すなわち、造形作業ベース478の所定位置に設定される三次元造形のための原位置状態(x-y-z座標)を基準として、人型ロボット1及びアッセンブリ460Aのそれぞれの相対位置が認識されるため、結果として、人型ロボット1とアッセンブリ460Aとの位置関係が精度よく把握できる。
図17Aは、上記作業工程の内、(工程i)~(工程iv)まで実行する。また、図17Bは、上記作業工程の内、(工程v)を実行する。
このとき、各ロボットツール21EXの掌センサ26(又は、これに相当するセンサ部)によって、アッセンブリ460Aとの相対位置関係を常に把握しながら、各工程の動作を行う。なお、人型ロボット1のヘッド部に、別途高解像度カメラ及びMoPU、或いはLiDAR等のセンサ部26Aを取り付けることで、ロボットツール21EXの動作時の精度を向上することができる。
本実施例によれば、ロボットツール21EXにおいて、対象物に対して、所定以上の相対位置関係を必要とする特殊作業として用いるようにした。
より具体的には、人型ロボットの三次元位置情報(ロボットツール21EXの三次元位置情報を含む)と、対象物の三次元位置情報との間で、予め定めた精度以上の相対位置関係を必要とするx-y-zテーブルが無くても、人型ロボット1の掌センサ26等による検出情報で、精度よく三次元造形のための作業工程(i~v)を実行することができる。
なお、本実施例では、三次元造形装置460として、造形材料を粉末、バインダーとして硬化剤を用いて三次元造形を実行する装置を説明したが、熱により溶融した樹脂材料を、糸状に吐出して、層状に重ねて造形していく樹脂噴射型の三次元造形装置であってもよい。この場合、ロボットツール21としては、樹脂材料を溶融する溶融炉ヘッドツールと、溶融した樹脂材料を吐出するヘッドとの組み合わせとなり、z方向(高さ方向)は、テーブルが上下移動してもよいし、ロボットツール21を上下移動させるようにしてもよい。
また、本実施の形態では、上記三次元造形装置を含め、以下の(造形方式1)~(造形方式7)に示すような三次元造形装置にも適用可能である。(造形方式1)~(造形方式7)では、造形方式の種類及び機能と、それぞれの造形方式に適合する材料との関係の一例を示す。
(造形方式1)結合剤噴射方式「上記実施例において適用」
結合剤噴射方式の三次元造形装置は、液状の結合剤を粉末床に噴射して選択的に固化させる方式である。材料例として、石膏、セラミックス、砂、カルシウム、プラスチックが挙げられる。
結合剤噴射方式の三次元造形装置は、液状の結合剤を粉末床に噴射して選択的に固化させる方式である。材料例として、石膏、セラミックス、砂、カルシウム、プラスチックが挙げられる。
(造形方式2)指向性エネルギー堆積方式
指向性エネルギー堆積方式の三次元造形装置は、材料を供給しつつ、ビーム等を集中させることによって熱の発生位置を制御し、材料を選択的に溶融、結合させる方式である。材料例として、金属が挙げられる。
指向性エネルギー堆積方式の三次元造形装置は、材料を供給しつつ、ビーム等を集中させることによって熱の発生位置を制御し、材料を選択的に溶融、結合させる方式である。材料例として、金属が挙げられる。
(造形方式3)材料押出方式
材料押出方式の三次元造形装置は、流動性のある材料をノズルから押し出し、堆積させると同時に固化させる方式である。材料例として、ABS(アクリニトリル・ブタジエン・スチレン樹脂)、PLA(ポリ乳酸)、ナイロン12、PC(ポリカーボネイト)、PPSF(ポリフェニルスルホン)が挙げられる。
材料押出方式の三次元造形装置は、流動性のある材料をノズルから押し出し、堆積させると同時に固化させる方式である。材料例として、ABS(アクリニトリル・ブタジエン・スチレン樹脂)、PLA(ポリ乳酸)、ナイロン12、PC(ポリカーボネイト)、PPSF(ポリフェニルスルホン)が挙げられる。
(造形方式4)材料噴射方式「上記実施例の変形例として例示した樹脂噴射型に相当」
材料噴射方式の三次元造形装置は、材料の液滴を噴射し、選択的に堆積し固化させる方式である。三次元造形装置は、その代表的なインクジェット法による造形方式である。材料例として、UV硬化樹脂、脂、ワックス、ハンダが挙げられる。
材料噴射方式の三次元造形装置は、材料の液滴を噴射し、選択的に堆積し固化させる方式である。三次元造形装置は、その代表的なインクジェット法による造形方式である。材料例として、UV硬化樹脂、脂、ワックス、ハンダが挙げられる。
(造形方式5)粉末床溶融結合方式
粉末床溶融結合方式の三次元造形装置は、粉末を敷いたある領域をレーザから照射される熱エネルギーによって選択的に溶融結合させる方式である。材料例として、エンジニアリングプラスティック、ナイロン、金属が挙げられる。
粉末床溶融結合方式の三次元造形装置は、粉末を敷いたある領域をレーザから照射される熱エネルギーによって選択的に溶融結合させる方式である。材料例として、エンジニアリングプラスティック、ナイロン、金属が挙げられる。
(造形方式6)シート積層方式
シート積層方式の三次元造形装置は、シート状の材料を接着させる方式である。材料例として、紙、樹脂シート、アルミシートワックス、ハンダが挙げられる。
シート積層方式の三次元造形装置は、シート状の材料を接着させる方式である。材料例として、紙、樹脂シート、アルミシートワックス、ハンダが挙げられる。
(造形方式7)液槽光重合方式
液槽光重合方式の三次元造形装置は、タンクに貯められる液状の光硬化性樹脂を光重合によって選択的に硬化させる方式である。材料例として、UV硬化樹脂が挙げられる。
以上、(造形方式1)~(造形方式7)を示したが、この(造形方式1)~(造形方式7)とは異なる造形方式の三次元造形装置であってもよい。
液槽光重合方式の三次元造形装置は、タンクに貯められる液状の光硬化性樹脂を光重合によって選択的に硬化させる方式である。材料例として、UV硬化樹脂が挙げられる。
以上、(造形方式1)~(造形方式7)を示したが、この(造形方式1)~(造形方式7)とは異なる造形方式の三次元造形装置であってもよい。
(第6の実施の形態「分別ピッキング作業」)
以下にの第6の実施の形態について説明する。なお、第6の実施の形態では、第2の実施の形態で説明した人型のハンドツール50を適用して説明するが、必ずしも人型のハンドツール50である必要はなく、第1の実施の形態で説明した把持部20やロボットツール21EXの位置付けであってもよい。
以下にの第6の実施の形態について説明する。なお、第6の実施の形態では、第2の実施の形態で説明した人型のハンドツール50を適用して説明するが、必ずしも人型のハンドツール50である必要はなく、第1の実施の形態で説明した把持部20やロボットツール21EXの位置付けであってもよい。
分別ピッキング作業とは、図18に示される如く、単一の箱体560の中に、異なる属性(種類)のごみ562が混在して収容されている状態で、特定の属性(種類)のごみ562を選別してピッキングする作業を言う。
図18に示される如く、箱体560には、6種類のごみ562が混在して収容されている。その内訳は、資源ごみとしてのプラスチック、紙、及びガラス、並びに、有害ごみとしての電池、ライター、及びスプレー缶である。
第6の実施の形態では、ハンドツール50の各指先に、ごみ562の属性を検出し得るセンサ部551A~551E(詳細後述)を取り付け、ハンドツール50を箱体560に対峙させることで、各センサ部551A~551Eでの属性の検出を実行する。
各指に装着されたセンサ部551A~551Eの一例を、以下に示す。
(親指)属性情報として視覚情報を検出する視覚センサ551A
(人差し指)属性情報として聴覚情報を検出する聴覚センサ551B
(中指)属性情報として嗅覚情報を検出する嗅覚センサ551C
(薬指)属性情報として触覚情報を検出する触覚センサ551D
(小指)属性情報として味覚情報を検出する味覚センサ551E
(親指)属性情報として視覚情報を検出する視覚センサ551A
(人差し指)属性情報として聴覚情報を検出する聴覚センサ551B
(中指)属性情報として嗅覚情報を検出する嗅覚センサ551C
(薬指)属性情報として触覚情報を検出する触覚センサ551D
(小指)属性情報として味覚情報を検出する味覚センサ551E
なお、各センサ部551A~551Eは、上記に限定されるものではなく、また、検出形態も接触、非接触等、特に限定されるものではない。また、必要に応じて、同一種類の属性の検出センサを複数の指に装着してもよい。
ハンドツール50は、箱体560の上方で、指関節が相互に自由に動くことができるため、各指先のセンサ部551A~551Eは、その検出領域を自由に変更することができる。このため、箱体560の全領域を検出領域とすることができる。
なお、指先のセンサ部551A~551Eが指先から離脱して箱体560のごみ562の収容空間まで入り込み、視覚的に隠れた位置のごみの属性情報が検出可能である。
ここで、ピッキングするべきごみ562の種類(対象物)が指定されると、当該ピッキング対象となるごみ562の属性(視覚、聴覚、嗅覚、触覚、及び味覚の五感で得られる属性情報を対象物-属性情報データベース578(図19参照)から読み出し、センサ部551A~551Eで検出した属性情報との照合を行うことで、ピッキングするべきごみ62の位置座標(三次元)を特定することができる。
この位置座標に基づいて、例えば、図3に示す把持部20を装着して、ピッキング作業を実行する。この場合、予め、第3の実施の形態のハンドツール50を右手側、ピッキング作業のための把持部20を左手側に装着しておけばよい。
図19は、情報処理装置14(図5参照)において実行される、対象物属性判定制御に特化した機能ブロック図である。なお、図19に示す各ブロックは機能別に分類したものであり、マイクロコンピュータ(ASIC等を含む)を用いて、対象物属性判定制御機能の一部又は全部をソフトウェアプログラムで動作させるようにしてもよい。
情報処理装置14の対象物属性判定制御機能はデータ取得部570を備えている。データ取得部570は、ハンドツール50の指先に取り付けられた各センサ部551A~551Eの検出データを取得する。
データ取得部570は、照合部572に接続されている。データ取得部572は、取得した各センサ部551A~551Eからの検出データを照合部572へ送出する。
また、情報処理装置14の対象物属性判定制御機能はピッキング対象物情報取得部574を備えている。ピッキング対象物情報取得部574は、ピッキングするべきごみに関する情報(ピッキング対象物情報)を取得する。このピッキング対象物情報取得部574は、検索部576に接続され、ピッキング対象物情報を送出する。
検索部576は、対象物-属性情報データベース578にアクセスして、ピッキングを指定された対象物の属性情報を読み出す。
検索部576で読み出した属性情報は、照合部572へ送出される。
ここで、照合部572では、検索部576から受けた属性情報と、データ取得部570から受けた属性情報との照合を行い、照合結果をピッキング位置座標特定部579へ送出する。ピッキング位置座標特定部579では、照合で一致した属性情報の箱体560(図18参照)内の対象物(ごみ562)の位置座標(三次元座標)を特定する。
ピッキング位置座標特定部579で特定された位置座標は、座標情報出力部580を介して、情報処理装置14の別機能であるピッキング制御部へ送出される。
この結果、ピッキング制御部では、受け付けた位置情報に基づいて、ピッキング作業のための把持部20の動作を制御することで、箱体560内にある、ピッキングが指定されたごみ562をピンポイントでピッキングすることができる。
以下、図20のフローチャートに従い、第6の実施の形態の作用を説明する。
ステップ582では、ハンドツール50の各指先にセンサ機能を装着する。一例として、親指は視覚センサ551A、人差し指は聴覚センサ551B、中指は嗅覚センサ551C、薬指は触覚センサ551D、及び小指は味覚センサ551Eが、それぞれ装着される。
なお、必要に応じて、指種とセンサ種との関係を変更してもよいし、必要十分のセンサ数だけ装着してもよい。
また、第6の実施の形態では、把持部20としてのハンドツール50が腕部5、6に装着された状態で、指先に各センサ部551A~551Eを装着しているが、腕部5,6に対して、第1の実施形態で示したロボットツール21EXに属し、予めセンサ機能を持ったロボットツール21EXに付け替えるようにしてもよい。
次のステップ584では、各センサ部551A~551Eを、対象物が混在して収容された箱体560に対峙させ、ステップ586へ移行する。
ステップ86では、各センサ部551A~551Eにより、個別の対象物の属性情報を取得する。
次のステップ588では、ピッキング対象物情報を取得する。例えば、有害ごみに属する電池のピッキングが指令されると、当該電池の属性情報を取得する。電池の場合、聴覚、臭覚、味覚はほぼないが、視覚及び触覚に基づいて、他のごみ562と区別することができる。その他のごみ562としては、例えば、有害ごみに属するスプレー缶の場合は、視覚、及び触覚に加え、嗅覚(シンナー臭等)によって他のごみ562と区別することができる。
次のステップ590では、対象物-属性情報データベース(DB)から、ピッキング対象物の属性情報を読み出し、ステップ592へ移行して、属性情報の照合を実行する。すなわち、読み出した属性情報と、検出した属性情報との照合を実行する。
次のステップ594では、照合の結果、一致した場所をピッキング位置として、当該ピッキング位置の座標(箱体560内部の空間に設定された三次元座標)を特定し、次いでステップ596へ移行して、特定したピッキング位置座標を、ピッキング制御部へ送出し、このルーチンは終了する。ピッキング制御部では、特定されたピッキング位置座標に基づいて、把持部20を制御して、対象物であるごみ562をピッキングする。
なお、第6の実施の形態では、ごみを分別してピッキングする作業を例示したが、ハンドツール50の各指先に、異なるセンサ部551A~551Eを取り付けて作業する例として、図21に示される如く、車両598のエンジンルーム598A内部の点検等を挙げることができる。
人型ロボット1がエンジンルーム598Aに対峙して、第6の実施の形態におけるハンドツール50を用いることで、エンジルーム598A内の点検で、エンジンからのオイル漏れ、樹脂製品やゴム製品の破損及び亀裂、ボルト等の緩み、電気部品の接触不良、脱落等の不具合を、場所の特定と共にまとめて検出することができる。
(第7の実施の形態「作業工程自動化」)
以下に本開示の第7の実施の形態について説明する。なお、第7の実施の形態では、第1の実施の形態で説明したロボットツール21EXを適用して説明する。なお、以下では、作業として、修理作業を例にとり説明するが、作業は修理に限らず、組み立て、分解、梱包、塗装、洗浄等、作業前に作業工程を自動で策定し、策定した作業工程に基づき作業するという、2段階の作業であればよい。
以下に本開示の第7の実施の形態について説明する。なお、第7の実施の形態では、第1の実施の形態で説明したロボットツール21EXを適用して説明する。なお、以下では、作業として、修理作業を例にとり説明するが、作業は修理に限らず、組み立て、分解、梱包、塗装、洗浄等、作業前に作業工程を自動で策定し、策定した作業工程に基づき作業するという、2段階の作業であればよい。
図22A及び図22Bに示される如く、テーブル660の上には、作業台662が設けられ、修理が必要な対象物100A(ここでは、電子回路基板等を想定している。)が載置されている。
このテーブル660には、人型ロボット1が対峙されており、その腕部5、6には、図22Aでは、それぞれロボットツール21EXD、21EXEが取り付けられ、図22Bでは、それぞれロボットツール21EXF、21EXGが取り付けられている。
図22Aに示される如く、ロボットツール21EXDはカメラ機能を有するツールであり、ロボットツール21EXEはテスター機能を有するツールであり、それぞれ検査用ツール群に分類される。ここでのカメラ機能は、人型ロボット1に常設されている掌センサ26や、人型ロボット1の目に対応する部分に取り付けた監視カメラ26A等に搭載した高解像度カメラでもよいが、対象物の大きさや形状によっては、高倍率の顕微鏡カメラ、内視鏡カメラ、赤外線カメラ等、特殊なカメラを含む。
図22Bに示される如く、ロボットツール21EXFはピンセット機能を有するツールであり、ロボットツール21EXGは半田ごて機能を有するツールであり、それぞれ修理用ツール群に分類される。
図22Aに示される如く、検査用ツール群に属するロボットツール21EXD、21EXEを装着した人型ロボット1は、対象物100Aを検査し、修理箇所、修理手順等を解析し、修理作業工程を策定する。解析による策定は、例えば、AIを用い、検出した画像データ等から、過去の修理作業ビッグデータ等を参考として関連する修理作業を学習し、検索した修理作業に基づき、かつ、日程、作業環境、部品調達状況等を考慮して、今回の修理に最適な修理工程を策定する。なお、修理作業工程の策定は、AI解析に限定されるものではない。
図22Bに示される如く、人型ロボット1は、検査用ツール群に属するロボットツール21EXD、21EXEから、修理用ツール群に属するロボットツール21EXF、21EXGに付け替え、策定された作業工程に基づいて、修理作業を実行する。
図23は、人型ロボット1の情報処理装置14で実行される、第7の実施の形態の修理作業の制御に特化した機能ブロック図である。なお、図23の各ブロックは、情報処理装置14のハードウェア構成を限定するものではなく、一部又は全部がソフトウェアのプログラミで動作するようにしてもよい。
図23に示される如く、修理指示受付部664は、検査用ツール装着指示部666に接続されている。修理指示受付部664は、修理指示を受けると、検査用ツール装着指示部666を起動させる。検査用ツール装着指示部666は、起動指示を受けると、ツール着脱制御部668に対して、検査用ツール群に属するロボットツール(図22Aでは、ロボットツール21EXD、21EXE)の装着を指示する。
ツール着脱制御部668では、検査用ツール装着指示部666からの指示に従い、人型ロボット1に、検査用ツール群に属するロボットツールの装着を制御する。これにより、図22Aに示すように、人型ロボット1には、ロボットツール21EXD、21EXEが装着される。
ツール着脱制御部668は、検出情報取得部670に接続されている。検出情報取得部670では、ツール着脱制御部668から装着完了を受けると、装着された各検査用ツール群からの検出情報を取得する。
検出情報取得部670は、AI-故障解析部672に接続され、AI-故障解析部672に検出情報を送出する。
AI-故障解析部672では、AIを用いた解析により、故障個所を特定し、故障の状態、過去の故障との関連、修理に必要な部品、修理時間等を含む故障情報を解析する。補足すると、AI-故障解析部672は、予め、故障時の画像及びセンサ情報と故障パターンとの対応を学習した学習済みモデルを有しており、当該学習済みモデルに画像やセンサ情報等から得られた検出情報を入力することで、故障情報を得ることができる。AI-故障解析部672で解析した故障情報は、故障情報抽出部674で抽出され、AI-修理工程解析部676へ送出される。
AI-修理工程解析部676では、故障情報に基づいて、修理工程(作業工程)を策定する。AI-修理工程解析部676は、修理用ツール選択部678及び修理工程実行部680に接続されている。
修理用ツール選択部678では、策定された修理工程に基づいて、必要な修理用ツール群に属するロボットツールを選択し、修理用ツール装着指示部682を起動させる。修理用ツール装着指示部682は、起動指示を受けると、ツール着脱制御部668に対して、修理用ツール群に属するロボットツール(図22Bでは、21EXF、21EXG)の装着を指示する。
ツール着脱制御部668では、修理用ツール装着指示部682からの指示に従い、人型ロボット1に、検査用ツール群に属するロボットツールの装着を制御する。これにより、図22Bに示すように、人型ロボット1には、ロボットツール21EXF、21EXGが装着される。
ツール着脱制御部668は、修理工程実行部680に接続されている。修理工程実行部680では、AI-修理工程解析部676から受けた修理工程に基づいて、ロボットツール21EXF、21EXGを用いて、修理を実行する。
修理工程実行部680は、修理完了通知部684に接続され、修理が完了すると、修理完了通知部684からは、修理完了通知が送出される。
以下に、第7の実施の形態の作用を、図25のフローチャートに従い説明する。
ステップ300では、修理を受け付けたか否かを判断し、否定判定された場合は、このルーチンは終了する。また、ステップ300で、肯定判定された場合は、ステップ302へ移行して、検査用装着ツールの装着を指示し、ステップ304へ移行する。
ステップ304では、ツール、すなわち、図22Aでは、ロボットツール21EXD、21EXEの装着が実行され、ステップ306へ移行する。
ステップ306では、装着された検査用ツール群(図22Aでは、ロボットツール21EXD、21EXE)からの検出情報を取得し、次いで、ステップ308へ移行して、AIによる故障解析が実行される。
次のステップ310では、ステップ308でのAIによる解析結果から、故障情報(故障の状態、過去の故障との関連、修理に必要な部品、修理時間等)を抽出し、ステップ312へ移行する。
ステップ312では、抽出した故障情報、及び、日程、作業環境、部品調達状況等を考慮して、AIによる修理工程を策定する。すなわち、予め定めたシーケンスに基づく修理ではなく、そのときに最適な修理工程を、人型ロボット1が自ら策定するため、迅速、かつ適正な修理工程ということができる。
次のステップ314では、修理に必要な修理用ツール群を選択し、次いで、ステップ316へ移行して、人型ロボット1に装着されている検査用ツール群を取り外し、修理用ツール群を装着することを指示し、ステップ318へ移行する。
ステップ318では、ツール、すなわち、図22Bでは、ロボットツール21EXF、21EXGの装着が実行され、ステップ320へ移行する。
ステップ320では、策定した修理工程に基づき、修理を実行し、修理の完了後、ステップ322へ移行して、修理完了を通知して、このルーチンは終了する。
以上説明したように、第7の実施の形態では、検査用ツール群に属するロボットツール21EXD、21EXE装着した人型ロボット1が、対象物100Aを検査し、修理箇所、修理手順等を解析し、修理作業工程を策定する。
続けて、人型ロボット1は、検査用ツール群に属するロボットツール21EXD、21EXEから、修理用ツール群に属するロボットツール21EXF、21EXGに付け替え、策定された作業工程に基づいて、修理作業を実行する。これにより、予め定めたシーケンスに基づく修理ではなく、そのときに最適な修理工程を、人型ロボット1が自ら策定し、続けて修理するため、迅速、かつ適正な修理を実行することができる。
上記第7の実施の形態では、ロボットツール21EXとしての検査用ツール群又は修理用ツール群から選択して、装着する構成としたが、第2の実施の形態で示したハードツール50の指先に、それぞれ異なる検査用ツール又は修理用ツールを取り付けるようにしてもよい。
ハンドツール50を適用した第7の実施の形態では、5本の指のそれぞれの第1関節部51に、カメラツール及びテスタツール等の検査用ツール群と、半田ごてツール、スクリュードライバツール、及びピンセットツール等の修理用ツール群を装着することで、対象物に対する1度の対峙の間に、検査から修理までの工程を連続して行うことができる。また、左手を検査用、右手を修理用としてもよい。
なお、上記作業工程の自動化では、修理作業に特化して説明したが、例えば、箱の開封、箱の中の部品を取り出し、取り出した部品の組み立て、組み立て完成品の再梱包、といった、修理とは異なる一連の作業にも適用可能である。
すなわち、第7の実施の形態では、様々な作業において、作業スケジュールを有さず、毎回違うものを取り扱う(修理、組立、製造等)場合に、自動的に作業工程を策定することができる。
(例1) 部品の入った箱のラベルや梱包形態から学習済みモデルを用いて部品が何かを推定し、開封→組み立て→再梱包に至るツールを選択して、順次作業する。
(例2) 実作業の工程を踏まえて学習済みモデルを再学習、作業工程を最適化する。
このように、作業計画を最初に立てず、例えば、AIによる画像解析により対象物の状態を判定しながら作業計画及び必要なツールの選択を行うことができる。
このように、作業計画を最初に立てず、例えば、AIによる画像解析により対象物の状態を判定しながら作業計画及び必要なツールの選択を行うことができる。
(第8の実施の形態「ロボットツール交換の効率化」)
以下に第8の実施の形態について説明する。なお、第8の実施の形態では、第1~第7の実施の形態と同一の構成については、同一の符号を付して、その構成の説明を省略する。
以下に第8の実施の形態について説明する。なお、第8の実施の形態では、第1~第7の実施の形態と同一の構成については、同一の符号を付して、その構成の説明を省略する。
また、第8の実施の形態では、人型ロボット1が、対象物である荷物100の入庫作業及び出庫作業を、主たる作業として実行する場合を例にとり説明する。
第8の実施の形態の特徴は、対象物に対する作業において、必要なツール770(ツール770は、第1の実施の形態及び第2の実施の形態における、把持部20、ロボットツール21、及び、ハンドツール50の総称である。)が手元に存在しない場合に、予め定めた格納場所から持ち出す状況、及び、不要なツール770を格納場所へ格納する状況が発生した場合を想定し、ツール770の持ち出し作業、及びツール770の格納作業に特化し、その作業効率化を図るものである。
人型ロボット1が、作業現場と格納場所との間を行き来して、ツール770の交換を行うと、少なくとも、作業現場と格納場所との間の移動時間が、作業ロスとなる。
そこで、対象物の入庫作業及び出庫作業における作業に便乗させるべく、ツール770の格納場所と、対象物を保管する物流センターDC(図25A参照)とを同じエリアとした。
以下に、図25A~図25Cに従い、物流センターDCについて説明する。
以下に、図25A~図25Cに従い、物流センターDCについて説明する。
(物流センターの構成)
図25Aは、本実施の形態に係る物流センターDCの倉庫であり、対象物としての荷物100(図25B参照)を保管する保管ベース751の斜視図である。
図25Aは、本実施の形態に係る物流センターDCの倉庫であり、対象物としての荷物100(図25B参照)を保管する保管ベース751の斜視図である。
保管ベース751には、複数の棚752(一部に指標)が配置されている。一例として、6個の棚752が1列に配列され、2列単位で所謂「島」を形成している。島の形成、棚752の数等は、図25Aの配列に限定されるものではない。
図25Bに示される如く、棚752には、複数の収容スペース752Aが設けられ、各々の収容スペース752Aに荷物100が収容可能となっている。
保管ベース751内には、複数の搬送装置754が、保管ベース751内を移動可能に配置されている。
搬送装置754は、保管ベース751の中の制御対象機器を一括管理する保管ベース管理サーバ756からの指令により動作が制御され、例えば、所定の待機位置、棚752の配列位置、及び、ピッキングステーション758の間を移動する。
搬送装置754は、棚752に対峙すると、当該棚752の下部の隙間に入り込んで持ち上げ、保管ベース751の床面から浮かせた状態とすることができる。このため、搬送装置754の移動によって、棚752を所望の位置へ移動させることができる。
保管ベース751の所定の位置には、複数のピッキングステーション758が配置されている。図25Aでは、2つのピッキングステーション758を図示しているが、1つ又は3つ以上のピッキングステーション758であってもよい。各ピッキングステーション758には、各々人型ロボット1が配置されている。
人型ロボット1は、保管ベース管理サーバ756の管理の下、自身に搭載された情報処理装置14(図5参照)との連携に基づき、指令を受けた作業を実行する。
すなわち、各ピッキングステーション758では、搬送装置754によって棚752が、ピッキングステーション758の間口758Aに配置されると、保管ベース管理サーバ756からの指令を受けて、人型ロボット1が荷物100の入庫作業及び出庫作業を行う。
なお、入庫作業及び出庫作業自体の制御は、人型ロボット1の各々が持つ、情報処理装置14(図5参照)によって制御される。
ピッキングステーション758には、棚752が配置される間口758Aと共に、仕分けや梱包を行う作業スペース758Bが設置されている。
出庫作業は、棚752に収容された荷物100を、宛先に応じて取り出して、仕分け先毎に分類し、仕分け先毎の箱760(輸送部材)に詰め込む作業である。
入庫作業は、倉庫に到着した荷物100を収容先の棚752毎に分類して、分類した荷物100を棚752の所定の位置に配置する作業である。
なお、本実施例では、出庫作業の各作業と入庫作業の各作業を以下のように定義する。
(出庫作業1) ピッキング作業
間口758Aに到着した棚752から人型ロボット1が、指定された荷物100を取り出して、作業スペース719に移動させる作業である。
間口758Aに到着した棚752から人型ロボット1が、指定された荷物100を取り出して、作業スペース719に移動させる作業である。
(出庫作業2) アソート作業
作業スペース758Bに取り出した荷物100を、宛先に応じた箱760に収容し、当該箱の梱包等を行う作業である。
作業スペース758Bに取り出した荷物100を、宛先に応じた箱760に収容し、当該箱の梱包等を行う作業である。
(出庫作業3) 出庫作業
間口758Aに配置された棚752のピッキング作業が完了し、次の棚752を要求する作業である。
間口758Aに配置された棚752のピッキング作業が完了し、次の棚752を要求する作業である。
(入庫作業1) ピッキング作業
間口758Aに到着したトラックやパレットから、指令された荷物100を取り出して、作業スペース758Bに移動させる作業である。
間口758Aに到着したトラックやパレットから、指令された荷物100を取り出して、作業スペース758Bに移動させる作業である。
(入庫作業2) アソート作業
作業スペース758Bに取り出した荷物100を、格納先に応じた棚752に収容する作業である。
作業スペース758Bに取り出した荷物100を、格納先に応じた棚752に収容する作業である。
(入庫作業3) 入庫作業
間口758Aに配置された棚752のアソート作業が完了し、次の棚752を要求する作業である。
間口758Aに配置された棚752のアソート作業が完了し、次の棚752を要求する作業である。
ここで、各人型ロボット1の作業に関する情報は、人型ロボット1の情報処理装置14から、逐次、保管ベース管理サーバ756へ送出される。これにより、保管ベース管理サーバ756では、複数の人型ロボット1の動作状態(作業進捗情報)が一括管理される。
ここで、図25Aに示される如く、棚752の一部は、荷物100を収容する棚752とは異なり、人型ロボット1の腕部5、6に装着するツール770が格納されたツール格納棚752Tとしての役目を有している。このツール格納棚752Tの収容スペース752Aには、それぞれツール770が収容されている(図25C参照)。
1つの収容スペース752Aには、1つのツール770が収容されているが、複数の人型ロボット1を想定して、複数の収容スペース52Aに、同一のツール770を収容することが好ましい。なお、図25Aでは、ツール格納棚752Tは、1つとしているが、複数設けてもよい。
保管ベース管理サーバ756は、搬送装置754を制御して、荷物100を、ピッキングステーション758に搬送する制御と同一の制御によって、ツール格納棚752Tを、ピッキングステーション758に搬送することができる。
すなわち、ピッキングステーション758で作業している人型ロボット1から、ツール770の交換要求を、保管ベース管理サーバ756へ通知することで、人型ロボット1は、ピッキングステーション758での作業を継続しながら、ツール格納棚752Tの到着を待つことができる。
人型ロボット1は、到着したツール格納棚752Tから、必要なツール770をピッキングして、現在装着されているツール770をツール格納棚752Tに戻す動作を実行する。
言い換えれば、作業現場と格納場所との間の移動時間に起因する作業ロスが存在しなくなる。
図26は、保管ベース管理サーバ756と人型ロボット1の各情報処理装置14との連携で実行される、同時進行作業制御を実行するための機能ブロック図である。
保管ベース管理サーバ756は、作業状況管理部762を備えている。作業状況管理部762は、作業スケジュールデータベース764及び通信I/F766と接続されている。
通信I/F766は、人型ロボット1の情報処理装置14、及び搬送装置754の制御装置754Aとの間で通信し、情報のやりとりを行う。
作業状況管理部762では、作業スケジュールデータベース764から逐次、作業スケジュールに関する情報を取得すると共に、通信I/F766を介して、保管ベース751で作業を実行している制御対象(人型ロボット1の情報処理装置14、搬送装置754の制御装置754A)の作業進捗情報を取得することで、次の作業の割り当て指示を含む、作業スケジュールを管理する。
通信I/F766は、人型ロボット作業状況情報取得部768に接続されている。人型ロボット作業状況情報取得部768では、人型ロボット1が作業しているときの作業状況(例えば、ピッキングステーション758の位置、間口758Aに配置されている棚752の識別等に加え、ツール770の交換要求の通知を出力しているか等)に関する情報を取得し、出庫作業又は入庫作業、並びにツール交換作業において、具体的な作業の詳細情報を取得する。
人型ロボット作業状況情報取得部768は、取得した情報が、作業進捗情報(人型ロボット1の位置情報及び把持部情報)の場合は、作業状況管理部762に通知することで以後の作業計画が構築され、作業割り当て指示等が実行される。
また、人型ロボット作業状況情報取得部768は、取得した情報が、ツール要求情報の場合は、ツール情報特定部774に送出される。ツール情報特定部774では、ツール要求情報に基づいて、要求ツール種及び格納位置を特定し、特定した要求ツール種及び格納位置に関する情報は、ツール搬送指示部776へ送出される。
ツール搬送指示部776は、作業状況管理部762に接続されている。ツール搬送指示部776では、ツール770を搬送(持ち出し作業、及び格納作業)する必要があると判断した場合、作業状況管理部762に対して、通常の出庫作業又は入庫作業に割り込ませるように、ツール交換作業を指示する。
図27は、保管ベース751(図25A参照)で実行される、保管ベース管理サーバー756による、作業スケジュールに基づく通常作業指示制御のメインルーチンを示すフローチャートである。
ステップ7290では、ツール770の要求(ツール搬送指示)があったか否かを判断し、否定判定された場合は、通常の出庫作業又は入庫作業を実行するべく、ステップ7300へ移行する。
また、ステップ7290で否定判定された場合は、ツール搬送作業を時刻するべく、ステップ7292へ移行する。
(ツール搬送作業)
ステップ7292では、要求されたツール770を特定する。すなわち、ツール種及び格納位置を特定し、ステップ7294へ移行する。
ステップ7292では、要求されたツール770を特定する。すなわち、ツール種及び格納位置を特定し、ステップ7294へ移行する。
ステップ7294では、搬送装置754の制御装置754Aに対して、ツール770が格納されたツール格納棚752Tの搬送を指示する。
次いで、ステップ7296では、人型ロボット1の情報処理装置14に対して、ツール交換を指示し、ステップ7298へ移行する。
ステップ7294による搬送装置754の制御装置754Aに対する指示、並びに、ステップ7296による人型ロボット1の情報処理装置14に対する指示により、搬送装置754及び人型ロボット1は、それぞれの処理の実行で、ツール770の交換が実行される。
ステップ7298では、ツール交換の終了通知があったか否かを判断し、肯定判定されると、ステップ7290へ戻る。
(出庫作業及び入庫作業)
ステップ7300では、作業スケジュールを読み出し、次いで、ステップ7302へ移行して、割り当て処理を実行する。ステップ7302の割り当て処理は、何れの棚752を、何れの搬送装置754で、何れのピッキングステーション758に搬送し、何れの人型ロボット1に出庫作業又は入庫作業を実行させるかを記したワークシート等を用いることで実行可能である。
ステップ7300では、作業スケジュールを読み出し、次いで、ステップ7302へ移行して、割り当て処理を実行する。ステップ7302の割り当て処理は、何れの棚752を、何れの搬送装置754で、何れのピッキングステーション758に搬送し、何れの人型ロボット1に出庫作業又は入庫作業を実行させるかを記したワークシート等を用いることで実行可能である。
次のステップ7304では、搬送装置754を対象として、棚752の搬送を指示し、次いで、ステップ7306では、人型ロボット1を対象として、出庫作業又は入庫作業を指示し、ステップ7308へ移行する。
ステップ7308では、作業終了通知があったか否かを判断し、肯定判定された場合は、ステップ7310へ移行して、作業指示対象を確認し、次いで、ステップ7312へ移行して、作業指示対象毎の作業進捗ログを更新して、ステップ7314へ移行する。
また、ステップ7308で作業終了通知がない場合は、継続して、他の作業を遂行するべく、ステップ7314へ移行する。
ステップ7314では、次の作業が有るか否かを判断し、肯定判定(次の作業有り)された場合は、ステップ7290へ戻り、上記工程を繰り返す。また、ステップ7314で否定判定(次の作業無し)された場合は、このルーチンは終了する。
以上説明したように、第8の実施の形態では、対象物に対する作業において、必要なツール770が手許に存在しない場合に、通常の出庫作業又は入庫作業に割り込ませて、当該出庫作業又は入庫作業と同等の搬送装置754を用いた棚752の搬送(ツール格納棚752Tの搬送)作業を実行するようにした。これにより、人型ロボット1が、作業現場と格納場所との間を行き来することが省略され、通常の出庫作業又は入庫作業に並行した作業となるため、ツール770の交換を行うことによる、作業ロスを解消することができる。
なお、第8の実施の形態では、棚752(及びツール格納棚752T)に搬送装置754を用いたが、搬送装置754に代えて、人型ロボット1を適用してもよい。
すなわち、一人(一台)の人型ロボット1が、保管ベース751の棚752に荷物100を取りに行き、ピッキングステーション758に移動して作業して出庫したり、また、入庫した荷物100をピッキングステーション758で作業して棚に入れるという通常作業中に、ツール770を搬送するようにしてもよい。
この場合、搬送装置の代わりとなる役目の人型ロボット1と、ピッキングステーション758で作業する人型ロボット1とは、同一でもよいし、別体でもよい。
(第9の実施の形態)
以下に第9の実施の形態について説明する。なお、第9の実施の形態では、第1~第8の実施の形態と同一の構成については、同一の符号を付して、その構成の説明を省略する。
以下に第9の実施の形態について説明する。なお、第9の実施の形態では、第1~第8の実施の形態と同一の構成については、同一の符号を付して、その構成の説明を省略する。
制御部142が、把持部20及びロボットツール21EXの動作を制御するための具体的な構成例を図28に示す。
図28に示されるように、制御部142は、サーボドライバ861、把持部20及びロボットツール21EXを動作させるためのサーボモータ862及びロータリエンコーダ863を含むサーボ機構を介して、把持部20及びロボットツール21EXの動作を制御している。
把持部20及びロボットツール21EXは、サーボモータ862の回転動作によりその動作が制御される。そして、サーボモータ862の回転速度、回転位置等の情報はロータリエンコーダ863により検出されてパルス信号としてサーボドライバ861にフィードバックされる。
そして、サーボドライバ861は、サーボモータ862を駆動するための駆動装置として機能しており、制御部142からの動作指示に基づいて、サーボモータ862の出力トルク、回転速度、回転位置を制御している。その際に、サーボドライバ861は、ロータリエンコーダ863からのパルス信号を入力して、サーボモータ862の実際の回転位置、回転速度、出力トルクを検出することにより、サーボモータ862が制御部142からの動作指示に合致した動作を行うような処理を実行している。
そして、制御部142は、判定部141により判定された仕事種が荷物100の把持以外の仕事種の場合には、1又は複数のロボットツール21EXのうちその仕事種に応じたロボットツール21EXを腕部5、6に装着させるための制御を行う。そして、制御部142は、判定部141により判定された仕事種に応じた制御モードによりサーボドライバ861を制御して、判定された仕事種に応じた作業を荷物100に対して実行する。
例えば、サーボドライバ861における制御モードには、高負荷作業用制御モード及び精密作業用制御モードが含まれる場合、制御部142は、仕事種毎に予め設定された制御モードでサーボドライバ861が動作するように制御モードの切り替えを行う。
このように、仕事種毎に制御モードが設定される様子の一例を図29の制御モード選択テーブルとして示す。
図29の制御モード選択テーブルを参照すると、仕事種が塗装、穿孔、ビス締めの場合には、精密作業用制御モードを選択し、仕事種が特殊把持の場合には高負荷作業用制御モードを選択するようになっているのが分かる。
このように、制御部142は、荷物100に対して実行すべき作業が高負荷の作業であると判定した場合には、高負荷作業用制御モードによりサーボドライバ861を制御する。そして、制御部142は、荷物100に対して実行すべき作業が低負荷の作業であると判定した場合には、精密作業用制御モードによりサーボドライバ861を制御する。
また、判定部141は、荷物100に対して実行すべき作業の仕事種だけでなく、荷物100に対して作業を実行した場合の作業負荷を推測するようにしてもよい。例えば、判定部141は、判定した仕事種と、作業対象物である荷物100の性質等に基づいて、作業負荷を推測する。
なお、判定部141は、把持部20又はロボットツール21EXに搭載された、荷物100の画像を撮影して荷物100の種類を識別するカメラ、及び、荷物100の位置を特定するMoPUを備えた掌センサ26からの情報に基づいて、荷物100に対して実行すべき作業の仕事種及びその作業を実行した場合の作業負荷を推測する。
例えば、判定部141は、把持すべき荷物100の大きさ(及び表面材質など)から重量を推測し、把持部20を用いた通常の把持では持ち上げることが困難であると判定した場合には、荷物100に対して実行すべき作業の仕事種は特殊把持(強度アップ把持)であると判定する。また、例えば、判定部141は、実行すべき作業の仕事種が穿孔であり、作業対象物である荷物100の材質が金属の場合には、その作業を実行した場合の作業負荷は大きくなると推測する。
このようにした場合、制御部142は、判定部141により判定された仕事種と作業負荷に応じた制御モードにより、サーボドライバ861を制御して仕事種に応じた作業を荷物100に対して実行する。
また、制御部142は、判定部141により判定された仕事種に応じて、位置制御モード、速度制御モード及びトルク制御モードのうちのいずれかの制御モードを選択して、サーボドライバ861を制御するようにしてもよい。
さらに、制御部142は、判定部141により判定された仕事種に応じて、サーボモータ862の回転動作を検出する検出器であるロータリエンコーダ863からのパルス信号をサーボドライバ61において逓倍する際の逓倍数を変えることにより、ロータリエンコーダ63からのパルス信号の分解能を変化させて、サーボドライバ61を制御するようにしてもよい。
例えば、サーボモータ862が1回転した際にロータリエンコーダ863において発生するパルス数を1024とした場合、つまり1024パルス/回転である場合について説明する。このような場合に、サーボドライバ861におけるパルス信号を2逓倍とすると2048パルス/回転となり、4逓倍とすると4096パルス/回転となる。そのため、逓倍数を増加させることにより1パルスあたりの回転角度は小さくなり、より細かい位置決めが可能となって、高精度の制御系を実現することができる。
以下、本実施形態のロボット制御システムの動作について図面を参照して詳細に説明する。
(荷物100に対する作業の実行制御)
図30は、把持部20又はロボットツール21EXによって荷物100に対する作業を実行する際の制御の手順を示すフローチャートである。
図30は、把持部20又はロボットツール21EXによって荷物100に対する作業を実行する際の制御の手順を示すフローチャートである。
ステップ8150では、荷物100に対する作業の実行指示があったか否かを判断し、肯定判定されると、ステップ8152へ移行して、人型ロボット1を移動させ(例えば、腕部5、6を動作させ)、対象の荷物100に把持部20を対峙させ、ステップ8154へ移行する。
ステップ8154では、把持部20を対向させて、掌センサ26(高解像度カメラ及びMoPU)で荷物100の情報を検出する。
次のステップ8156では、掌センサ26による検出情報を解析して、荷物100の種類(形状、大きさ、硬さ等)及び位置を詳細に把握し、ステップ8158へ移行する。
ステップ8158では、荷物100に対して実行すべき作業の仕事種を判定して、把持部20又はロボットツール21EXのうち判定した仕事種に応じたロボットツール21EXを選択して、腕部5、6に装着して、ステップ8160へ移行する。
ステップ8160では、サーボドライバ861における制御モードを、判定された仕事種に応じた制御モードに切り替える。
ステップ8162では、把持部20又はロボットツール21EXを用いて、荷物100に対する作業を実行する。
次のステップ8164では、荷物100に対する作業の実行が成功したか否かを判定し、肯定判定された場合は、作業が実行された後の荷物100を所定の場所へ運び、ステップ8150へ移行して、次の荷物100に対する作業の実行指示を待つ。
また、ステップ8164で否定判定された場合は、ステップ8166へ移行して、リトライ、キャンセル等のエラー処理を実行する。例えば、エラー処理として、判定部141により判定された仕事種とは異なる仕事種での作業に切り替えてもよい。また、エラー時のリトライ処理として、サーボドライバ861においてパルス信号を逓倍する逓倍数を変更する等の制御設定の変更を行うようにしてもよい。
さらに、本実施形態のロボット制御システムでは、対象物である荷物100を単に運ぶだけでなく、塗装したりドリルにて穿孔したりするような作業を荷物100に対して実行する場合でも、腕部5、6に装着する把持部20をロボットツールEXに取り換えることにより、各種の工具を把持部20で把持して作業を行う場合と比較して、簡単な制御により各種作業を実行することができる。
そして、本実施形態では、荷物100に対して実行すべき作業の仕事種に応じて、把持部20及びロボットツール21EXを動作させるためのサーボモータ862を制御する際の制御モードを変更することにより、作業内容が異なる様々な仕事種の作業を同一のサーボモータ862を用いて適切に実行することが可能となる。
(第10の実施の形態)
以下に第10の実施の形態について説明する。なお、第10の実施の形態では、第1~第9の実施の形態と同一の構成については、同一の符号を付して、その構成の説明を省略する。
以下に第10の実施の形態について説明する。なお、第10の実施の形態では、第1~第9の実施の形態と同一の構成については、同一の符号を付して、その構成の説明を省略する。
図31は、把持部20又はロボットツール21EXによって荷物100に対する作業を実行する際の制御の手順を示すフローチャートである。図31のフローチャートは、ステップ158とステップ162との間にステップ160が存在しない点で、図30のフローチャートと異なる。
[複数の人型ロボット1に対する制御]
上記で説明したように、本実施形態における人型ロボット1は、把持部20及びロボットツール21EXの中から、実行しようとする仕事種に応じたツールを選択して、作業を実行する。しかし、複数の人型ロボット1がある狭い場所で作業するような場合、実行する仕事種によっては隣接する人型ロボット1どうしでアームがぶつかってしまい安全に作業を実行することができないような事態が発生する可能性がある。
上記で説明したように、本実施形態における人型ロボット1は、把持部20及びロボットツール21EXの中から、実行しようとする仕事種に応じたツールを選択して、作業を実行する。しかし、複数の人型ロボット1がある狭い場所で作業するような場合、実行する仕事種によっては隣接する人型ロボット1どうしでアームがぶつかってしまい安全に作業を実行することができないような事態が発生する可能性がある。
このような複数の人型ロボット1が狭い場所において作業を実行する際の様子を図32に示す。図32では、1つのテーブル上に置かれた3つの荷物100に対して、3台の人型ロボット1A~1Cがそれぞれ作業を実行しようとする様子が示されている。
このように3台の人型ロボット1A~1Cが1つのテーブル上におかれた3つの荷物100に対してそれぞれ塗装という作業を実行した場合、人型ロボット1A~1Cのアームである腕部5、6どうしが衝突してしまう可能性がある。
そのため、本実施形態のロボット制御システムでは、以下において説明するような方法により、複数のロボットが隣接して作業を実行する場合に、あるロボットが実行する作業が隣接する他のロボットの作業の障害になるような事態の発生を防ぐようにしている。
上記のような事態の発生を防ぐために、情報取得部140は、隣接する他の人型ロボット1が実行しようとする作業又は実行中の作業の仕事種の情報を取得する。例えば、情報取得部140は、Wi-Fi(登録商標)等の無線LANや、Bluetooth(登録商標)等の近距離無線通信回線を介して、隣接する人型ロボット1が実行しようとする作業、又は現在実行中の作業の仕事種に関する情報を取得する。
具体的には、図33に示すように、人型ロボット1A~1Cが、それぞれ無線通信回線を介して隣接する他の人型ロボット1とデータの送受信を行って他の人型ロボット1が実行中の作業、又は実行しようとする作業の仕事種の情報を取得する。ここで、Bluetooth(登録商標)等の近距離無線通信回線の電波が届く範囲を隣接する範囲と設定することにより、人型ロボット1A~1Cは、それぞれの送信電波の電波強度を設定することにより隣接する範囲の広さを調整することが可能となる。電波が届く範囲とは、誤送受信が生じない程度に十分な強度の電波が届く範囲であってよい。
そして、制御部142は、判定部141により判定された仕事種が、情報取得部140により取得された隣接する他の人型ロボット1の作業の仕事種と隣接して実行することができない仕事種であるか否かを判定する。そして、制御部142は、判定部141により判定された仕事種が、情報取得部140により取得された隣接する他の人型ロボット1の作業の仕事種と隣接して実行することができない仕事種であると判定した場合、判定部141により判定された仕事種の作業を対象物に対して実行しないように制御する。
例えば、隣接する2台の人型ロボット1が同時に実行することができない仕事種の組み合わせが、それぞれの仕事種の作業範囲の大きさに応じた接触可能性に基づいて設定される。
具体的には、図34に示すような作業範囲設定テーブルを、人型ロボット1A~1Cのそれぞれにおいて記憶させておく。図34に示した作業範囲設定テーブルでは、各仕事種の作業に対して、作業範囲がそれぞれ設定されている。例えば、「通常把持」という仕事種の作業は作業範囲が「小」つまり狭いと設定され、「塗装」という仕事種の作業は作業範囲が「大」つまり広いと設定されている。
そして、制御部142は、搭載されている人型ロボット1において実行しようとする作業の仕事種の作業範囲と、隣接する人型ロボット1において実行中、又は実行しようとする作業の仕事種類の仕事範囲がともに「大」の場合には、その2つの作業は隣接する人型ロボット1において実行できない作業であると判定する。
または、隣接する2台の人型ロボット1が同時に実行することができない仕事種の組み合わせを、(危険な)化学反応を伴う安全上の理由に基づいて設定するようにしてもよい。
例えば、図35に示すような、隣接作業禁止テーブルを、人型ロボット1A~1Cのそれぞれにおいて記憶させておく。図35に示した隣接作業禁止テーブルでは、「塗装」という仕事種の作業と、「溶接」という仕事種の作業とは、隣接する2台の人型ロボット1が同時に実行することができない仕事種の組み合せとして登録されている。
このように、本実施形態のロボット制御システムでは、隣接する2台の人型ロボット1が同時に実行することができない仕事種の組み合わせの情報である作業範囲設定テーブルや、隣接作業禁止テーブルが、複数の人型ロボット1A~1Cのそれぞれにおいて記憶されている。
そして、制御部142は、判定部141により判定された仕事種が、情報取得部140により取得された隣接する他の人型ロボット1の作業の仕事種と隣接して実行することができない仕事種であると判定した場合、判定部141により判定された仕事種以外の仕事種の作業を対象物に対して実行するように制御する。
または、制御部142は、判定部141により判定された仕事種が、情報取得部140により取得された隣接する他の人型ロボット1の作業の仕事種と隣接して実行することができない仕事種であると判定した場合、搭載されている人型ロボット1を現在の位置から移動させることにより、隣接する他の人型ロボット1の作業の仕事種とその人型ロボット1が実行しようとする作業の仕事種とが隣接して実行することができない仕事種の組み合わせとはらないようにするようにしてもよい。
なお、複数の人型ロボット1A~1Cにおいて、上記のような制御を行う場合には、例えば既に作業中の作業を優先して、後から開始しようとする作業の実行を行わないようにしたり、人型ロボット1を移動させたりすることにより実現することが可能である。
それとは別の方法として、例えば、図36に示すように複数の人型ロボット1A~1Cの動作を管理するための管理サーバ980を設置するような方法も考えられる。
このような方法を用いる場合には、隣接する2台の人型ロボット1が同時に実行することができない仕事種の組み合わせの情報である上記の作業範囲設定テーブルや隣接作業禁止テーブルを、複数の人型ロボット1の動作を管理している管理サーバ980において記憶しておく。
そして、管理サーバ980が、隣接する2台の人型ロボット1どうしが同時に実行することができない仕事種の作業をそれぞれ実行しないように複数の人型ロボット1の動作を制御する。
ここで、管理サーバ980と、人型ロボット1A~1Cとの間は、上述したようなWi-Fi(登録商標)等の無線LANや、Bluetooth(登録商標)等の近距離無線通信回線を介して接続されている。そして、管理サーバ80は、このような無線通信回線を介して、人型ロボット1A~1Cのそれぞれが実行中の作業の仕事種の情報や、これから実行しようとする作業の仕事種の情報を取得する。また、管理サーバ80は、このような無線通信回線を介して、人型ロボット1A~1Cから現在の位置情報、又は、隣接する人型ロボット1の情報を取得する。そして、管理サーバ80は、上記で説明した作業範囲設定テーブルや隣接作業禁止テーブル等の情報に基づいて、人型ロボット1A~1Cが実行する作業を管理することにより、隣接する人型ロボット1間において同時に実行することが禁じられている作業が実行されないように制御する。
[情報処理装置14のハードウェア構成例]
図31は、情報処理装置14として機能するコンピュータ1200のハードウェア構成の一例を概略的に示す。コンピュータ1200にインストールされたプログラムは、コンピュータ1200を、第1~第10の実施の形態に係る装置の1又は複数の「部」として機能させ、又はコンピュータ1200に、第1~第10の実施の形態に係る装置に関連付けられるオペレーション又は当該1又は複数の「部」を実行させることができ、および/又はコンピュータ1200に、第1~第10の実施の形態に係るプロセス又は当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ1200に、本明細書に記載のフローチャートおよびブロック図のブロックのうちのいくつか又は全てに関連付けられた特定のオペレーションを実行させるべく、ハードウェアプロセッサの一例であるCPU1212にロードされることによって実行されてよい。
図31は、情報処理装置14として機能するコンピュータ1200のハードウェア構成の一例を概略的に示す。コンピュータ1200にインストールされたプログラムは、コンピュータ1200を、第1~第10の実施の形態に係る装置の1又は複数の「部」として機能させ、又はコンピュータ1200に、第1~第10の実施の形態に係る装置に関連付けられるオペレーション又は当該1又は複数の「部」を実行させることができ、および/又はコンピュータ1200に、第1~第10の実施の形態に係るプロセス又は当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ1200に、本明細書に記載のフローチャートおよびブロック図のブロックのうちのいくつか又は全てに関連付けられた特定のオペレーションを実行させるべく、ハードウェアプロセッサの一例であるCPU1212にロードされることによって実行されてよい。
第1~第10の実施の形態によるコンピュータ1200は、CPU1212、RAM1214、およびグラフィックコントローラ1216を含み、それらはホストコントローラ1210によって相互に接続されている。コンピュータ1200はまた、通信インタフェース1222、記憶装置1224、DVDドライブ、およびICカードドライブのような入出力ユニットを含み、それらは入出力コントローラ1220を介してホストコントローラ1210に接続されている。DVDドライブは、DVD-ROMドライブおよびDVD-RAMドライブ等であってよい。記憶装置1224は、ハードディスクドライブおよびソリッドステートドライブ等であってよい。コンピュータ1200はまた、ROM1230およびキーボードのような入出力ユニットを含み、それらは入出力チップ1240を介して入出力コントローラ1220に接続されている。
CPU1212は、ROM1230およびRAM1214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ1216は、RAM1214内に提供されるフレームバッファ等又はそれ自体の中に、CPU1212によって生成されるイメージデータを取得し、イメージデータがディスプレイデバイス1218上に表示されるようにする。
通信インタフェース1222は、ネットワークを介して他の電子デバイスと通信する。記憶装置1224は、コンピュータ1200内のCPU1212によって使用されるプログラムおよびデータを格納する。DVDドライブは、プログラム又はデータをDVD-ROM等から読み取り、記憶装置1224に提供する。ICカードドライブは、プログラムおよびデータをICカードから読み取り、および/又はプログラムおよびデータをICカードに書き込む。
ROM1230はその中に、アクティブ化時にコンピュータ1200によって実行されるブートプログラム等、および/又はコンピュータ1200のハードウェアに依存するプログラムを格納する。入出力チップ1240はまた、様々な入出力ユニットをUSBポート、パラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入出力コントローラ1220に接続してよい。
プログラムは、DVD-ROM又はICカードのようなコンピュータ可読記憶媒体によって提供される。プログラムは、コンピュータ可読記憶媒体から読み取られ、コンピュータ可読記憶媒体の例でもある記憶装置1224、RAM1214、又はROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ1200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置又は方法が、コンピュータ1200の使用に従い情報のオペレーション又は処理を実現することによって構成されてよい。
例えば、通信がコンピュータ1200および外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース1222に対し、通信処理を命令してよい。通信インタフェース1222は、CPU1212の制御の下、RAM1214、記憶装置1224、DVD-ROM、又はICカードのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、又はネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。
また、CPU1212は、記憶装置1224、DVDドライブ(DVD-ROM)、ICカード等のような外部記録媒体に格納されたファイル又はデータベースの全部又は必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。
様々なタイプのプログラム、データ、テーブル、およびデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU1212は、RAM1214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU1212は、当該複数のエントリの中から、第1の属性の属性値が指定されている条件に一致するエントリを検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。
上で説明したプログラム又はソフトウエアモジュールは、コンピュータ1200上又はコンピュータ1200近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワーク又はインターネットに接続されたサーバシステム内に提供されるハードディスク又はRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ1200に提供する。
第1~第10の実施の形態におけるフローチャートおよびブロック図におけるブロックは、オペレーションが実行されるプロセスの段階又はオペレーションを実行する役割を持つ装置の「部」を表してよい。特定の段階および「部」が、専用回路、コンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、および/又はコンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタルおよび/又はアナログハードウェア回路を含んでよく、集積回路(IC)および/又はディスクリート回路を含んでよい。プログラマブル回路は、例えば、フィールドプログラマブルゲートアレイ(FPGA)、およびプログラマブルロジックアレイ(PLA)等のような、論理積、論理和、排他的論理和、否定論理積、否定論理和、および他の論理演算、フリップフロップ、レジスタ、並びにメモリエレメントを含む、再構成可能なハードウェア回路を含んでよい。
コンピュータ可読記憶媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスである非一時的記憶媒体を含んでよく、その結果、そこに格納される命令を有するコンピュータ可読記憶媒体は、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読記憶媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読記憶媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROM又はフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(登録商標)ディスク、メモリスティック、集積回路カード等が含まれてよい。
コンピュータ可読命令は、アセンブリ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又はSmalltalk(登録商標)、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、および「C」プログラミング言語又は同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1又は複数のプログラミング言語の任意の組み合わせで記述されたソースコード又はオブジェクトコードのいずれかを含んでよい。
コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路が、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を生成するために当該コンピュータ可読命令を実行すべく、ローカルに又はローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路に提供されてよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。
以上、実施の形態を用いて説明したが、請求項1~請求項10は、相互に適用されてもよい。また、本開示の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。そのような変更又は改良を加えた形態も本開示の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
2023年3月6日に出願された日本国特許出願2023-034053号の開示、2023年4月10日に出願された日本国特許出願2023-063567号の開示、2023年4月17日に出願された日本国特許出願2023-067106号の開示、2023年5月19日に出願された日本国特許出願2023-083462号の開示、2023年5月26日に出願された日本国特許出願2023-087305号の開示、2023年5月29日に出願された日本国特許出願2023-088254号の開示、2023年6月7日に出願された日本国特許出願2023-094427号の開示、2023年6月27日に出願された日本国特許出願2023-105298号の開示、及び2023年7月10日に出願された日本国特許出願2023-113331号の開示は、その全体が参照により本明細書に取り込まれる。
Claims (54)
- ロボットの腕部に着脱可能に装着され、対象物の把持を主目的として取り付けられた把持部と、前記把持部の把持とは異なる仕事種に応じて前記腕部に着脱可能であり当該仕事種に応じた仕事を実行する1又は複数のロボットツールと、を備える前記ロボットの制御システムであって、
前記対象物の仕事種を判定する判定部と、
前記判定部で判定された仕事種が、前記主目的の場合は前記腕部に前記把持部を装着させ、前記判定部の判定結果が前記主目的以外の仕事種の場合は、前記腕部に前記ロボットツールを装着させる動作を制御すると共に前記仕事種に応じた動作を制御する制御部と、
を有するロボットの制御システム。 - 前記ロボットツールが、前記把持部全体に代えて装着される、請求項1記載のロボットの制御システム。
- 前記ロボットツールが、前記把持部の一部に代えて装着される、請求項1記載のロボットの制御システム。
- 前記把持部が、複数の指部を備え、前記把持部の一部が、指部の先端側である、請求項3記載のロボットの制御システム。
- 前記ロボットツールが、前記把持部の一部である複数の指部に取り付けられ、各ロボットツールに与えられた仕事種の実行の際に、前記指部から離れた状態で作業し得る、請求項1記載のロボットの制御システム。
- 前記ロボットツールが、前記指部に対してエクステンションバーで連結されており、前記エクステンションバーが、前記ロボットツールの仕事種に適した動作を、前記ロボットツールに伝達する、請求項5記載のロボットの制御システム。
- 前記ロボットツールが、前記指部から離脱可能であり、無線通信又は有線通信によって動作が制御される、請求項5記載のロボットの制御システム。
- 前記判定部が、前記把持部又は前記ロボットツールに搭載された、前記対象物の画像を撮影して当該対象物の種類を識別するカメラ、及び、前記対象物の位置を特定するモーションプロセシングユニットを備えたセンサ部からの情報で判定する、請求項1記載のロボットの制御システム。
- コンピュータを請求項1~請求項8の何れか1項記載の前記判定部、前記制御部として動作させる、ロッボットの制御プログラム。
- 複数のロボットツールが選択的に装着され、対象物に対する仕事種に応じた作業を実行するロボットを主体とする作業を管理するロボット管理システムであって、
前記対象物の仕事種を判定する判定部と、前記判定部で判定された前記仕事種に対応する前記ロボットツールを装着した作業の実行を制御し、かつ、前記仕事種に対応する前記ロボットツールが不足しているとき、不足しているロボットツールを要求するための要求通知を発信する第1制御部と、を備えたロボット制御装置と、
前記要求通知を受けて、前記ロボットツールを保管する保管庫で必要なロボットツールを搭載して、前記ロボットの作業現場まで搬送する移動体の動作を制御する第2制御部を備えた移動体管理サーバと、
を有するロボット管理システム。 - 前記移動体が、前記要求通知の発信元のロボットの識別情報、前記ロボットの作業現場の位置情報、必要な前記ロボットツールの種類情報に基づき、自立飛行可能な飛行体である、請求項10記載のロボット管理システム。
- 前記ロボットツールが、前記対象物の画像を撮影して当該対象物の種類を識別するカメラ、及び、前記対象物の位置を特定するモーションプロセンシングユニットを備えたセンサ部を有し、前記飛行体が自立飛行するために必要な情報を、前記センサ部から取得する、請求項11記載のロボット管理システム。
- 対象物に対して実行する仕事種を判定する判定部と、前記対象物を識別し、かつ前記対象物の位置を特定するセンサ部と、前記判定部で判定された仕事種に必要なロボットツールを選択してロボットに装着させ当該ロボットを前記センサ部で検出した検出情報に基づいて、前記仕事種に応じた作業を実行させる制御部と、を有するロボットの制御システムであって、
前記判定部で判定された前記仕事種が、作業開始から作業終了まで時系列で変化する前記ロボットツールと前記対象物との三次元の相対位置が、予め定めた精度を必要とする特殊作業の場合に、
前記制御部が、前記ロボットツール及び前記対象物の共通の基準情報を取得して、前記時系列で変化する前記ロボットツールと前記対象物との相対位置を監視しながら、作業を実行する、ロボットの制御システム。 - 前記センサ部が、前記対象物の画像を撮影して当該対象物の種類を識別するカメラ、及び、前記対象物の位置を特定するモーションプロセンシングユニットを備える、請求項13記載のロボットの制御システム。
- 前記特殊作業が、三次元造形処理作業であり、前記基準情報が、三次元造形材料が供給される造形ステージに設定されたx-y-z座標の原位置情報である、請求項13記載のロボットの制御システム。
- 対象物に対して実行する仕事種を判定する判定部と、前記対象物を識別し、かつ前記対象物の位置を特定するセンサ部と、前記判定部で判定された仕事種に必要なロボットツールを選択してロボットに装着させ当該ロボットを前記センサ部で検出した検出情報に基づいて、前記仕事種に応じた作業を実行させる制御部と、を有するロボットの制御システムであって、
前記判定部で判定された前記仕事種が、三次元造形装置を用いた三次元造形処理の場合に、前記ロボットツールとして、前記対象物の原料としての三次元造形材料を造形ステージへ供給する機能が選択され、
前記制御部が、前記ロボットツール及び前記対象物の共通の基準情報として、三次元造形処理過程において時系列で変化する前記ロボットツールと前記造形ステージとの相対位置を監視しながら、作業を実行する、ロボットの制御システム。 - コンピュータを、請求項13~請求項16の何れか1項記載の前記判定部、前記制御部として動作させる、ロボットの制御プログラム。
- 対象物に対して実行する仕事種に必要なロボットツールをロボットに装着させ、当該ロボットを前記仕事種に応じた作業を実行させるロボットの制御システムであって、
前記対象物から取得可能な複数の属性情報の各々を検出可能な複数の属性情報検出部が装着されたロボットツールを選択する選択部と、
前記複数の属性情報検出部により、前記対象物を識別可能な種類の属性情報を取得する属性情報取得部と、
前記仕事種を指定された前記対象物の属性情報と、前記属性情報取得部で取得した属性情報とを照合することで、前記仕事種を指定された前記対象物の位置を特定する位置特定部と、
を有するロボットの制御システム。 - 前記属性情報取得部が、
複数の前記対象物が混在する環境条件の下で、前記対象物を識別可能な種類の属性情報を取得する、請求項18記載のロボットの制御システム。 - 前記属性情報検出部が、
視覚、聴覚、嗅覚、触覚、及び味覚の各々の属性情報を検出し、複数の属性情報の組み合わせによって、前記対象物を識別する、
請求項18記載のロボットの制御システム。 - 前記仕事種が、複数種類の資源ごみ及び複数種類の有害ごみが混在した収容部の中から、指定されたごみをピッキングするピッキング作業である、請求項18記載のロボットの制御システム。
- 前記ロボットが、前記対象物の画像を撮影して当該対象物の種類を識別するカメラ、及び、前記対象物の位置を特定するモーションプロセシングユニットを備える、請求項18記載のロボットの制御システム。
- コンピュータを、請求項18~請求項22の何れか1項記載の前記選択部、前記属性情報取得部、及び前記位置特定部として動作させる、ロボットの制御プログラム。
- 対象物の状態を検査するための複数の検査用ツール、及び、前記対象物に対して作業を施す複数の作業用ツールに分類された複数のロボットツールから選択してロボットに装着可能であり、当該ロボットツールに基づく作業を、ロボットに実行させる処理制御装置を備えたロボットの制御システムであって、
前記処理制御装置が、
前記検査用ツールに属するロボットツールを装着して、前記対象物に関する情報を取得する情報取得部と、
前記情報取得部で取得した情報に基づいて、作業工程を策定する策定部と、
前記検査用ツールに属するロボットツールから前記作業用ツールに属するロボットツールに付け替えて、前記策定部で策定された作業工程に従い作業を実行する実行制御部と、
を有するロボットの制御システム。 - 前記作業が、前記対象物の修理作業であり、前記策定部では、前記情報取得部で取得した情報に基づいて前記対象物の故障箇所を特定し、故障の状態、過去の故障との関連、修理に必要な部品、及び修理時間を含む故障情報を解析し、前記故障情報に基づいて作業工程を策定する、
請求項24記載のロボットの制御システム。 - 前記ロボットが、前記対象物の画像を撮影して当該対象物の種類を識別するカメラ、及び、前記対象物の位置を特定するモーションプロセンシングユニットを備える、請求項24記載のロボットの制御システム。
- コンピュータを、請求項24~請求項26の何れか1項記載の処理制御装置の、前記情報取得部、前記策定部、及び前記実行制御部として動作させる、ロボットの制御プログラム。
- 対象物及びロボットに装着可能な複数種類のツールを保管する保管ベースと前記ロボットの作業スペースとの間で搬送装置を行き来させる搬送制御部と、
前記作業スペースに配置された前記ロボットに装着されたツールを利用して、前記作業スペースに存在するロボットを制御するロボット制御部と、
前記ロボット制御部による、前記ロボットの前記対象物に対する通常作業を目的として、前記搬送装置を用いた前記対象物の移動を前記搬送制御部へ指示する通常作業指示部と、
前記ロボット制御部からの前記ツールの交換要求情報を取得する取得部と、
前記取得部で前記ツールの交換要求情報を取得した場合に、前記通常作業に割り込んで、前記ツールを搬送するように前記搬送制御部へ指示する割込作業指示部と、
を有するロボットの制御システム。 - 前記割込作業指示部による前記搬送制御部への指示が、
前記保管ベースから指定された前記ツールを持ち出して前記作業スペースへ搬送する指示と、前記ロボットが取り外した後の前記ツールを前記保管ベースへ搬送して格納する指示と、を含む請求項28記載のロボットの制御システム。 - 前記作業スペースにおける、前記ロボットの対象物に対する通常作業が、前記対象物を前記保管ベースから出庫させる出庫作業、及び、前記対象物を前記保管ベースへ入庫させる入庫作業である、請求項28記載のロボットの制御システム。
- 前記搬送装置の作業は、前記ロボットまたは他のロボットが、前記通常作業の範疇として実行する、請求項28記載のロボットの制御システム。
- 前記ロボットが、前記対象物の画像を撮影して当該対象物の種類を識別するカメラ、及び、前記対象物の位置を特定するモーションプロセンシングユニットを備え、前記ロボット制御部は、前記モーションプロセンシングユニットからの情報を入力情報の一部として、前記ロボットの動作を制御する、請求項28記載のロボットの制御システム。
- コンピュータを、請求項28~請求項32の何れか1項記載のロボットの制御システムの各部として動作させる、ロボットの制御プログラム。
- ロボットの腕部に着脱可能に装着され、対象物の把持を主目的として取り付けられた把持部と、前記腕部に着脱可能に構成され対象物の把持とは異なる仕事種の作業を実行するための1又は複数のロボットツールと、前記把持部及び前記ロボットツールを動作させるためのモータと、前記モータを駆動するための駆動装置と、を備えるロボット制御システムであって、
前記対象物に対して実行すべき作業の仕事種を判定する判定部と、
前記判定部により判定された仕事種が対象物の把持である場合には、前記腕部に前記把持部を装着させ、前記判定部により判定された仕事種が対象物の把持以外の仕事種の場合には、前記1又は複数のロボットツールのうち当該仕事種に応じたロボットツールを前記腕部に装着させるための制御を行うとともに前記判定部により判定された仕事種に応じた制御モードにより前記駆動装置を制御して前記仕事種に応じた作業を対象物に対して実行する制御部と、
を有するロボット制御システム。 - 前記制御モードには、高負荷作業用制御モード及び精密作業用制御モードが含まれ、
前記制御部は、前記対象物に対して実行すべき作業が高負荷の作業であると判定した場合には、前記高負荷作業用制御モードにより前記駆動装置を制御し、前記対象物に対して実行すべき作業が低負荷の作業であると判定した場合には、前記精密作業用制御モードにより前記駆動装置を制御する、
請求項34記載のロボット制御システム。 - 前記判定部は、前記対象物に対して作業を実行した場合の作業負荷を推測し、
前記制御部は、前記判定部により判定された仕事種と作業負荷に応じた制御モードにより、前記駆動装置を制御して前記仕事種に応じた作業を対象物に対して実行する、
請求項34記載のロボット制御システム。 - 前記判定部が、前記把持部又は前記ロボットツールに搭載された、前記対象物の画像を撮影して当該対象物の種類を識別するカメラ、及び、前記対象物の位置を特定するモーションプロセシングユニットを備えたセンサ部からの情報に基づいて、前記対象物に対して実行すべき作業の仕事種及び当該作業を実行した場合の作業負荷を判定する、請求項36記載のロボット制御システム。
- 前記制御部は、前記判定部により判定された仕事種に応じて、位置制御モード、速度制御モード及びトルク制御モードのうちのいずれかの制御モードを選択して、前記駆動装置を制御する、
請求項34記載のロボット制御システム。 - 前記制御部は、前記判定部により判定された仕事種に応じて、前記モータの回転動作を検出する検出器からのパルス信号を前記駆動装置において逓倍する際の逓倍数を変えることにより、前記検出器からのパルス信号の分解能を変化させて、前記駆動装置を制御する、
請求項34記載のロボット制御システム。 - 前記ロボットツールが、前記把持部全体に代えて前記腕部に装着される、請求項34記載のロボット制御システム。
- 前記ロボットツールが、前記把持部の一部に代えて前記腕部に装着される、請求項34記載のロボット制御システム。
- 前記把持部が、複数の指部を備え、前記把持部の一部が、指部の先端部である、請求項41記載のロボット制御システム。
- コンピュータを請求項34から請求項42のいずれか1項に記載の前記判定部、前記制御部として動作させる、ロボット制御プログラム。
- ロボットの腕部に着脱可能に装着され、対象物の把持を主目的として取り付けられた把持部と、前記腕部に着脱可能に構成され対象物の把持とは異なる仕事種の作業を実行するための1又は複数のロボットツールと、を備えるロボットを制御するためのロボット制御システムであって、
前記対象物に対して実行すべき作業の仕事種を判定する判定部と、
隣接する他のロボットが実行しようとする作業又は実行中の作業の仕事種の情報を取得する取得部と、
前記判定部により判定された仕事種が、前記取得部により取得された隣接する他のロボットの作業の仕事種と隣接して実行することができない仕事種であると判定した場合、前記判定部により判定された仕事種の作業を対象物に対して実行しないように制御する制御部と、
を有するロボット制御システム。 - 前記制御部は、前記判定部により判定された仕事種が、前記取得部により取得された隣接する他のロボットの作業の仕事種と隣接して実行することができない仕事種であると判定した場合、前記判定部により判定された仕事種以外の仕事種の作業を対象物に対して実行するように制御する、
請求項44記載のロボット制御システム。 - 前記制御部は、前記判定部により判定された仕事種が、前記取得部により取得された隣接する他のロボットの作業の仕事種と隣接して実行することができない仕事種であると判定した場合、当該ロボットを現在の位置から移動させることにより、隣接する他のロボットの作業の仕事種と当該ロボットが実行しようとする作業の仕事種とが隣接して実行することができない仕事種の組み合わせとはらないようにする、
請求項44記載のロボット制御システム。 - 隣接する2台のロボットが同時に実行することができない仕事種の組み合わせが、それぞれの仕事種の作業範囲の大きさに基づいて設定される、請求項44記載のロボット制御システム。
- 隣接する2台のロボットが同時に実行することができない仕事種の組み合わせが、安全上の理由に基づいて設定される、請求項44記載のロボット制御システム。
- 隣接する2台のロボットが同時に実行することができない仕事種の組み合わせの情報が、複数のロボットのそれぞれにおいて記憶されている請求項44記載のロボット制御システム。
- 隣接する2台のロボットが同時に実行することができない仕事種の組み合わせの情報が、複数のロボットの動作を管理している管理サーバにおいて記憶され、
前記管理サーバが、隣接する2台のロボットどうしが同時に実行することができない仕事種の作業をそれぞれ実行しないように複数のロボットの動作を制御する、
請求項44記載のロボット制御システム。 - 前記ロボットツールが、前記把持部全体に代えて前記腕部に装着される、請求項44記載のロボット制御システム。
- 前記ロボットツールが、前記把持部の一部に代えて前記腕部に装着される、請求項44記載のロボット制御システム。
- 前記把持部が、複数の指部を備え、前記把持部の一部が、指部の先端部である、請求項52記載のロボット制御システム。
- コンピュータを請求項44から53のいずれか1項に記載の前記判定部、前記取得部、前記制御部として動作させる、ロボット制御プログラム。
Applications Claiming Priority (18)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023034053A JP2024125919A (ja) | 2023-03-06 | 2023-03-06 | ロボットの制御システム、ロボットの制御プログラム |
JP2023-034053 | 2023-03-06 | ||
JP2023-063567 | 2023-04-10 | ||
JP2023063567A JP2024150246A (ja) | 2023-04-10 | 2023-04-10 | ロボット制御システム、及びロボット制御プログラム |
JP2023067106A JP2024153303A (ja) | 2023-04-17 | 2023-04-17 | ロボット制御システム、及びロボット制御プログラム |
JP2023-067106 | 2023-04-17 | ||
JP2023-083462 | 2023-05-19 | ||
JP2023083462A JP2024166984A (ja) | 2023-05-19 | 2023-05-19 | ロボットの制御システム、ロボットの制御プログラム |
JP2023-087305 | 2023-05-26 | ||
JP2023087305A JP2024170247A (ja) | 2023-05-26 | 2023-05-26 | ロボット管理システム |
JP2023-088254 | 2023-05-29 | ||
JP2023088254A JP2024171270A (ja) | 2023-05-29 | 2023-05-29 | ロボットの制御システム、ロボットの制御プログラム |
JP2023-094427 | 2023-06-07 | ||
JP2023094427A JP2024176142A (ja) | 2023-06-07 | 2023-06-07 | ロボットの制御システム、ロボットの制御プログラム |
JP2023105298A JP2025005209A (ja) | 2023-06-27 | 2023-06-27 | ロボットの制御システム、ロボットの制御プログラム |
JP2023-105298 | 2023-06-27 | ||
JP2023113331A JP2025010982A (ja) | 2023-07-10 | 2023-07-10 | ロボットの制御システム、ロボットの制御プログラム |
JP2023-113331 | 2023-07-10 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2024185745A1 true WO2024185745A1 (ja) | 2024-09-12 |
Family
ID=92675181
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2024/008072 WO2024185745A1 (ja) | 2023-03-06 | 2024-03-04 | ロボットの制御システム、ロボットの制御プログラム、ロボットの管理システム |
Country Status (1)
Country | Link |
---|---|
WO (1) | WO2024185745A1 (ja) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06328379A (ja) * | 1993-05-20 | 1994-11-29 | Nippon Telegr & Teleph Corp <Ntt> | ロボット制御装置 |
JP2005131718A (ja) * | 2003-10-29 | 2005-05-26 | Kawada Kogyo Kk | 歩行型ロボット |
JP2018100918A (ja) * | 2016-12-21 | 2018-06-28 | セイコーエプソン株式会社 | ロボット、エンコーダー、エンコーダーの調整方法、及び印刷装置 |
JP2019185258A (ja) * | 2018-04-05 | 2019-10-24 | カワダロボティクス株式会社 | 多機能統合型作業テーブルおよびそれを用いた生産システム |
WO2020071148A1 (ja) * | 2018-10-05 | 2020-04-09 | ソニー株式会社 | 運搬移動体 |
US20210016454A1 (en) * | 2019-07-16 | 2021-01-21 | Kindred Systems Inc. | Control of modular end-of-arm tooling for robotic manipulators |
JP2022550502A (ja) * | 2020-11-05 | 2022-12-02 | 株式会社Mujin | ロボットツール及びその動作方法 |
-
2024
- 2024-03-04 WO PCT/JP2024/008072 patent/WO2024185745A1/ja unknown
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06328379A (ja) * | 1993-05-20 | 1994-11-29 | Nippon Telegr & Teleph Corp <Ntt> | ロボット制御装置 |
JP2005131718A (ja) * | 2003-10-29 | 2005-05-26 | Kawada Kogyo Kk | 歩行型ロボット |
JP2018100918A (ja) * | 2016-12-21 | 2018-06-28 | セイコーエプソン株式会社 | ロボット、エンコーダー、エンコーダーの調整方法、及び印刷装置 |
JP2019185258A (ja) * | 2018-04-05 | 2019-10-24 | カワダロボティクス株式会社 | 多機能統合型作業テーブルおよびそれを用いた生産システム |
WO2020071148A1 (ja) * | 2018-10-05 | 2020-04-09 | ソニー株式会社 | 運搬移動体 |
US20210016454A1 (en) * | 2019-07-16 | 2021-01-21 | Kindred Systems Inc. | Control of modular end-of-arm tooling for robotic manipulators |
JP2022550502A (ja) * | 2020-11-05 | 2022-12-02 | 株式会社Mujin | ロボットツール及びその動作方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Vongbunyong et al. | Disassembly automation | |
Wilson | Implementation of robot systems: an introduction to robotics, automation, and successful systems integration in manufacturing | |
US12179369B2 (en) | Handling system and control method | |
CN104603704B (zh) | 超高柔性的生产制造 | |
US20230182293A1 (en) | Systems and methods for grasp planning for a robotic manipulator | |
Hunt | Understanding robotics | |
CN110914021A (zh) | 带有用于执行至少一个工作步骤的操纵设备的操纵装置以及方法和计算机程序 | |
WO2024185745A1 (ja) | ロボットの制御システム、ロボットの制御プログラム、ロボットの管理システム | |
Bard | An assessment of industrial robots: Capabilities, economics, and impacts | |
Weiss et al. | Identification of industrial robot arm work cell use cases and a test bed to promote monitoring, diagnostic, and prognostic technologies | |
CN219626157U (zh) | 一种转向轴智能加工实训生产线 | |
Yamaguchi et al. | Intelligent and Collaborative Robots | |
JP2024082209A (ja) | ロボットの制御システム、ロボットの制御プログラム | |
JP2024171270A (ja) | ロボットの制御システム、ロボットの制御プログラム | |
CN116300731A (zh) | 一种智能制造装配生产线控制系统及控制方法 | |
JP2025010982A (ja) | ロボットの制御システム、ロボットの制御プログラム | |
JP2024170247A (ja) | ロボット管理システム | |
CN115903769A (zh) | 自主测量机器人系统 | |
JP7225452B1 (ja) | 無人搬送装置、及びこれを備えた加工システム | |
JP2025005209A (ja) | ロボットの制御システム、ロボットの制御プログラム | |
JP2025036942A (ja) | ロボットの制御システム、ロボットの制御プログラム | |
WO2024204063A1 (ja) | ロボットの制御システム、ロボット、ロボットの制御プログラム | |
JP2024139608A (ja) | ロボットの制御システム、ロボット、ロボットの制御プログラム | |
JP2025021813A (ja) | ロボットの制御システム、ロボット、ロボットの制御プログラム | |
JP2024176142A (ja) | ロボットの制御システム、ロボットの制御プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 24767113 Country of ref document: EP Kind code of ref document: A1 |