JP6875578B2 - 柔軟な人間−機械協働のためのシステムおよび方法 - Google Patents
柔軟な人間−機械協働のためのシステムおよび方法 Download PDFInfo
- Publication number
- JP6875578B2 JP6875578B2 JP2020061903A JP2020061903A JP6875578B2 JP 6875578 B2 JP6875578 B2 JP 6875578B2 JP 2020061903 A JP2020061903 A JP 2020061903A JP 2020061903 A JP2020061903 A JP 2020061903A JP 6875578 B2 JP6875578 B2 JP 6875578B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- work
- user
- collaborative
- function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 84
- 230000006870 function Effects 0.000 claims description 292
- 230000033001 locomotion Effects 0.000 claims description 85
- 230000009471 action Effects 0.000 claims description 35
- 230000003993 interaction Effects 0.000 claims description 25
- 230000015654 memory Effects 0.000 claims description 19
- 238000003860 storage Methods 0.000 claims description 14
- 230000002452 interceptive effect Effects 0.000 claims description 11
- 230000008859 change Effects 0.000 claims description 10
- 230000004044 response Effects 0.000 claims description 10
- 230000000007 visual effect Effects 0.000 claims description 3
- 230000006399 behavior Effects 0.000 description 260
- 230000008569 process Effects 0.000 description 49
- 101710112672 Probable tape measure protein Proteins 0.000 description 36
- 101710204224 Tape measure protein Proteins 0.000 description 36
- 238000013507 mapping Methods 0.000 description 20
- 230000003542 behavioural effect Effects 0.000 description 18
- 239000012636 effector Substances 0.000 description 16
- 238000007726 management method Methods 0.000 description 15
- 238000005553 drilling Methods 0.000 description 10
- 230000006978 adaptation Effects 0.000 description 9
- 238000004519 manufacturing process Methods 0.000 description 9
- 230000008447 perception Effects 0.000 description 8
- 230000002093 peripheral effect Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 239000000203 mixture Substances 0.000 description 7
- 230000008901 benefit Effects 0.000 description 6
- 238000012549 training Methods 0.000 description 6
- 238000004590 computer program Methods 0.000 description 5
- 238000013461 design Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000003213 activating effect Effects 0.000 description 2
- 238000005520 cutting process Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 230000003936 working memory Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000008241 heterogeneous mixture Substances 0.000 description 1
- 238000009776 industrial production Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000000116 mitigating effect Effects 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 238000005498 polishing Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000008672 reprogramming Effects 0.000 description 1
- 238000013468 resource allocation Methods 0.000 description 1
- 238000002432 robotic surgery Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000012384 transportation and delivery Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
- 238000003466 welding Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1689—Teleoperation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/06—Control stands, e.g. consoles, switchboards
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1658—Programme controls characterised by programming, planning systems for manipulators characterised by programming language
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1661—Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/33—Director till display
- G05B2219/33051—BBC behavior based control, stand alone module, cognitive, independent agent
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/36—Nc in input of data, input key till input tape
- G05B2219/36422—During teaching shut off, disable motor to move arm easy
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39365—By using a cue, part of a stimulus to prompt an adapted reaction pattern
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40118—Task oriented virtual tool, developed for task, assists operator in task
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40122—Manipulate virtual object, for trajectory planning of real object, haptic display
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40131—Virtual reality control, programming of manipulator
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40391—Human to robot skill transfer
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/02—Arm motion controller
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/02—Arm motion controller
- Y10S901/03—Teaching system
- Y10S901/04—Manual lead through
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/46—Sensing device
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Manipulator (AREA)
- Stored Programmes (AREA)
- Blow-Moulding Or Thermoforming Of Plastics Or The Like (AREA)
Description
本出願は、2014年9月2日に出願された、Kelleher Guerin、Gregory D. Hager、およびSebastian Riedelらによる「System and Method for Flexible Human−Machine Collaboration」という表題の米国特許出願公開第14/475,184号明細書に関連したものであり、同出願を基礎とする出願優先権を主張し、その内容の全体を参照により本明細書に組み込む。
本発明は、米国国立科学財団(National Science Foundation)によって授与されたグラント番号NRI−1227277のもと、米国政府の支援を受けてなされたものである。米国政府は、本発明に対する一定の権利を有する。
および並列構成である
という、2つの合成作用素の定義も行う。当業者であれば、本開示の精神および範囲から逸脱することなく、これら以外の合成作用素も可能であることは理解されよう。合成作用素の使用を通じて、機能Cは、他の機能を構成することができる。したがって、機能Cは、他の複数の機能のうちの1つの構成物となる可能性があり、その場合は1つの複合機能とみなすことができる。反対に、機能Cは、他の機能を含まない場合、1つの基盤機能とみなすことができる。
は、入力コマンドの要求またはフィードバックの表示のどちらかにより、ユーザに1つ以上のインタフェースモダリティを提供する。なお、上式において、
は、協働システムが利用可能なすべてのユーザ対話機能のセットである。
は、実行時における少なくとも1つのロボットの機能をモデリングし、1つ以上のユーザ対話機能および/または1つ以上の他のロボット機能と結び付くことができる。なお、上式において、
は、協働システムが利用可能なすべてのロボット機能のセットである。ロボット機能の例を表1に示す。
および
)を通じて複合化されると想定する。ロボット機能R、および協働システムが利用可能なすべてのユーザ・インタフェース機能のセットである
について、互換関数である
は、あらゆるフィードバック・ループは人間オペレータ(たとえばユーザ)を通じて閉じられることから、Rへの入力提供またはRからの出力受容のどちらか片方のみを行う
で、ユーザ・インタフェース機能の適切なセット{U:γU→φU}を選択し、下式の通りになる。
によって満たされる。ロボット機能Rは、基礎ロボット機能または複合ロボット機能となり得る。図2は、ユーザおよびロボットに通信可能に結び付けられた機能の構成物を含む協働挙動の例を示す図である。協働システムは、ユーザとの間でどの情報をやりとりするかを制御するために協働挙動内の機能間のつながりは管理するが、機能に関連付けられたユーザ・インタフェースに関する個別の設計については一切設計も規定も行わないということに留意されたい。代わりに、機能の作成者または設計者は、機能に関連付けられたユーザ・インタフェースを自由に設計することができる。
となり得る。協働システムは、同様の手法を用いて、ユーザによって手動でガイドされた位置に同様の穴をドリルするといった作業や、知覚テンプレートに関連して上述した半自動で流れる部品に対して穴のパターンを繰り返しドリルするといった作業例など、他の作業に向けたより複雑な対話要件を導出することが可能である。
上に挙げたものの組み合わせも、コンピュータ可読媒体の範囲に含まれるべきものである。
Claims (20)
- フィードバックを利用するユーザ−ロボット協働のコンピュータ実施方法であって、
1つ以上の作業動作を実行するためのロボットの少なくとも1つの機能をモデリングするロボット機能を取得するステップと、
前記ロボット機能を、専用化済みロボット機能を提供するために情報カーネルを用いて専用化するステップであって、前記情報カーネルが、前記1つ以上の作業動作に関連付けられた作業関連パラメータのセットをカプセル化する、専用化するステップと、
前記専用化済みロボット機能のインスタンスを、前記作業関連パラメータのセットに基づいて、前記ロボットの前記少なくとも1つの機能を制御するロボット機能要素として提供するステップと、
前記ロボット機能要素の1つ以上のユーザ対話要件に基づいて、1つ以上のユーザ対話機能要素を取得するステップであって、前記ロボット機能要素が、ユーザ入力を受信し、前記1つ以上のユーザ対話機能要素を介してユーザ・フィードバックを提供する、取得するステップと、
前記作業関連パラメータのセットに基づいて、前記ユーザ入力と協働して前記1つ以上の作業動作を実行するように、前記ロボットの前記少なくとも1つの機能を制御するステップであって、前記ロボット機能要素が、前記1つ以上の作業動作に関連付けられた作業関連情報を生成する、制御するステップと、
前記作業関連情報を含む前記ユーザ・フィードバックを提供するステップと
を含む、コンピュータ実施方法。 - 前記1つ以上のユーザ対話機能要素を介して、1つ以上のユーザ・インタフェース(UI)を生成するステップと、
前記1つ以上のUIの少なくとも1つの入力UIを介して、前記ユーザ入力を受信するステップと、
前記1つ以上のUIの少なくとも1つの出力UIを介して、前記ユーザ・フィードバックを提供するステップと
をさらに含む、請求項1に記載のコンピュータ実施方法。 - 前記ユーザ・フィードバックが、ロボット・モーション情報、ロボット・セーフティ・パラメータ、またはロボット作業完了ステータスの少なくとも1つを含む、請求項2に記載のコンピュータ実施方法。
- 前記ユーザ入力および前記1つ以上の作業動作に基づいて、前記1つ以上の作業動作に関連付けられた定義されていないパラメータを識別するステップと、
前記少なくとも1つの出力UIを介して、前記定義されていないパラメータに関連付けられた情報を提供するステップと
をさらに含む、請求項2に記載のコンピュータ実施方法。 - 前記ユーザ入力が、前記ロボット機能を専用化するための前記情報カーネルの1つ以上のパラメータ化要件を満たせていないと判断するステップと、
前記少なくとも1つの出力UIを介して、前記ユーザ入力が、前記情報カーネルの前記1つ以上のパラメータ化要件を満たせていないことを指示するステップと、
前記少なくとも1つの入力UIを介して、追加のユーザ入力を受信するステップと、
前記追加のユーザ入力に基づいて、前記作業関連パラメータのセットを修正するステップと
をさらに含む、請求項2に記載のコンピュータ実施方法。 - 前記1つ以上の作業動作を実行するステップの後に前記少なくとも1つの出力UIを介して、前記1つ以上の作業動作を修正するように修正可能である、前記作業関連パラメータのセット内の1つ以上の作業関連パラメータを提供するステップ
をさらに含む、請求項2に記載のコンピュータ実施方法。 - 前記ロボットのロボット状態の新たなロボット状態への変化を検出するステップと、
前記ロボット状態の前記変化に応答して、前記ユーザ入力が前記新たなロボット状態に対して有効であると判断するステップと、
前記少なくとも1つの出力UIを介して、前記ユーザ入力が前記新たな状態に対して有効であると指示するステップと
をさらに含む、請求項6に記載のコンピュータ実施方法。 - 前記ロボットのロボット状態の新たなロボット状態への変化を検出するステップと、
前記ロボット状態の前記変化に応答して、前記ユーザ入力が前記新たなロボット状態に対して無効であると判断するステップと、
前記少なくとも1つの出力UIを介して、前記ユーザ入力が前記新たなロボット状態に対して無効であると指示するステップと、
前記少なくとも1つの入力UIを介して、修正済みユーザ入力を提供するように前記ユーザ入力を修正するステップと、
前記ロボットの前記少なくとも1つの機能を制御するステップの前に、前記修正済みユーザ入力が前記新たなロボット状態に対して有効であると判断するステップと
をさらに含む、請求項6に記載のコンピュータ実施方法。 - 前記1つ以上の作業動作を実施するステップの後に、前記ロボット機能要素をアンロードするステップと、
前記ロボット機能要素の代わりに新たなロボット機能要素をロードするステップと、
前記ユーザ入力が、前記新たなロボット機能要素の1つ以上のパラメータ化要件を満たせていないと判断するステップと、
前記少なくとも1つの出力UIを介して、前記ユーザ入力が、前記新たなロボット機能要素の前記1つ以上のパラメータ化要件を満たせていないことを指示するステップと、
前記少なくとも1つの入力UIを介して、追加のユーザ入力を受信するステップと
をさらに含む、請求項6に記載のコンピュータ実施方法。 - 前記1つ以上の作業動作を実施するステップの後に、前記ロボット機能要素をアンロードするステップと、
前記ロボット機能要素の代わりに新たなロボット機能要素をロードするステップと、
前記ユーザ入力が、前記新たなロボット機能要素の1つ以上のパラメータ化要件を満たしていると判断するステップと、
前記少なくとも1つの出力UIを介して、前記ユーザ入力が、前記新たなロボット機能要素の前記1つ以上のパラメータ化要件を満たしていることを指示するステップと、
前記少なくとも1つの出力UIを介して、前記ロボットのロボット状態の変化に関連付けられた情報を提供するステップと
をさらに含む、請求項6に記載のコンピュータ実施方法。 - 前記ユーザ・フィードバックが、前記1つ以上の作業動作を実行するのに利用可能なロボット機能要素のセットを含む、請求項1に記載のコンピュータ実施方法。
- 前記ユーザ・フィードバックを提供するステップが、
前記ユーザ・フィードバックを複数のユーザに提供するステップ
をさらに含む、請求項1に記載のコンピュータ実施方法。 - 前記ユーザ・フィードバックを提供するステップが、
前記ユーザ・フィードバックを、1つ以上のネットワーク接続を介して複数のユーザに提供するステップ
をさらに含む、請求項2に記載のコンピュータ実施方法。 - 前記ユーザ・フィードバックが視覚フィードバックを含む、請求項1に記載のコンピュータ実施方法。
- 前記ユーザ・フィードバックが触覚フィードバックを含む、請求項1に記載のコンピュータ実施方法。
- フィードバックを利用するユーザ−ロボット協働のためのシステムであって、
命令を記憶する、非一時的メモリと、
前記命令を実行して、前記システムに、
1つ以上の作業動作を実行するためのロボットの少なくとも1つの機能をモデリングするロボット機能を取得するステップと、
前記ロボット機能を、専用化済みロボット機能を提供するために情報カーネルを用いて専用化するステップであって、前記情報カーネルが、前記1つ以上の作業動作に関連付けられた作業関連パラメータのセットをカプセル化する、専用化するステップと、
前記専用化済みロボット機能のインスタンスを、前記作業関連パラメータのセットに基づいて、前記ロボットの前記少なくとも1つの機能を制御するロボット機能要素として提供するステップと、
前記ロボット機能要素の1つ以上のユーザ対話要件に基づいて、1つ以上のユーザ対話機能要素を取得するステップであって、前記ロボット機能要素が、ユーザ入力を受信し、前記1つ以上のユーザ対話機能要素を介してユーザ・フィードバックを提供する、取得するステップと、
前記作業関連パラメータのセットに基づいて、前記ユーザ入力と協働して前記1つ以上の作業動作を実行するように、前記ロボットの前記少なくとも1つの機能を制御するステップであって、前記ロボット機能要素が、前記1つ以上の作業動作に関連付けられた作業関連情報を生成する、制御するステップと、
前記作業関連情報を含む前記ユーザ・フィードバックを提供するステップと
を含む方法を実行させる、プロセッサと
を含む、システム。 - 前記命令が、前記プロセッサに、
前記1つ以上のユーザ対話機能要素を介して、1つ以上のユーザ・インタフェース(UI)を生成するステップと、
前記1つ以上のUIの少なくとも1つの入力UIを介して、前記ユーザ入力を受信するステップと、
前記1つ以上のUIの少なくとも1つの出力UIを介して、前記ユーザ・フィードバックを提供するステップと、
前記1つ以上の作業動作を実行するステップの後に前記少なくとも1つの出力UIを介して、前記1つ以上の作業動作を修正するように修正可能である、前記作業関連パラメータのセット内の1つ以上の作業関連パラメータを提供するステップと
をさらに実行させる、請求項16に記載のシステム。 - 前記命令が、前記プロセッサに、
前記1つ以上の作業動作を実施するステップの後に、前記ロボット機能要素をアンロードするステップと、
前記ロボット機能要素の代わりに新たなロボット機能要素をロードするステップと、
前記ユーザ入力が、前記新たなロボット機能要素の1つ以上のパラメータ化要件を満たせていないと判断するステップと、
前記少なくとも1つの出力UIを介して、前記ユーザ入力が、前記新たなロボット機能要素の前記1つ以上のパラメータ化要件を満たせていないことを指示するステップと、
前記少なくとも1つの入力UIを介して、追加のユーザ入力を受信するステップと
をさらに実行させる、請求項17に記載のシステム。 - 前記命令が、前記プロセッサに、
前記1つ以上の作業動作を実施するステップの後に、前記ロボット機能要素をアンロードするステップと、
前記ロボット機能要素の代わりに新たなロボット機能要素をロードするステップと、
前記ユーザ入力が、前記新たなロボット機能要素の1つ以上のパラメータ化要件を満たしていると判断するステップと、
前記少なくとも1つの出力UIを介して、前記ユーザ入力が、前記新たなロボット機能要素の前記1つ以上のパラメータ化要件を満たしていることを指示するステップと、
前記少なくとも1つの出力UIを介して、前記ロボットのロボット状態の変化に関連付けられた情報を提供するステップと
をさらに実行させる、請求項17に記載のシステム。 - プロセッサ上で実行されたとき、
1つ以上の作業動作を実行するためのロボットの少なくとも1つの機能をモデリングするロボット機能を取得するステップと、
前記ロボット機能を、専用化済みロボット機能を提供するために情報カーネルを用いて専用化するステップであって、前記情報カーネルが、前記1つ以上の作業動作に関連付けられた作業関連パラメータのセットをカプセル化する、専用化するステップと、
前記専用化済みロボット機能のインスタンスを、前記作業関連パラメータのセットに基づいて、前記ロボットの前記少なくとも1つの機能を制御するロボット機能要素として提供するステップと、
前記ロボット機能要素の1つ以上のユーザ対話要件に基づいて、1つ以上のユーザ対話機能要素を取得するステップであって、前記ロボット機能要素が、ユーザ入力を受信し、前記1つ以上のユーザ対話機能要素を介してユーザ・フィードバックを提供する、取得するステップと、
前記作業関連パラメータのセットに基づいて、前記ユーザ入力と協働して前記1つ以上の作業動作を実行するように、前記ロボットの前記少なくとも1つの機能を制御するステップであって、前記ロボット機能要素が、前記1つ以上の作業動作に関連付けられた作業関連情報を生成する、制御するステップと、
前記作業関連情報を含む前記ユーザ・フィードバックを提供するステップと
を含む方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021072015A JP7192026B2 (ja) | 2014-09-02 | 2021-04-21 | 柔軟な人間-機械協働のためのシステムおよび方法 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/475,184 US9272418B1 (en) | 2014-09-02 | 2014-09-02 | System and method for flexible human-machine collaboration |
US14/475,184 | 2014-09-02 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017511259A Division JP6685999B2 (ja) | 2014-09-02 | 2015-08-28 | 柔軟な人間−機械協働のためのシステムおよび方法 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021072015A Division JP7192026B2 (ja) | 2014-09-02 | 2021-04-21 | 柔軟な人間-機械協働のためのシステムおよび方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020192672A JP2020192672A (ja) | 2020-12-03 |
JP6875578B2 true JP6875578B2 (ja) | 2021-05-26 |
Family
ID=55359821
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017511259A Active JP6685999B2 (ja) | 2014-09-02 | 2015-08-28 | 柔軟な人間−機械協働のためのシステムおよび方法 |
JP2020061903A Active JP6875578B2 (ja) | 2014-09-02 | 2020-03-31 | 柔軟な人間−機械協働のためのシステムおよび方法 |
JP2021072015A Active JP7192026B2 (ja) | 2014-09-02 | 2021-04-21 | 柔軟な人間-機械協働のためのシステムおよび方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017511259A Active JP6685999B2 (ja) | 2014-09-02 | 2015-08-28 | 柔軟な人間−機械協働のためのシステムおよび方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021072015A Active JP7192026B2 (ja) | 2014-09-02 | 2021-04-21 | 柔軟な人間-機械協働のためのシステムおよび方法 |
Country Status (10)
Country | Link |
---|---|
US (4) | US9272418B1 (ja) |
EP (1) | EP3194123B1 (ja) |
JP (3) | JP6685999B2 (ja) |
KR (2) | KR102392114B1 (ja) |
CN (2) | CN106794581B (ja) |
CA (2) | CA3230196A1 (ja) |
DK (1) | DK3194123T3 (ja) |
ES (1) | ES2944479T3 (ja) |
MX (1) | MX373862B (ja) |
WO (1) | WO2016036593A1 (ja) |
Families Citing this family (55)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9272418B1 (en) | 2014-09-02 | 2016-03-01 | The Johns Hopkins University | System and method for flexible human-machine collaboration |
US9643314B2 (en) * | 2015-03-04 | 2017-05-09 | The Johns Hopkins University | Robot control, training and collaboration in an immersive virtual reality environment |
US9707680B1 (en) * | 2015-05-28 | 2017-07-18 | X Development Llc | Suggesting, selecting, and applying task-level movement parameters to implementation of robot motion primitives |
WO2017079344A1 (en) | 2015-11-02 | 2017-05-11 | The Johns Hopkins University | Generation of robotic user interface responsive to connection of peripherals to robot |
WO2017197018A2 (en) * | 2016-05-10 | 2017-11-16 | Trustees Of Tufts College | Systems and methods enabling online one-shot learning and generalization by intelligent systems of task-relevant features and transfer to a cohort of intelligent systems |
EP4342605A3 (en) | 2016-08-03 | 2024-08-14 | 3Deo, Inc. | Devices and methods for three-dimensional printing |
US10571902B2 (en) * | 2016-10-12 | 2020-02-25 | Sisu Devices Llc | Robotic programming and motion control |
CN107168182A (zh) * | 2017-06-28 | 2017-09-15 | 范崇山 | 一种室内机器人vr应用的系统及方法 |
CN109202882B (zh) * | 2017-06-29 | 2021-04-06 | 深圳模德宝科技有限公司 | 一种机器人的控制方法及其装置 |
CN107317822B (zh) * | 2017-07-25 | 2020-03-31 | 南京物联传感技术有限公司 | 一种带有虚实交互的智能家居体验系统及其使用方法 |
US11074528B2 (en) * | 2017-08-31 | 2021-07-27 | Accenture Global Solutions Limited | Robotic operations control system for a blended workforce |
CN107544248B (zh) * | 2017-09-13 | 2019-12-13 | 上海思岚科技有限公司 | 一种移动机器人中的任务优化方法及设备 |
WO2019090268A1 (en) * | 2017-11-03 | 2019-05-09 | Drishti Technologies, Inc. | Contextual training systems and methods |
WO2019095250A1 (zh) * | 2017-11-17 | 2019-05-23 | 腾讯科技(深圳)有限公司 | Vr场景下的角色模拟方法和终端设备 |
CN109968352B (zh) * | 2017-12-28 | 2021-06-04 | 深圳市优必选科技有限公司 | 一种机器人控制方法及机器人、具有存储功能的装置 |
EP3733356A4 (en) * | 2017-12-28 | 2020-12-16 | Fuji Corporation | INFORMATION PROVISION SYSTEM, INFORMATION PROVISION PROCESS AND PROGRAM |
US10913154B2 (en) | 2018-01-02 | 2021-02-09 | General Electric Company | Systems and method for robotic learning of industrial tasks based on human demonstration |
US11281208B2 (en) * | 2018-03-02 | 2022-03-22 | Carnegie Mellon University | Efficient teleoperation of mobile robots via online adaptation |
US11285607B2 (en) * | 2018-07-13 | 2022-03-29 | Massachusetts Institute Of Technology | Systems and methods for distributed training and management of AI-powered robots using teleoperation via virtual spaces |
US10953541B2 (en) * | 2018-07-31 | 2021-03-23 | At&T Intellectual Property I, L.P. | Providing logistical support for robots |
US11440119B2 (en) * | 2018-10-12 | 2022-09-13 | Teradyne, Inc. | System and method for weld path generation |
CN109352661B (zh) * | 2018-12-11 | 2022-01-18 | 上海辛格林纳新时达电机有限公司 | 一种机器人关节的控制方法、伺服驱动装置和可存储介质 |
DE102018133337A1 (de) * | 2018-12-21 | 2020-06-25 | Rittal Gmbh & Co. Kg | Verfahren zur Verdrahtung von elektrischen Komponenten einer auf einer Montageplatte angeordneten elektrischen Schaltanlage |
AU2020243135A1 (en) * | 2019-03-19 | 2021-10-07 | Sandvik Mining And Construction Oy | Mine vehicle boom positioning control |
CN110125455B (zh) * | 2019-05-27 | 2020-06-02 | 清华大学 | 一种用于机器人钻孔中优化钻头位姿的方法 |
US11497564B2 (en) * | 2019-06-07 | 2022-11-15 | Verb Surgical Inc. | Supervised robot-human collaboration in surgical robotics |
CN110270998A (zh) * | 2019-06-12 | 2019-09-24 | 上海宾通智能科技有限公司 | 机器人调度方法、电子设备和计算机可读存储介质 |
DE102019216560B4 (de) * | 2019-10-28 | 2022-01-13 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Trainieren von Manipulationsfertigkeiten eines Robotersystems |
CN112847430B (zh) * | 2019-11-26 | 2022-03-29 | 中国科学院沈阳自动化研究所 | 一种协作机器人本质安全设计方法 |
CN110900061A (zh) * | 2019-12-13 | 2020-03-24 | 遨博(北京)智能科技有限公司 | 一种焊接工艺块生成方法、装置、焊接机器人及存储介质 |
CN111267099B (zh) * | 2020-02-24 | 2023-02-28 | 东南大学 | 基于虚拟现实的陪护机器控制系统 |
CN111311106B (zh) * | 2020-03-02 | 2023-02-03 | 广东工业大学 | 一种在ros上利用非经典规划器实现任务规划的方法及系统 |
US11494716B2 (en) * | 2020-04-07 | 2022-11-08 | Husqvarna Ab | System, apparatus, and method for determining a surfacing or cutting consumable products |
US12070861B2 (en) | 2020-04-14 | 2024-08-27 | 3Deo, Inc. | Robotics for three-dimensional printing |
US11524402B2 (en) * | 2020-05-21 | 2022-12-13 | Intrinsic Innovation Llc | User feedback for robotic demonstration learning |
US11679497B2 (en) | 2020-05-21 | 2023-06-20 | Intrinsic Innovation Llc | Distributed robotic demonstration learning |
US11685047B2 (en) | 2020-05-21 | 2023-06-27 | Intrinsic Innovation Llc | Skill template distribution for robotic demonstration learning |
US11986958B2 (en) * | 2020-05-21 | 2024-05-21 | Intrinsic Innovation Llc | Skill templates for robotic demonstration learning |
US11534913B2 (en) | 2020-05-21 | 2022-12-27 | Intrinsic Innovation Llc | Integrating sensor streams for robotic demonstration learning |
US20230321829A1 (en) * | 2020-05-27 | 2023-10-12 | Telefonaktiebolaget Lm Ericsson (Publ) | In-Network Control of Actuators for Robotic Arms |
US11294793B1 (en) * | 2020-10-23 | 2022-04-05 | UiPath Inc. | Robotic process automation (RPA) debugging systems and methods |
CN112356031B (zh) * | 2020-11-11 | 2022-04-01 | 福州大学 | 一种基于Kernel采样策略在不确定性环境下的在线规划方法 |
FR3116747B1 (fr) * | 2020-11-30 | 2023-04-21 | Mbda France | Système et procédé d’apprentissage de mouvement pour programmer au moins un dispositif robotisé. |
CN112936267B (zh) * | 2021-01-29 | 2022-05-27 | 华中科技大学 | 一种人机协作智能制造方法及系统 |
CN113352322B (zh) * | 2021-05-19 | 2022-10-04 | 浙江工业大学 | 一种基于最优导纳参数的自适应人机协作控制方法 |
CN113687817B (zh) * | 2021-08-16 | 2023-10-31 | 山东新一代信息产业技术研究院有限公司 | 一种消息格式解析器及解析方法 |
CN113657059B (zh) * | 2021-08-17 | 2023-05-09 | 成都视海芯图微电子有限公司 | 一种适用于点云数据处理器的自动化设计方法及装置 |
CN113900384B (zh) * | 2021-10-13 | 2024-06-25 | 达闼科技(北京)有限公司 | 机器人与智能设备交互的方法、装置及电子设备 |
CN114219220B (zh) * | 2021-11-18 | 2022-12-09 | 中国电子产品可靠性与环境试验研究所((工业和信息化部电子第五研究所)(中国赛宝实验室)) | 人机工效评估方法、系统、计算机设备和存储介质 |
DE102021131028A1 (de) | 2021-11-26 | 2023-06-01 | Schaeffler Technologies AG & Co. KG | Verbesserte Mensch-Roboter-Interaktion durch erweiterte Realität |
KR102610426B1 (ko) * | 2021-11-30 | 2023-12-06 | 서울시립대학교 산학협력단 | 조직 기반 작업 명세를 이용하는 다중 로봇 작업의 처리 방법 및 장치 |
KR102453962B1 (ko) * | 2021-12-10 | 2022-10-14 | 김판수 | 행동 모사 플랫폼 서비스 제공 시스템 |
KR102604104B1 (ko) | 2022-03-02 | 2023-11-17 | 광운대학교 산학협력단 | 인간-로봇 협업 상태 기반 가변 어드미턴스 제어 방법, 이를 수행하는 장치 및 컴퓨터 프로그램 |
CN114986525B (zh) * | 2022-07-13 | 2024-09-03 | 佛山纽欣肯智能科技有限公司 | 一种基于多模态信息的机器人手持示教装置与方法 |
CN115139314B (zh) * | 2022-07-26 | 2024-11-12 | 北京航空航天大学 | 一种基于增强现实及视觉辅助的人机协作钻铆系统和方法 |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01154206A (ja) * | 1987-12-10 | 1989-06-16 | Honda Motor Co Ltd | ティーチングボックス |
US5293461A (en) * | 1991-11-20 | 1994-03-08 | The University Of British Columbia | System for determining manipulator coordinates |
JP3529158B2 (ja) * | 1994-05-18 | 2004-05-24 | ファナック株式会社 | ロボット動作プログラミング方法及びプログラミング装置 |
JPH08112790A (ja) * | 1994-10-13 | 1996-05-07 | Toshiba Corp | 作業ロボット |
JPH11191005A (ja) * | 1997-12-25 | 1999-07-13 | Tokico Ltd | ロボット制御装置 |
JP2000006068A (ja) | 1998-06-25 | 2000-01-11 | Nippon Telegr & Teleph Corp <Ntt> | ヒューマン・ロボットコラボレーション制御方法と装置及びプログラムを記録した記録媒体 |
JP2000010618A (ja) * | 1998-06-25 | 2000-01-14 | Nippon Telegr & Teleph Corp <Ntt> | ロボット教示装置およびロボット教示装置用アプリケーション製造装置とそのプログラムを記録した記録媒体 |
CN1311861A (zh) * | 1998-08-07 | 2001-09-05 | 约翰霍普金斯大学 | 使用并行多普勒处理的雷达冰探测器 |
US7054798B2 (en) * | 2001-07-19 | 2006-05-30 | International Business Machines Corporation | Punch and die optimization |
US8060251B2 (en) * | 2004-12-06 | 2011-11-15 | Honda Motor Co., Ltd. | Interface for robot motion control |
CN101390027A (zh) | 2006-02-23 | 2009-03-18 | Abb公司 | 依靠从使用者接收的力和扭矩控制物体的位置及方位的系统 |
US7792602B2 (en) * | 2006-08-22 | 2010-09-07 | Precision Automation, Inc. | Material processing system and a material processing method including a saw station and an interface with touch screen |
WO2008083489A1 (en) * | 2007-01-12 | 2008-07-17 | Hansjorg Baltes | Method and system for robot generation |
DE602007013470D1 (de) * | 2007-03-30 | 2011-05-05 | Abb Technology Ab | Verfahren und vorrichtung zur programmierung eines industrieroboters |
JP4997145B2 (ja) * | 2008-02-29 | 2012-08-08 | トヨタ自動車株式会社 | パワーアシスト装置およびその制御方法 |
KR101021836B1 (ko) * | 2008-10-09 | 2011-03-17 | 한국전자통신연구원 | 동적 행위 바인딩을 통한 다수 로봇의 협업 구현 시스템 및그 구현 방법 |
KR20100086262A (ko) * | 2009-01-22 | 2010-07-30 | 삼성전자주식회사 | 로봇 및 그 제어방법 |
CN101549498B (zh) * | 2009-04-23 | 2010-12-29 | 上海交通大学 | 智能帮扶式助行机器人的自主跟踪与导航系统 |
US8260460B2 (en) * | 2009-09-22 | 2012-09-04 | GM Global Technology Operations LLC | Interactive robot control system and method of use |
JP5573275B2 (ja) * | 2010-03-25 | 2014-08-20 | 富士ゼロックス株式会社 | 特徴点抽出装置及びこれを用いた動作教示装置、動作処理装置 |
JP2011200997A (ja) * | 2010-03-26 | 2011-10-13 | Kanto Auto Works Ltd | ロボットのティーチング装置及びティーチング方法 |
US20120016671A1 (en) * | 2010-07-15 | 2012-01-19 | Pawan Jaggi | Tool and method for enhanced human machine collaboration for rapid and accurate transcriptions |
WO2012065175A2 (en) * | 2010-11-11 | 2012-05-18 | The Johns Hopkins University | Human-machine collaborative robotic systems |
JP4991023B2 (ja) * | 2010-11-12 | 2012-08-01 | パナソニック株式会社 | 移動経路探索装置および移動経路探索方法 |
US8818556B2 (en) * | 2011-01-13 | 2014-08-26 | Microsoft Corporation | Multi-state model for robot and user interaction |
US8977388B2 (en) * | 2011-04-29 | 2015-03-10 | Sarcos Lc | Platform perturbation compensation |
JP2013054629A (ja) * | 2011-09-06 | 2013-03-21 | Honda Motor Co Ltd | 制御装置及び方法 |
WO2014089316A1 (en) | 2012-12-06 | 2014-06-12 | International Electronic Machines Corporation | Human augmentation of robotic work |
US9272418B1 (en) * | 2014-09-02 | 2016-03-01 | The Johns Hopkins University | System and method for flexible human-machine collaboration |
JP6441061B2 (ja) * | 2014-12-16 | 2018-12-19 | 株式会社ダイヘン | 機械制御システム及び機械制御システムのユーザインタフェース設定方法 |
-
2014
- 2014-09-02 US US14/475,184 patent/US9272418B1/en active Active
-
2015
- 2015-08-28 WO PCT/US2015/047394 patent/WO2016036593A1/en active Application Filing
- 2015-08-28 CA CA3230196A patent/CA3230196A1/en active Pending
- 2015-08-28 KR KR1020177008653A patent/KR102392114B1/ko active Active
- 2015-08-28 EP EP15837602.0A patent/EP3194123B1/en active Active
- 2015-08-28 CN CN201580047141.1A patent/CN106794581B/zh active Active
- 2015-08-28 MX MX2017002723A patent/MX373862B/es active IP Right Grant
- 2015-08-28 ES ES15837602T patent/ES2944479T3/es active Active
- 2015-08-28 CA CA2958885A patent/CA2958885C/en active Active
- 2015-08-28 DK DK15837602.0T patent/DK3194123T3/da active
- 2015-08-28 CN CN202011259782.2A patent/CN112428270B/zh active Active
- 2015-08-28 JP JP2017511259A patent/JP6685999B2/ja active Active
- 2015-08-28 KR KR1020227013923A patent/KR102564933B1/ko active Active
-
2016
- 2016-01-19 US US15/001,003 patent/US9586315B2/en active Active
-
2017
- 2017-02-03 US US15/424,369 patent/US10022870B2/en active Active
-
2018
- 2018-06-14 US US16/008,451 patent/US10807237B2/en active Active
-
2020
- 2020-03-31 JP JP2020061903A patent/JP6875578B2/ja active Active
-
2021
- 2021-04-21 JP JP2021072015A patent/JP7192026B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
CA2958885A1 (en) | 2016-03-10 |
MX373862B (es) | 2025-03-05 |
US9586315B2 (en) | 2017-03-07 |
US10022870B2 (en) | 2018-07-17 |
EP3194123B1 (en) | 2023-03-29 |
EP3194123A1 (en) | 2017-07-26 |
KR20170047364A (ko) | 2017-05-04 |
US20180290303A1 (en) | 2018-10-11 |
WO2016036593A1 (en) | 2016-03-10 |
KR102564933B1 (ko) | 2023-08-08 |
JP7192026B2 (ja) | 2022-12-19 |
CA2958885C (en) | 2024-04-02 |
CN106794581B (zh) | 2020-12-01 |
CN112428270A (zh) | 2021-03-02 |
US20170144304A1 (en) | 2017-05-25 |
US9272418B1 (en) | 2016-03-01 |
KR20220063282A (ko) | 2022-05-17 |
MX2017002723A (es) | 2017-05-09 |
CA3230196A1 (en) | 2016-03-10 |
JP6685999B2 (ja) | 2020-04-22 |
DK3194123T3 (da) | 2023-05-30 |
US20160129590A1 (en) | 2016-05-12 |
JP2020192672A (ja) | 2020-12-03 |
CN112428270B (zh) | 2024-06-04 |
ES2944479T3 (es) | 2023-06-21 |
JP2017525574A (ja) | 2017-09-07 |
CN106794581A (zh) | 2017-05-31 |
EP3194123A4 (en) | 2018-05-09 |
US10807237B2 (en) | 2020-10-20 |
JP2021107110A (ja) | 2021-07-29 |
US20160059415A1 (en) | 2016-03-03 |
KR102392114B1 (ko) | 2022-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6875578B2 (ja) | 柔軟な人間−機械協働のためのシステムおよび方法 | |
US11951631B2 (en) | Object marking to support tasks by autonomous machines | |
Herrero et al. | Skill based robot programming: Assembly, vision and Workspace Monitoring skill interaction | |
Yun et al. | Immersive and interactive cyber-physical system (I2CPS) and virtual reality interface for human involved robotic manufacturing | |
Guerin et al. | Adjutant: A framework for flexible human-machine collaborative systems | |
WO2018176025A1 (en) | System and method for engineering autonomous systems | |
Galambos et al. | Merged physical and virtual reality in collaborative virtual workspaces: The VirCA approach | |
Wang et al. | Augmented reality enabled human–robot collaboration | |
Akkaladevi et al. | Programming-free approaches for human–robot collaboration in assembly tasks | |
US12115670B2 (en) | Equipment specific motion plan generation for robotic skill adaptation | |
Solvang et al. | On industrial robots and cognitive info-communication | |
Ohara et al. | Component-based robot software design for pick-and-place task described by SysML | |
Hou et al. | Mobile Manipulation Tutorial | |
Formanek et al. | INMOOV PROJECT CONTROLLED BY ROBOT OPERATING SYSTEM (ROS) | |
Hiesmair et al. | in Assembly Tasks | |
Yan et al. | A preliminary study of the RADOE project |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200429 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200529 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201005 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210323 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210422 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6875578 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE Ref document number: 6875578 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |