[go: up one dir, main page]

JP2015168040A - ロボット、ロボットシステム、制御装置、及び制御方法 - Google Patents

ロボット、ロボットシステム、制御装置、及び制御方法 Download PDF

Info

Publication number
JP2015168040A
JP2015168040A JP2014045752A JP2014045752A JP2015168040A JP 2015168040 A JP2015168040 A JP 2015168040A JP 2014045752 A JP2014045752 A JP 2014045752A JP 2014045752 A JP2014045752 A JP 2014045752A JP 2015168040 A JP2015168040 A JP 2015168040A
Authority
JP
Japan
Prior art keywords
robot
hand
target
coordinate system
predetermined position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014045752A
Other languages
English (en)
Other versions
JP6380828B2 (ja
Inventor
高志 南本
Takashi Minamimoto
高志 南本
一弘 小菅
Kazuhiro Kosuge
一弘 小菅
橋本 浩一
Koichi Hashimoto
浩一 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tohoku University NUC
Seiko Epson Corp
Original Assignee
Tohoku University NUC
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tohoku University NUC, Seiko Epson Corp filed Critical Tohoku University NUC
Priority to JP2014045752A priority Critical patent/JP6380828B2/ja
Priority to CN201510093422.2A priority patent/CN104889973B/zh
Priority to EP15157376.3A priority patent/EP2915635B1/en
Priority to US14/636,542 priority patent/US9656388B2/en
Publication of JP2015168040A publication Critical patent/JP2015168040A/ja
Priority to US15/958,518 priority patent/USRE47553E1/en
Application granted granted Critical
Publication of JP6380828B2 publication Critical patent/JP6380828B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1687Assembly, peg and hole, palletising, straight line, weaving pattern movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39346Workspace impedance control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39394Compensate hand position with camera detected deviation, new end effector attitude
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39483Control angle of rotation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39487Parallel jaws, two fingered hand
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39543Recognize object and plan hand shapes in grasping movements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40583Detect relative position or orientation between gripper and currently handled object

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Manipulator (AREA)

Abstract

【課題】良好な組み立て作業を行うことができるロボットを提供すること。【解決手段】ハンドと、ハンドを動作させる制御部と、を含み、制御部は、ハンドと第1物体とを含む撮像画像に基づいて、ハンドによって、第1物体の所定位置を中心に第1物体を回転させ、第1物体を第2物体に対して相対移動させる、ロボットである。【選択図】図4

Description

この発明は、ロボット、ロボットシステム、制御装置、及び制御方法に関する。
力センサーにより取得された情報であって、ロボットの把持部や、把持部に把持された操作対象に働いた力に関する情報と、撮像部により撮像された撮像画像とに基づいて、ロボットのコンプライアントモーション制御を行う技術が研究・開発されている。
これに関連し、例えば、ロボットに操作対象と組付対象を所定の状態に組み立てる組み立て作業をさせる場合、操作対象に対して定義されたコンプライアントモーション制御の座標軸の向きを撮像画像から逐次取得することで、作業中に操作対象の姿勢が変化しても、初期状態におけるコンプライアントモーション制御の各軸に対して設定されていた運動特性を保ち、良好な組み立て作業を行うようにロボットを制御する制御装置が知られている。そして、そのような制御装置において、操作対象に加わる回転モーメントに応じて、操作対象が回転運動する際の回転中心を操作対象の所定位置に設定することで、良好な組み立て作業を行うようにロボットを制御する方法が知られている(非特許文献1参照)。
Proceedings of the 2001 IEEE/RSJ International Conference on Intelligent Robots and Systems, pp.1477-1482, 2001.
しかしながら、従来の方法では、作業中に操作対象が組付対象と接触することで把持部と操作対象との相対位置とともに回転中心の位置が変化してしまうと、その回転中心の位置の変化を検出することができず、良好な組み立て作業が行えない場合があった。
そこで本発明は、上記従来の方法の問題に鑑みてなされたものであり、良好な組み立て作業を行うことができるロボット、ロボットシステム、制御装置、及び制御方法を提供する。
本発明の一態様は、ハンドと、前記ハンドを動作させる制御部と、を含み、前記制御部は、前記ハンドと第1物体とを含む撮像画像に基づいて、前記ハンドによって、前記第1物体の所定位置を中心に前記第1物体を回転させ、前記第1物体を第2物体に対して相対移動させる、ロボットである。
この構成により、ロボットは、ハンドと第1物体とを含む撮像画像に基づいて、ハンドによって、第1物体の所定位置を中心に第1物体を回転させ、第1物体を第2物体に対して相対移動させる。このため、ロボットは、良好な組み立て作業を行うことができる。
また、本発明の一態様は、ロボットにおいて、前記所定位置は、前記第1物体とともに動く座標原点であり、前記制御部は、前記第1物体を回転させることに加えて、前記第1物体を並進させる、構成が用いられてもよい。
この構成により、ロボットは、回転させる場合の回転中心を第1物体とともに動く座標原点として、回転と並進によって第1物体を第2物体に対して相対移動させる。このため、ロボットは、良好な組み立て作業を行うことができる。
また、本発明の一態様は、ロボットにおいて、前記制御部は、前記撮像画像に基づいて、ビジュアルサーボ制御を行う、構成が用いられてもよい。
この構成により、ロボットは、撮像画像に基づいて、ビジュアルサーボ制御を行う。このため、ロボットは、第1物体を第2物体に対して逐次相対移動させることができるため、その結果として、精度の高い良好な組み立て作業を行うことができる。
前記制御部は、前記所定位置及び各軸方向に設定された運動特性に従ってコンプライアントモーション制御を行う、構成が用いられてもよい。
この構成により、ロボットは、所定位置及び各軸方向に設定された運動特性に従ってコンプライアントモーション制御を行う。このため、ロボットは、第2物体を破壊することなく、第2物体に対して第1物体を組み付けることができる。
また、本発明の一態様は、ロボットにおいて、前記制御部は、前記撮像画像に基づいて、前記ハンドに設定された位置と前記第1物体に設定された位置との相対的な位置関係を導出し、前記導出された位置関係に基づいて、前記所定位置を更新する、構成が用いられてもよい。
この構成により、ロボットは、撮像画像に基づいて、ハンドに設定された位置と第1物体に設定された位置との相対的な位置関係を導出し、導出された位置関係に基づいて、所定位置を更新する。このため、ロボットは、外力によってハンドと所定位置の位置関係がずらされても、ずらされた所定位置を中心に第1物体を第2物体に対して相対移動させることができ、その結果、良好な組み立て作業を行うことができる。
また、本発明の一態様は、ロボットにおいて、前記制御部は、前記導出された位置関係と、前記第1物体に設定された位置と前記所定位置との相対的な位置関係とに基づいて、前記所定位置を更新する、構成が用いられてもよい。
この構成により、ロボットは、ハンドに設定された位置と第1物体に設定された位置との相対的な位置関係を導出し、導出された位置関係と、第1物体に設定された位置と所定位置との相対的な位置関係とに基づいて、所定位置を更新する。このため、ロボットは、外力によってハンドと所定位置の位置関係がずらされても、第1物体に設定された位置を介して、間接的にハンドに設定された位置と所定位置との相対的な位置関係から、ずらされた所定位置を認識することができ、その結果、ずらされた所定位置を中心に第1物体を第2物体に対して相対移動させることができる。
また、本発明の一態様は、ロボットは、前記ハンドに働いた外力を検出する力センサーの位置を示すマーカーを備え、前記撮像画像は、さらに、前記マーカーを含み、ロボットにおいて、前記ハンドに設定された位置は、前記力センサーの位置によって表され、前記制御部は、前記撮像画像から検出された前記マーカーの位置に基づいて、前記ハンドに設定された位置と前記所定位置の相対的な位置関係を導出し、前記導出された前記ハンドに設定された位置と前記所定位置の相対的な位置関係に基づいて、前記所定位置を更新する、構成が用いられてもよい。
この構成により、ロボットは、撮像画像から検出された力センサーの位置を示すマーカーの位置に基づいて、ハンドに設定された位置と所定位置の相対的な位置関係を導出し、導出されたハンドに設定された位置と所定位置の相対的な位置関係に基づいて、所定位置を更新する。このため、ロボットは、力センサーがロボットのアーム部の部材に覆われていた場合であっても、力センサーを示すマーカーの位置を目印として、第1物体の位置を認識することができ、その結果、良好な組み立て作業を行うことができる。
また、本発明の一態様は、ロボットは、前記ハンドに働いた外力を検出する力センサーを備え、前記ハンドに設定された位置は、前記力センサーの位置によって表され、ロボットにおいて、前記制御部は、前記力センサーの初期状態における位置及び姿勢に基づいて、前記ハンドに設定されたと前記所定位置の相対的な位置関係を導出し、前記導出された前記ハンドに設定された位置と前記所定位置の相対的な位置関係に基づいて、前記所定位置を更新する、構成が用いられてもよい。
この構成により、ロボットは、力センサーの初期状態における位置及び姿勢に基づいて、ハンドに設定されたと所定位置の相対的な位置関係を導出し、導出されたハンドに設定された位置と所定位置の相対的な位置関係に基づいて、所定位置を更新する。このため、ロボットは、撮像部の画角から、力センサーを含むロボットのアーム部が外れてしまう場合であっても、第1物体の位置を認識することができ、その結果、良好な組み立て作業を行うことができる。
また、本発明の一態様は、ハンドを備えるロボットと、前記ハンドと第1物体とを撮像する撮像部と、を含み、前記ロボットは、前記撮像部により撮像された前記ハンドと前記第1物体とを含む撮像画像に基づいて、前記第1物体の所定位置を中心に、前記第1物体を回転させて、前記第1物体を第2物体に対して相対移動させる、ロボットシステムである。
この構成により、ロボットシステムは、ハンドと第1物体とを含む撮像画像に基づいて、第1物体の所定位置を中心に、第1物体を回転させて、第1物体を第2物体に対して相対移動させる。このため、ロボットシステムは、ロボットによって良好な組み立て作業を行うことができる。
また、本発明の一態様は、ハンドを備えるロボットを動作させる制御装置であって、前記ハンドと第1物体とを含む撮像画像に基づいて、前記ロボットによって、前記第1物体の所定位置を中心に前記第1物体を回転させ、前記第1物体を第2物体に対して相対移動させる、制御装置である。
この構成により、制御装置は、ハンドと第1物体とを含む撮像画像に基づいて、ロボットによって、第1物体の所定位置を中心に第1物体を回転させ、第1物体を第2物体に対して相対移動させる。このため、制御装置は、ロボットによって良好な組み立て作業を行うことができる。
また、本発明の一態様は、ハンドを備えるロボットを動作させる制御方法であって、前記ハンドと第1物体とを含む撮像画像を取得することと、前記撮像画像に基づいて、前記第1物体の所定位置を中心に前記第1物体を回転させ、前記第1物体を第2物体に対して相対移動させることと、を含む制御方法である。
この構成により、制御方法は、撮像画像に基づいて、第1物体の所定位置を中心に第1物体を回転させ、第1物体を第2物体に対して相対移動させる。このため、制御方法は、良好な組み立て作業を行うことができる。
以上により、ロボット、ロボットシステム、制御装置、及び制御方法は、ハンドと第1物体とを含む撮像画像に基づいて、ハンドによって、第1物体の所定位置を中心に第1物体を回転させ、第1物体を第2物体に対して相対移動させる。このため、ロボット、ロボットシステム、制御装置、及び制御方法は、良好な組み立て作業を行うことができる。
第1の実施形態に係るロボットシステム1の一例を示す構成図である。 ロボットシステム1において使用する座標系の一例を示す図である。 制御装置30のハードウェア構成の一例を示す図である。 制御装置30の機能構成の一例を示す図である。 制御装置30が、操作対象Mと組付対象Oとを組み付けるようにロボット20を制御するための処理の流れの一例を示すフローチャートである。 第2の実施形態に係るロボットシステム2の一例を示す構成図である。 第3の実施形態に係るロボットシステム1によって行われる所定の作業の一例を模式的に示す図である。 制御装置30の制御部36が、レンチM1によりボルトO1を締めるようにロボット20を動作させるための処理の流れの一例を示すフローチャートである。
<第1の実施形態>
以下、本発明の第1の実施形態について、図面を参照して説明する。図1は、第1の実施形態に係るロボットシステム1の一例を示す構成図である。ロボットシステム1は、撮像部10と、ロボット20と、制御装置30を具備する。
撮像部10は、例えば、集光された光を電気信号に変換する撮像素子であるCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等を備えたカメラである。また、撮像部10は、2台のカメラによって構成されるステレオカメラであるが、例えば、3台以上のカメラによって構成されてもよいし、1台のカメラにより二次元画像を撮像する構成であってもよい。
撮像部10は、ケーブルによって制御装置30と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB(Universal Serial Bus)等の規格によって行われる。なお、撮像部10と制御装置30とは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって接続される構成であってもよい。
撮像部10は、ロボット20と、ロボット20の把持部HNDが把持している操作対象Mと、ロボット20により操作対象Mが組み付けられる組付対象Oが含まれる範囲を撮像可能な位置に設置されている。操作対象Mは、例えば、組付対象Oへ所定の状態で組み付けられることで、1つの工業製品を形成する部材である。なお、以下の説明では、操作対象Mは、予めロボット20の把持部HNDに把持されていることを前提とする。
組付対象Oは、図1に示したように、ロボット20により操作対象Mを組み付けることが可能な範囲で、ロボット20から離れた位置に治具等によって予め設置されている。
ロボット20は、例えば、把持部HND(エンドエフェクター)と、力センサー22と、アーム部ARM(マニピュレーター)と、図示しない複数のアクチュエーターを備えた単腕ロボットである。なお、ロボットシステム1は、単腕ロボットを具備する構成に代えて、双腕ロボットを具備する構成であってもよい。ロボットシステム1が双腕ロボットを具備する構成の実施例については、第2の実施形態で説明する。
ロボット20の腕は、6軸垂直多関節型となっており、支持台とアーム部ARMと把持部HNDとがアクチュエーターによる連携した動作よって6軸の自由度の動作を行うことができる。なお、ロボット20の腕は、5自由度(5軸)以下で動作するものであってもよいし、7自由度(7軸)以上で動作するものであってもよい。以下では、把持部HND及びアーム部ARMを備えた腕によって行われるロボット20の動作について説明する。なお、把持部HNDは、ハンドの一例である。
ロボット20は、例えばケーブルによって制御装置30と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。なお、ロボット20と制御装置30とは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって接続されてもよい。また、ロボットシステム1では、ロボット20は、図1に示したようにロボット20の外部に設置された制御装置30と接続されている構成とするが、この構成に代えて、制御装置30がロボット20に内蔵されている構成であってもよい。
ロボット20の把持部HNDは、物体を把持可能な爪部を備える。
力センサー22は、ロボット20の把持部HNDとアーム部ARMとの間に備えられており、把持部HND(あるいは、把持部HNDに把持された操作対象M)に作用した力やモーメントを検出する。力センサー22は、検出した力やモーメントを示す情報を、通信により制御装置30へ出力する。力センサー22により検出された力やモーメントを示す情報は、例えば、制御装置30によるロボット20のコンプライアントモーション制御等に用いられる。
ロボット20は、操作対象M、組付対象O、力センサー22それぞれの相対的な位置関係に基づいた制御信号を制御装置30から取得し、取得した制御信号に基づいて、操作対象Mに対して所定の作業を行う。所定の作業とは、例えば、ロボット20の把持部HNDにより把持された操作対象Mを現在位置から移動させ、組付対象Oに組み付ける作業等である。
制御装置30は、ロボット20が所定の作業を行うように制御する。より具体的には、制御装置30は、撮像部10により撮像された撮像画像であって、ロボット20と、ロボット20の把持部HNDが把持している操作対象Mと、ロボット20により操作対象Mが組み付けられる組付対象Oとが含まれる範囲が撮像された撮像画像に基づいて、操作対象Mと組付対象Oと力センサー22の相対的な位置関係を導出する。
そして、制御装置30は、導出された相対的な位置関係に基づいてロボット20が所定の作業を行うようにロボット20を制御する。すなわち、制御装置30は、把持部HND及びアーム部ARMによって操作対象Mを組付対象Oに対して相対移動させることで、操作対象Mが組付対象Oに組み付けられるようにロボット20を制御する。
また、制御装置30は、操作対象Mを組付対象Oに対して相対移動させる際、ロボット20が把持部HNDにより把持している操作対象Mを回転させるように、ロボット20を制御する場合がある。この場合、制御装置30は、操作対象Mを、操作対象Mに設定された所定位置(以下、回転中心位置と称する)を中心として回転させるようにロボット20を制御する。なお、以下では、回転中心位置における操作対象Mの姿勢を、回転中心姿勢と称する。
この制御において、制御装置30は、操作対象Mと力センサー22の相対的な位置及び姿勢(相対的な位置関係)が変化した場合であっても、撮像部10により撮像された撮像画像から相対的な位置関係が変化した後の回転中心位置及び回転中心姿勢を検出する。検出された回転中心位置及び回転中心姿勢に基づいて、制御装置30は、常に操作対象Mに設定された回転中心位置を中心として、回転中心姿勢を基準に操作対象Mを回転させる。なお、回転中心位置は、ユーザーにより操作対象M上の任意の位置に設定される。また、回転中心姿勢は、回転中心位置における操作対象Mの姿勢としたが、操作対象Mの姿勢と対応付けられた姿勢であれば、操作対象Mの姿勢と一致していなくてもよい。
ここで、図2を参照して、ロボットシステム1において使用する座標系について説明する。図2は、ロボットシステム1において使用する座標系を例示する図である。なお、以下の説明では、「_」の後に記載した文字が、「_」の手前の文字の下付き添え字を表すとして説明する。ロボットシステム1の制御装置30は、図2に示したように、7つの三次元直交座標系、すなわち、撮像部座標系Σ_cと、作業座標系Σ_wと、ツール座標系Σ_tと、重心座標系Σ_gと、操作対象座標系Σ_mと、外力座標系Σ_eと、組付対象座標系Σ_oを用いて、ロボット20が所定の作業を行うように制御するための処理を行う。これら7つの座標系の原点及び座標軸の方向は、ユーザーにより制御装置30に設定(記憶又は登録)される。
これら7つの座標系の原点はいずれも、対象X(今の場合、撮像部10、ロボット20の支持台、力センサー22、操作対象Mの重心、操作対象Mの回転中心、操作対象M、組付対象O)の位置を表すように、対象Xに付随して動くように設定される。また、これら7つの座標系の座標軸の方向はいずれも、対象Xの姿勢を表すように、対象Xの姿勢変化に付随して動くように設定される。なお、ユーザーは、対象Xの位置と座標系の原点の位置が対応付けることができ、さらに、対象Xの傾きと座標系の方向が対応付けることができる前提で、対象Xに対して設定する座標系の原点の位置と座標軸の方向を任意の位置と方向に設定してもよい。
撮像部座標系Σ_cは、撮像部10の位置(例えば、撮像素子上の予め決められた位置を原点とする)及び姿勢を表す座標系である。
作業座標系Σ_wは、ロボット20の支持台の位置及び姿勢を表す座標系である。
ツール座標系Σ_tは、力センサー22の位置(例えば、力センサー22の重心や、力センサー22の位置を示すマーカーの位置を原点とする)及び姿勢に設定された座標系である。なお、本実施形態において、ツール座標系Σ_tは、説明を簡略化するため、力センサー22の位置及び姿勢を表すとともに、把持部HNDの位置及び姿勢を表す。一般的には、力センサー21の位置及び姿勢を表すセンサー座標系と、把持部HNDの位置及び姿勢を表す手先(把持部)座標系とは一致せず、制御装置30は、作業座標系とセンサー座標系との相対的な位置関係と、センサー座標系と手先座標系との相対的な位置関係とを用いて、作業座標系と手先座標系との相対的な位置関係を算出し、算出された作業座標系と手先座標系との相対的な位置関係に基づいたロボット20の制御を行う。
重心座標系Σ_gは、操作対象Mの重心の位置及び姿勢を表す座標系である。
操作対象座標系Σ_mは、操作対象M(例えば、初期状態において把持部HNDから最も離れた操作対象M上の位置等)の位置及び姿勢を表す座標系である。
外力座標系Σ_eは、対象物に働く外力及び外モーメントを定義する座標系である。又、本明細では、コンプライアントモーション制御による運動を定義する座標系を外力座標系Σ_eと一致させる。すなわち、コンプライアントモーション制御による回転運動は外力座標系Σ_eの姿勢を基準として、外力座標系Σ_eの原点周りの回転で表される。ただし、これらは一致させなくともよく、ユーザーが任意に配置することが可能である。なお、以下では、区別する必要が無い限り、対象物に働く外力(すなわち、力センサーによって検出される外力)を単に力と称し、外モーメント(すなわち、力センサーによって検出されるモーメント)をモーメントと称する。上述したように、回転中心位置は、ユーザーにより任意の位置に設定することができるが、本実施形態では、操作対象M上の所定位置に設定されたものとして説明する。
組付対象座標系Σ_oは、組付対象O(例えば、操作対象Mに最も近い組付対象O上の位置)の位置及び姿勢を表す座標系である。
以下の説明では、座標系が対象Xに付随して動くため、座標系aにおける座標系bの原点の位置を、座標系bが設定された対象Xの位置として説明する。例えば、作業座標系Σ_wにおける操作対象座標系Σ_mの原点の位置を、作業座標系Σ_wにおける操作対象Mの位置と称する。これと同様に、座標系aにおける座標系bの姿勢を、座標系bが設定された対象Xの姿勢として説明する。例えば、作業座標系Σ_wにおける操作対象座標系Σ_mの姿勢を、作業座標系Σ_wにおける操作対象Mの姿勢と称する。
ここで、より具体的な説明を記載する前に、制御装置30が行う処理について説明するために用いる数式の表記法を示す。まず、以下の説明では、「^」の後に記載した文字が、「^」の手前の文字の上付き添え字を表すとして説明する。また、「(→)」が付記された一番手前の文字をベクトルとして説明する。また、「(^)」が付記された一番手前の文字を行列として説明する。
これらの表記法の下では、座標系aにおいて、座標系bが設定された対象Xの位置を表すベクトルを、位置ベクトルp_b^a(→)と表す。位置ベクトルp_b^a(→)は、以下の式(1)に示したように、座標系bにおける対象Xのx座標x^b、y座標y^b、z座標z^bで定義される。
Figure 2015168040
位置ベクトルの表記法と同様に、座標系aにおいて座標系bが設定された対象Xの姿勢を表すベクトルを、姿勢ベクトルo_b^a(→)と表す。姿勢ベクトルo_b^a(→)は、以下の式(2)に示したように、その成分を、オイラー角(α_b^a,β_b^a,γ_b^a)を用いて以下の式(2)のように表す。
Figure 2015168040
ここで、オイラー角は座標系aのx軸、y軸及びz軸を、それぞれ座標系bのx軸、y軸及びz軸に一致させるために、座標系aのz軸、y軸及びx軸周りに回転させる角度として定義され、それぞれγ_b^a、β_b^a及びα_b^aと表す。
座標系bの姿勢で表された対象Xの位置や姿勢を、座標系aの姿勢で表された対象Xの位置や姿勢に回転させる時の回転行列を、回転行列R_b^a(^)と表す。尚、上述のオイラー角と回転行列の間には以下に示した式(3)の関係がある。
Figure 2015168040
ここで、上記の式(1)〜(3)で示したベクトルは、以下の変換式(4)〜(6)で添え字の上下を入れ替えることができる。
Figure 2015168040
Figure 2015168040
Figure 2015168040
ここで、[R_b^a(^)]^Tは、R_a^bの転置行列を表す。すなわち、回転行列の添え字は、回転行列を転置することによって入れ替えることができ、ベクトルの添え字は、回転行列によって入れ替えることができる。なお、以下では、座標系aにおいて座標系bが設定された対象Xの位置を示す位置ベクトルp_b^a(→)を、必要がある場合を除いて、単に座標系aにおける対象Xの位置と称する。例えば、撮像部座標系Σ_cにおいて表された組付対象Oに設定された組付対象座標系Σ_oの原点の位置を示す位置ベクトルp_o^c(→)を、単に撮像部座標系Σ_cにおける組付対象Oの位置と称する。
位置の場合と同様に、以下では、座標系aにおいて座標系bが設定された対象Xの姿勢を示す姿勢ベクトルo_b^a(→)を、必要がある場合を除いて、単に座標系aにおける対象Xの姿勢と称する。例えば、撮像部座標系Σ_cにおいて表された組付対象Oに設定された組付対象座標系Σ_oの姿勢を示す姿勢ベクトルo_o^c(→)を、単に撮像部座標系Σ_cにおける組付対象Oの姿勢と称する。
次に、図3を参照して、制御装置30のハードウェア構成について説明する。図3は、制御装置30のハードウェア構成の一例を示す図である。制御装置30は、例えば、CPU(Central Processing Unit)31と、記憶部32と、入力受付部33と、通信部34を備え、通信部34を介して撮像部10、ロボット20等と通信を行う。これらの構成要素は、バスBusを介して相互に通信可能に接続されている。CPU31は、記憶部32に格納された各種プログラムを実行する。
記憶部32は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、ROM(Read−Only Memory)、RAM(Random Access Memory)などを含み、制御装置30が処理する各種情報や画像、プログラムを格納する。なお、記憶部32は、制御装置30に内蔵されるものに代えて、USB等のデジタル入出力ポート等によって接続された外付け型の記憶装置でもよい。
入力受付部33は、例えば、キーボードやマウス、タッチパッド、その他の入力装置である。なお、入力受付部33は、表示部として機能してもよく、さらに、タッチパネルとして構成されてもよい。
通信部34は、例えば、USB等のデジタル入出力ポートやイーサネットポート等を含んで構成される。
次に、図4を参照することで、制御装置30の機能構成について説明する。図4は、制御装置30の機能構成の一例を示す図である。制御装置30は、記憶部32と、入力受付部33と、画像取得部35と、制御部36を備える。これらの機能部のうち一部又は全部は、例えば、CPU31が、記憶部32に記憶された各種プログラムを実行することで実現される。また、これらの機能部のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェア機能部であってもよい。
制御装置30は、ビジュアルサーボのループの中にコンプライアントモーション制御を組み込むことで、操作対象Mを破壊することなく、操作対象Mと組付対象Oとが組み付けられた状態になるように、操作対象Mを組付対象Oに対して相対移動させる。より具体的には、制御装置30は、ビジュアルサーボ技術を用いて、操作対象Mを予め記憶部32に記憶されたテンプレート画像(例えば、操作対象Mと組付対象Oとが組み付けられた状態のCAD(Computer Aided Design)画像)と同じ状態にするようにロボット20を制御する。
この時、制御装置30は、撮像部10により撮像された撮像画像中の操作対象Mと力センサー22の相対的な位置関係を検出し、検出された相対的な位置関係に基づいて、コンプライアントモーション制御によってロボット20を制御する際に、その動作を規定する回転中心位置及び回転中心姿勢を逐次決定する。そして、制御装置30は、ロボット20に操作対象Mを回転させる動作を行わせる際、回転中心位置を中心として、回転中心姿勢を基準に操作対象Mを回転させるようにロボット20を制御する。また、制御装置30は、ロボット20に操作対象Mを並進させる際、回転中心姿勢を基準に並進させるようにロボット20を制御する。
また、制御装置30は、図示しない計時部を備えており、計時部により計時されたタイミングで、画像取得部35から撮像部10により撮像された撮像画像を取得し、それと同じタイミングでロボット20の力センサー22から、力センサー22により検出された力及びモーメントを示す情報を取得する。
画像取得部35は、撮像部10により撮像された撮像画像を取得する。画像取得部35は、取得した撮像画像を制御部36に出力する。
制御部36は、目標導出部39と、回転中心位置算出部41と、外力算出部43と、負荷緩和動作量算出部45と、移動動作量算出部46と、動作終了判定部47と、ロボット制御部49を備える。
目標導出部39は、画像取得部35により取得された撮像画像から、撮像部座標系Σ_cにおける組付対象Oの位置及び姿勢を検出する。
また、目標導出部39は、撮像部座標系Σ_cにおける組付対象Oの位置及び姿勢に基づいて、組み付け完了後の撮像部座標系Σ_cにおける操作対象Mの位置及び姿勢を導出する。目標導出部39は、この導出を行う際、上述のテンプレート画像に基づいて、組み付け完了後の操作対象Mの位置及び姿勢を検出する。以下では、目標導出部39が導出した組み付け完了後の撮像部座標系Σ_cにおける操作対象Mの位置及び姿勢を、目標位置及び姿勢と称する。
回転中心位置算出部41は、画像取得部35により取得された撮像画像から、撮像部座標系Σ_cにおける操作対象Mの現在の位置及び姿勢を検出する。また、回転中心位置算出部41は、ツール座標系Σ_tにおける撮像部10の位置及び姿勢を検出する。また、回転中心位置算出部41は、検出された撮像部座標系Σ_cにおける操作対象Mの現在の位置及び姿勢と、ツール座標系Σ_tにおける撮像部10の位置及び姿勢と、ユーザーにより予め設定された操作対象座標系Σ_mにおける回転中心位置及び回転中心姿勢に基づいて、ツール座標系Σ_tにおける回転中心位置及び回転中心姿勢を算出する。
また、回転中心位置算出部41は、作業座標系Σ_wにおける力センサー22の位置及び姿勢を順運動学から算出する。また、回転中心位置算出部41は、算出されたツール座標系Σ_tにおける回転中心位置及び回転中心姿勢と、作業座標系Σ_wにおける力センサー22の位置及び姿勢とに基づいて、外力座標系Σ_eにおけるロボット20の支持台の位置及び姿勢を算出する。
外力算出部43は、力センサー22から取得された把持部HNDに働いた力及びモーメントであって、ツール座標系Σ_tにおいて表された力及びモーメントを、回転中心位置算出部41により算出された外力座標系Σ_eにおけるロボット20の支持台の位置及び姿勢に基づいて、外力座標系Σ_eにおいて表された力及びモーメントを算出する。
負荷緩和動作量算出部45は、外力算出部43により算出された力やモーメントであって、外力座標系Σ_eにおいて表された力及びモーメントに基づいて、ロボット20の把持部HNDにより把持された操作対象Mに働いた力を緩和させるために、操作対象Mを動かす緩和動作量であって、外力座標系Σ_eにおける緩和動作量を算出する。ここで、緩和動作量とは、検出された力が働いている方向へ操作対象Mを並進させる微小移動量(以下、微小緩和移動量と称する)と、検出されたモーメントの方向へ操作対象Mを回転させる微小回転量(以下、微小緩和回転量と称する)である。負荷緩和動作量算出部45は、算出された外力座標系Σ_eにおける緩和動作量に基づいて、作業座標系Σ_wにおける緩和動作量を算出する。
移動動作量算出部46は、操作対象Mの位置及び姿勢が、目標導出部39により算出された目標位置及び姿勢と一致するように、把持部HNDにより操作対象Mを移動させる目標動作量を、撮像部座標系Σ_cにおいて算出する。目標動作量とは、操作対象Mを目標位置へ並進させるための微小移動量(以下、微小目標移動量と称する)と、操作対象Mを目標姿勢へ回転させるための微小回転量(以下、微小目標回転量と称する)である。移動動作量算出部46は、算出された撮像部座標系Σ_cにおける目標動作量に基づいて、作業座標系Σ_wにおける目標動作量を算出する。
動作終了判定部47は、負荷緩和動作量算出部45により算出された作業座標系Σ_wにおける緩和動作量と、移動動作量算出部46により算出された作業座標系Σ_wにおける目標動作量とに基づいて、ロボット20が操作対象Mを組付対象Oに組み付ける作業が終了したか否かを判定する。なお、動作終了判定部47は、移動動作量算出部46により算出された作業座標系Σ_wにおける目標動作量のみに基づいて、ロボット20が操作対象Mを組付対象Oに組み付ける作業が終了したか否かを判定してもよい。
ロボット制御部49は、負荷緩和動作量算出部45により算出された作業座標系Σ_wにおける緩和動作量と、移動動作量算出部46により算出された作業座標系Σ_wにおける目標動作量に基づいて、作業座標系Σ_wにおける力センサー22が移動すべき位置及び姿勢を算出する。そして、ロボット制御部49は、力センサー22の位置及び姿勢を、算出された作業座標系Σ_wにおける力センサー22が移動すべき位置及び姿勢に一致させるようにロボット20を制御する。
以下、図5を参照することにより、制御装置30が、操作対象Mと組付対象Oを組み付けるようにロボット20を動作させるための処理について説明する。図5は、制御装置30が、操作対象Mと組付対象Oを組み付けるようにロボット20を動作させるための処理の流れの一例を示すフローチャートである。
まず、制御装置30は、入力受付部33を介してユーザーから入力された位置と姿勢であって、操作対象Mと組付対象Oの組み付けが完了した状態の操作対象座標系Σ_mにおける組付対象Oの位置p_o^m(→)と姿勢o_o^m(→)を設定する(ステップS100)。
次に、制御装置30は、入力受付部33を介してユーザーから入力された回転中心位置と回転中心姿勢であって、操作対象座標系Σ_mにおける回転中心位置p_e^m(→)と回転中心姿勢o_e^m(→)を設定する(ステップS110)。
ステップS100からステップS110までが、ユーザーにより行われる制御装置30への初期設定である。ここから、ステップS110の後に、撮像部10による撮像が開始され、制御部36が画像取得部35から撮像画像を取得したものとして説明する。
制御部36が撮像画像を取得した後、制御装置30の目標導出部39は、画像取得部35により取得された撮像画像に基づいて、撮像部座標系Σ_cにおける組付対象Oの位置p_o^c(→)と姿勢o_o^c(→)を検出する(ステップS120)。
次に、目標導出部39は、ステップS100で設定された操作対象Mと組付対象Oとの組み付けが完了した状態の操作対象座標系Σ_mにおける組付対象Oの位置p_o^m(→)及び姿勢o_o^m(→)と、ステップS120で検出された撮像部座標系Σ_cにおける組付対象Oの位置p_o^c(→)及び姿勢o_o^c(→)に基づいて、以下に示した式(7)から、操作対象Mと組付対象Oの組み付けが完了した状態の操作対象Mの目標位置と姿勢であって、撮像部座標系Σ_cにおける操作対象Mの目標位置p_m^c(d)(→)と姿勢o_m^c(d)(→)を算出する(ステップS130)。
Figure 2015168040
ここで、撮像部座標系Σ_cにおける操作対象Mの目標位置p_m^c(d)(→)及び姿勢o_m^c(d)(→)の「(d)」は、ステップS140で回転中心位置算出部41により検出される撮像部座標系Σ_cにおける操作対象Mの位置p_m^c(→)及び姿勢o_m^c(→)と区別するために付記したラベルである。
ステップS120からステップS130までの処理は、制御部36が、撮像部10と組付対象Oの相対的な位置及び姿勢と、操作対象Mと組付対象Oの組み付けが完了した状態の操作対象Mと組付対象Oの相対的な位置関係(位置及び姿勢)に基づいて、操作対象Mと組付対象Oの組み付けが完了した状態の操作対象Mと、撮像部10の相対的な位置及び姿勢を間接的に算出するための処理である。
次に、回転中心位置算出部41は、取得された撮像画像から、撮像部座標系Σ_cにおける操作対象Mの位置p_m^c(→)と姿勢o_m^c(→)を検出する(ステップS140)。
次に、回転中心位置算出部41は、取得された撮像画像から、ツール座標系Σ_tにおける撮像部10の位置p_c^t(→)と姿勢o_c^t(→)を検出する(ステップS150)。
次に、回転中心位置算出部41は、ステップS140で算出された撮像部座標系Σ_cにおける操作対象Mの位置p_m^c(→)及び姿勢o_m^c(→)と、ステップS150で算出されたツール座標系Σ_tにおける撮像部10の位置p_c^t(→)及び姿勢o_c^t(→)に基づいて、以下に示した式(8)から、ツール座標系Σ_tにおける回転中心の位置p_e^t(→)と姿勢o_e^t(→)を算出する(ステップS160)。
Figure 2015168040
ここで、ステップS160の処理は、力センサー22と上述の回転中心位置及び回転中心姿勢の相対的な位置関係の変化を検出する処理である。ステップS160において算出されたツール座標系Σ_tにおける回転中心の位置p_e^t(→)と姿勢o_e^t(→)が、前のルーチンで算出された値と異なることは、力センサー22と回転中心位置及び回転中心姿勢の相対的な位置関係が、外力によって変化させられたことを示す。制御部36は、この変化を検出することで、外力によって力センサー22に対する回転中心位置及び回転中心姿勢が変化されたとしても、変化された後の力センサー22に対する回転中心位置及び回転中心姿勢に基づいて、ロボット20が常に回転中心位置を中心として、回転中心姿勢を基準に操作対象Mを回転するように制御することができる。
次に、回転中心位置算出部41は、順運動学に基づいて、作業座標系Σ_wにおける力センサー22の位置p_t^w(→)と姿勢o_t^w(→)を算出する(ステップS170)。
次に、回転中心位置算出部41は、ステップS160で算出されたツール座標系Σ_tにおける回転中心位置p_e^t(→)と回転中心姿勢o_e^t(→)と、ステップS170で算出された作業座標系Σ_wにおける力センサー22の位置p_t^w(→)及び姿勢o_t^w(→)に基づいて、以下に示した式(9)から、外力座標系Σ_eにおけるロボット20の支持台の位置p_w^e(→)と姿勢o_w^e(→)を算出する(ステップS180)。
Figure 2015168040
ここで、制御部36は、ステップS180の処理によって、外力座標系Σ_eにおけるロボット20の支持台の位置p_w^e(→)と姿勢o_w^e(→)を算出することで、力センサー22に働いた力及びモーメントにより回転中心位置に働いた力及びモーメントを、次のステップS190の処理で算出することができる。
次に、外力算出部43は、力センサー22により検出された力とモーメントであって、ツール座標系Σ_tにおける力f^t(→)とモーメントm^t(→)に基づいて、以下に示したニュートン・オイラー方程式(10)から、外力座標系Σ_eにおける力(すなわち、回転中心位置に働いた力)f^e(→)とモーメント(すなわち、回転中心位置に生じたモーメント)m^e(→)を算出する(ステップS190)。
Figure 2015168040
ここで、上記の式(10)における上段式は、操作対象Mの回転中心位置に働いた外力の成分f^e(→)が、力センサー22によって検出された力の成分f^t(→)から、重力による成分mE(^)g(→)とロボット20のアーム部ARMによる慣性運動による成分mE(^)p_c^w(→)(・・)を差し引いた成分で表されることを示している。なお、「(・・)」が付記された一番手前の文字は、時間について二回微分された変数を表している。また、行列E(^)は、単位行列であり、ベクトルg(→)は、重力加速度を表すベクトルであり、スカラーmは、操作対象Mの質量を表す。
前記の上段式と同様に、下段式は、操作対象Mに働いた外力により回転中心に生じたモーメントm^eが、ねじりモーメントの成分I(^)o_c^w(→)(・・)と、コリオリの力によるモーメントの成分o_c^w(→)(・)×I(^)o_c^w(→)(・)と、力センサー22により検出されたモーメントm^t(→)と、力センサー22によって検出された力の成分f^t(→)によるモーメントの成分p_e^t(→)×f^t(→)を加算したものから、重力によるモーメントの成分p_g^t(→)×mR_w^t(^)g(→)を差し引いた成分で表されることを示している。
次に、負荷緩和動作量算出部45は、ステップS190で算出された外力座標系Σ_eにおける力f^e(→)及びモーメントm^e(→)に基づいて、以下に示した式(11)から、外力座標系Σ_eにおける操作対象Mの緩和動作量の微小緩和移動量Δp^e(→)と微小緩和回転量Δo^e(→)を算出する(ステップS200)。
Figure 2015168040
ここで、ステップS200で用いられる式(11)のΔP^e(→)及びΔO^e(→)は、それぞれΔp^e(→)及びΔo^e(→)をラプラス変換したものである。また、式(11)は、操作対象Mに設定されている回転中心位置が外力を受けたときに、その外力を緩和させる方向に移動するべき動作量(微小移動量及び微小回転量)を決定する運動モデルに依って異なる。本実施形態では、上記の式(11)に示したように、微小移動量に関する慣性質量行列M_p(^)、ダンパー係数行列D_p(^)、バネ乗数行列K_p(^)と、微小回転量に関する慣性質量行列M_o(^)、ダンパー係数行列D_o(^)、バネ乗数行列K_o(^)とによって表される運動モデルを採用している。このような運動モデルによって行われる制御は、コンプライアントモーション制御のうちインピーダンス制御と呼ばれる。なお、スカラーsは、ラプラス変換に用いる変数である。コンプライアントモーション制御としては、インピーダンス制御に限定されるものではなく、例えばスティフネス制御やダンピング制御を適用しても良い。
次に、負荷緩和動作量算出部45は、ステップS200で算出された外力座標系Σ_eにおける操作対象Mの緩和動作量に基づいて、以下に示した式(12)から、作業座標系Σ_wにおける力センサー22の緩和動作量として微小緩和移動量Δp_t^w(i)(→)と微小緩和回転量Δo_t^w(i)(→)を算出する(ステップS210)。
Figure 2015168040
ここで、緩和動作量である微小緩和移動量Δp_t^w(i)(→)と微小緩和回転量Δo_t^w(i)(→)における「(i)」は、緩和動作量と目標動作量を区別するためのラベルである。制御部36のロボット制御部49は、ステップS200からステップS210までの処理により負荷緩和動作量算出部45が算出した作業座標系Σ_wにおける緩和動作量に基づいて、回転中心位置に働いた力及びモーメントが緩和される位置まで、力センサー22の位置及び姿勢を移動するようにロボット20を制御することができる。
次に、移動動作量算出部46は、ステップS130で算出された操作対象Mと組付対象Oの組み付けが完了した状態の撮像部座標系Σ_cにおける操作対象Mの目標位置p_m^c(d)(→)及び姿勢o_m^c(d)(→)と、ステップS140で検出された撮像部座標系Σ_cにおける操作対象Mの位置p_m^c(→)と姿勢o_m^c(→)に基づいて、以下に示した式(13)から、操作対象Mを目標位置及び姿勢に移動させるための目標動作量であって、撮像部座標系Σ_cにおける目標動作量として微小目標移動量Δp_m^c(→)と微小目標回転量Δo_m^c(→)を算出する(ステップS220)。
Figure 2015168040
次に、移動動作量算出部46は、ステップS220で算出された撮像部座標系Σ_cにおける操作対象Mの目標動作量に基づいて、以下に示した式(14)から、作業座標系Σ_wにおける力センサー22の目標動作量として微小目標移動量Δp_t^w(v)(→)と微小目標回転量Δo_t^w(v)(→)を算出する(ステップS230)。
Figure 2015168040
ここで、目標動作量である微小目標移動量Δp_t^w(v)(→)と微小目標回転量Δo_t^w(v)(→)における「(v)」は、目標動作量と緩和動作量を区別するためのラベルである。
次に、動作終了判定部47は、ステップS210で算出された緩和動作量と、ステップS230で算出された目標動作量を、以下に示した式(15)のように加算した加算微小移動量Δp_t^w(→)及び加算微小回転量Δo_t^w(→)を算出する(ステップS240)。
Figure 2015168040
次に、動作終了判定部47は、ステップS240で算出された加算微小移動量Δp_t^w(→)及び加算微小回転量Δo_t^w(→)の両方が、それぞれに対する所定の閾値未満か否かを判定する(ステップS250)。なお、前記のそれぞれに対する所定の閾値は、それぞれが別に設定される。動作終了判定部47は、加算微小移動量Δp_t^w(→)及び加算微小回転量Δo_t^w(→)の両方が、それぞれに対する所定の閾値未満であると判定した場合(ステップS250−Yes)、操作対象Mをこれ以上動かす必要がないと判断して処理を終了する。
一方、動作終了判定部47が加算微小移動量Δp_t^w(→)及び加算微小回転量Δo_t^w(→)のうちいずれか一方又は両方が、それぞれに対する所定の閾値未満ではないと判定した場合(ステップS250−No)、ロボット制御部49は、ステップS210で算出された緩和動作量と、ステップS230で算出された目標動作量とに基づいて、以下に示した式(16)から、作業座標系Σ_wにおける力センサー22の目標位置p_t^w(d)(→)及び姿勢o_t^w(d)(→)を算出する(ステップS260)。
Figure 2015168040
なお、動作終了判定部47は、ステップS240で算出された加算微小移動量Δp_t^w(→)及び加算微小回転量Δo_t^w(→)の両方が、それぞれに対する所定の閾値未満か否かを判定する構成に代えて、ステップS230で算出された微小目標移動量Δp_t^w(v)(→)と微小目標回転量Δo_t^w(v)(→)の両方が、それぞれに対する所定の閾値未満であるか否かを判定する構成であってもよい。また、動作終了判定部47は、ロボット20に行わせる所定の作業の性質に応じて、Δp_t^w(→)(i)、Δo_t^w(i)、Δp_t^w(→)(v)及びΔo_t^w(v)で構成される任意の関数を用いて、前記関数から得られる値が所定の閾値未満か否か(操作対象Mをこれ以上動かす必要があるか否か)を判定する構成であってもよい。
次に、ロボット制御部49は、力センサー22の位置及び姿勢が、ステップS260で算出された作業座標系Σ_wにおける力センサー22の目標位置p_t^w(d)(→)及び姿勢o_t^w(d)(→)と一致するように、力センサー22を移動させるようにロボット20を制御する(ステップS270)。制御部36は、ステップS120〜ステップS270の処理を、ステップS250の判定によって操作対象Mをこれ以上動かす必要がないと判断されるまで繰り返すことで、所定の作業をロボット20が行うように制御する。
なお、回転中心位置算出部41は、ステップS150からステップS180までの処理において、例えば、力センサー22がアーム部ARMの内部に備えられ、外部から見えず、撮像部10により力センサー22を撮像することができない場合、上述した力センサー22の位置を示すマーカーを備える構成としてもよく、ユーザーにより設定された力センサー22と回転中心位置及び回転中心姿勢の初期状態における相対的な位置関係に基づいて、以下に示した式(17)〜式(19)から、外力座標系Σ_eにおける力センサー22の位置p_t^e(→)と姿勢o_t^e(→)を逐次計算する構成としてもよい。
Figure 2015168040
Figure 2015168040
Figure 2015168040
上記の式(17)〜式(19)は、撮像画像から検出される操作対象Mの移動量から、ロボット20自身が動いた量を差し引くことで、力センサー22と操作対象Mの相対的な位置関係がずれた量を算出する式である。なお、ロボット20自身が動いた量は、制御部36によりロボット20の初期状態に基づいて算出される。ユーザーにより設定された力センサー22と回転中心位置及び回転中心姿勢の初期状態における相対的な位置関係及び上記の式(17)〜(19)を用いる構成は、操作対象Mと力センサー22が撮像部10の撮像範囲に収まらない場合、すなわち、力センサー22の位置を示すマーカーを用いていても力センサー22の位置を検出できない場合であっても、操作対象Mの位置及び姿勢と力センサー22の位置及び姿勢を追跡できるため、有用である。
回転中心位置算出部41は、上記の式(17)〜式(19)を用いた逐次計算をすることによって、撮像部10により力センサー22を撮像することができない場合であっても、撮像部10により力センサー22を撮像できる場合と同様にステップS150からステップS180の処理を行うことができる。その結果として、制御部36は、力センサー22と操作対象Mに設定された所定位置との相対的な位置関係に基づいて、ロボット20が所定の作業を行うようにロボット20を制御することができる。なお、撮像部10により力センサー22が撮像することができない場合とは、例えば、力センサー22がアーム部ARMの部材に覆われていた場合や、撮像部10の画角から力センサー22を含むアーム部ARMが外れてしまうような場合等である。
以上説明したように、第1の実施形態に係るロボットシステム1のロボット20は、把持部HNDと操作対象Mとを含む撮像画像に基づいて、把持部HNDによって、操作対象Mの回転中心位置を中心に操作対象Mを回転させ、操作対象Mを組付対象Oに対して相対移動させる。このため、ロボットは、良好な組み立て作業を行うことができる。
また、ロボット20は、回転させる場合の回転中心を操作対象Mとともに動く座標原点として、回転と並進によって操作対象Mを組付対象Oに対して相対移動させる。このため、ロボットは、良好な組み立て作業を行うことができる。
また、ロボット20は、操作対象Mを組付対象Oに対して逐次相対移動させることができるため、その結果として、精度の高い良好な組み立て作業を行うことができる。
また、ロボット20は、所定位置及び各軸方向に設定された運動特性に従ってコンプライアントモーション制御を行う。このため、ロボット20は、組付対象Oを破壊することなく、組付対象Oに対して操作対象Mを組み付けることができる。
また、ロボット20は、撮像画像に基づいて、把持部HNDに設定された位置と操作対象Mに設定された位置との相対的な位置関係を導出し、導出された位置関係に基づいて、回転中心位置を更新する。このため、ロボット20は、外力によって把持部HNDと回転中心の位置関係がずらされても、ずらされた回転中心を中心に操作対象Mを組付対象Oに対して相対移動させることができ、その結果、良好な組み立て作業を行うことができる。
また、ロボット20は、把持部HNDに設定された位置と操作対象Mに設定された位置との相対的な位置関係を導出し、導出された位置関係と、操作対象Mに設定された位置と回転中心位置との相対的な位置関係とに基づいて、回転中心位置を更新する。このため、ロボット20は、外力によって把持部HNDと回転中心位置の位置関係がずらされても、操作対象Mに設定された位置を介して、間接的に把持部HNDに設定された位置と回転中心位置との相対的な位置関係から、ずらされた回転中心位置を認識することができ、その結果、ずらされた回転中心位置を中心に操作対象Mを組付対象Oに対して相対移動させることができる。
また、ロボット20は、撮像画像から検出された力センサー22の位置を示すマーカーの位置に基づいて、把持部HNDに設定された位置と回転中心位置の相対的な位置関係を導出し、導出された把持部HNDに設定された位置と回転中心位置の相対的な位置関係に基づいて、回転中心位置を更新する。このため、ロボット20は、力センサー22がロボット20のアーム部ARMの部材に覆われていた場合であっても、力センサー22を示すマーカーの位置を目印として、操作対象Mの位置を認識することができ、その結果、良好な組み立て作業を行うことができる。
また、ロボット20は、力センサー22の初期状態における位置及び姿勢に基づいて、把持部HNDに設定されたと回転中心位置の相対的な位置関係を導出し、導出された把持部HNDに設定された位置と回転中心位置の相対的な位置関係に基づいて、回転中心位置を更新する。このため、ロボット20は、撮像部10の画角から、力センサー22を含むロボット20のアーム部ARMが外れてしまう場合であっても、操作対象Mの位置を認識することができ、その結果、良好な組み立て作業を行うことができる。
<第2の実施形態>
以下、本発明の第2の実施形態について、図面を参照して説明する。第2の実施形態に係るロボットシステム2は、ロボット20として単腕ロボットを具備する構成に代えて、ロボット25として双腕ロボットを具備する構成である。なお、第2の実施形態では、第1の実施形態と同様な構成部には、同じ符号を付してある。
図6は、第2の実施形態に係るロボットシステム2の一例を示す構成図である。ロボットシステム2は、撮像部10と、ロボット25と、制御装置30とを具備する。
第2の実施形態において、組付対象Oは、テーブル等の台の上に治具等によって設置されており、双腕ロボットであるロボット25のいずれか一方の腕によって、第1の実施形態で説明した所定の作業により操作対象Mが組み付けられる。なお、組付対象Oは、ロボット25の把持部HND2によって把持され、把持部HND1によって第1の実施形態で説明した所定の作業が行われるとしてもよい。また、この場合、把持部HND1と把持部HND2の役割が逆であってもよい。
ロボット25は、例えば、把持部HND1と、把持部HND2と、力センサー22と、アーム部ARM1と、アーム部ARM2と、図示しない複数のアクチュエーターとを、図6に示したように、それぞれの腕に備えた双腕ロボットである。
ロボット25の各腕は、6軸垂直多関節型となっており、一方の腕が支持台とアーム部ARM1と把持部HND1とがアクチュエーターによる連携した動作よって6軸の自由度の動作を行うことができ、他方の腕が支持台とアーム部ARM2と把持部HND2とがアクチュエーターによる連携した動作よって6軸の自由度の動作を行うことができる。なお、ロボット20の各腕は、5自由度(5軸)以下で動作するものであってもよいし、7自由度(7軸)以上で動作するものであってもよい。
ロボット25は、第1の実施形態において説明した制御装置30によって制御される動作を、把持部HND1及びアーム部ARM1を備えた腕によって行うとするが、把持部HND2及びアーム部ARM2を備えた腕によって同様の動作が行われてもよい。なお、把持部HND1、把持部HND2は、それぞれハンドの一例である。ロボット25は、例えばケーブルによって制御装置30と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。なお、ロボット25と制御装置30とは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって接続されてもよい。
また、ロボット25は、図6に示したようにロボット25がロボット25の内部に搭載された制御装置30によって制御される構成とするが、この構成に代えて、制御装置30がロボット25の外部に設置されている構成であってもよい。
以上説明したように、第2の実施形態に係るロボットシステム2のロボット25は、双腕ロボットであり、双腕ロボットの2つの腕のうちいずれか一方又は両方によって、第1の実施形態で説明した所定の作業を行うため、第1の実施形態と同様の効果を得ることができる。
<第3の実施形態>
以下、本発明の第3の実施形態について、図面を参照して説明する。なお、第3の実施形態では、第1の実施形態と同様な構成部には、同じ符号を付してある。第3の実施形態に係るロボットシステム1は、例えば、所定の作業として、把持部HNDにより把持されたレンチ(操作対象Mの一例)をボルト(組付対象Oの一例)に組み付け、その後、把持されたレンチによってボルトを締める。
ここで、図7を参照して、第3の実施形態に係るロボットシステム1が行う所定の作業を説明する。図7は、第3の実施形態に係るロボットシステム1によって行われる所定の作業の一例を模式的に示す図である。図7(A)には、ロボット20により把持されたレンチM1がボルトO1に組み付けられる前の所定の初期位置の状態を示す。ロボットシステム1は、図7(A)における一点鎖線で示したレンチVM1の位置(ボルトO1の直前の位置)までレンチM1を移動させる。ここで、ロボットシステム1には、レンチVM1の状態を示す画像が予め設定されており、ロボットシステム1は、その状態を実現するように第1の実施形態において図5を参照して説明した処理によって把持部HNDを動かす。図7(B)には、ロボット20によりレンチM1がボルトO1に組み付けられた状態を示す。ロボットシステム1は、前記の図5を参照して説明した処理によって、図7(A)に示したレンチVM1の状態から、図7(B)により示されるレンチM1とボルトO1が組み付けられた状態まで把持部HNDを動かす。ここで、ロボットシステム1には、図7(B)に示した状態のレンチM1とボルトO1を示す画像が予め設定されており、ロボットシステム1は、その状態を実現するように第1の実施形態において図5を参照して説明した処理によって把持部HNDを動かす。
図7(C)には、ロボット20に把持されたレンチM1によりボルトO1が60°回転させられる様子を示す。ロボットシステム1には、回転させた状態(例えば、図7(C)において一点鎖線で示したレンチVM2とボルトVO1の状態)を示す画像が予め設定されており、ロボットシステム1は、その状態を実現するように把持部HNDを前記の図5を参照して説明した処理に基づいて動かす。なお、図7(B)において、ボルトO1とボルトVO1は、正六角形のため、重なって示されている。
図7(D)には、ロボット20に把持されたレンチM1によりボルトO1が回転させられた状態を示す。ロボットシステム1は、図7(D)に示したレンチM1によりボルトO1が回転させられた状態になった時、レンチM1をボルトO1から所定の距離だけ離れた位置に離す。ここで、ロボットシステム1には、レンチM1がボルトO1から所定の距離だけ離れた位置に移動した状態を示す画像が予め設定されており、ロボットシステム1は、その状態を実現するように第1の実施形態において図5を参照して説明した処理によって把持部HNDを動かす。そして、ロボットシステム1は、レンチM1がボルトO1から所定の距離だけ離れた位置から初期位置まで移動した状態となるまで把持部HNDを動かす。ロボットシステム1は、図7(A)〜図7(D)に示した動作を行う処理を繰り返すことで、レンチM1によってボルトO1を締める。
以下、図8を参照することにより、制御装置30の制御部36が、レンチM1によりボルトO1を締めるようにロボット20を動作させるための処理について説明する。図8は、制御装置30の制御部36が、レンチM1によりボルトO1を締めるようにロボット20を動作させるための処理の流れの一例を示すフローチャートである。
以下では、ロボットシステム1は、図5に示したステップS100からステップS110までの処理をすでに行ったものとして説明する。まず、制御部36は、初期配置処理によって、把持部HNDに把持されたレンチM1が前述の所定の初期位置に配置されるまでロボット20の把持部HNDを動かす(ステップS300)。ここで、初期配置処理とは、図5に示したステップS120からステップS270までの処理を示す。
次に、制御部36は、組み付け処理によってレンチM1とボルトO1を組み付ける(ステップS310)。ここで、組み付け処理とは、図5に示したステップS120からステップS270までの処理によって、レンチM1とボルトO1が図7(B)に示した状態となるまで、把持部HNDを動かしてレンチM1とボルトO1を組み付ける処理を示す。
次に、制御部36は、ボルト締付準備処理によって、レンチM1とボルトO1が図7(D)に示した状態となるまでレンチM1を把持している把持部HNDを動かす準備を行う(ステップS320)。ここで、ボルト締付準備処理とは、図5に示したステップS120からステップS240までの処理によって把持部HNDを動かしてレンチM1によりボルトO1を回転させるための加算微小移動量と加算微小回転量を算出する処理を示す。
次に、制御部36は、ステップS320において上記の式(10)から算出したモーメント(締め付けトルクに相当)が所定値以上か否かを判定することで、ボルトO1の締め付けが完了したか否かを判定する(ステップS330)。制御部36は、算出したモーメントが所定値以上と判定した場合(ステップS330−Yes)、ボルトO1の締め付けが完了したと判定し、処理を終了する。一方、制御部36は、算出したモーメントが所定値未満と判定した場合(ステップS330−No)、ステップS320において上記の式(15)から算出した加算微小移動量及び加算微小回転量の両方が、それぞれに対する所定の閾値未満か否かを判定する(ステップS340)。
加算微小移動量及び加算微小回転量の両方が、それぞれに対する所定の閾値以上と判定した場合(ステップS340−No)、制御部36は、レンチM1とボルトO1が図7(D)に示した状態に達していないと判定し、ステップS320で算出された緩和動作量及び目標動作量とに基づいて、作業座標系Σ_wにおける力センサー22の目標位置及び姿勢を算出する(ステップS360)。次に、制御部36は、力センサー22の位置及び姿勢が、ステップS360で算出された作業座標系Σ_wにおける力センサー22の目標位置及び姿勢と一致するように、力センサー22を移動させるようにロボット20を制御することで、ボルトO1をレンチM1により更に回転させる(ステップS370)。なお、ステップS360は、ステップS260と同様の処理であり、ステップS370は、ステップS270と同様の処理であるため、これらの詳細な説明を省略する。一方、加算微小移動量及び加算微小回転量の両方が、それぞれに対する所定の閾値未満と判定した場合(ステップS340−Yes)、制御部36は、レンチM1とボルトO1が図7(D)に示した状態に達したと判定し、レンチM1をボルトO1から離し(ステップS350)、その後、ステップS300の処理を行う。
以上説明したように、第3の実施形態に係るロボットシステム1は、第1の実施形態において図5で説明した処理と、締め付けトルクに相当するモーメントに応じたステップS330の処理とに基づいて、ビジュアルサーボによる制御と、力センサーによるコンプライアントモーション制御を組み合わせ、把持部HNDにより把持したレンチM1によってボルトO1を確実に締めることができる。
なお、以上に説明した装置(例えば、ロボットシステム1、2)における任意の構成部の機能を実現するためのプログラムを、コンピューター読み取り可能な記録媒体に記録し、そのプログラムをコンピューターシステムに読み込ませて実行するようにしてもよい。なお、ここでいう「コンピューターシステム」とは、OS(Operating System)や周辺機器等のハードウェアを含むものとする。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM(Read Only Memory)、CD(Compact Disk)−ROM等の可搬媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバーやクライアントとなるコンピューターシステム内部の揮発性メモリー(RAM:Random Access Memory)のように、一定時間プログラムを保持しているものも含むものとする。
また、上記のプログラムは、このプログラムを記憶装置等に格納したコンピューターシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピューターシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記のプログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、上記のプログラムは、前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
1、2 ロボットシステム、10 撮像部、20、25 ロボット、22 力センサー、30 制御装置、31 CPU、32 記憶部、33 入力受付部、34 通信部、35 画像取得部、36 制御部、39 目標導出部、41 回転中心位置算出部、43 外力算出部、45 負荷緩和動作導出部、46 移動動作量算出部、47 動作終了判定部、49 ロボット制御部

Claims (12)

  1. ハンドと、
    前記ハンドを動作させる制御部と、
    を含み、
    前記制御部は、
    前記ハンドと第1物体とを含む撮像画像に基づいて、前記ハンドによって、前記第1物体の所定位置を中心に前記第1物体を回転させ、前記第1物体を第2物体に対して相対移動させる、
    ロボット。
  2. 請求項1に記載のロボットであって、
    前記所定位置は、前記第1物体とともに動く座標原点であり、
    前記制御部は、前記第1物体を回転させることに加えて、前記第1物体を並進させる、
    ロボット。
  3. 請求項1又は2に記載のロボットであって、
    前記制御部は、前記撮像画像に基づいて、ビジュアルサーボ制御を行う、
    ロボット。
  4. 請求項1から3のうちいずれか一項に記載のロボットであって、
    前記制御部は、前記所定位置及び各軸方向に設定された運動特性に従ってコンプライアントモーション制御を行う、
    ロボット。
  5. 請求項1から4のうちいずれか一項に記載のロボットであって、
    前記制御部は、前記撮像画像に基づいて、前記ハンドに設定された位置と前記第1物体に設定された位置との相対的な位置関係を導出し、前記導出された位置関係に基づいて、前記所定位置を更新する、
    ロボット。
  6. 請求項5に記載のロボットであって、
    前記制御部は、前記導出された位置関係と、前記第1物体に設定された位置と前記所定位置との相対的な位置関係とに基づいて、前記所定位置を更新する、
    ロボット。
  7. 請求項1から6のうちいずれか一項に記載のロボットであって、
    前記ハンドに設定された位置を示すマーカーを備え、
    前記撮像画像は、さらに、前記マーカーを含み、
    前記制御部は、前記撮像画像から検出された前記マーカーの位置に基づいて、前記ハンドに設定された位置と前記所定位置の相対的な位置関係を導出し、前記導出された前記ハンドに設定された位置と前記所定位置の相対的な位置関係に基づいて、前記所定位置を更新する、
    ロボット。
  8. 請求項7に記載のロボットであって、
    前記制御部は、前記マーカー及び前記第1物体の位置及び姿勢を検出する際に、前記マーカーが撮像された第1撮像画像と、前記第1物体が撮像された第2撮像画像と、前記第1撮像画像を撮像した第1カメラと前記第2撮像画像を撮像した第2カメラとの間の相対的な位置関係とに基づいて、前記所定位置を更新する、
    ロボット。
  9. 請求項1から6のうちいずれか一項に記載のロボットであって、
    前記制御部は、
    前記ハンドに設定された初期状態における位置に基づいて、前記ハンドに設定された位置と前記所定位置の相対的な位置関係を導出し、前記導出された前記ハンドに設定された位置と前記所定位置の相対的な位置関係に基づいて、前記所定位置を更新する、
    ロボット。
  10. ハンドを備えるロボットと、
    前記ハンドと第1物体とを撮像する撮像部と、
    を含み、
    前記ロボットは、
    前記撮像部により撮像された前記ハンドと前記第1物体とを含む撮像画像に基づいて、前記第1物体の所定位置を中心に、前記第1物体を回転させて、前記第1物体を第2物体に対して相対移動させる、
    ロボットシステム。
  11. ハンドを備えるロボットを動作させる制御装置であって、
    前記ハンドと第1物体とを含む撮像画像に基づいて、前記ロボットによって、前記第1物体の所定位置を中心に前記第1物体を回転させ、前記第1物体を第2物体に対して相対移動させる、
    制御装置。
  12. ハンドを備えるロボットを動作させる制御方法であって、
    前記ハンドと第1物体とを含む撮像画像を取得することと、
    前記撮像画像に基づいて、前記第1物体の所定位置を中心に前記第1物体を回転させ、前記第1物体を第2物体に対して相対移動させることと、
    を含む制御方法。
JP2014045752A 2014-03-07 2014-03-07 ロボット、ロボットシステム、制御装置、及び制御方法 Active JP6380828B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2014045752A JP6380828B2 (ja) 2014-03-07 2014-03-07 ロボット、ロボットシステム、制御装置、及び制御方法
CN201510093422.2A CN104889973B (zh) 2014-03-07 2015-03-02 机械手、机械手系统、控制装置以及控制方法
EP15157376.3A EP2915635B1 (en) 2014-03-07 2015-03-03 Robot, robot system, control device, and control method
US14/636,542 US9656388B2 (en) 2014-03-07 2015-03-03 Robot, robot system, control device, and control method
US15/958,518 USRE47553E1 (en) 2014-03-07 2018-04-20 Robot, robot system, control device, and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014045752A JP6380828B2 (ja) 2014-03-07 2014-03-07 ロボット、ロボットシステム、制御装置、及び制御方法

Publications (2)

Publication Number Publication Date
JP2015168040A true JP2015168040A (ja) 2015-09-28
JP6380828B2 JP6380828B2 (ja) 2018-08-29

Family

ID=52686108

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014045752A Active JP6380828B2 (ja) 2014-03-07 2014-03-07 ロボット、ロボットシステム、制御装置、及び制御方法

Country Status (4)

Country Link
US (2) US9656388B2 (ja)
EP (1) EP2915635B1 (ja)
JP (1) JP6380828B2 (ja)
CN (1) CN104889973B (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018039086A (ja) * 2016-09-08 2018-03-15 ファナック株式会社 人間協調型ロボット
JP2018103292A (ja) * 2016-12-26 2018-07-05 川崎重工業株式会社 ロボットハンド
WO2019124728A1 (ko) * 2017-12-21 2019-06-27 삼성전자 주식회사 객체를 식별하기 위한 장치 및 방법
JP7383842B1 (ja) * 2023-03-30 2023-11-20 大陽日酸株式会社 着脱装置
WO2024004797A1 (ja) * 2022-06-30 2024-01-04 川崎重工業株式会社 ロボット、ロボットシステムおよびロボットの作業方法

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2990165A3 (en) * 2014-08-25 2016-06-29 Seiko Epson Corporation Robot for fitting an object in another
JP6117853B2 (ja) * 2015-05-13 2017-04-19 ファナック株式会社 バラ積みされた物品を取り出すための物品取出システム、および方法
JP6208724B2 (ja) * 2015-09-09 2017-10-04 ファナック株式会社 物体の姿勢算出システム
JP6267172B2 (ja) * 2015-10-23 2018-01-24 ファナック株式会社 射出成形システム
US9902071B2 (en) * 2015-12-18 2018-02-27 General Electric Company Control system and method for brake bleeding
US9990685B2 (en) 2016-03-21 2018-06-05 Recognition Robotics, Inc. Automated guidance system and method for a coordinated movement machine
JP2017196705A (ja) * 2016-04-28 2017-11-02 セイコーエプソン株式会社 ロボット、及びロボットシステム
CN105965495B (zh) * 2016-05-12 2018-07-10 英华达(上海)科技有限公司 一种机械臂定位方法及系统
JP6755724B2 (ja) * 2016-06-20 2020-09-16 キヤノン株式会社 制御方法、ロボットシステム、および物品の製造方法
JP6490037B2 (ja) * 2016-10-04 2019-03-27 ファナック株式会社 移動可能な台車に支持されたロボットを備えるロボットシステム
KR102576842B1 (ko) * 2017-01-04 2023-09-12 삼성전자주식회사 핸드-아이 캘리브레이션을 수행하는 로봇 및 전자 장치
US10853539B2 (en) * 2017-05-26 2020-12-01 Autodesk, Inc. Robotic assembly of a mesh surface
CN112584988B (zh) * 2019-03-15 2024-08-27 欧姆龙株式会社 设定辅助装置、设定辅助方法和计算机可读存储介质
US11679508B2 (en) 2019-08-01 2023-06-20 Fanuc Corporation Robot device controller for controlling position of robot
KR20210063975A (ko) * 2019-11-25 2021-06-02 엘지전자 주식회사 로봇 및 그 제어 방법
JP7484376B2 (ja) * 2020-04-22 2024-05-16 セイコーエプソン株式会社 ロボットシステム、及び、ロボットの制御方法
DE102022202143B4 (de) 2022-03-02 2024-05-16 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und Verfahren zur Steuerung eines Roboters zur Durchführung einer Aufgabe
DE102022202145A1 (de) 2022-03-02 2023-09-07 Robert Bosch Gesellschaft mit beschränkter Haftung Roboter und Verfahren zum Steuern eines Roboters
DE102022202144B4 (de) 2022-03-02 2025-07-10 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und Verfahren zur Steuerung eines Roboters zur Durchführung einer Aufgabe
CN115363716B (zh) * 2022-09-01 2024-12-13 浙江深博医疗技术有限公司 一种穿刺手术辅助方法、系统、机器人及存储介质
US12358143B2 (en) * 2022-12-12 2025-07-15 Amazon Technologies, Inc. Tether usage for robotic package delivery or item handling
EP4491350A1 (de) * 2023-07-07 2025-01-15 LiCuSpace GmbH Greifsystem zum sortieren einer mehrzahl von werkstücken basierend auf einer rotationsklassifikation

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4603284A (en) * 1984-06-05 1986-07-29 Unimation, Inc. Control system for manipulator apparatus with resolved compliant motion control
JPH0312709A (ja) * 1989-06-12 1991-01-21 Hitachi Ltd マニピュレータの制御方法及び制御装置並びにマニピュレータ装置
US6141863A (en) * 1996-10-24 2000-11-07 Fanuc Ltd. Force-controlled robot system with visual sensor for performing fitting operation
JP2009269110A (ja) * 2008-05-02 2009-11-19 Olympus Corp 組立装置
JP2012130977A (ja) * 2010-12-20 2012-07-12 Toshiba Corp ロボット制御装置
JP2012139776A (ja) * 2010-12-28 2012-07-26 Kawasaki Heavy Ind Ltd 作業の良否判定システム及び良否判定方法
JP2013173191A (ja) * 2012-02-23 2013-09-05 Seiko Epson Corp ロボット装置、ロボット制御装置、ロボット制御方法及びロボット制御プログラム
JP2013180380A (ja) * 2012-03-02 2013-09-12 Seiko Epson Corp 制御装置、制御方法及びロボット装置
JP2014000645A (ja) * 2012-06-20 2014-01-09 Yaskawa Electric Corp ロボットシステムおよび嵌合物の製造方法

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4146924A (en) * 1975-09-22 1979-03-27 Board Of Regents For Education Of The State Of Rhode Island System for visually determining position in space and/or orientation in space and apparatus employing same
GB2128772A (en) * 1982-10-18 1984-05-02 Philips Electronic Associated Automatic assembly apparatus
US4869813A (en) * 1987-07-02 1989-09-26 Northrop Corporation Drill inspection and sorting method and apparatus
JP3064348B2 (ja) * 1990-08-02 2000-07-12 豊田工機株式会社 ロボット制御装置
US5761390A (en) * 1991-12-12 1998-06-02 Hitachi, Ltd. Robot for removing unnecessary portion on workpiece
JP3377465B2 (ja) * 1999-04-08 2003-02-17 ファナック株式会社 画像処理装置
JP3300682B2 (ja) * 1999-04-08 2002-07-08 ファナック株式会社 画像処理機能を持つロボット装置
US6681151B1 (en) * 2000-12-15 2004-01-20 Cognex Technology And Investment Corporation System and method for servoing robots based upon workpieces with fiducial marks using machine vision
KR100956520B1 (ko) * 2002-04-26 2010-05-06 혼다 기켄 고교 가부시키가이샤 다리식 이동 로봇의 자기위치 추정 장치
JP4257570B2 (ja) * 2002-07-17 2009-04-22 株式会社安川電機 搬送用ロボットのティーチング装置および搬送用ロボットのティーチング方法
JP3702257B2 (ja) * 2002-08-23 2005-10-05 ファナック株式会社 ロボットハンドリング装置
SE525388C2 (sv) 2003-04-16 2005-02-08 Volvo Constr Equip Holding Se Arbetsmaskin, innefattande en redskapshållare, och redskapslåselement
JP3930490B2 (ja) * 2004-04-23 2007-06-13 ファナック株式会社 物品取出し装置
WO2006079617A1 (en) * 2005-01-26 2006-08-03 Abb Ab Device and method for calibrating the center point of a tool mounted on a robot by means of a camera
KR20060110483A (ko) * 2005-04-20 2006-10-25 엘지전자 주식회사 충전대 자동 복귀 기능을 가진 청소로봇 및 그 방법
JPWO2006134778A1 (ja) * 2005-06-14 2009-01-08 国立大学法人 電気通信大学 位置検出装置、位置検出方法、位置検出プログラム及び複合現実提供システム
WO2007149183A2 (en) * 2006-05-25 2007-12-27 Braintech Canada, Inc. System and method of robotically engaging an object
US20080181485A1 (en) * 2006-12-15 2008-07-31 Beis Jeffrey S System and method of identifying objects
JP4844453B2 (ja) * 2007-04-09 2011-12-28 株式会社デンソーウェーブ ロボットの教示装置及び教示方法
JP4271249B2 (ja) * 2007-06-14 2009-06-03 ファナック株式会社 嵌合装置
WO2009001550A1 (ja) * 2007-06-27 2008-12-31 Panasonic Corporation ロボットアームの制御装置及び制御方法、ロボット、及びプログラム
DE602007003849D1 (de) * 2007-10-11 2010-01-28 Mvtec Software Gmbh System und Verfahren zur 3D-Objekterkennung
JP4835616B2 (ja) * 2008-03-10 2011-12-14 トヨタ自動車株式会社 動作教示システム及び動作教示方法
JP5233601B2 (ja) * 2008-11-07 2013-07-10 セイコーエプソン株式会社 ロボットシステム、ロボット制御装置およびロボット制御方法
JP5468366B2 (ja) * 2009-11-24 2014-04-09 Idec株式会社 ロボット制御システムおよびロボット制御方法
EP2572838A1 (en) * 2010-08-31 2013-03-27 Kabushiki Kaisha Yaskawa Denki Robot, robot system, robot control device, and state determining method
JP5895337B2 (ja) * 2010-09-15 2016-03-30 セイコーエプソン株式会社 ロボット
JP5682810B2 (ja) * 2010-09-15 2015-03-11 セイコーエプソン株式会社 ロボット
JP5863440B2 (ja) * 2010-12-28 2016-02-16 キヤノン株式会社 情報処理装置および方法
JP2013022705A (ja) * 2011-07-25 2013-02-04 Sony Corp ロボット装置及びロボット装置の制御方法、コンピューター・プログラム、並びにロボット・システム
JP5915214B2 (ja) * 2012-02-01 2016-05-11 セイコーエプソン株式会社 ロボット装置、組立て方法、及び組立てプログラム
JP6000579B2 (ja) * 2012-03-09 2016-09-28 キヤノン株式会社 情報処理装置、情報処理方法
JP5620445B2 (ja) * 2012-09-13 2014-11-05 ファナック株式会社 選択条件に基づいてロボットの保持位置姿勢を決定する物品取出装置
JP5768827B2 (ja) * 2013-03-14 2015-08-26 株式会社安川電機 ロボットシステムおよびワークの搬送方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4603284A (en) * 1984-06-05 1986-07-29 Unimation, Inc. Control system for manipulator apparatus with resolved compliant motion control
JPH0312709A (ja) * 1989-06-12 1991-01-21 Hitachi Ltd マニピュレータの制御方法及び制御装置並びにマニピュレータ装置
US6141863A (en) * 1996-10-24 2000-11-07 Fanuc Ltd. Force-controlled robot system with visual sensor for performing fitting operation
JP2009269110A (ja) * 2008-05-02 2009-11-19 Olympus Corp 組立装置
JP2012130977A (ja) * 2010-12-20 2012-07-12 Toshiba Corp ロボット制御装置
JP2012139776A (ja) * 2010-12-28 2012-07-26 Kawasaki Heavy Ind Ltd 作業の良否判定システム及び良否判定方法
JP2013173191A (ja) * 2012-02-23 2013-09-05 Seiko Epson Corp ロボット装置、ロボット制御装置、ロボット制御方法及びロボット制御プログラム
JP2013180380A (ja) * 2012-03-02 2013-09-12 Seiko Epson Corp 制御装置、制御方法及びロボット装置
JP2014000645A (ja) * 2012-06-20 2014-01-09 Yaskawa Electric Corp ロボットシステムおよび嵌合物の製造方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KAZUHIRO KOSUGE, 他1名: ""Planar Parts-mating Using Structured Compliance"", IEEE CONFERENCE PUBLICATION, JPN6017043718, 6 August 2002 (2002-08-06), US, pages 1477 - 1482, ISSN: 0003682848 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018039086A (ja) * 2016-09-08 2018-03-15 ファナック株式会社 人間協調型ロボット
US10899018B2 (en) 2016-09-08 2021-01-26 Fanuc Corporation Human-collaborative robot
JP2018103292A (ja) * 2016-12-26 2018-07-05 川崎重工業株式会社 ロボットハンド
WO2019124728A1 (ko) * 2017-12-21 2019-06-27 삼성전자 주식회사 객체를 식별하기 위한 장치 및 방법
US11645778B2 (en) 2017-12-21 2023-05-09 Samsung Electronics Co., Ltd. Apparatus and method for identifying and picking object using artificial intelligence algorithm
WO2024004797A1 (ja) * 2022-06-30 2024-01-04 川崎重工業株式会社 ロボット、ロボットシステムおよびロボットの作業方法
JP7383842B1 (ja) * 2023-03-30 2023-11-20 大陽日酸株式会社 着脱装置

Also Published As

Publication number Publication date
US20150251314A1 (en) 2015-09-10
EP2915635A3 (en) 2015-12-09
JP6380828B2 (ja) 2018-08-29
US9656388B2 (en) 2017-05-23
CN104889973A (zh) 2015-09-09
EP2915635B1 (en) 2020-09-02
USRE47553E1 (en) 2019-08-06
CN104889973B (zh) 2019-07-19
EP2915635A2 (en) 2015-09-09

Similar Documents

Publication Publication Date Title
JP6380828B2 (ja) ロボット、ロボットシステム、制御装置、及び制御方法
US10828782B2 (en) Robot system, robot, and robot control apparatus
US11090814B2 (en) Robot control method
JP6007636B2 (ja) ロボット制御システム及びロボット制御装置
US20160184996A1 (en) Robot, robot system, control apparatus, and control method
JP2018051704A (ja) ロボット制御装置、ロボット、及びロボットシステム
US20170277167A1 (en) Robot system, robot control device, and robot
JP6364836B2 (ja) ロボット、ロボットシステム、及び制御装置
US20180085920A1 (en) Robot control device, robot, and robot system
US20180215044A1 (en) Image processing device, robot control device, and robot
JP6455869B2 (ja) ロボット、ロボットシステム、制御装置、及び制御方法
JP2017047479A (ja) ロボット、制御装置、及びロボットシステム
JP2016120558A (ja) ロボット、及びロボットシステム
JP2016120530A (ja) ロボット、及びロボット校正システム
JP2017100197A (ja) ロボット、及び制御方法
JP2016120557A (ja) ロボット、及びロボット校正システム
JP2016218561A (ja) ロボット、制御装置、及び制御方法
JP2017052073A (ja) ロボットシステム、ロボット、及びロボット制御装置
JP2016013610A (ja) ロボット、及び制御方法
JP2016120555A (ja) ロボット、ロボットシステム、制御装置、及び制御方法
KR20230014611A (ko) 매니퓰레이터 및 그 제어 방법
JP2018001321A (ja) ロボット、ロボット制御装置、及びロボットシステム
JP2016120554A (ja) ロボット、ロボットシステム、制御装置、及び制御方法
JP2016013591A (ja) ロボットシステム
JP2016120556A (ja) ロボット、ロボットシステム、制御装置、及び制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180703

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180719

R150 Certificate of patent or registration of utility model

Ref document number: 6380828

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250