JP2015100874A - ロボットシステム - Google Patents
ロボットシステム Download PDFInfo
- Publication number
- JP2015100874A JP2015100874A JP2013242632A JP2013242632A JP2015100874A JP 2015100874 A JP2015100874 A JP 2015100874A JP 2013242632 A JP2013242632 A JP 2013242632A JP 2013242632 A JP2013242632 A JP 2013242632A JP 2015100874 A JP2015100874 A JP 2015100874A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- posture
- workpiece
- hand
- coordinate system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 description 44
- 238000000034 method Methods 0.000 description 26
- 230000008569 process Effects 0.000 description 13
- 238000003384 imaging method Methods 0.000 description 11
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000003754 machining Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000010977 unit operation Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Abstract
【課題】直感的に姿勢を調整しやすく、より正確に把持姿勢情報を教示することができるロボットシステムを提供する。
【解決手段】ロボットシステムは、ワークを把持するロボット6と、ロボット6にワークの把持姿勢情報を教示する教示装置2と、を含み、教示装置2は、第1座標系におけるロボット6によるワークの第1の把持姿勢と第2座標系におけるロボット6によるワークの第2の把持姿勢とを受け付けることによって、ロボットに把持姿勢情報を教示する。
【選択図】図1
【解決手段】ロボットシステムは、ワークを把持するロボット6と、ロボット6にワークの把持姿勢情報を教示する教示装置2と、を含み、教示装置2は、第1座標系におけるロボット6によるワークの第1の把持姿勢と第2座標系におけるロボット6によるワークの第2の把持姿勢とを受け付けることによって、ロボットに把持姿勢情報を教示する。
【選択図】図1
Description
本発明は、ロボットシステムに関するものである。
産業用のロボット、例えば加工ワークのバリ取り用ロボットを動作させる場合、該ロボットを動作させる動作プログラム(以下、「教示プログラム」と称する)を作成する必要がある。この教示プログラムを作成する方法として、例えば実際のバリ取り加工ラインにおいて、実機としてのロボットを用いて行うオンライン方式と、コンピューターによるシミュレーションを用いて実際のライン外で行うオフライン方式とが存在している。
このうち、オフライン方式の場合、ロボットモデルを含む作業環境の三次元モデル及びワークの三次元モデルを作成して表示画面に表示し、その表示画面上において、作業のポイントとなるティーチポイント(教示点とも称する)を設定するとともに、各ティーチポイントの通過順序などを定めて動作プログラムを作成する。
このようなシミュレーション方式の場合には、バリ取り加工ラインを停止させる必要がなく、しかも、ほぼ実際の作業環境にあった動作の設定が容易に可能となる利点がある。
このようなシミュレーション方式の場合には、バリ取り加工ラインを停止させる必要がなく、しかも、ほぼ実際の作業環境にあった動作の設定が容易に可能となる利点がある。
ところで、産業用ロボットの制御を行うためのプログラム言語としては、コンパイラータイプやインタプリタータイプ等がある。いずれのタイプのロボット言語の場合も、作業者であるユーザーは、これらの言語が表示された画面を参照してプログラム言語の編集を行う。すなわち、ロボットの行う作業内容をロボット言語によるプログラムリストとして表示しているので、実際の作業内容を把握するのが難しいという問題点があり、プログラムに関する特別な知識と経験が要求される。
従来ではこのような課題に対し、特許文献1に示されるように、ユーザーとのインターフェイス機能を備えた産業用ロボットの教示のために使用されるプログラムの表示、作成や編集を簡易に視覚的に行う技術が開示されている。
しかしながら、上述した従来の技術においては以下に示す課題がある。特許文献1によれば、加工関連対象物の工作機械に対するハンドリング作業をロボットに実行させる作業プログラムをオフラインで作成するとともに、特許文献1に示されるように加工プログラムを視覚的に表示する。
一方、ラインに流れる加工ワークは種類や形状が単一のものもあれば異なるものもあり、加工ワークが変更される度に、プログラムの修正をパソコン上で逐次、ツール座標系若しくはパーツ座標系のいずれか一方の座標系を用いて、教示点を教示するため、正確性に欠けるおそれがあった。
一方、ラインに流れる加工ワークは種類や形状が単一のものもあれば異なるものもあり、加工ワークが変更される度に、プログラムの修正をパソコン上で逐次、ツール座標系若しくはパーツ座標系のいずれか一方の座標系を用いて、教示点を教示するため、正確性に欠けるおそれがあった。
本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態又は適用例として実現することが可能である。
[適用例1]本適用例に係るロボットシステムは、ワークを把持するロボットと、前記ロボットに前記ワークの把持姿勢情報を教示する教示装置と、を含み、前記教示装置は、第1座標系における前記ロボットによる前記ワークの第1の把持姿勢と第2座標系における前記ロボットによる前記ワークの第2の把持姿勢とを受け付けることによって、前記ロボットに前記把持姿勢情報を教示する、ことを特徴とする。
本適用例によれば、ワークを把持するロボットにワークの把持姿勢情報を教示するとき、第1座標系で決定した第1の把持姿勢と、第2座標系で決定した第2の把持姿勢とを受け付けることによって、最終的な把持姿勢情報を決定するので、直感的に姿勢を調整しやすく、より正確に把持姿勢情報を教示することができる。
[適用例2]上記適用例に記載のロボットシステムにおいて、前記教示装置は、前記第1の把持姿勢と前記第2の把持姿勢とを受け付けるための入力受付画面を表示する表示部を含み、前記入力受付画面は、前記第1の把持姿勢を入力する第1入力部と、前記第2の把持姿勢を入力する第2入力部と、入力された前記第1の把持姿勢と前記第2の把持姿勢とに基づいて、前記ロボットによる前記ワークの把持姿勢を表示する把持姿勢表示部と、を含む、ことを特徴とする。
本適用例によれば、第1座標系で決定した第1の把持姿勢と、第2座標系で決定した第2の把持姿勢と、を重ね合わせて視覚的に表示して最終的な把持姿勢情報を容易に決定できる。
[適用例3]上記適用例に記載のロボットシステムにおいて、前記第1座標系は、前記ワークに設けられた原点に基づくパーツ座標系である、ことを特徴とする。
本適用例によれば、第1座標系を容易に決定できる。
[適用例4]上記適用例に記載のロボットシステムにおいて、前記第2座標系は、前記ロボットのハンドに設けられた原点に基づくハンド座標系である、ことを特徴とする。
本適用例によれば、第2座標系を容易に決定できる。
[適用例5]上記適用例に記載のロボットシステムにおいて、前記教示装置は、前記第1の把持姿勢を受け付けた後、前記第2の把持姿勢を受け付ける、ことを特徴とする。
本適用例によれば、パーツ座標系における第1の把持姿勢を決定した後、ハンド座標系における第2の把持姿勢を決定するので、直感的に把持姿勢を調整しやすい。
以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。
1.本実施形態の手法
図1は、本実施形態に係るロボットシステム構成例を示す図である。図2は、本実施形態に係るハンド12を示す図である。まず、本実施形態の手法について説明する。図1を用いて後述するように、本実施形態はアーム及びアームの先端に設けられるハンド(把持部)を有するロボットの制御装置等の把持姿勢情報の教示方法に関する。このような産業用ロボットでは、アーム及びハンドを操作することにより、パレット等に載せられたワーク(処理の対象となる物体)に対して処理を行う。処理の具体例としては、把持する、加工する、向きを変える、及び移動させる等が考えられる。
図1は、本実施形態に係るロボットシステム構成例を示す図である。図2は、本実施形態に係るハンド12を示す図である。まず、本実施形態の手法について説明する。図1を用いて後述するように、本実施形態はアーム及びアームの先端に設けられるハンド(把持部)を有するロボットの制御装置等の把持姿勢情報の教示方法に関する。このような産業用ロボットでは、アーム及びハンドを操作することにより、パレット等に載せられたワーク(処理の対象となる物体)に対して処理を行う。処理の具体例としては、把持する、加工する、向きを変える、及び移動させる等が考えられる。
産業用ロボットに処理を行わせる際には、一連の作業内容(以下、適宜シナリオと表記する)を設定する必要がある。シナリオの例としては、ワークを把持してから特定の面を下にして置くという例が考えられる。その他にも、右手でワークを把持した後、左手に持ち替えて、右手でワークの特定位置に部品を取り付ける、といったシナリオが想定される。
しかし、シナリオが設定されたとしてもロボットに対してより正確に処理を行わせることは容易ではない。
例えば、ワークの把持方法を教示するときに、数値又はスライダーなどでハンドの把持点(x,y,z)と、xyz軸周りの回転(α,β,γ)を入力すると、ワークとハンドとが指定した位置姿勢でグラフィカルに表示され、図を見ながら把持位置や把持姿勢情報を教示する。図はグローバル座標系で作業環境が表示されてもよいし、ワーク等の対象物の座標系で対象物が表示されてもよい。その座標系におけるハンドの位置姿勢を教示したいが、複数の軸が回転するときの動きは直感的に分かりにくい。
例えば、ワークの把持方法を教示するときに、数値又はスライダーなどでハンドの把持点(x,y,z)と、xyz軸周りの回転(α,β,γ)を入力すると、ワークとハンドとが指定した位置姿勢でグラフィカルに表示され、図を見ながら把持位置や把持姿勢情報を教示する。図はグローバル座標系で作業環境が表示されてもよいし、ワーク等の対象物の座標系で対象物が表示されてもよい。その座標系におけるハンドの位置姿勢を教示したいが、複数の軸が回転するときの動きは直感的に分かりにくい。
そこで本出願人は、シナリオに従ってより正確な把持姿勢を決定する手法を提案する。上述の例で言えば、パーツ座標系(第1座標系)で教示した把持姿勢情報と、ハンド座標系(第2座標系)で教示した把持姿勢情報を合成して、最終的な把持姿勢情報を決定する。具体的には、xyz軸周りに回転させて図2に示すハンド12の方向を大まかに決めた後、微調整を行う。つまり、ハンド12を指定した角度でxyz軸周りに回転した後で、ハンド12の姿勢(の軸)に対して回転を入力(指定)する。このようにすることで、より正確に、把持姿勢情報を教示することができる。なお、ハンド座標系とは、ロボットのハンドの位置を元にした座標系であり、パーツ座標系とは、ワークの向いている方向を元にした座標系である。
ここで、軸周りの回転行列について説明する。軸周りの回転行列は、点(x,y,z)を順にx軸周りに角度α、y軸周りに角度β、z軸周りに角度γだけ回転させた場合、次式(1)で表される。
また、任意の軸周りの回転行列は、ベクトルA(a,b,c)周りに角度θ回転させた場合、次式(2)で表される。
2.ロボットシステム構成例
本実施形態に係るロボット制御装置を含むロボットシステムの構成例を図1を用いて説明する。ロボットシステムは、教示装置2と、撮像装置4と、ロボット6とを含む。ただし、ロボットシステムは図1の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加したりするなどの種々の変形実施が可能である。ロボット6は、アーム10及びハンド12を有し、教示装置2からの動作指示に従い処理を行う。例えばパレット14に載せられたワークに対して処理を行う。撮像装置4は、例えばワークを撮影可能な位置(パレットの直上でもよいし、ロボット6のハンド12に取り付けられてもよい)に設けられ、主にワークの撮影を行う。そして、撮像画像の情報からワークの位置や姿勢等に関する情報を検出する。検出した情報は例えば教示装置2等に送られてもよいし、直接ロボット6に送られてもよい。また、ワークの位置や姿勢等に関する情報を検出できればよいため、撮像装置4による撮像画像の取得以外の手法(例えばレーザー等を用いた3次元スキャン)を用いてもよい。
本実施形態に係るロボット制御装置を含むロボットシステムの構成例を図1を用いて説明する。ロボットシステムは、教示装置2と、撮像装置4と、ロボット6とを含む。ただし、ロボットシステムは図1の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加したりするなどの種々の変形実施が可能である。ロボット6は、アーム10及びハンド12を有し、教示装置2からの動作指示に従い処理を行う。例えばパレット14に載せられたワークに対して処理を行う。撮像装置4は、例えばワークを撮影可能な位置(パレットの直上でもよいし、ロボット6のハンド12に取り付けられてもよい)に設けられ、主にワークの撮影を行う。そして、撮像画像の情報からワークの位置や姿勢等に関する情報を検出する。検出した情報は例えば教示装置2等に送られてもよいし、直接ロボット6に送られてもよい。また、ワークの位置や姿勢等に関する情報を検出できればよいため、撮像装置4による撮像画像の取得以外の手法(例えばレーザー等を用いた3次元スキャン)を用いてもよい。
次に、図3及び図4を参照して教示装置2について説明する。
図3は、本実施形態に係る詳細なロボットシステム構成例を示す図である。教示装置2は、図3に示すように、一般的なコンピューターと同様の構成であり、記憶部16と、処理部18と、表示部20と、外部I/F部22とを含む。
図3は、本実施形態に係る詳細なロボットシステム構成例を示す図である。教示装置2は、図3に示すように、一般的なコンピューターと同様の構成であり、記憶部16と、処理部18と、表示部20と、外部I/F部22とを含む。
記憶部16は、データベースを記憶したり、処理部18等のワーク領域となったりするもので、その機能はRAM等のメモリーやHDD(ハードディスクドライブ)などにより実現できる。記憶部16は、ワークデータベース24(以下データベースを適宜DBと表記する)と、ロボットDB26とを含み、ロボットDB26は、アームDB28と、ハンドDB30を含む。当該ロボットが複数のアームを備える場合は、アームDB28とハンドDB30とは複数個であってもよい。
ワークDB24はワークの大きさ、形状、姿勢等の情報を記憶する。
ロボットDB26はロボットに関するデータを記憶する。具体的にはアームDB28でアームの形状、可動範囲等を記憶し、ハンドDB30でハンドの形状、大きさ等の情報を記憶する。ただし、記憶部16は図3の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加したりするなどの種々の変形実施が可能である。
処理部18は、記憶部16からのデータや、外部I/F部22において受信した撮像装置あるいはロボットからの情報等に基づいて種々の処理を行う。この処理部18の機能は、各種プロセッサー(CPU等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムなどにより実現できる。
処理部18は、ワーク位置演算部32と、画像処理部34と、把持パターン情報取得部36とを含む。処理部18は図3の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加したりするなどの種々の変形実施が可能である。
ワーク位置演算部32は、ワークの位置を演算する。例えば外部I/F部22において撮像装置4から取得したデータを用いてワーク位置を演算する。
画像処理部34は、撮像装置4からの撮像画像情報を取得し、種々の画像処理を行う。なお、ここでは画像処理部34は、教示装置2の処理部18に設けられるものとしたがこれに限定されるものではない。画像処理部は撮像装置4に内蔵されてもよい。
把持パターン情報取得部36は、記憶部16のデータベースに記憶された情報に基づいて、動作指示を実行可能な把持パターン情報を取得する。具体的に取得される把持パターン群については後述する。
表示部20は、各種の表示画面を表示するためのものであり、例えば液晶ディスプレイや有機ELディスプレイなどにより実現できる。
外部I/F部22は、教示装置2に対するユーザーからの入力等を行ったり、撮像装置4やロボット6からの情報を受け付けたりするためのインターフェイスである。ユーザーからの入力等に関しては、スイッチやボタン、キーボード、あるいはマウス等から構成されてもよい。
撮像装置4は、上述したように、例えばワークを撮影可能な位置に設けられ、主にワークの撮影を行う。本実施形態においては撮像画像情報をそのまま教示装置2に送信するものとするが、これに限定されるものではない。例えば、教示装置2の処理部18の一部(例えば画像処理部34等)を撮像装置4に持たせてもよい。その場合、撮像画像に対して画像処理が施された後の情報が出力されることになる。
また、ロボット6は、アーム10及びハンド12の他に制御部38を含む。制御部38は、教示装置2からの情報を受け付け、ロボット6の各部(アーム10及びハンド12等)の制御を行う。
3.把持姿勢情報の教示方法
次に、把持姿勢情報の教示方法について説明する。具体的には、フローチャートを用いて処理の流れを説明する。
図4は、本実施形態に係る入力受付画面の例を示した図である。教示装置2は表示部20に図4に示すような入力受付画面を表示する。入力受付画面はハンド12の把持点及び姿勢を入力する画面である。入力受付画面は、「座標と姿勢の入力」の把持点及び姿勢の入力を促す第1入力部Dと、「微調整」のPoseA周りの回転の入力を促す第2入力部Eと、及びワークとハンド12との位置関係をグラフィカルに表示する把持姿勢表示部Fと、を備える。
次に、把持姿勢情報の教示方法について説明する。具体的には、フローチャートを用いて処理の流れを説明する。
図4は、本実施形態に係る入力受付画面の例を示した図である。教示装置2は表示部20に図4に示すような入力受付画面を表示する。入力受付画面はハンド12の把持点及び姿勢を入力する画面である。入力受付画面は、「座標と姿勢の入力」の把持点及び姿勢の入力を促す第1入力部Dと、「微調整」のPoseA周りの回転の入力を促す第2入力部Eと、及びワークとハンド12との位置関係をグラフィカルに表示する把持姿勢表示部Fと、を備える。
ワーク及びハンド12は、入力受付画面の把持姿勢表示部Fにパーツ座標系を基準とするxyz軸座標で表示される。ワーク及びハンド12はハンド座標系で表示されてもよい。ハンド12は鉛筆型で表示される。ハンド12は、鉛筆型の先端がハンド12の先端位置(把持点)として表示される。ハンド12は、鉛筆型の先の棒40(PoseA)と棒42(PoseB)とでハンド12の姿勢として表示される。
教示装置2は、ユーザーに対して入力受付画面の第1入力部Dで把持点と姿勢との入力を促す。及び、教示装置2は、ユーザーに対して入力受付画面の第2入力部Eに微調整(上記回転後のPoseA周りの回転)の入力を促す。なお、回転後とは、ワークに対してハンド12の把持点と姿勢とがある程度決まった姿勢のことである。つまり現在の姿勢に対してPoseA(棒40)を軸に回転を指定することを促す。教示装置2は、このレイアウト設計に基づく各ユニットの設置領域上の把持姿勢情報を、ロボット6に教示する。
なお、図4の入力受付画面において、棒40がハンド12の前(先端)の方向を示し、PoseAと呼び、棒42の方向がハンド12の指の開く方向を示し、PoseBと呼ぶ。また、第1入力部D及び第2入力部Eのスライダーで入力、又は、エディットボックスに数値を入れ、Enterキーで確定すると、図のハンド12の把持点及び姿勢に反映される。また、微調整は現在のハンドのPoseAを軸に回転するので、xyz軸周りの回転を変更した場合、PoseA周りの回転は0に戻してもよい。
ここで、入力受付画面に具体的な数値を設定して説明する。図4に示すように、第1入力部Dの把持点が(x,y,z)=(−49,15,21)である。ワークを斜めから把持したい場合の姿勢が、x軸周りの回転α=37度、y軸周りの回転β=10度、z軸周りの回転γ=−34度とした場合、上式(1)に代入すると、姿勢を回転させる前のハンド12の前方向(PoseA)は(x,y,z)=(1,0,0)なので、領域GのPoseAに表示するように、(x’,y’,z’)=(0.82,−0.36,−0.45)(なお、これは小数第3位を四捨五入)の方向を向いている。姿勢を回転させる前のハンド12の指の開閉方向(PoseB)は(x,y,z)=(0,0,1)なので、(x’,y’,z’)=(0.17,−0.59,0.79)(図示せず)となる。
この回転後にハンド12の前方向(PoseA)はそのままで指の開閉方向(PoseB)だけを変えたいとき、軸周りの回転α,β,γの数値を変えて姿勢を合わせるのは困難なので、回転した状態でのハンド12の前方向(PoseA)を軸として回転を指定する。
例えば、第2入力部Eの微調整が、PoseA周りの回転θ=−28度とした場合、回転軸のPoseAは(a,b,c)=(0.82,−0.36,−0.45)なので、式(2)に代入すると、領域GのPoseBが(x”,y”,z”)=(0.41,−0.19,0.89)(なお、これは小数第3位を四捨五入)となる。
図5及び図7は、本実施形態に係る処理を説明するためのフローチャートである。図6は、フローチャートの説明に用いられる状況の具体例である。なお、具体例として図6に示したように、場所P1にあるワークを、面Cを下にして場所P2に移動する単腕ロボットの例を用いるが、図5のフローチャートの処理はこの具体例に限定されるものではない。
この処理が開始されると、まず、ステップS10において、処理部18はユーザーからの入力を受け付ける。具体的には例えば、「場所P1にあるワークを、面Cを下にして場所P2に置く」といった入力が考えられる。
そして、ステップS12において、処理部18は入力に応じてシナリオの作成処理を開始し、ステップS14において、処理部18はシナリオの作成が可能であるかの判定を行う。シナリオは例えば、(1)ワークの状況を確認する(2)ハンドでワークを把持する(3)ワークの面Cを下にして場所P2に置く、といったシナリオが考えられる。ステップS14でシナリオの作成が不可能であった場合には、ステップS30において、処理部18は表示部20にエラーを表示して処理を終了する。
ステップS14でシナリオが作成可能であった場合には、ステップS16において、処理部18はシナリオを単位動作に分解した上で分析し、ステップS18において、処理部18はロボット6が動作可能かの判定を行う。
具体的には、上述(2)のハンド12でワークを把持する、というステップに関しては、場所P1がアームの可動範囲内であるか、ハンド12及びワークの形状、大きさから考えて把持可能であるか等の判定が行われる。
そして、ステップS18でロボット6が動作可能であった場合には、ステップS20において、処理部18は全ての単位動作の分析が完了したかの判定を行い、完了していなければ次の単位動作の分析を行い、完了した場合にはステップS22に移行する。また、ステップS18において、動作不可能と判定した場合には、ステップS12に戻ってシナリオを再作成する。
次に、ステップS22において、処理部18は全動作の分析を行い、ステップS24において、処理部18は動作の流れに不都合がないか確認する。動作可能であればステップS26へ移行し、不可能であればステップS12に戻ってシナリオを再作成する。
ステップS26では、処理部18は複数の把持パターンの候補が残った場合に、提示する把持パターンの選択を行う。
そして、ステップS28において、処理部18はロボット6への命令を作成し送信する。
なお、ステップS18において単位動作分析の結果動作不可能とされた場合の対処例について説明する。例えば、場所P1あるいはP2が遠いため、アーム10が届かないということであれば、双腕ロボットの場合もう一方のハンドを用いるシナリオに変更する。また、右手だけあるいは左手だけでは、場所P1とP2との両方に届かないという場合には、途中で持ち替えをするシナリオに変更する。ワークが大きく片手で把持できない場合には、両手のひらで挟んで持ち上げるシナリオに変更すればよい。
続いてステップS10の入力における(2)ハンド12でワークを把持する手法の入力について説明する。まず、図7に示すように、ステップS50において、処理部18は、入力受付画面の第1入力部Dで、ユーザーからパーツ座標系(第1座標系)におけるロボットによるワークの把持点と姿勢との入力を受け付ける。
次に、ステップS52において、処理部18は、ユーザーからパーツ座標系におけるロボットによるワークの把持点と姿勢との入力を基に表示部20にハンド12及びワークを入力受付画面の把持姿勢表示部Fに表示し、ユーザーからパーツ座標系におけるロボットによるワークの把持点と姿勢とに不都合がないか確認の入力を受け付ける。不都合がなければ、パーツ座標系におけるロボットによるワークの第1の把持姿勢を決定し、ステップS54へ移行する。不都合があればステップS50に戻ってユーザーからパーツ座標系におけるロボットによるワークの把持点と姿勢との入力を受け付ける。
次に、ステップS54において、処理部18は、入力受付画面の第2入力部Eで、ユーザーからハンド座標系(第2座標系)におけるロボットによるワークの姿勢の微調整の入力を受け付ける。
具体的には、現在のハンド12の座標軸に対して姿勢の入力を受け付ける。つまり、第1の把持姿勢の画像を視覚的に入力受付画面の把持姿勢表示部Fに表示するとともに、ハンド座標系におけるロボットによるワークの第2の把持姿勢の入力を受け付ける。
次に、ステップS56において、処理部18は、ユーザーからの姿勢の微調整の入力を基に表示部20にハンド12及びワークを入力受付画面の把持姿勢表示部Fに表示し、ユーザーからの姿勢の微調整に不都合がないか確認の入力を受け付ける。不都合があればステップS54に戻ってユーザーからの姿勢の微調整の入力を受け付け、不都合がなければ第2の把持姿勢を決定し、ステップS10のサブルーチンを終了する。
上記ステップS50〜S56の手順により、パーツ座標系におけるワークの第1の把持姿勢を決定した後、ハンド座標系におけるワークの第2の把持姿勢の入力を受け付けることになる。また、第1の把持姿勢と第2の把持姿勢とを用いて、ロボットに教示する把持姿勢情報が決定され、上記ステップS28において、処理部18はロボット6へ把持姿勢情報を送信する。
本実施形態によれば、ワークとハンド12とを表示した図を見ながらワークを把持するハンド12の把持点と姿勢とを教示するとき、パーツ座標系で決定した第1の把持姿勢と、ハンド座標系で決定した第2の把持姿勢とを重ね合わせて視覚的に表示して、最終的な把持姿勢情報を決定するので、直感的に姿勢を調整しやすく、より正確に把持姿勢情報を教示することができる。また、パーツ座標系における第1の把持姿勢を決定した後、ハンド座標系における第2の把持姿勢を決定するので、直感的に把持姿勢情報を調整しやすい。
なお、以上のように本実施形態について詳細に説明したが、本発明の新規事項及び効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。したがって、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義又は同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。またロボット制御装置及びロボットシステム等の構成、動作も本実施形態で説明したものに限定されず、種々の変形実施が可能である。
2…教示装置 4…撮像装置 6…ロボット 10…アーム 12…ハンド 14…パレット 16…記憶部 18…処理部 20…表示部 22…外部I/F部 24…ワークDB 26…ロボットDB 28…アームDB 30…ハンドDB 32…ワーク位置演算部 34…画像処理部 36…把持パターン情報取得部 38…制御部 40,42…棒。
Claims (5)
- ワークを把持するロボットと、
前記ロボットに前記ワークの把持姿勢情報を教示する教示装置と、を含み、
前記教示装置は、
第1座標系における前記ロボットによる前記ワークの第1の把持姿勢と第2座標系における前記ロボットによる前記ワークの第2の把持姿勢とを受け付けることによって、前記ロボットに前記把持姿勢情報を教示する、
ことを特徴とするロボットシステム。 - 請求項1に記載のロボットシステムにおいて、
前記教示装置は、前記第1の把持姿勢と前記第2の把持姿勢とを受け付けるための入力受付画面を表示する表示部を含み、
前記入力受付画面は、
前記第1の把持姿勢を入力する第1入力部と、
前記第2の把持姿勢を入力する第2入力部と、
入力された前記第1の把持姿勢と前記第2の把持姿勢とに基づいて、前記ロボットによる前記ワークの把持姿勢を表示する把持姿勢表示部と、を含む、
ことを特徴とするロボットシステム。 - 請求項1又は2に記載のロボットシステムにおいて、
前記第1座標系は、前記ワークに設けられた原点に基づくパーツ座標系である、
ことを特徴とするロボットシステム。 - 請求項1乃至3のいずれか一項に記載のロボットシステムにおいて、
前記第2座標系は、前記ロボットのハンドに設けられた原点に基づくハンド座標系である、
ことを特徴とするロボットシステム。 - 請求項1乃至4のいずれか一項に記載のロボットシステムにおいて、
前記教示装置は、
前記第1の把持姿勢を受け付けた後、前記第2の把持姿勢を受け付ける、
ことを特徴とするロボットシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013242632A JP2015100874A (ja) | 2013-11-25 | 2013-11-25 | ロボットシステム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013242632A JP2015100874A (ja) | 2013-11-25 | 2013-11-25 | ロボットシステム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015100874A true JP2015100874A (ja) | 2015-06-04 |
Family
ID=53377040
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013242632A Pending JP2015100874A (ja) | 2013-11-25 | 2013-11-25 | ロボットシステム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015100874A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108724179A (zh) * | 2017-04-21 | 2018-11-02 | 精工爱普生株式会社 | 控制装置、机器人及机器人系统 |
CN109551459A (zh) * | 2017-09-25 | 2019-04-02 | 发那科株式会社 | 机器人系统以及工件取出方法 |
CN110461550A (zh) * | 2017-03-24 | 2019-11-15 | 三菱电机株式会社 | 机器人程序的生成装置及生成方法 |
-
2013
- 2013-11-25 JP JP2013242632A patent/JP2015100874A/ja active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110461550A (zh) * | 2017-03-24 | 2019-11-15 | 三菱电机株式会社 | 机器人程序的生成装置及生成方法 |
CN108724179A (zh) * | 2017-04-21 | 2018-11-02 | 精工爱普生株式会社 | 控制装置、机器人及机器人系统 |
CN109551459A (zh) * | 2017-09-25 | 2019-04-02 | 发那科株式会社 | 机器人系统以及工件取出方法 |
JP2019058960A (ja) * | 2017-09-25 | 2019-04-18 | ファナック株式会社 | ロボットシステム及びワーク取り出し方法 |
US11845194B2 (en) | 2017-09-25 | 2023-12-19 | Fanuc Corporation | Robot system and workpiece picking method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110977931B (zh) | 使用了增强现实和混合现实的机器人控制装置及显示装置 | |
JP6311421B2 (ja) | ティーチングシステム、ロボットシステムおよびティーチング方法 | |
US9311608B2 (en) | Teaching system and teaching method | |
US9186792B2 (en) | Teaching system, teaching method and robot system | |
JP4271232B2 (ja) | ロボットのオフラインプログラミングを実行するための装置、方法、プログラム及び記録媒体 | |
JP6379874B2 (ja) | ティーチングシステム、ロボットシステムおよびティーチング方法 | |
US20190202058A1 (en) | Method of programming an industrial robot | |
CN108000523B (zh) | 模拟机器人系统的动作的模拟装置、模拟方法及记录介质 | |
JP5154616B2 (ja) | オフラインティーチング方法 | |
JP2007286976A (ja) | ロボットシミュレーション装置 | |
JP2006048244A (ja) | 加工プログラム作成装置 | |
TW201606467A (zh) | 作業機器人之教示資料產生裝置及教示資料產生方法 | |
JP2019089201A (ja) | 教示データ作成装置、教示データ作成装置の制御方法及びロボットシステム | |
JP2019188545A (ja) | ロボット制御装置 | |
JP2020175471A (ja) | 情報処理装置、情報処理方法、プログラム、及び記録媒体 | |
JP2018176333A (ja) | 接触センサによるワーク位置検出プログラム生成機能を備えたオフラインプログラミング装置及び方法 | |
JP2015100874A (ja) | ロボットシステム | |
JP5813931B2 (ja) | 教示データの修正システム | |
US20180088569A1 (en) | Off-line-programming jog assist device, jog assist method, and recording medium storing jog assist program | |
CN109773581B (zh) | 一种机器人应用于再现机加工的方法 | |
US20230226688A1 (en) | Robot programming | |
KR20230170568A (ko) | 로봇의 동작 궤도 생성 방법, 동작 궤도 생성 장치, 로봇 시스템, 및 프로그램 | |
JP2015222196A (ja) | 三次元測定機、及びこれを用いた形状測定方法 | |
JPH06134684A (ja) | ロボット軌道を教示するための方法 | |
CN114932537A (zh) | 一种机器人轨迹规划方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20160616 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20160624 |