JP3421608B2 - 教示モデル生成装置 - Google Patents
教示モデル生成装置Info
- Publication number
- JP3421608B2 JP3421608B2 JP10189099A JP10189099A JP3421608B2 JP 3421608 B2 JP3421608 B2 JP 3421608B2 JP 10189099 A JP10189099 A JP 10189099A JP 10189099 A JP10189099 A JP 10189099A JP 3421608 B2 JP3421608 B2 JP 3421608B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- teaching model
- image
- orientation
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1692—Calibration of manipulator
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Numerical Control (AREA)
- Manipulator (AREA)
Description
グ処理によって対象物の位置姿勢を検出する方法に用い
られる教示モデルの生成装置に関する。特に、検出対象
物が3次元にその位置姿勢が変化しても対象物を検出す
ることができるようにするための教示モデルの生成装置
に関する。
ルとして記憶しておき、平面上に載置された対象物をカ
メラ等の撮像手段で撮像して得られた画像データと教示
モデルとのパターンマッチング処理を行い、対象物の位
置姿勢を検出する方法、装置はすでに公知であり、ロボ
ットにより機械部品や物品とのワークピースを自動的に
把持し所定位置に搬送する作業等にこの対象物検出方
法、検出装置が使用されている。しかし、同一形状のワ
ークピースが乱雑に山積みされた中から、又は、所定領
域内に任意の3次元的に異なる位置姿勢で収納されてい
るワークビスの集合から個々のワークピースを取出す作
業はロボットによってできず、人手によって行われてい
る。ロボットを使用する場合は、乱雑に山積みされたワ
ークピースから人手により1つ1つ取り出し整列配置さ
せてロボットが直接ワークピースを取り出せるようにし
ておく必要がある。
スが山積みの中から、又は多数のワークピースが所定領
域内に任意の3次元的に異なる位置姿勢で収納されてい
る中から個々のワークピースをロボットで取り出すこと
ができない理由は、山積みされたワークピースの位置姿
勢を把握できないことから、ロボットで個々のワークピ
ースを把持できる位置姿勢に制御することができないこ
とに起因する。
任意の3次元的に異なる位置姿勢ので収納されている同
一形状のワークピースに対して個々のワークピースの3
次元位置、姿勢(方向)を検出する装置が開発されてい
る。この対象物の3次元位置、姿勢(方向)を検出する
装置は、予め検出しようとする同一形状の1つのワーク
ピースに対して異なった方向からカメラで撮像しその画
像データにより教示モデルを複数記憶すると共に各教示
モデルとワークピースとの相対位置姿勢を記憶してお
き、山積みされた同一形状のワークピースをカメラで撮
像して得られた画像データに対して、各教示モデルとパ
ターンマッチング処理を行い、マッチング値の高い教示
モデルを選択し、この選択教示モデルに対して記憶する
教示モデルとワークピースとの相対位置姿勢より検出対
象のワークピースの位置、姿勢(方向)を検出するもの
である。
する画像処理装置は、ワークピースを複数の方向から撮
像して得られる複数の教示モデルを必要とする。
位置姿勢を検出する画像処理装置に用いられる教示モデ
ルの生成装置を得ることにある。
に異なる任意の位置姿勢で置かれている複数の対象物の
中から任意の1つの対象物の位置姿勢を検出するための
マッチング方式の画像処理用の教示モデルを生成し記憶
するための教示モデル生成装置である。そして、請求項
1に係わる発明は、対象物か撮像手段のどちらか一方を
定位置に配置し他方をロボットの可動部に固定するかハ
ンドに把持させ、ロボットを動作させて前記撮像手段を
前記対象物に対して相対的に複数の画像取込み位置に移
動させて対象物を複数方向から撮像して前記対象物の画
像データをそれぞれ取得し教示モデルとして、前記方向
の情報と対応付けて記憶し、前記複数方向は、対象物の
3次元姿勢によって変化する画像パターンを複数種に分
け各種類のパターンがそれぞれ得られる方向としてい
る。
1のロボットの可動部に固定するかハンドに把持させ、
撮像手段を第2のロボットの可動部に固定するかハンド
に把持させ、ロボットを動作させて前記撮像手段を前記
対象物に対して相対的に複数の画像取込み位置に移動さ
せて対象物を複数方向から撮像し前記対象物の画像デー
タをそれぞれ取得し教示モデルとして記憶するようにし
たものである。
ラに限定したものであり、請求項4に係わる発明は、撮
像手段を撮像手段と対象物の距離を複数の点で計測する
3次元視覚センサに限定したものである。
トシステムによって構成した例を以下説明する。図1
は、同一形状のワークピースが多数山積みされている状
態からこのワークピースをロボット等で自動的に把持し
ピッキングするような場合、対象物のワークピースの3
次元位置姿勢を検出するための教示モデルを教示するた
めに用いられる、本発明の第1の実施形態を示すで概要
図である。このワークピースの1つを所定位置に固定
し、ロボットRBのハンドで把持されるか若しくはロボ
ット可動部に固定された撮像デバイス20で複数の方向
から撮像し、得られた画像データから対象物の教示モデ
ルを生成するものである。例えば、図4に示すようにワ
ークピースWに対して4方向から撮像しこの4つの画像
データからそれぞれ教示モデルを生成する。
の制御装置の要部ブロック図であり、従来のロボット制
御装置と同一構成である。符号8で示されるバスに、メ
インプロセッサ(以下単にプロセッサという。)1、R
AM、ROM、不揮発性メモリ(EEPROMなど)か
らなるメモリ2、教示操作盤用インターフェイス3,外
部装置用のインターフェイス6、画像処理装置との通信
インターフェイス7及びサーボ制御部5が接続されてい
る。又、教示操作盤用インターフェイス3には教示操作
盤4が接続されている。
をささえるシステムプログラムは、メモリ2のROMに
格納されている。又、アプリケーションに応じて教示さ
れるロボットの動作プログラム並びに関連設定データ
は、メモリ2の不揮発性メモリに格納される。そして、
メモリ2のRAMは、プロセッサ1が行う各種演算処理
におけるデータの一時記憶の記憶領域として使用され
る。
an(n:ロボットの総軸数にロボット手首に取り付ける
ツールの可動軸数を加算した数)を備えており、プロセ
ッサ、ROM、RAM等で構成され、各軸を駆動するサ
ーボモータの位置・速度のループ制御、さらには電流ル
ープ制御を行っている。いわゆる、ソフトウエアで位
置、速度、電流のループ制御を行うデジタルサーボ制御
器を構成している。サーボ制御器5a1〜5anの出力は各
サーボアンプ5b1〜5bnを介して各軸サーボモータM1
〜Mnを駆動制御する。なお、図示はしていないが、各
サーボモータM1〜Mnには位置・速度検出器が取り付
けられており、該位置・速度検出器で検出した各サーボ
モータの位置、速度は各サーボ制御器5a1〜5anにフィ
ードバックされるようになっている。又、入出力インタ
ーフェイス6には、ロボットに設けられたセンサや周辺
機器のアクチュエータやセンサが接続されている。
イスに接続される画像処理装置30のブロック図であ
る。プロセッサ31を備え、該プロセッサ31にはバス
40を介してこのプロセッサ31が実行するシステムプ
ログラム等を記憶するROM32、画像処理プロセッサ
32、撮像デバイスに接続された撮像デバイスインター
フェイス34、各種指令やデータを入出力するためのC
RTや液晶等の表示手段付MDI35、画像メモリ3
6、不揮発性メモリ37,データの一時記憶等に利用さ
れるRAM38、ロボット制御装置10に接続された通
信インターフェイス39が接続されている。撮像デバイ
ス20で撮像された画像は、画像メモリ26に格納され
る。画像処理プロセッサ33は、画像メモリに格納され
た画像をプロセッサ31の指令により画像処理して対象
物を認識する。この画像処理装置30の構成、作用は従
来の画像処理装置と同一であり差異はない。ただし、本
発明に関連し、不揮発性メモリ37に後述する教示モデ
ルが記憶されること、及びこの教示モデルを用いて撮像
デバイス20で撮像したワークピースの山の画像データ
に対してパターンマッチング処理を行い、ワークピース
の3次元位置姿勢を求める点に、この画像処理装置30
は特徴がある。
データを得るものであるが、この撮像デバイス20とし
ては、2次元画像を得るCCDカメラでも、又、距離デ
ータを測定できる視覚センサでもよい。CCDカメラの
場合には撮像して得られた2次元画像より画像データを
従来から公知の方法で得るが、距離データを測定できる
視覚センサの場合は、センサと対象物との距離データを
要素とした2次元配列データを画像データとして得るも
のである。この距離データを測定できる視覚センサは、
例えば、特開平7−270137号公報に記載されたス
ポット光走査型3次元視覚センサ等で公知であるので、
簡単にこの3次元視覚センサについて述べる。
て任意の方向(X方向、Y方向)にスポット状の光を照
射して対象物上に照射された光ビームを、位置検出型の
検出器(PSD)で測定することによって光ビームの位
置を計測するものである。2台のスキャナのミラーの偏
向角度θx、θyとPSD上の受光位置からビームが照射
された対象物の3次元位置が計算して求められるもので
ある。
タとして、距離データを要素とする2次元配列データを
得る方法について、図11から図13を参照しながら簡
単に説明する。
め決められており、スキャナのミラーの偏向角度θx、
θyをディスクリートに制御して、図11に示すよう
に、この走査範囲のX、Y平面における点(1,1)か
ら点(1,n)、点(2,1)から点(2,n)、・・
・点(m,1)から点(m,n)と走査して各点におけ
る3次元位置を測定し、各点(i、j)におけるこのセ
ンサとビームが照射された点の対象物間の距離Z(i、
j)を求め、画像処理装置30のRAM38に格納す
る。こうして図12に示すような、センサと対象物に照
射されたビームの点間の距離データZ(i、j)を要素
とする2次元配列データを画像データとして得る。
像処理装置30のプロセッサ31が実行する処理のフロ
ーチャートである。まず、指標i、jを「1」にセット
し(ステップ500)、予め決められた計測範囲の始点
y1,x1(図11における点(1,1))に対応する
ミラーの偏向角度θx、θyをセンサ20に送出し照射指
令を出力する(ステップ501〜503)、センサ20
は、ミラーをこの偏向角度に設定し、光ビームを照射す
る。そしてPSDで得られた信号を画像処理装置30に
出力する。画像処理装置30のプロセッサ31は、この
PSDからの信号と指令したミラーの偏向角度θx、θy
より、対象物に照射されたビームの位置を計算し、この
センサとこのビームが照射された位置との距離Z(i、
j)を計算し、この値をRAM28に2次元配列データ
[i、j]として格納する(ステップ504,50
5)。なお、対象物に照射されたビームの位置を計算し
及び距離Z(i、j)の計算をセンサ20側で行うよう
にしてもよい。
軸方向走査のミラーの偏差角度θxを設定所定量Δxだ
け増加させ(ステップ506,507)、指標iが設定
値nを越えたか判断し(ステップ508)、越えてなけ
ればステップ503に戻り、該ステップ503からステ
ップ508の処理を行い次の点の距離Z(i、j)を求
める。以下、指標iが設定値nを越えるまでステップ5
03〜ステップ508の処理を実行し、図11における
点(1,1)から点(1,n)までの各点における距離
Z(i、j)を求めて記憶する。
たことが判別されると、指標iを「1」にセットしかつ
指標jを「1」インクリメントして、Y軸方向走査のミ
ラーの偏差角度θyを設定所定量Δyだけ増加させる
(ステップ509〜511)。そして、指標jが設定値
mを越えたか判断し(ステップ512)、越えてなけれ
ばステップ502に戻り前述したステップ502以下の
処理を実行する。
るまでステップ502〜512の処理を繰り返し実行す
る。指標jが設定値mを越えると、図11に示す計測範
囲(走査範囲)を全て計測したことになり、RAM28
には、2次元配列データである距離データZ(1、1)
〜Z(m、n)が記憶され、画像データ取得処理は終了
する。
サによる画像データとしての2次元配列データを得る処
理である。こうして得られた2次元配列データを画像デ
ータとして用い、教示モデルを作成してもよいが、説明
を簡単にするために、画像データを取り込むためのデー
タ取込み手段としての撮像デバイスにCCDカメラを用
いて、このカメラ20で対象物を撮像して得られた画像
データを用いるものとして以下説明する。
理装置30による構成される本実施形態の教示モデル生
成装置による教示モデルの生成動作処理を図7に示す動
作処理フローチャートと共に説明する。ロボット制御装
置10の教示操作盤4から固定位置に置かれたワークピ
ースに対してワーク座標系を設定し、これをロボット制
御装置10に記憶される。すなわち、ロボットに設けら
れているワールド座標系から見たワーク座標系の座標変
換行列を設定する(ステップ100)。次に、ロボット
手先に取り付けられたカメラのキャリブレーションを行
いロボット手先のフランジ面中心からカメラ取り付け位
置姿勢をロボット制御装置10に設定する。これによ
り、カメラ座標系がロボットに設定されることになる
(ステップ101)。
手首先端に取り付けられたカメラ20で撮像する最初
(第0番目)の位置姿勢と、次以降に撮像する位置姿勢
を特定するため、該最初の位置姿勢からカメラを回転さ
せる回転軸と回転角を設定し、かつ、その撮像位置姿勢
の数Nをも設定する(ステップ103)。例えば、図4
に示すようにワークピースWに対して4方向から撮像し
この4つの画像データからそれぞれ教示モデルを生成す
る。図4(a)に示す第0番目の撮像位置姿勢では、ワ
ークピースWを真上のワールド座標系Z軸方向から撮像
した画像データからの教示モデルである。次の撮像位置
姿勢は、このカメラ位置において、ワークピースの配置
位置(ワーク座標系の原点)を通りカメラの中心軸方向
に対して垂直方向の軸周りに回転させる回転角を設定す
る。最初(第0番目)の位置姿勢でワールド座標系のZ
軸とカメラの中心軸を平行とした場合には、ワールド座
標系のX軸、Y軸は垂直であるから、このうちどちらか
の軸周りにワークピース位置を中心に回転させる。図4
(b)に示す例では、ワールド座標系X軸まわりに30
度回転するものとして設定し、そのとき撮像して得られ
る画像データから教示モデルを生成するものである。同
様に、図4(c)、(d)は、ワークピースの配置位置
を通りワールド座標系のX軸と平行な軸周りにカメラ2
0をそれぞれ60度、90度回転させたときの画像デー
タから教示モデルを生成するものである。以下、この4
つの教示モデルを得るものを例に取り説明する。なお、
この例では、0度、30度、60度、90度の4つの教
示モデルとしたが、この回転角の刻みを小さくし、さら
に多くの教示モデルを得るようにしておけば、さらに精
度のよいワークピースの3次元位置姿勢を検出すること
ができる。
付けたカメラ20で最初(第0番目)に撮像するロボッ
トの位置姿勢と回転中心軸となる軸及び回転角を教示
し、かつその数Nを設定する。説明をわかりやすくする
ために、所定位置に所定姿勢で配置されたワークピース
Wに対し、カメラの中心軸がワールド座標系のZ軸と平
行で、ワークピースWのワールド座標系上のX、Y軸座
標値と同一でZ軸のみが異なる位置を第0番目の教示モ
デル撮像位置姿勢として教示し、さらに、ワークピース
Wの配置位置を通り、ワールド座標系X軸と平行な軸周
りに30度、60度、90度回転させた位置を第1,第
2、第3の撮像位置姿勢として設定する。又撮像位置の
数Nを「4」と設定する。
4から入力すると、ロボット制御装置10のプロセッサ
1は、撮像回数を係数するカウンタMを「0」にセット
し(ステップ103)、ロボットを稼働し第M(=0)
番目の位置姿勢に移動させ、画像処理装置30へカメラ
での撮像指令を出力する(ステップ104)。画像処理
装置30では、この指令を受けてカメラ20でワークピ
ースを撮像し、その画像データを画像メモリ36に格納
するが、さらに、この画像データからM番目の教示モデ
ルを生成し不揮発性メモリ37に格納する(ステップ1
05)。さらに、ワーク座標系の位置姿勢をカメラ座標
系から見た座標変換行列として計算し、カメラとワーク
ピースとの相対位置姿勢を求めM番目の教示モデルの相
対位置姿勢として不揮発性メモリ37に格納し、データ
取得信号をロボット制御装置に送る(ステップ10
6)。例えば、カメラ座標系の位置姿勢として[x0,
y0,z0,α0,β0,γ0]c として記憶される。なお
α、β、γはそれぞれX、Y、Z軸周りの回転角を意味
し、「c」はカメラ座標系を意味する。
ト制御装置10のプロセッサ1は、カウンタMを「1」
インクリメントし(ステップ107)、該カウンタMの
値が設定値N(=4)より小さいか判断し(ステップ1
08)、小さければ、(ステップ104に戻り第M番目
の撮像位置姿勢にロボットを移動させる。すなわち、図
4に示す上述した例では、ワークピース配置位置を通り
ワールド座標系のX軸と平行な軸周りに30度をカメラ
を回転させ撮像を行い教示モデルとそのときのカメラと
ワークピースとの相対位置姿勢を記憶する。
になるまで、ステップ104〜108の処理を行い、教
示モデルとカメラとワークピースとの相対位置姿勢を不
揮発性メモリに記憶する。上述した例では教示モデルと
しては、図4(a)〜(d)の画像から生成したものが
記憶され、その教示モデルに対してそれぞれカメラとワ
ークピースとの相対位置姿勢としての、カメラ座標系の
ワークピースWの位置姿勢として[x0,y0,z0,α
0,β0,γ0]c 、[x1,y1,z1,α1,β1,γ1]c
、[x2,y2,z2,α2,β2,γ2]c 、[x3,y
3,z3,α3,β3,γ3]c が記憶される。以上のよう
にして、画像処理装置30の不揮発性メモリ37には教
示モデルとカメラとワークピースとの相対位置を記憶さ
れることになる。
概要図である。図1に示す第1の実施形態と相違する点
は、カメラ20が固定位置に置かれ、対象物のワークピ
ースWがロボット手首先端に取り付けられたハンドで把
持するか、若しくはロボット可動部に固定し、教示モデ
ルを設定記憶させるようにした点である。ロボット制御
装置10及び画像処理装置(画像処理装置)30の構成
は同一であり、教示モデルを教示生成するための処理が
異なるのみである。この教示動作処理のフローを図8に
示す。
ャリブレーションを行いカメラ座標系をロボット制御装
置10のメモリ2に記憶させる(ステップ200)。こ
れにより、ロボットワールド座標系から見たカメラ座標
系の座標変換行列が得られる。さらに、ロボットハンド
が把持した(若しくはロボット可動部に固定された)ワ
ークピースに想定した座標系(ワーク座標系)のロボッ
ト手先のフランジ面中心から見た位置姿勢を計測しロボ
ット制御装置10に設定しメモリ2に記憶させる。これ
により、ロボットが任意の位置にいる時のワークピース
に想定した座標系(ワーク座標系)の位置姿勢をロボッ
トが認識できることになる。
のカメラ20で撮像する、ロボットハンドに把持された
ワークピースWの最初(第0番目)の位置姿勢と、次以
降に撮像する位置姿勢を特定するため該最初の位置姿勢
からワークピースを固定位置のカメラ20に対して回転
させる回転軸と回転角を設定する(ステップ202)。
X軸と平行な軸周りにカメラ20を中心に30度、60
度、90度それぞれロボットハンドで把持したワークピ
ースを回転させた位置姿勢を第1,第2、第3の撮像位
置として設定する。又撮像位置の数Nを「4」と設定す
れば、第1の実施形態と同様の図4に示すような教示モ
デルを得ることができる。
4から入力すると、ロボット制御装置10のプロセッサ
1は、カウンタMを「0」にセットし、ロボットを動作
させ第M(=0)番目の位置姿勢にワークピースWを移
動させ、画像処理装置30へカメラ20での撮像指令を
出力する(ステップ203、204)。画像処理装置3
0では、この指令を受けてカメラでワークピースWを撮
像し、その画像データからM番目の教示モデルを生成し
不揮発性メモリ37に格納する。さらに、ワークピース
に想定した座標系(ワーク座標系)の位置姿勢をカメラ
座標系から見た座標変換行列として計算し、カメラとワ
ークピースとのM番目の教示モデルの相対位置姿勢とし
て不揮発性メモリ37に格納し、データ取得信号をロボ
ット制御装置に送る(ステップ204〜206)。
装置10のプロセッサ1は、カウンタMを「1」インク
リメントし(ステップ207)、該カウンタMの値が設
定値N(=4)より小さいか判断し(ステップ20
8)、小さければ、ステップ204に戻り第M番目の撮
像位置姿勢にロボットを移動させる。
になるまで、ステップ204〜208の処理を行い、第
1の実施形態と同様に教示モデルとカメラとワークピー
スとの相対位置姿勢を不揮発性メモリに記憶することに
なる。
である。この第3の実施形態は、カメラも対象物のワー
クピースもロボットの可動部に固定するかハンドで把持
して教示モデルを生成するものである。この実施形態に
おいては、第1、第2のロボットRB1、RB2の各ロ
ボット制御装置は、図5に示す構成ほぼ同一であるが、
この2つのロボット制御装置間が通信インターフェイス
で接続されていること、及び、画像処理装置30が第2
のロボット制御装置のみに接続されている点に相違する
のみである。又画像処理装置30の構成も図6に示すも
のと同一である。
のワークピースWを把持させ、第2のロボットRB1の
手先にはカメラ20を取り付ける。そして、第1のロボ
ットRB1のワールド座標系から見た第2のロボットR
B2のワール度座標系の位置姿勢を計測し、座標変換行
列(A)として求め第1のロボット制御装置に記憶させ
る(ステップ300)。
把持したワークピースWに想定された座標系(ワーク座
標系)のロボット手先のフランジ面中心から見た位置姿
勢の座標変換行列(B)を第1のロボット制御装置に設
定し記憶させる(ステップ301)。又、第2のロボッ
トRB1の手先に取り付けたカメラ20のキャリブレー
ションを行い第2のロボット手先のフランジ面中心から
カメラ座標系への変換行列(C)を第1のロボット制御
装置に設定し記憶させる(ステップ302)。
メラ20で最初に撮像するワークピースWとカメラ20
が最初(第0番目)の相対位置姿勢となるように第1、
第2のロボットの位置姿勢を各ロボット制御装置に設定
し、続いて、第1番目、第2番目、・・・・第i番目・
・の位置姿勢をそれぞれ設定し、かつその数Nも設定す
る。この実施形態においても、最初の位置姿勢からワー
クピースWを把持した第1のロボットRB1の位置姿勢
は変えずにカメラが取り付けられた第2のロボットRB
20を動作させ、ワークピースWに対して回転させる
か、第2のロボットRB20の位置姿勢を変えずにカメ
ラ20を固定し、第1のロボットRB20を動作させ、
ワークピースWを回転させるか、どちらか一方を回転さ
せるか若しくは両方とも回転させ、相対的に設定回転角
だけ回転させるように設定する。又回転軸は、カメラ2
0の中心軸に直交する各ワールド座標系平行する軸で互
いに相手の中心位置(カメラ座標系の原点、ワーク座標
系の原点)を通る軸を設定する。例えば、図3に示す例
では、各ワールド座標系のZ軸(垂直軸)周りにワーク
ピースW又はカメラ20を中心に回転させる角度を設定
する。設定を簡単にするには、カメラ20かワークピー
スWの一方を固定し、他方を回転させるようにすればよ
いが、回転のために動作させるロボットの移動が困難で
ある時や移動できないような場合には、固定されていた
カメラ若しくはワークピース側のロボットを駆動してワ
ークピースとカメラが相対的に設定した位置姿勢関係に
なるように設定する。(ステップ303)。
方のロボット制御装置の教示操作盤4から入力すると、
各ロボットRB1、RB2のロボット制御装置10のプ
ロセッサ1は、カウンタMを「0」にセットし、ロボッ
トを動作させ第M(=0)番目の位置姿勢にワークピー
スWを移動させ、画像処理装置30へカメラ20での撮
像指令を出力する(ステップ304、305)。画像処
理装置30では、この指令を受けてカメラでワークピー
スWを撮像し、その画像データからM番目の教示モデル
を生成し、不揮発性メモリ37に格納する(ステップ3
06)。
のロボットの位置姿勢とステップ301で求め設定され
ている座標変換行列(B)より、ワークピースWに想定
した座標系の位置姿勢を第1のロボットのワールド座標
系から見た座標変換行列(D)として求め、さらに、第
2のロボットの位置姿勢とステップ302で求め設定さ
れている座標変換行列(C)より、カメラ座標系から見
た位置姿勢を第2ロボットのワールド座標系から見た座
標変換行列(E)として求める(ステップ307)。こ
うして求めた座標変換行列(D)、(E)、及びステッ
プ300で設定されている座標変換行列(A)より、下
記1式の演算を行って、ワークピースWに想定されてい
る位置姿勢をカメラ座標系から見た座標変換行列(F)
に変換し、第M番目の相対位置姿勢として記憶しデータ
取得信号を両ロボット制御装置に出力する。
プロセッサ1は、カウンタMを「1」インクリメントし
(ステップ308)、該カウンタMの値が設定値N(=
4)より小さいか判断し(ステップ309)、小さけれ
ば、ステップ305に戻り第M番目の撮像位置姿勢にロ
ボットを移動させる。
になるまで、ステップ305〜310の処理を行い、第
1、第2の実施形態と同様に教示モデルとカメラ20と
ワークピースWとの相対位置姿勢を不揮発性メモリ37
に記憶することになる。
施形態を述べたが、こうして得られた教示モデルを利用
して、例えば、ワークピースWが山積みされた山から個
々のワークピースを取り出すピッキング作業を開始する
例について次に説明する。
ると共にハンドが取り付けられている。そして、ロボッ
ト制御装置10に教示操作盤等からピッキング指令が入
力されると、プロセッサ1は、図10に示すピッキング
作業の動作処理を開始する。まず、教示されているロボ
ット先端手首に取り付けられているカメラを山積みされ
たワークピースが該カメラの視野にいる撮像位置へロボ
ットを移動させ、該カメラのワールド座標系上の3次元
位置姿勢を画像処理装置30へ出力すると共に撮像指令
を出力する(ステップ400、401)。画像処理装置
30のプロセッサ31は、撮像指令を受信し、ワークピ
ースの山を撮像し幾つかのワークピースの画像データを
得て画像メモリ36に記憶する(ステップ402)。
に対して不揮発性メモリ37に設定記憶されている教示
モデルの1つ(第0番目の教示モデル)を使用してパタ
ーンマッチング処理を行いワークピースの検出を行い
(ステップ403)。このパターンマッチング処理で
は、ワークピースの画像内の位置、回転及びスケールの
変化を検出するマッチング処理を行う。そして、マッチ
ング値が設定基準値以上のものが検出されたか判断し
(ステップ404)、基準値以上のものが検出されなけ
れば、全教示モデル(第0〜第3番目の教示モデル)に
対してパターンマッチング処理を行ったか判断し(ステ
ップ405)、行っていなければ、他の教示モデルによ
りパターンマッチングの処理を行う(ステップ40
6)。こうして、ステップ404で、いずれかの教示モ
デルに対してマッチング値が設定基準値以上のワークピ
ースの画像データが検出されると、この検出したワーク
ピースの画像データに対して他の教示モデルで全てマッ
チング処理を行う。すなわち、検出されたワークピース
の画像データに対して、設定記憶されている教示モデル
の全てとパターンマッチング処理を行う(ステップ40
7)。このパターンマッチング処理によって得られたマ
ッチング値が一番高い教示モデルを選択し、この選択教
示モデルに対応して記憶するカメラとワークピースとの
相対位置姿勢と、選択した教示モデルに対するマッチン
グ処理での画像ないの位置、回転及びスケールの変化量
とにより最終的なカメラとワークピースとの相対位置姿
勢として得られる(ステップ408)。そして、この相
対位置姿勢とステップ401の処理で送られてきている
カメラのワールド座標系における位置姿勢からワークピ
ースのワールド座標系上の位置姿勢を求め出力する。す
なわち、ワークピースとカメラの相対位置姿勢は、カメ
ラ座標系からみたワークピースの位置姿勢であるから、
この位置姿勢のデータと、カメラのワールド座標系にお
ける位置姿勢のデータにより座標変換の演算を行うこと
によりワールド座標系上の検出ワークピースの位置姿勢
が求められる(ステップ409)。
ワークピースWの3次元位置姿勢に基づき、ロボットを
動作させ従来と同様にこの検出ワークピースをピツキン
グして教示された所定の位置に移動される(ステップ4
10)。そして、ステップ402に戻り、ステップ40
2以下の処理を繰り返し実行する。全てのワークピース
がワークピースの山からピッキングされなくなると、ス
テップ403〜406の処理で、全ての教示モデルに対
してパターンマッチング処理をしても設定基準値以上の
マッチング値を得ることができないから、このピッキン
グ作業は終了する。
勢が変わってもその対象物を認識識別し対象物の位置姿
勢を検出する画像処理装置等に利用される教示パターン
をロボットを使用して簡単に生成することができるもの
である。
図である。
図である。
図である。
ある。
ロック図である。
ク図である。
動作処理フローである。
動作処理フローである。
動作処理フローである。
できる視覚センサの動作説明図である。
て得る画像データとしての距離データを要素とする2次
元配列データの説明図である。
得処理のフローチャートである。
Claims (4)
- 【請求項1】 3次元的に異なる任意の位置姿勢で置か
れている複数の対象物の中から任意の1つの対象物の位
置姿勢を検出するためのマッチング方式の画像処理用の
教示モデルを生成し記憶するための教示モデル生成装置
であって、 対象物か撮像手段のどちらか一方を定位置に配置し他方
をロボットの可動部に固定するかハンドに把持させ、ロ
ボットを動作させて前記撮像手段を前記対象物に対して
相対的に複数の画像取込み位置に移動させて対象物を複
数方向から撮像して前記対象物の画像データをそれぞれ
取得し教示モデルとして、前記方向の情報と対応付けて
記憶し、前記複数方向は、対象物の3次元姿勢によって
変化する画像パターンを複数種に分け各種類のパターン
がそれぞれ得られる方向であることを特徴とする教示モ
デル生成装置。 - 【請求項2】 3次元的に異なる任意の位置姿勢で置か
れている複数の対象物の中から任意の1つの対象物の位
置姿勢を検出するためのマッチング方式の画像処理用の
教示モデルを生成し記憶するための教示モデル生成装置
であって、 対象物を第1のロボットの可動部に固定するかハンドに
把持させ、撮像手段を第2のロボットの可動部に固定す
るかハンドに把持させ、ロボットを動作させて前記撮像
手段を前記対象物に対して相対的に複数の画像取込み位
置に移動させて対象物を複数方向から撮像して前記対象
物の画像データをそれぞれ取得し教示モデルとして、前
記方向の情報と対応付けて記憶し、前記複数方向は、対
象物の3次元姿勢によって変化する画像パターンを複数
種に分け各種類のパターンがそれぞれ得られる方向であ
ることを特徴とする教示モデル生成装置。 - 【請求項3】 撮像手段がカメラであることを特徴とす
る請求項1又は請求項2に記載の教示モデル生成装置。 - 【請求項4】 撮像手段は撮像手段と対象物の距離を複
数の点で計測する3次元視覚センサであることを特徴と
する請求項1又は請求項2に記載の教示モデル生成装
置。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10189099A JP3421608B2 (ja) | 1999-04-08 | 1999-04-08 | 教示モデル生成装置 |
US09/546,213 US7200260B1 (en) | 1999-04-08 | 2000-04-10 | Teaching model generating device |
DE60039934T DE60039934D1 (de) | 1999-04-08 | 2000-04-10 | Verfahren zur Erzeugung eines Lernmodells |
EP00303007A EP1043126B1 (en) | 1999-04-08 | 2000-04-10 | Teaching model generating method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10189099A JP3421608B2 (ja) | 1999-04-08 | 1999-04-08 | 教示モデル生成装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000288968A JP2000288968A (ja) | 2000-10-17 |
JP3421608B2 true JP3421608B2 (ja) | 2003-06-30 |
Family
ID=14312534
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP10189099A Expired - Fee Related JP3421608B2 (ja) | 1999-04-08 | 1999-04-08 | 教示モデル生成装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US7200260B1 (ja) |
EP (1) | EP1043126B1 (ja) |
JP (1) | JP3421608B2 (ja) |
DE (1) | DE60039934D1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7957580B2 (en) | 2006-02-01 | 2011-06-07 | Fanuc Ltd | Workpiece picking device |
Families Citing this family (55)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2003022534A1 (fr) * | 2001-09-07 | 2003-03-20 | Kabushiki Kaisha Yaskawa Denki | Apprentissage de la position d'une plaquette et montage d'apprentissage |
JP2005515910A (ja) | 2002-01-31 | 2005-06-02 | ブレインテック カナダ インコーポレイテッド | シングルカメラ3dビジョンガイドロボティクスの方法および装置 |
US7756322B2 (en) * | 2003-08-18 | 2010-07-13 | Honda Motor Co., Ltd. | Picture taking mobile robot |
WO2005090010A1 (en) * | 2004-03-16 | 2005-09-29 | Abb Ab | System of manupulators and method for controlling such a system |
JP3946711B2 (ja) * | 2004-06-02 | 2007-07-18 | ファナック株式会社 | ロボットシステム |
JP2006026790A (ja) | 2004-07-15 | 2006-02-02 | Fanuc Ltd | 教示モデル生成装置 |
DE102006004153B4 (de) * | 2006-01-27 | 2014-10-23 | Vision Tools Hard- Und Software Entwicklungs Gmbh | Automatisches Einmessen kooperierender Roboter |
DE102006005958A1 (de) * | 2006-02-08 | 2007-08-16 | Kuka Roboter Gmbh | Verfahren zum Erzeugen eines Umgebungsbildes |
JP4267005B2 (ja) * | 2006-07-03 | 2009-05-27 | ファナック株式会社 | 計測装置及びキャリブレーション方法 |
WO2008036354A1 (en) | 2006-09-19 | 2008-03-27 | Braintech Canada, Inc. | System and method of determining object pose |
DE102007009851B3 (de) * | 2007-02-28 | 2008-05-29 | Kuka Roboter Gmbh | Industrieroboter und Verfahren zum Bestimmen der Lage eines Industrieroboters relativ zu einem Objekt |
US7957583B2 (en) | 2007-08-02 | 2011-06-07 | Roboticvisiontech Llc | System and method of three-dimensional pose estimation |
JP5448326B2 (ja) * | 2007-10-29 | 2014-03-19 | キヤノン株式会社 | 把持装置および把持装置制御方法 |
US8923602B2 (en) * | 2008-07-22 | 2014-12-30 | Comau, Inc. | Automated guidance and recognition system and method of the same |
US8559699B2 (en) | 2008-10-10 | 2013-10-15 | Roboticvisiontech Llc | Methods and apparatus to facilitate operations in image based systems |
JP2010214546A (ja) * | 2009-03-17 | 2010-09-30 | Fuji Electric Holdings Co Ltd | 組立装置および組立方法 |
CN102019565B (zh) * | 2009-09-21 | 2015-10-14 | Abb技术有限公司 | 用于制造部件的质量控制系统和方法 |
JP5402697B2 (ja) * | 2009-10-26 | 2014-01-29 | 株式会社安川電機 | ロボット装置及びワーク取り出しシステム並びにワーク取り出し方法 |
US9179106B2 (en) * | 2009-12-28 | 2015-11-03 | Canon Kabushiki Kaisha | Measurement system, image correction method, and computer program |
JP5665333B2 (ja) * | 2010-03-10 | 2015-02-04 | キヤノン株式会社 | 情報処理装置および情報処理装置の制御方法 |
US9393694B2 (en) * | 2010-05-14 | 2016-07-19 | Cognex Corporation | System and method for robust calibration between a machine vision system and a robot |
JP5516192B2 (ja) * | 2010-07-28 | 2014-06-11 | 富士通株式会社 | モデル作成装置、モデル作成プログラムおよびモデル作成方法 |
JP5743499B2 (ja) | 2010-11-10 | 2015-07-01 | キヤノン株式会社 | 画像生成装置、画像生成方法、およびプログラム |
JP5852364B2 (ja) * | 2011-08-26 | 2016-02-03 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法、およびプログラム |
US9656392B2 (en) * | 2011-09-20 | 2017-05-23 | Disney Enterprises, Inc. | System for controlling robotic characters to enhance photographic results |
US20150002855A1 (en) * | 2011-12-19 | 2015-01-01 | Peter Kovacs | Arrangement and method for the model-based calibration of a robot in a working space |
JP5895569B2 (ja) * | 2012-02-08 | 2016-03-30 | ソニー株式会社 | 情報処理装置、情報処理方法およびコンピュータプログラム |
JP2016501733A (ja) | 2012-12-21 | 2016-01-21 | ベックマン コールター, インコーポレイテッド | レーザを用いた自動位置合わせのためのシステム及び方法 |
JP6108860B2 (ja) * | 2013-02-14 | 2017-04-05 | キヤノン株式会社 | ロボットシステム及びロボットシステムの制御方法 |
JP2014176922A (ja) * | 2013-03-14 | 2014-09-25 | Yaskawa Electric Corp | ロボットシステムおよび被加工物の製造方法 |
EP3037222A4 (en) * | 2013-09-24 | 2017-04-12 | Sony Olympus Medical Solutions Inc. | Medical robot arm device, medical robot arm control system, medical robot arm control method, and program |
US9586320B2 (en) * | 2013-10-04 | 2017-03-07 | GM Global Technology Operations LLC | System and method for controlling a vision guided robot assembly |
EP3135444B1 (en) * | 2014-02-28 | 2022-04-13 | Sony Group Corporation | Robot arm apparatus, robot arm control method, and program |
JP6361213B2 (ja) * | 2014-03-26 | 2018-07-25 | セイコーエプソン株式会社 | ロボット制御装置、ロボット、ロボットシステム、教示方法、及びプログラム |
TW201600275A (zh) * | 2014-06-26 | 2016-01-01 | Hiwin Tech Corp | 機械手臂系統及其平行度校正方法 |
SI3012695T1 (en) | 2014-10-23 | 2018-01-31 | Comau S.P.A. | System for monitoring and control of an industrial plant |
US10082237B2 (en) | 2015-03-27 | 2018-09-25 | A9.Com, Inc. | Imaging system for imaging replacement parts |
JP2016221645A (ja) * | 2015-06-02 | 2016-12-28 | セイコーエプソン株式会社 | ロボット、ロボット制御装置およびロボットシステム |
US10035269B2 (en) * | 2015-09-16 | 2018-07-31 | The Boeing Company | Enhanced robotic teaching tool |
JP6812095B2 (ja) * | 2015-10-22 | 2021-01-13 | キヤノン株式会社 | 制御方法、プログラム、記録媒体、ロボット装置、及び物品の製造方法 |
US9815204B2 (en) * | 2016-01-22 | 2017-11-14 | The Boeing Company | Apparatus and method to optically locate workpiece for robotic operations |
KR102023149B1 (ko) * | 2016-03-03 | 2019-11-22 | 구글 엘엘씨 | 로봇 파지를 위한 심층 기계 학습 방법 및 장치 |
KR102023588B1 (ko) | 2016-03-03 | 2019-10-14 | 구글 엘엘씨 | 로봇 파지용 심층 기계 학습 방법 및 장치 |
US9990685B2 (en) | 2016-03-21 | 2018-06-05 | Recognition Robotics, Inc. | Automated guidance system and method for a coordinated movement machine |
JP6705738B2 (ja) | 2016-12-05 | 2020-06-03 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理方法、およびプログラム |
JP7051287B2 (ja) * | 2016-12-05 | 2022-04-11 | 株式会社ソニー・インタラクティブエンタテインメント | システム、治具、および情報処理方法 |
JP6846949B2 (ja) * | 2017-03-03 | 2021-03-24 | 株式会社キーエンス | ロボットシミュレーション装置、ロボットシミュレーション方法、ロボットシミュレーションプログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器 |
JP6815924B2 (ja) * | 2017-04-19 | 2021-01-20 | トヨタ自動車株式会社 | キャリブレーション装置 |
JP6734253B2 (ja) | 2017-12-20 | 2020-08-05 | ファナック株式会社 | ワークを撮像する視覚センサを備える撮像装置 |
IT201800005091A1 (it) | 2018-05-04 | 2019-11-04 | "Procedimento per monitorare lo stato di funzionamento di una stazione di lavorazione, relativo sistema di monitoraggio e prodotto informatico" | |
JP6740288B2 (ja) * | 2018-07-13 | 2020-08-12 | ファナック株式会社 | 物体検査装置、物体検査システム、及び検査位置を調整する方法 |
EP3755970A4 (en) * | 2018-09-03 | 2021-11-24 | ABB Schweiz AG | ROBOT SYSTEM MANAGEMENT METHOD AND APPARATUS |
US11345030B2 (en) * | 2019-05-28 | 2022-05-31 | Intel Corporation | Methods and apparatus for complex assembly via autonomous robots using reinforcement learning action primitives |
CN114310877B (zh) * | 2021-03-09 | 2024-05-07 | 香港科能有限公司 | 机器人协同系统及其应用和加工精度评价方法 |
CN114347040B (zh) * | 2022-02-18 | 2024-06-11 | 创新奇智(合肥)科技有限公司 | 目标物的拾取方法、装置、机器人以及存储介质 |
Family Cites Families (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3804270A (en) * | 1973-01-12 | 1974-04-16 | Bendix Corp | Bulk storage and automatic presenter system with image producing means |
US4187051A (en) * | 1978-05-26 | 1980-02-05 | Jerry Kirsch | Rotary video article centering, orienting and transfer device for computerized electronic operating systems |
US5148591A (en) * | 1981-05-11 | 1992-09-22 | Sensor Adaptive Machines, Inc. | Vision target based assembly |
US4462046A (en) * | 1982-07-02 | 1984-07-24 | Amaf Industries Incorporated | Machine vision system utilizing programmable optical parallel processing |
GB2123172B (en) * | 1982-07-06 | 1986-10-22 | Emi Ltd | A robot control system |
US4611292A (en) * | 1982-10-06 | 1986-09-09 | Hitachi, Ltd. | Robot vision system |
US4504970A (en) * | 1983-02-07 | 1985-03-12 | Pattern Processing Technologies, Inc. | Training controller for pattern processing system |
JPS60200103A (ja) * | 1984-03-26 | 1985-10-09 | Hitachi Ltd | 光切断線抽出回路 |
EP0204516A3 (en) | 1985-06-04 | 1990-01-31 | Adept Technology, Inc. | Vision system for distinguishing touching parts |
US4876728A (en) * | 1985-06-04 | 1989-10-24 | Adept Technology, Inc. | Vision system for distinguishing touching parts |
JPS6257884A (ja) | 1985-09-09 | 1987-03-13 | 株式会社東芝 | マニピユレ−タ装置 |
FR2597636B1 (fr) * | 1986-04-18 | 1988-06-17 | Commissariat Energie Atomique | Procede de reconnaissance automatique d'objets susceptibles de se chevaucher |
US4785528A (en) * | 1986-12-22 | 1988-11-22 | The Boeing Company | Robotic work positioning system |
JPS63288683A (ja) * | 1987-05-21 | 1988-11-25 | 株式会社東芝 | 組立てロボット |
US4909376A (en) * | 1987-10-06 | 1990-03-20 | Western Technologies Automation, Inc. | Robotically controlled component feed mechanism visually monitoring part orientation |
JPH02110788A (ja) * | 1988-10-20 | 1990-04-23 | Niigata Eng Co Ltd | 3次元物体の形状認識方法 |
US4985846A (en) * | 1989-05-11 | 1991-01-15 | Fallon Patrick J | Acoustical/optical bin picking system |
JP2690603B2 (ja) * | 1990-05-30 | 1997-12-10 | ファナック株式会社 | 視覚センサのキャリブレーション方法 |
JP2686351B2 (ja) | 1990-07-19 | 1997-12-08 | ファナック株式会社 | 視覚センサのキャリブレーション方法 |
JP2976589B2 (ja) | 1991-06-19 | 1999-11-10 | 日本電気株式会社 | 三次元物体の検出方法及び装置 |
US5577130A (en) * | 1991-08-05 | 1996-11-19 | Philips Electronics North America | Method and apparatus for determining the distance between an image and an object |
GB2261069B (en) * | 1991-10-30 | 1995-11-01 | Nippon Denso Co | High speed picking system for stacked parts |
US5499306A (en) | 1993-03-08 | 1996-03-12 | Nippondenso Co., Ltd. | Position-and-attitude recognition method and apparatus by use of image pickup means |
US5621807A (en) * | 1993-06-21 | 1997-04-15 | Dornier Gmbh | Intelligent range image camera for object measurement |
JPH07270137A (ja) | 1994-02-10 | 1995-10-20 | Fanuc Ltd | スポット光走査型3次元視覚センサ |
JP3224687B2 (ja) | 1994-05-25 | 2001-11-05 | 日本電信電話株式会社 | 3次元輪郭位置補正方法 |
JP3225740B2 (ja) | 1994-05-25 | 2001-11-05 | 株式会社デンソー | 山積み部品の高速ピッキング装置 |
US5745387A (en) * | 1995-09-28 | 1998-04-28 | General Electric Company | Augmented reality maintenance system employing manipulator arm with archive and comparison device |
WO1997024206A1 (fr) * | 1995-12-27 | 1997-07-10 | Fanuc Ltd | Systeme robotique composite de detection |
US5790687A (en) * | 1996-06-18 | 1998-08-04 | Levi Strauss & Co. | Method and apparatus for the optical determination of the orientation of a garment workpiece |
GB9803364D0 (en) * | 1998-02-18 | 1998-04-15 | Armstrong Healthcare Ltd | Improvements in or relating to a method of an apparatus for registering a robot |
JPH11300670A (ja) * | 1998-04-21 | 1999-11-02 | Fanuc Ltd | 物品ピックアップ装置 |
US6101455A (en) * | 1998-05-14 | 2000-08-08 | Davis; Michael S. | Automatic calibration of cameras and structured light sources |
US6490369B1 (en) * | 1999-07-06 | 2002-12-03 | Fanuc Robotics North America | Method of viewing and identifying a part for a robot manipulator |
-
1999
- 1999-04-08 JP JP10189099A patent/JP3421608B2/ja not_active Expired - Fee Related
-
2000
- 2000-04-10 EP EP00303007A patent/EP1043126B1/en not_active Expired - Lifetime
- 2000-04-10 DE DE60039934T patent/DE60039934D1/de not_active Expired - Lifetime
- 2000-04-10 US US09/546,213 patent/US7200260B1/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7957580B2 (en) | 2006-02-01 | 2011-06-07 | Fanuc Ltd | Workpiece picking device |
Also Published As
Publication number | Publication date |
---|---|
EP1043126A2 (en) | 2000-10-11 |
US7200260B1 (en) | 2007-04-03 |
EP1043126B1 (en) | 2008-08-20 |
EP1043126A3 (en) | 2004-06-16 |
JP2000288968A (ja) | 2000-10-17 |
DE60039934D1 (de) | 2008-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3421608B2 (ja) | 教示モデル生成装置 | |
JP3377465B2 (ja) | 画像処理装置 | |
JP3300682B2 (ja) | 画像処理機能を持つロボット装置 | |
JP5743499B2 (ja) | 画像生成装置、画像生成方法、およびプログラム | |
JP6180087B2 (ja) | 情報処理装置及び情報処理方法 | |
JP3556589B2 (ja) | 位置姿勢認識装置 | |
EP1607194B1 (en) | Robot system comprising a plurality of robots provided with means for calibrating their relative position | |
JP3834297B2 (ja) | 画像処理装置 | |
US7532949B2 (en) | Measuring system | |
CN108127661B (zh) | 机器人控制装置 | |
US20170270631A1 (en) | Automated guidance system and method for a coordinated movement machine | |
JPH0435885A (ja) | 視覚センサのキャリブレーション方法 | |
JP2004185123A (ja) | 3次元モデルデータ生成装置 | |
JP2008168372A (ja) | ロボット装置及び形状認識方法 | |
JP4849178B2 (ja) | 移動型ロボット | |
JP2006026790A (ja) | 教示モデル生成装置 | |
WO1992008575A1 (en) | Digitizing control device | |
JP3516668B2 (ja) | 3次元形状認識方法、装置およびプログラム | |
WO2022195938A1 (ja) | ロボットシステムの位置決め精度測定方法 | |
JPH08190412A (ja) | ロボット診断方法 | |
JP2020190551A (ja) | 計測システム、計測装置、計測方法、及び計測プログラム | |
JPH03104572A (ja) | マスタスレーブマニピユレータの制御方法及び装置 | |
Cheng et al. | A study of using 2D vision system for enhanced industrial robot intelligence | |
JPH07111324B2 (ja) | カメラの回転機構を利用したキヤリブレーション装置 | |
US20240066713A1 (en) | Robot system and robot control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20001114 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080418 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090418 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100418 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100418 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110418 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120418 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130418 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130418 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140418 Year of fee payment: 11 |
|
LAPS | Cancellation because of no payment of annual fees |