JP2584151Y2 - Robot controller - Google Patents
Robot controllerInfo
- Publication number
- JP2584151Y2 JP2584151Y2 JP1993005494U JP549493U JP2584151Y2 JP 2584151 Y2 JP2584151 Y2 JP 2584151Y2 JP 1993005494 U JP1993005494 U JP 1993005494U JP 549493 U JP549493 U JP 549493U JP 2584151 Y2 JP2584151 Y2 JP 2584151Y2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- work
- robot body
- mark
- coordinate system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Control Of Position Or Direction (AREA)
Description
【0001】[0001]
【産業上の利用分野】本考案は、外部軸を含めてロボッ
ト本体を制御するロボット制御装置に関するものであ
る。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot controller for controlling a robot body including an external axis.
【0002】[0002]
【従来の技術】従来のロボット制御装置としては、例え
ば、複数の関節軸を有するロボット本体を移動軸に吊り
下げて移動させた後、このロボット本体により静止した
ワークに対して所定の作業を実行させるものが知られて
おり、ワーク上に任意の直交座標軸であるワーク座標系
を設定し、ロボット本体の手先部の位置姿勢を、ワーク
座標系における位置姿勢として教示している。2. Description of the Related Art As a conventional robot control apparatus, for example, a robot body having a plurality of joint axes is suspended by a moving axis and moved, and then a predetermined work is performed on a stationary work by the robot body. What is known is to set a work coordinate system, which is an arbitrary orthogonal coordinate axis, on the work, and teach the position and orientation of the hand portion of the robot body as the position and orientation in the work coordinate system.
【0003】そして、再生する場合には、ロボット本体
上に設定されたロボット座標系へ、ワーク座標系におけ
る教示位置を座標変換し、その後、座標変換されたロボ
ット座標系における位置姿勢を、ロボット本体の各関節
軸の関節角に変換して、ロボット本体の各関節軸を制御
している。[0003] When reproducing, the teaching position in the work coordinate system is coordinate-transformed into the robot coordinate system set on the robot main body, and then the position and orientation in the robot coordinate system after the coordinate conversion are converted into the robot main body. Is converted into the joint angle of each joint axis to control each joint axis of the robot body.
【0004】[0004]
【考案が解決しようとする課題】ロボット本体の動作範
囲に比較してワークが大きい場合には、ロボット制御装
置により、ロボット本体を移動軸に沿って移動させなが
ら、同時にロボット本体の多数の関節軸を制御して、ワ
ークに対して作業を行う必要がある。ロボット制御にお
いて、走行軸のように、ロボットの関節軸以外の軸を外
部軸と呼ぶ。[Problem to be Solved by the Invention] When the work is large compared to the operation range of the robot body, the robot controller moves the robot body along the movement axis while simultaneously using a large number of joint axes of the robot body. And work must be performed on the workpiece. In robot control, an axis other than the joint axis of the robot, such as a traveling axis, is called an external axis.
【0005】しかし、ロボット座標系は、移動軸に沿っ
てロボット本体が移動するに伴い、移動するのに対し
て、ワーク座標系は静止したままである。従って、移動
するロボット座標系から見ると、ワーク座標系は見掛け
上位置がずれてしまうから、このような場合に、ワーク
に対してロボット本体より正確な作業を実施するために
は、見掛け上のワークの位置を補正する必要がある。[0005] However, the robot coordinate system moves as the robot body moves along the moving axis, whereas the work coordinate system remains stationary. Therefore, when viewed from the moving robot coordinate system, the apparent position of the workpiece coordinate system is shifted. In such a case, in order to perform a more accurate operation on the workpiece than the robot main body, the apparent position of the workpiece is deviated. It is necessary to correct the position of the work.
【0006】その為、画像処理技術を利用して、ワーク
に対するロボットの相対的な三次元位置を測定すること
がが考えられている。その手段としては、例えば、三次
元での計測に2台のカメラを用いるステレオ視法が知ら
れているが、ステレオ視法は、左右画像上の点の対応付
けが困難であるという問題がある。また、1台のカメラ
を水平方向へ移動させる単眼移動視法、光切断法等が知
られている。For this reason, it has been considered to measure the relative three-dimensional position of the robot with respect to the workpiece by using image processing technology. As the means, for example, a stereoscopic method using two cameras for three-dimensional measurement is known, but the stereoscopic method has a problem that it is difficult to associate points on left and right images. . In addition, a monocular moving visual method in which one camera is moved in a horizontal direction, a light cutting method, and the like are known.
【0007】しかし、これらの方法でワークの三次元位
置を計測できても、ロボット座標系が外部軸と共に移動
するため、静止しているワークに対し、ワーク座標系を
定義し、ロボット本体及び外部軸の協調動作で作業する
場合に、ワーク座標系をシフトや回転しても、教示位置
が静止したワークに対してシフトや回転をしないため、
ワーク位置ズレ補正等をワーク座標系の補正により行う
ことが出来ず、ロボット動作を記述するプログラムのな
かで座標の補正計算を教示位置毎に行う必要があった
が、この作業は非常に煩雑であった。However, even if the three-dimensional position of the work can be measured by these methods, since the robot coordinate system moves together with the external axes, the work coordinate system is defined for a stationary work, and the robot body and the external When working in cooperative operation of axes, even if the work coordinate system is shifted or rotated, the teaching position does not shift or rotate with respect to the stationary work.
Work position deviation correction etc. could not be performed by correcting the work coordinate system, and it was necessary to perform coordinate correction calculation for each teaching position in a program describing the robot operation, but this work was very complicated there were.
【0008】このように、移動軸に沿って移動するロボ
ット座標系は相対座標系である為、走行軸に沿ってロボ
ット本体を移動させながら、静止したワークに対して作
業する場合には、煩雑な補正演算が必要となる問題点が
あった。本考案は、上記従来技術に鑑みてなされたもの
であり、ロボット本体、外部軸とを同時に協調制御する
場合に、煩雑な補正演算が不要で正確な作業が行えるロ
ボット制御装置を提供することを目的とするものであ
る。As described above, since the robot coordinate system moving along the moving axis is a relative coordinate system, it is troublesome to work on a stationary work while moving the robot body along the traveling axis. There is a problem that a complicated correction operation is required. The present invention has been made in view of the above-described conventional technology, and provides a robot control device capable of performing accurate work without complicated correction calculation when cooperatively controlling a robot body and an external axis at the same time. It is the purpose.
【0009】[0009]
【課題を解決するための手段】斯かる目的を達成する本
考案の構成は外部軸に沿ってロボット本体をワークに対
し相対的に移動させながら前記ロボット本体により作業
を行うロボット制御装置において、前記ワークに設けら
れた二つのマークを、前記ロボット本体に取り付けたカ
メラにより撮影し、前記ロボット本体上に設定されたロ
ボット座標系により、前記ロボット本体の移動の前後に
おける何れか一方のマークの位置の変化X,Yと、前記
二つのマークのX方向の位置差ΔXと、Y方向の位置差
ΔYの比により定義される移動角θ(=arctan
(ΔY/ΔX))を画像処理装置により求めて、これら
X、Y及びθにより前記ロボット本体のロボット座標系
の位置補正を行い、その後、前記ワークに設けられた他
のマークを前記カメラで撮影して、該他のマークのX方
向の位置及びZ方向の位置を画像処理装置により求める
ことを特徴とする。According to a first aspect of the present invention, there is provided a robot controller for performing an operation by a robot body while moving the robot body relative to a work along an external axis. Two marks provided on the work are photographed by a camera attached to the robot body, and the position of one of the marks before and after the movement of the robot body is determined by a robot coordinate system set on the robot body. The movement angle θ (= arctan) defined by the ratio of the change X, Y, the position difference ΔX between the two marks in the X direction, and the position difference ΔY in the Y direction.
(ΔY / ΔX)) is obtained by the image processing apparatus, and the position of the robot coordinate system of the robot body is corrected using these X, Y, and θ, and then another mark provided on the workpiece is photographed by the camera. Then, the position in the X direction and the position in the Z direction of the other mark are obtained by an image processing apparatus.
【0010】[0010]
【実施例】以下、本考案に付いて、図面に示す実施例を
参照して詳細に説明する。図1に本考案の一実施例を示
す。同図に示すように、本実施例のロボット制御装置
は、ロボットコントローラ1、画像処理装置2、ロボッ
ト本体3、カメラ4、モニタ5及びパーソナルコンピュ
ータ16とから構成されている。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described in detail below with reference to embodiments shown in the drawings. FIG. 1 shows an embodiment of the present invention. As shown in the drawing, the robot control apparatus of the present embodiment, the robot controller 1, the image processing device 2, the robot body 3, a camera 4, and a monitor 5 and a personal computer 1 6.
【0011】このロボット制御装置は、ロボット本体3
を、図示しない移動軸に沿って移動させながら、同時に
ワークに対して作業を行わせるものである。例えば、図
2に示すように、ワーク6である直方体状の台に対し
て、ロボット本体3を移動させ、ロボット本体3に把持
したピン7を、ワーク6の穴8に挿入する作業を行わせ
るものである。This robot control device comprises a robot body 3
Is moved along a movement axis (not shown), and at the same time, the work is performed on the work. For example, as shown in FIG. 2, the robot body 3 is moved with respect to a rectangular parallelepiped table as the work 6, and the operation of inserting the pin 7 held by the robot body 3 into the hole 8 of the work 6 is performed. Things.
【0012】ワーク6には、図2に示すように、その上
面に、第1、第2のマーク9,10が設けられると共
に、その正面には第3のマーク11として撮影される穴
8が設けられる。図3に示す一般的な第3のマーク11
は、取付け位置が異なるだけで、第1、第2のマーク
9,10と同一の形状のもの、例えば、●として撮影さ
れる。As shown in FIG. 2, the work 6 is provided with first and second marks 9 and 10 on its upper surface, and a hole which is photographed as a third mark 11 on its front surface.
8 are provided . General third mark 11 shown in FIG.
The first and second marks differ only in the mounting position.
The same shape as 9 and 10, for example,
It is .
【0013】ロボット本体3の先端にはカメラ4が取付
けられている。このカメラ4は、図3に示すように、ロ
ボット本体3の移動させることにより、第1、第2、第
3のマーク9,10,11を撮影することができる。カ
メラ4の視野は、縦479画素×横511画素からな
り、その画面上において左上を原点(0,0)とする
と、その画面の中心の座標は(255,239)とな
る。A camera 4 is attached to the tip of the robot body 3. As shown in FIG. 3, the camera 4 can capture the first, second, and third marks 9, 10, and 11 by moving the robot body 3. The field of view of the camera 4 is composed of 479 pixels vertically and 511 pixels horizontally. When the origin is (0, 0) at the upper left on the screen, the coordinates of the center of the screen are (255, 239).
【0014】カメラ4により撮影された第1、第2、第
3のマーク9,10,11の画像は、画像処理装置2に
より、図4(a)(b)(c)に示すように、その重心
位置が計測点として画像処理され、その結果は、モニタ
5により確認することができる。即ち、図4(b)に示
すように、第1のマーク9の重心位置(X 1 ,Y 1 )は、
画面の中心座標(255,239)から左上方に大きく
ずれて観測され、また、図4(a)に示すように、第2
のマーク10の重心位置(X 2 ,Y 2 )は、画面の中心座
標(255,239)から左上方に僅かにずれて観測さ
れる。 更に、図4(c)に示すように、第3のマーク1
1の重心位置(X 3 ,Y 3 )は、画面の中心座標(25
5,239)から上方にずれて観測される。画像処理装
置2は、パーソナルコンピュータ16を通じて操作する
ことができ、また、画像処理装置2による画像処理の結
果は、ロボットコントローラ1に入力され、ロボット本
体3のロボット座標系(X,Y,Z)の座標補正に利用
される。Images of the first, second and third marks 9, 10 and 11 taken by the camera 4 are processed by the image processing device 2 as shown in FIGS. 4 (a), 4 (b) and 4 (c). The position of the center of gravity is subjected to image processing as a measurement point, and the result can be confirmed on the monitor 5. That is, as shown in FIG.
As shown, the position of the center of gravity (X 1 , Y 1 ) of the first mark 9 is
Large from the center coordinates of the screen (255, 239) to the upper left
4 (a). As shown in FIG.
The position of the center of gravity (X 2 , Y 2 ) of the mark 10 is the center of the screen.
It was slightly shifted to the upper left from the mark (255, 239).
It is. Further, as shown in FIG. 4C, the third mark 1
The center-of-gravity position (X 3 , Y 3 ) is the center coordinate (25
5, 239). The image processing apparatus 2 can be operated through the personal computer 1-6, as a result of the image processing by the image processing apparatus 2 is input to the robot controller 1, a robot coordinate system of the robot body 3 (X, Y, Z ) Is used for coordinate correction.
【0015】ロボット本体3には、図3に示すようなロ
ボット座標系(X,Y,Z)が設定されている。ロボッ
ト座標系(X,Y,Z)は、ロボット本体3が移動軸に
沿って移動するに従い変化する相対的な座標系である。
この為、ロボット本体3の移動前において、ロボット座
標系(X,Y,Z)によれば、図5に実線で示す位置で
ワーク6が観測され、ロボット本体3の移動後において
は、図中に破線で示す位置でワーク6が観測される。つ
まり、図5は、ロボット本体3が移動軸に沿って移動す
る前後のワーク6の位置を重ねて示すものである。 The robot body 3 is set with a robot coordinate system (X, Y, Z) as shown in FIG. The robot coordinate system (X, Y, Z) is a relative coordinate system that changes as the robot body 3 moves along the movement axis.
Therefore, according to the robot coordinate system (X, Y, Z) before the movement of the robot body 3, the work 6 is observed at the position shown by the solid line in FIG. The work 6 is observed at the position indicated by the broken line in FIG . One
In other words, FIG. 5 shows that the robot body 3 moves along the movement axis.
The position of the work 6 before and after the work 6 is overlapped.
【0016】ここで、図5に示すように、ロボット本体
3の移動前においては、実線で示す位置にあるワーク6
に対し、カメラ4をY方向へ距離Lだけ移動させると、
移動前のカメラ4の視野の中心(255,239)に第
1のマーク9の中心が観測され、移動後のカメラ4の視
野の中心(255,239)に第2のマーク10の中心
が観測されるとする。つまり、ロボット座標系(X,
Y,Z)により、第1、第2のマーク9,10がY方向
へ距離Lだけ離れて観測されるワーク6(図中、実線で
示す)を基準とする。 Here, as shown in FIG. 5, before the movement of the robot body 3 , the work 6 at the position indicated by the solid line
In contrast, when the camera 4 is moved by a distance L in the Y direction ,
At the center (255, 239) of the field of view of the camera 4 before the movement,
The center of the mark 9 of 1 was observed, and the camera 4
The center of the second mark 10 at the center of the field (255, 239)
Is observed . That is, the robot coordinate system (X,
Y, Z), the first and second marks 9, 10 are moved in the Y direction.
Work 6 observed at a distance L away from the
Shown) as a reference.
【0017】そして、図5に示すように、ロボット本体
3の移動後においては、破線で示す位置にあるワーク6
に対し、カメラ4をY方向へ距離Lだけ移動させると、
移動前のカメラ4の視野の中心(255,239)から
第1のマーク9の中心は(X 1 ,Y 1 )だけ離れて観測さ
れ、また、移動後のカメラ4の視野の中心(255,2
39)から第2のマーク10の中心が(X 2 ,Y 2 )だけ
離れて観測されるとする。つまりカメラ4をY方向へと
移動距離Lだけ移動させることにより、それぞれの位置
でカメラの視野での第1、第2のマーク9、10の計測
点の座標はそれぞれ(X1,Y1)、(X2,Y2)で観測
されるとする。Then, as shown in FIG.
After the movement of the work 3, the work 6 at the position indicated by the broken line
In contrast, when the camera 4 is moved by a distance L in the Y direction,
From the center of the field of view of camera 4 before movement (255, 239)
The center of the first mark 9 is observed at a distance of (X 1 , Y 1 ).
The center of the field of view of the camera 4 after the movement (255, 2
39), the center of the second mark 10 is only (X 2 , Y 2 )
Suppose it is observed remotely. That is, by moving the camera 4 in the Y direction by the moving distance L, the coordinates of the measurement points of the first and second marks 9 and 10 in the field of view of the camera at each position are (X 1 , Y 1 ), respectively. , and it is observed by (X 2, Y 2).
【0018】このような観測の手順を図6のフローチャ
ートに示す。先ず、ロボットコントローラ1は、ロボッ
ト本体3を第2のマーク10の位置へ移動させた後、第
2のマーク10の計測指令を画像処理装置2へ送信す
る。画像処理装置2は、初期設定の後、ロボット本体3
からの計測指令を受信して、カメラ4を経由して、第2
のマーク10の画像を取り込み、重心計測により計測点
(X2,Y2)を算出する。The procedure of such observation is shown in the flowchart of FIG. First, after moving the robot body 3 to the position of the second mark 10, the robot controller 1 transmits a measurement command for the second mark 10 to the image processing device 2. After the initial setting, the image processing device 2
Receiving the measurement command from the
The measurement point (X 2 , Y 2 ) is calculated by the center of gravity measurement.
【0019】次いで、ロボットコントローラ1は、ロボ
ット本体3を第1のマーク9へ移動させた後、第1のマ
ーク9の計測指令を画像処理装置2へ送信する。画像処
理装置は、ロボット本体3からの計測指令を受信して、
カメラ4を経由して、第1のマーク9の画像を取り込
み、重心計測により計測点(X1,Y1)を算出する。
尚、計測不能の場合には、計測不能フラグを立てる。Next, after moving the robot body 3 to the first mark 9, the robot controller 1 sends a measurement command for the first mark 9 to the image processing device 2. The image processing device receives the measurement command from the robot body 3 and
The image of the first mark 9 is captured via the camera 4 and the measurement point (X 1 , Y 1 ) is calculated by measuring the center of gravity.
If measurement is impossible, a measurement impossible flag is set.
【0020】ここで、第2のマーク10を基準点と考
え、ロボット本体3の移動前後における第2のマーク1
0の位置の変化(X,Y)は次式のように算出する。 X=(255−X2)k Y=(Y2−239)k 但し、kは、カメラ4の解像度である。Here, considering the second mark 10 as a reference point, the second mark 1 before and after the movement of the robot body 3 is determined.
The change (X, Y) of the position of 0 is calculated as follows. X = (255−X 2 ) k Y = (Y 2 −239) k where k is the resolution of the camera 4.
【0021】更に、ロボット本体3の移動後における第
1、第2のマーク9,10のX方向の位置差ΔX、Y方
向の位置差ΔYを次式のように算出する。 Further, the position difference ΔX in the X direction and the position difference ΔY in the Y direction of the first and second marks 9 and 10 after the movement of the robot body 3 are calculated as follows.
【0022】そして、図5に示すようにロボット本体3
の移動前後における第2のマーク10を中心とした、移
動角θを次式で定義する。θは、ロボット座標系におけ
るワークの見掛け上の傾きとなる。 θ=arctan(ΔY/ΔX) このように求めた、X,Y及びθにより、ロボット座標
系を補正し、その後、第3のマーク11をカメラ4で撮
影し、ロボット座標系における第3のマーク11のX,
Z方向の座標(X3,Z3)を画像処理により求める。Then, as shown in FIG.
The movement angle θ around the second mark 10 before and after the movement is defined by the following equation. θ is the apparent inclination of the work in the robot coordinate system. θ = arctan (ΔY / ΔX) The robot coordinate system is corrected by using the X, Y, and θ obtained as described above, and then the third mark 11 is photographed by the camera 4 to obtain the third mark in the robot coordinate system. 11 X,
The coordinates (X 3 , Z 3 ) in the Z direction are obtained by image processing.
【0023】その手順を図7のフローチャートに示す。
先ず、ロボットコントローラ1は、画像処理装置2によ
り求めた(X,Y,θ)を、ロボット本体3へ送信し、
これをロボット本体3は受信する。その後、ロボット本
体3は、(X,Y,θ)で座標補正を行い、第3のマー
ク11へ移動する。座標補正は、(X,Y,θ)を使用
して、一般的な座標変換により行うことができる。 例え
ば、補正前のロボット座標系をR、補正後のロボット座
標系をTとすると、(X,Y,θ)から、下式のように
して、ロボット座標系を補正することができる。 The procedure is shown in the flowchart of FIG.
First, the robot controller 1 transmits (X, Y, θ) obtained by the image processing device 2 to the robot main body 3,
The robot body 3 receives this. After that, the robot main body 3 corrects the coordinates with (X, Y, θ) and moves to the third mark 11. Use (X, Y, θ) for coordinate correction
Then, it can be performed by general coordinate transformation. example
For example, if the robot coordinate system before correction is R, the robot
Assuming that the reference system is T, from (X, Y, θ),
Thus, the robot coordinate system can be corrected.
【数1】 (Equation 1)
【数2】 (Equation 2)
【数3】 (Equation 3)
【0024】そして、ロボットコントローラ1は、第3
のマークの計測指令を、画像処理装置2ヘ送信し、画像
処理装置2はこれを受信した後、カメラ4を経由して、
第3のマークの画像を取り込み、重心計測により、X,
Z方向の座標(X3,Z3)を求める。第3のマーク11
の撮影は、ロボット本体3の姿勢の関係から、カメラ4
を横向きとした。尚、計測不能の場合には、計測不能フ
ラグを立てる。Then, the robot controller 1
Is transmitted to the image processing device 2, and the image processing device 2 receives the
The image of the third mark is captured, and X,
The coordinates (X 3 , Z 3 ) in the Z direction are obtained. Third mark 11
Is taken from the camera 4 due to the posture of the robot body 3.
Was turned sideways. If measurement is impossible, a measurement impossible flag is set.
【0025】その後、ロボットコントローラ1は、画像
処理装置2により求めた(X3,Z3)をロボット本体3
へ送信し、ロボット本体3はこれを受信する。ロボット
本体3は、その後、(X3,Z3)による補正した位置へ
移動して、第3のマーク11である穴へピンを挿入する
ことにより、作業を完了する。Thereafter, the robot controller 1 converts (X 3 , Z 3 ) obtained by the image processing device 2 into the robot main body 3.
And the robot body 3 receives this. Thereafter, the robot body 3 moves to the position corrected by (X 3 , Z 3 ) and inserts a pin into the hole that is the third mark 11, thereby completing the operation.
【0026】このように、本実施例は外部軸を含むロボ
ットの制御において、二つのマークの観測により、一旦
(X,Y,θ)で補正した後に、(X3,Z3)を計測す
るのであるから、精度の良い作業を行うことができる。
即ち、ロボット本体3を移動軸に沿って移動させると、
ロボット座標系においてはワーク6が見掛け上位置が変
化するが、(X,Y,θ)で補正するため、そのような
見掛け上の変化による悪影響を受けることなく、ワーク
6の穴に対して正確にピンを挿入することが可能となる
のである。As described above, according to the present embodiment, in the control of the robot including the external axes, (X 3 , Z 3 ) is measured after correcting by (X, Y, θ) once by observing two marks. Therefore, highly accurate work can be performed.
That is, when the robot body 3 is moved along the movement axis,
In the robot coordinate system, the apparent position of the work 6 changes, but since the position is corrected by (X, Y, θ), the position of the work 6 is accurately adjusted without being adversely affected by such an apparent change. It becomes possible to insert a pin into the device.
【0027】[0027]
【考案の効果】以上、実施例に基づいて具体的に説明し
たように、外部軸と共にロボット本体を同時に制御する
ロボット制御において、画像処理技術を利用して、二つ
のマークを観測し、ワークの見掛け上の変化に依る
(X,Y,θ)を求め、これにより座標を補正した後
に、他のマークの計測を行うのであるから、ワークの見
掛け上の変化による悪影響を受ける事なく、正確な作業
を行えるものである。従って、本願考案はロボット動作
範囲よりも大きなワークに対して、ロボットで作業を行
う場合で、ワーク位置決めにバラツキがあり、ロボット
教示データがそのまま使えない場合に有効である。 As described above in detail with reference to the embodiment, in the robot control for simultaneously controlling the robot body together with the external axes, two marks are observed by using image processing technology, and Since (X, Y, θ) depending on the apparent change is obtained, the coordinates are corrected, and then other marks are measured. Therefore, accurate measurement is performed without being adversely affected by the apparent change of the work. They can do work. Therefore, the invention of the present application
Work on a workpiece larger than the range with a robot
The work positioning is uneven and the robot
This is effective when the teaching data cannot be used as it is.
【図1】本考案の一実施例に係るロボット制御装置の構
成図である。FIG. 1 is a configuration diagram of a robot control device according to an embodiment of the present invention.
【図2】ワークに対する作業の様子を示す斜視図であ
る。FIG. 2 is a perspective view showing a state of work on a work.
【図3】ワークを観測するカメラの位置を示す斜視図で
ある。FIG. 3 is a perspective view showing a position of a camera for observing a workpiece.
【図4】各マークを観測するカメラの視野を示す説明図
である。FIG. 4 is an explanatory diagram illustrating a field of view of a camera that observes each mark.
【図5】移動軸に沿ったロボット本体の移動の前後にお
けるワークの見掛け上の位置の変化を示す説明図であ
る。FIG. 5 is an explanatory diagram showing a change in an apparent position of a work before and after movement of a robot main body along a movement axis.
【図6】第1、第2のマークを観測する手順を示すフロ
ーチャートである。FIG. 6 is a flowchart showing a procedure for observing first and second marks.
【図7】第3のマークを観測する手順を示すフローチャ
ートである。FIG. 7 is a flowchart showing a procedure for observing a third mark.
1 ロボットコントローラ 2 画像処理装置 3 ロボット本体 4 カメラ 5 モニタ 6 パーソナルコンピュータ DESCRIPTION OF SYMBOLS 1 Robot controller 2 Image processing device 3 Robot main body 4 Camera 5 Monitor 6 Personal computer
フロントページの続き (51)Int.Cl.6 識別記号 FI G05B 19/18 D (72)考案者 阿部 清秀 東京都品川区大崎二丁目1番17号 株式 会社 明電舎内 (72)考案者 野村 悟 東京都品川区大崎二丁目1番17号 株式 会社 明電舎内 (72)考案者 林 克浩 東京都品川区大崎二丁目1番17号 株式 会社 明電舎内 (56)参考文献 特開 昭61−49205(JP,A) 特開 平4−174005(JP,A) 特開 平1−193902(JP,A) (58)調査した分野(Int.Cl.6,DB名) G05B 19/18 B25J 9/10 B25J 13/08 G05D 3/12Continued on the front page (51) Int.Cl. 6 Identification code FI G05B 19/18 D (72) Inventor Kiyohide Abe 2-1-1-17 Osaki, Shinagawa-ku, Tokyo Inside Meidensha Co., Ltd. (72) Inventor Satoru Nomura Tokyo 2-1-1-17 Osaki, Shinagawa-ku, Tokyo, Japan Meidensha Co., Ltd. (72) Inventor Katsuhiro Hayashi 2-1-1-17, Osaki, Shinagawa-ku, Tokyo Co., Ltd. Meidensha Co., Ltd. (56) References JP-A-61-49205 (JP, A) JP-A-4-174005 (JP, A) JP-A-1-193902 (JP, A) (58) Fields investigated (Int. Cl. 6 , DB name) G05B 19/18 B25J 9/10 B25J 13 / 08 G05D 3/12
Claims (1)
対し相対的に移動させながら前記ロボット本体により作
業を行うロボット制御装置において、前記ワークに設け
られた二つのマークを、前記ロボット本体に取り付けた
カメラにより撮影し、前記ロボット本体上に設定された
ロボット座標系により、前記ロボット本体の移動の前後
における何れか一方のマークの位置の変化X,Yと、前
記ロボット本体の移動の後における前記二つのマークの
X方向の位置差ΔXと、Y方向の位置差ΔYの比により
定義される移動角θ(=arctan(ΔY/ΔX))
を画像処理装置により求めて、これらX、Y及びθによ
り前記ロボット本体のロボット座標系の位置補正を行
い、その後、前記ワークに設けられた他のマークを前記
カメラで撮影して、該他のマークのX方向の位置及びZ
方向の位置を画像処理装置により求めることを特徴とす
るロボット制御装置。1. A robot controller for performing an operation by the robot body while moving the robot body relative to the work along an external axis, wherein two marks provided on the work are attached to the robot body. A change in the position X or Y of one of the marks before and after the movement of the robot body, and the movement after the movement of the robot body, based on the robot coordinate system set on the robot body. The movement angle θ defined by the ratio of the position difference ΔX between the two marks in the X direction and the position difference ΔY in the Y direction (= arctan (ΔY / ΔX))
Is obtained by the image processing apparatus, and the position of the robot coordinate system of the robot body is corrected based on these X, Y, and θ. Then, another mark provided on the workpiece is photographed by the camera, and the other mark is taken. X position of mark and Z
A robot control device wherein a position in a direction is obtained by an image processing device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1993005494U JP2584151Y2 (en) | 1993-02-19 | 1993-02-19 | Robot controller |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1993005494U JP2584151Y2 (en) | 1993-02-19 | 1993-02-19 | Robot controller |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0665902U JPH0665902U (en) | 1994-09-16 |
JP2584151Y2 true JP2584151Y2 (en) | 1998-10-30 |
Family
ID=11612794
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP1993005494U Expired - Fee Related JP2584151Y2 (en) | 1993-02-19 | 1993-02-19 | Robot controller |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2584151Y2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5324397B2 (en) * | 2009-11-02 | 2013-10-23 | 本田技研工業株式会社 | Information processing method, apparatus and program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6149205A (en) * | 1984-08-16 | 1986-03-11 | Seiko Instr & Electronics Ltd | Robot control system |
JPH01193902A (en) * | 1988-01-29 | 1989-08-03 | Hitachi Ltd | Coordinate system calibration method for robot with hand vision |
JPH04174005A (en) * | 1990-11-02 | 1992-06-22 | Seiko Instr Inc | Robot controller |
-
1993
- 1993-02-19 JP JP1993005494U patent/JP2584151Y2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH0665902U (en) | 1994-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7280687B2 (en) | Device for detecting position/orientation of object | |
EP1215017B1 (en) | Robot teaching apparatus | |
JP3946711B2 (en) | Robot system | |
JP4167954B2 (en) | Robot and robot moving method | |
JP5815761B2 (en) | Visual sensor data creation system and detection simulation system | |
CN106217372A (en) | Robot, robot controller and robot system | |
CN109556510B (en) | Position detection device and computer-readable storage medium | |
JP2005300230A (en) | Measuring instrument | |
JP3696335B2 (en) | Method for associating each measurement point of multiple images | |
JP2584151Y2 (en) | Robot controller | |
JPH0847881A (en) | Robot remote control method | |
JPH08254409A (en) | Three-dimensional shape measurement analysis method | |
JP3754340B2 (en) | Position detection device | |
JPH04269194A (en) | Plane measuring method | |
CN113084827B (en) | Method and device for calibrating optical center position of camera device | |
JP2882910B2 (en) | 3D image recognition method | |
JPH0675617A (en) | Camera view point change system | |
JPH0299802A (en) | Setting method of coordinate system in visual sensor using hand eye | |
JP3125374B2 (en) | Inspection device coordinate display method | |
JP2019048350A (en) | Robot control device and robot control method in which control point setting of robot is performed | |
JPH0617795B2 (en) | Three-dimensional position measuring device | |
JP2003203252A (en) | Image display device and its method and storage medium | |
JPH01116401A (en) | Parallax correction system for visual sensor | |
JPS6257892A (en) | Camera coordinate calibrating method of robot with visual sense | |
JP2839009B2 (en) | Automatic calibration method for positioning camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 19980721 |
|
LAPS | Cancellation because of no payment of annual fees |