JPH0665902U - Robot controller - Google Patents
Robot controllerInfo
- Publication number
- JPH0665902U JPH0665902U JP549493U JP549493U JPH0665902U JP H0665902 U JPH0665902 U JP H0665902U JP 549493 U JP549493 U JP 549493U JP 549493 U JP549493 U JP 549493U JP H0665902 U JPH0665902 U JP H0665902U
- Authority
- JP
- Japan
- Prior art keywords
- robot
- robot body
- work
- coordinate system
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000005259 measurement Methods 0.000 description 13
- 238000000034 method Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 3
- 230000005484 gravity Effects 0.000 description 3
- 230000002411 adverse Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
Landscapes
- Control Of Position Or Direction (AREA)
Abstract
(57)【要約】
【目的】 外部軸を含めてロボット本体を制御するロボ
ット制御装置において、ワークの見掛け上の変化を画像
処理により、計測して座標を補正することを目的とす
る。
【構成】 ロボット本体の移動の前後における何れか一
方のマークの位置の変化X,Yと、前記ロボット本体の
移動の後における二つのマークのX方向の位置差ΔX
と、Y方向の位置差ΔYの比により定義される移動角θ
(=arctan(ΔY/ΔX))を画像処理装置によ
り求めて、これらX、Y及びθにより前記ロボット本体
のロボット座標系の位置補正を行うものである。
(57) [Abstract] [Purpose] An object of the robot control device, which controls the robot body including the external axis, is to measure the apparent change of the work by image processing and correct the coordinates. [Arrangement] Changes X and Y in the position of one of the marks before and after the movement of the robot body, and a positional difference ΔX in the X direction between the two marks after the movement of the robot body.
And the movement angle θ defined by the ratio of the position difference ΔY in the Y direction.
(= Arctan (ΔY / ΔX)) is obtained by the image processing apparatus, and the position of the robot coordinate system of the robot body is corrected by these X, Y and θ.
Description
【0001】[0001]
本考案は、外部軸を含めてロボット本体を制御するロボット制御装置に関する ものである。 The present invention relates to a robot control device that controls a robot body including an external axis.
【0002】[0002]
従来のロボット制御装置としては、例えば、複数の関節軸を有するロボット本 体を移動軸に吊り下げて移動させた後、このロボット本体により静止したワーク に対して所定の作業を実行させるものが知られており、ワーク上に任意の直交座 標軸であるワーク座標系を設定し、ロボット本体の手先部の位置姿勢を、ワーク 座標系における位置姿勢として教示している。 As a conventional robot control device, for example, there is known one in which a robot body having a plurality of joint axes is hung on a moving axis and moved, and then a predetermined work is performed by the robot body on a stationary work. The work coordinate system, which is an arbitrary orthogonal coordinate axis, is set on the work, and the position and orientation of the hand of the robot body is taught as the position and orientation in the work coordinate system.
【0003】 そして、再生する場合には、ロボット本体上に設定されたロボット座標系へ、 ワーク座標系における教示位置を座標変換し、その後、座標変換されたロボット 座標系における位置姿勢を、ロボット本体の各関節軸の関節角に変換して、ロボ ット本体の各関節軸を制御している。When reproducing, the teaching position in the work coordinate system is coordinate-converted to the robot coordinate system set on the robot body, and then the position / orientation in the coordinate-converted robot coordinate system is calculated. The joint angles of each joint axis are converted to control the joint axes of the robot body.
【0004】[0004]
ロボット本体の動作範囲に比較してワークが大きい場合には、ロボット制御装 置により、ロボット本体を移動軸に沿って移動させながら、同時にロボット本体 の多数の関節軸を制御して、ワークに対して作業を行う必要がある。ロボット制 御において、走行軸のように、ロボットの関節軸以外の軸を外部軸と呼ぶ。 When the work is large compared to the movement range of the robot body, the robot control device moves the robot body along the movement axis while controlling many joint axes of the robot body at the same time. Need to work. In robot control, an axis other than the joint axis of the robot, such as the running axis, is called an external axis.
【0005】 しかし、ロボット座標系は、移動軸に沿ってロボット本体が移動するに伴い、 移動するのに対して、ワーク座標系は静止したままである。 従って、移動するロボット座標系から見ると、ワーク座標系は見掛け上位置が ずれてしまうから、このような場合に、ワークに対してロボット本体より正確な 作業を実施するためには、見掛け上のワークの位置を補正する必要がある。However, the robot coordinate system moves as the robot body moves along the movement axis, while the work coordinate system remains stationary. Therefore, when viewed from the moving robot coordinate system, the position of the work coordinate system apparently shifts. In such a case, in order to perform more accurate work on the work than the robot body, the apparent position is apparent. It is necessary to correct the work position.
【0006】 その為、画像処理技術を利用して、ワークに対するロボットの相対的な三次元 位置を測定することがが考えられている。その手段としては、例えば、三次元で の計測に2台のカメラを用いるステレオ視法が知られているが、ステレオ視法は 、左右画像上の点の対応付けが困難であるという問題がある。 また、1台のカメラを水平方向へ移動させる単眼移動視法、光切断法等が知ら れている。Therefore, it is considered to measure the relative three-dimensional position of the robot with respect to the work by using the image processing technology. As a means therefor, for example, a stereo vision method using two cameras for three-dimensional measurement is known, but the stereo vision method has a problem that it is difficult to associate points on the left and right images. . In addition, the monocular moving vision method, which moves one camera in the horizontal direction, and the light section method are known.
【0007】 しかし、これらの方法でワークの三次元位置を計測できても、ロボット座標系 が外部軸と共に移動するため、静止しているワークに対し、ワーク座標系を定義 し、ロボット本体及び外部軸の協調動作で作業する場合に、ワーク座標系をシフ トや回転しても、教示位置が静止したワークに対してシフトや回転をしないため 、ワーク位置ズレ補正等をワーク座標系の補正により行うことが出来ず、ロボッ ト動作を記述するプログラムのなかで座標の補正計算を教示位置毎に行う必要が あったが、この作業は非常に煩雑であった。However, even if the three-dimensional position of the work can be measured by these methods, since the robot coordinate system moves along with the external axis, the work coordinate system is defined for a stationary work, and the robot main body and the external When working with coordinated movements of axes, even if the work coordinate system shifts or rotates, the teaching position does not shift or rotate with respect to a work that is stationary.Therefore, work position misalignment correction can be performed by correcting the work coordinate system. It was not possible to do this, and it was necessary to perform coordinate correction calculation for each teaching position in the program that describes the robot operation, but this work was extremely complicated.
【0008】 このように、移動軸に沿って移動するロボット座標系は相対座標系である為、 走行軸に沿ってロボット本体を移動させながら、静止したワークに対して作業す る場合には、煩雑な補正演算が必要となる問題点があった。 本考案は、上記従来技術に鑑みてなされたものであり、ロボット本体、外部軸 とを同時に協調制御する場合に、煩雑な補正演算が不要で正確な作業が行えるロ ボット制御装置を提供することを目的とするものである。As described above, since the robot coordinate system that moves along the moving axis is a relative coordinate system, when working on a stationary work while moving the robot body along the traveling axis, There is a problem that complicated correction calculation is required. The present invention has been made in view of the above prior art, and provides a robot control device capable of performing accurate work without complicated correction calculation when the robot body and the external axis are simultaneously controlled in cooperation. The purpose is.
【0009】[0009]
斯かる目的を達成する本考案の構成は外部軸に沿ってロボット本体をワークに 対し相対的に移動させながら前記ロボット本体により作業を行うロボット制御装 置において、前記ワークに設けられた二つのマークを、前記ロボット本体に取り 付けたカメラにより撮影し、前記ロボット本体上に設定されたロボット座標系に より、前記ロボット本体の移動の前後における何れか一方のマークの位置の変化 X,Yと、前記二つのマークのX方向の位置差ΔXと、Y方向の位置差ΔYの比 により定義される移動角θ(=arctan(ΔY/ΔX))を画像処理装置に より求めて、これらX、Y及びθにより前記ロボット本体のロボット座標系の位 置補正を行い、その後、前記ワークに設けられた他のマークを前記カメラで撮影 して、該他のマークのX方向の位置及びZ方向の位置を画像処理装置により求め ることを特徴とする。 In order to achieve such an object, the structure of the present invention is a robot control device for performing work by the robot main body while moving the robot main body relative to the work along an external axis. Is photographed by a camera attached to the robot body, and the change in the position of any one of the marks before and after the movement of the robot body is X, Y according to the robot coordinate system set on the robot body. A moving angle θ (= arctan (ΔY / ΔX)) defined by the ratio of the positional difference ΔX in the X direction of the two marks and the positional difference ΔY in the Y direction is obtained by an image processing device, and these X, Y And θ are used to correct the position of the robot coordinate system of the robot body, and then another mark provided on the workpiece is photographed by the camera to obtain another mark. Characterized Rukoto determined by the X-direction position and the position in the Z direction image processing apparatus.
【0010】[0010]
以下、本考案に付いて、図面に示す実施例を参照して詳細に説明する。 図1に本考案の一実施例を示す。 同図に示すように、本実施例のロボット制御装置は、ロボットコントローラ1 、画像処理装置2、ロボット本体3、カメラ4、モニタ5及びパーソナルコンピ ュータ6とから構成されている。 Hereinafter, the present invention will be described in detail with reference to the embodiments shown in the drawings. FIG. 1 shows an embodiment of the present invention. As shown in the figure, the robot control device of this embodiment comprises a robot controller 1, an image processing device 2, a robot body 3, a camera 4, a monitor 5 and a personal computer 6.
【0011】 このロボット制御装置は、ロボット本体3を、図示しない移動軸に沿って移動 させながら、同時にワークに対して作業を行わせるものである。例えば、図2に 示すように、ワーク6である直方体状の台に対して、ロボット本体4を移動させ 、ロボット本体4に把持したピン7を、ワーク6の穴8に挿入する作業を行わせ るものである。The robot control device moves the robot main body 3 along a movement axis (not shown), and at the same time, performs work on a work. For example, as shown in FIG. 2, the robot body 4 is moved with respect to a rectangular parallelepiped table which is the work 6, and the pin 7 gripped by the robot body 4 is inserted into the hole 8 of the work 6. It is something.
【0012】 ワーク6には、図2に示すように、その上面に、第1、第2のマーク9,10 が設けられると共に、その正面に設けられる穴8が第3のマーク11として利用 できるようになっている。一般的には、第3のマーク11は、図3に示すように 、取付け位置が異なるだけで、第1、第2のマーク9,10と同一のもの、例え ば、●が使用される。As shown in FIG. 2, the work 6 is provided with the first and second marks 9 and 10 on the upper surface thereof, and the hole 8 provided on the front surface thereof can be used as the third mark 11. It is like this. Generally, as shown in FIG. 3, the third mark 11 is the same as the first and second marks 9 and 10 except that the mounting position is different.
【0013】 ロボット本体3の先端にはカメラ4が取付けられている。このカメラ4は、図 3に示すように、ロボット本体3の移動させることにより、第1、第2、第3の マーク9,10,11を撮影することができる。カメラ4の視野は、縦479画 素×横511画素からなり、その画面上において左上を原点(0,0)とすると 、その画面の中心の座標は(255,239)となる。A camera 4 is attached to the tip of the robot body 3. As shown in FIG. 3, the camera 4 can photograph the first, second, and third marks 9, 10, 11 by moving the robot body 3. The visual field of the camera 4 is composed of vertical 479 pixels × horizontal 511 pixels, and if the upper left corner is the origin (0,0) on the screen, the coordinates of the center of the screen are (255,239).
【0014】 カメラ4により撮影された第1、第2、第3のマーク9,10,11の画像は 、画像処理装置2により、図4(a)(b)(c)に示すように、その重心位置 が計測点として画像処理され、その結果は、モニタ5により確認することができ る。 画像処理装置2は、パーソナルコンピュータ6を通じて操作することができ、 また、画像処理装置2による画像処理の結果は、ロボットコントローラ1に入力 され、ロボット本体1のロボット座標系(X,Y,Z)の座標補正に利用される 。The images of the first, second, and third marks 9, 10, and 11 taken by the camera 4 are displayed by the image processing device 2 as shown in FIGS. 4 (a) (b) (c). The barycentric position is image-processed as a measurement point, and the result can be confirmed by the monitor 5. The image processing apparatus 2 can be operated through the personal computer 6, and the result of the image processing by the image processing apparatus 2 is input to the robot controller 1 and the robot coordinate system (X, Y, Z) of the robot body 1 is input. It is used for coordinate correction of.
【0015】 ロボット本体3には、図3に示すようなロボット座標系(X,Y,Z)が設定 されている。ロボット座標系(X,Y,Z)は、ロボット本体3が移動軸に沿っ て移動するに従い変化する相対的な座標系である。 この為、ロボット本体3の移動前において、ロボット座標系(X,Y,Z)に よれば、図5に実線で示す位置に観測されるワークは、ロボット本体3の移動後 においては、図中に破線で示す位置へと見掛け上位置が変化することになる。A robot coordinate system (X, Y, Z) as shown in FIG. 3 is set in the robot body 3. The robot coordinate system (X, Y, Z) is a relative coordinate system that changes as the robot body 3 moves along the movement axis. Therefore, before the robot body 3 is moved, according to the robot coordinate system (X, Y, Z), the work observed at the position shown by the solid line in FIG. The position apparently changes to the position indicated by the broken line.
【0016】 ここで、図5に示すように、ロボット本体3の移動前においては、ワーク6は 実線で示す位置にあり、カメラ4をY方向へと移動距離Lだけ移動させることに より、カメラ4の視野の中心(255,239)に、第1、第2のマーク9,1 0の中心が位置するものとする。つまり、第1、第2のマーク9,10は、ロボ ット座標系(X,Y,Z)により、Y方向へ距離Lだけ離れているときを基準と する。Here, as shown in FIG. 5, before the movement of the robot body 3, the work 6 is at the position indicated by the solid line, and by moving the camera 4 in the Y direction by the movement distance L, the camera 6 is moved. It is assumed that the centers of the first and second marks 9 and 10 are located at the centers (255, 239) of the visual field of No. 4. That is, the first and second marks 9 and 10 are based on the time when they are separated by the distance L in the Y direction by the robot coordinate system (X, Y, Z).
【0017】 そして、ロボット本体3の移動後においては、ワーク6は図5中破線で示す位 置へ移動し、カメラ4をY方向へと移動距離Lだけ移動させることにより、それ ぞれの位置でカメラの視野での第1、第2のマーク9、10の計測点の座標はそ れぞれ(X1,Y1)、(X2,Y2)で観測される。After the robot body 3 is moved, the work 6 is moved to the position shown by the broken line in FIG. 5, and the camera 4 is moved in the Y direction by the movement distance L to move the respective positions. Then, the coordinates of the measurement points of the first and second marks 9 and 10 in the field of view of the camera are observed at (X 1 , Y 1 ) and (X 2 , Y 2 ), respectively.
【0018】 即ち、その手順を図6のフローチャートに示す。先ず、ロボットコントローラ 1は、ロボット本体3を第2のマーク10の位置へ移動させた後、第2のマーク 10の計測指令を画像処理装置2へ送信する。画像処理装置2は、初期設定の後 、ロボット本体3からの計測指令を受信して、カメラ4を経由して、第2のマー ク10の画像を取り込み、重心計測により計測点(X2,Y2)を算出する。That is, the procedure is shown in the flowchart of FIG. First, the robot controller 1 moves the robot body 3 to the position of the second mark 10, and then transmits a measurement command for the second mark 10 to the image processing apparatus 2. After the initial setting, the image processing device 2 receives the measurement command from the robot body 3, captures the image of the second mark 10 via the camera 4, and measures the center of gravity (X 2 , Y 2 ) is calculated.
【0019】 次いで、ロボットコントローラ1は、ロボット本体3を第1のマーク9へ移動 させた後、第1のマーク9の計測指令を画像処理装置2へ送信する。画像処理装 置は、ロボット本体3からの計測指令を受信して、カメラ4を経由して、第1の マーク9の画像を取り込み、重心計測により計測点(X1,Y1)を算出する。尚 、計測不能の場合には、計測不能フラグを立てる。Next, the robot controller 1 moves the robot body 3 to the first mark 9, and then transmits a measurement command for the first mark 9 to the image processing apparatus 2. The image processing device receives the measurement command from the robot body 3, captures the image of the first mark 9 via the camera 4, and calculates the measurement point (X 1 , Y 1 ) by measuring the center of gravity. . When the measurement is impossible, a measurement impossible flag is set.
【0020】 ここで、第2のマーク10を基準点と考え、ロボット本体3の移動前後におけ る第2のマーク10の位置の変化(X,Y)は次式のように算出する。 X=(255−X2)k Y=(Y2−239)k 但し、kは、カメラ4の解像度である。Here, considering the second mark 10 as a reference point, the change (X, Y) in the position of the second mark 10 before and after the movement of the robot body 3 is calculated by the following equation. X = (255−X 2 ) k Y = (Y 2 −239) k where k is the resolution of the camera 4.
【0021】 更に、ロボット本体3の移動後における第1、第2のマーク9,10のX方向 の位置差ΔX、Y方向の位置差ΔYを次式のように算出する。 ΔX=(255−X2)k−((255−X1)k+L) =(X1−X2)k−L ΔY=(Y2−239)k−((Y1−239)k+L) =(Y2−Y1)kFurther, the positional difference ΔX in the X direction and the positional difference ΔY in the Y direction between the first and second marks 9 and 10 after the movement of the robot body 3 are calculated by the following equations. ΔX = (255−X 2 ) k − ((255−X 1 ) k + L) = (X 1 −X 2 ) k−L ΔY = (Y 2 −239) k − ((Y 1 −239) k + L) = (Y 2 -Y 1) k
【0022】 そして、図5に示すようにロボット本体3の移動前後における第2のマーク1 0を中心とした、移動角θを次式で定義する。θは、ロボット座標系におけるワ ークの見掛け上の傾きとなる。 θ=arctan(ΔY/ΔX) このように求めた、X,Y及びθにより、ロボット座標系を補正し、その後、 第3のマーク11をカメラ4で撮影し、ロボット座標系における第3のマーク1 1のX,Z方向の座標(X3,Z3)を画像処理により求める。Then, as shown in FIG. 5, the movement angle θ around the second mark 10 before and after the movement of the robot body 3 is defined by the following equation. θ is the apparent inclination of the work in the robot coordinate system. θ = arctan (ΔY / ΔX) The robot coordinate system is corrected by X, Y and θ obtained in this way, and then the third mark 11 is photographed by the camera 4 to obtain the third mark in the robot coordinate system. The coordinates (X 3 , Z 3 ) of 11 in the X and Z directions are obtained by image processing.
【0023】 その手順を図7のフローチャートに示す。先ず、ロボットコントローラ1は、 画像処理装置2により求めた(X,Y,θ)を、ロボット本体3へ送信し、これ をロボット本体3は受信する。その後、ロボット本体3は、(X,Y,θ)で座 標補正を行い、第3のマーク11へ移動する。The procedure is shown in the flowchart of FIG. First, the robot controller 1 transmits (X, Y, θ) obtained by the image processing device 2 to the robot body 3, and the robot body 3 receives it. After that, the robot main body 3 performs coordinate correction with (X, Y, θ) and moves to the third mark 11.
【0024】 そして、ロボットコントローラ1は、第3のマークの計測指令を、画像処理装 置2ヘ送信し、画像処理装置2はこれを受信した後、カメラ4を経由して、第3 のマークの画像を取り込み、重心計測により、X,Z方向の座標(X3,Z3)を 求める。第3のマーク11の撮影は、ロボット本体3の姿勢の関係から、カメラ 4を横向きとした。尚、計測不能の場合には、計測不能フラグを立てる。Then, the robot controller 1 transmits a measurement command for the third mark to the image processing device 2, and after the image processing device 2 receives this command, the third mark is sent via the camera 4. The image is captured and the center of gravity is measured to obtain the coordinates (X 3 , Z 3 ) in the X and Z directions. The third mark 11 was photographed by setting the camera 4 sideways because of the posture of the robot body 3. When the measurement is impossible, a measurement impossible flag is set.
【0025】 その後、ロボットコントローラ1は、画像処理装置2により求めた(X3,Z3 )をロボット本体3へ送信し、ロボット本体3はこれを受信する。ロボット本体 3は、その後、(X3,Z3)による補正した位置へ移動して、第3のマーク11 である穴へピンを挿入することにより、作業を完了する。After that, the robot controller 1 transmits (X 3 , Z 3 ) obtained by the image processing device 2 to the robot body 3, and the robot body 3 receives it. Thereafter, the robot body 3 moves to the position corrected by (X 3 , Z 3 ) and inserts the pin into the hole which is the third mark 11 to complete the work.
【0026】 このように、本実施例は外部軸を含むロボットの制御において、二つのマーク の観測により、一旦(X,Y,θ)で補正した後に、(X3,Z3)を計測するの であるから、精度の良い作業を行うことができる。即ち、ロボット本体3を移動 軸に沿って移動させると、ロボット座標系においてはワーク6が見掛け上位置が 変化するが、(X,Y,θ)で補正するため、そのような見掛け上の変化による 悪影響を受けることなく、ワーク6の穴に対して正確にピンを挿入することが可 能となるのである。As described above, in the present embodiment, in the control of the robot including the external axis, by observing the two marks, once corrected with (X, Y, θ), (X 3 , Z 3 ) is measured. Therefore, it is possible to perform highly accurate work. That is, when the robot body 3 is moved along the movement axis, the apparent position of the work 6 changes in the robot coordinate system, but such an apparent change occurs because the work 6 is corrected by (X, Y, θ). The pin can be accurately inserted into the hole of the work 6 without being adversely affected.
【0027】[0027]
以上、実施例に基づいて具体的に説明したように、外部軸と共にロボット本体 を同時に制御するロボット制御において、画像処理技術を利用して、二つのマー クを観測し、ワークの見掛け上の変化に依る(X,Y,θ)を求め、これにより 座標を補正した後に、他のマークの計測を行うのであるから、ワークの見掛け上 の変化による悪影響を受ける事なく、正確な作業を行えるものである。 As described above in detail based on the examples, in robot control that simultaneously controls the robot body together with the external axis, two marks are observed by using image processing technology, and the apparent change of the workpiece is observed. (X, Y, θ) is calculated, the coordinates are corrected, and then other marks are measured. Therefore, accurate work can be performed without being adversely affected by the apparent change of the work. Is.
【図1】本考案の一実施例に係るロボット制御装置の構
成図である。FIG. 1 is a block diagram of a robot controller according to an embodiment of the present invention.
【図2】ワークに対する作業の様子を示す斜視図であ
る。FIG. 2 is a perspective view showing how a work is performed.
【図3】ワークを観測するカメラの位置を示す斜視図で
ある。FIG. 3 is a perspective view showing a position of a camera for observing a work.
【図4】各マークを観測するカメラの視野を示す説明図
である。FIG. 4 is an explanatory diagram showing a field of view of a camera for observing each mark.
【図5】移動軸に沿ったロボット本体の移動の前後にお
けるワークの見掛け上の位置の変化を示す説明図であ
る。FIG. 5 is an explanatory diagram showing changes in the apparent position of the work before and after the movement of the robot body along the movement axis.
【図6】第1、第2のマークを観測する手順を示すフロ
ーチャートである。FIG. 6 is a flowchart showing a procedure for observing first and second marks.
【図7】第3のマークを観測する手順を示すフローチャ
ートである。FIG. 7 is a flowchart showing a procedure for observing a third mark.
1 ロボットコントローラ 2 画像処理装置 3 ロボット本体 4 カメラ 5 モニタ 6 パーソナルコンピュータ 1 Robot Controller 2 Image Processing Device 3 Robot Main Body 4 Camera 5 Monitor 6 Personal Computer
フロントページの続き (51)Int.Cl.5 識別記号 庁内整理番号 FI 技術表示箇所 G05D 3/12 T 9179−3H (72)考案者 阿部 清秀 東京都品川区大崎二丁目1番17号 株式会 社明電舎内 (72)考案者 野村 悟 東京都品川区大崎二丁目1番17号 株式会 社明電舎内 (72)考案者 林 克浩 東京都品川区大崎二丁目1番17号 株式会 社明電舎内Continuation of front page (51) Int.Cl. 5 Identification number Internal reference number for FI Technical location G05D 3/12 T 9179-3H (72) Creator Kiyohide Abe 2-1-1 Osaki, Shinagawa-ku, Tokyo Stockholders Association Inside the Shameidensha (72) Inventor Satoru Nomura 2-1-1-17 Osaki, Shinagawa-ku, Tokyo Stock Company Inside the Shameidensha (72) Inventor Katsuhiro Hayashi 2-1-117 Osaki, Shinagawa-ku, Tokyo Inside the Shameidensha
Claims (1)
対し相対的に移動させながら前記ロボット本体により作
業を行うロボット制御装置において、前記ワークに設け
られた二つのマークを、前記ロボット本体に取り付けた
カメラにより撮影し、前記ロボット本体上に設定された
ロボット座標系により、前記ロボット本体の移動の前後
における何れか一方のマークの位置の変化X,Yと、前
記ロボット本体の移動の後における前記二つのマークの
X方向の位置差ΔXと、Y方向の位置差ΔYの比により
定義される移動角θ(=arctan(ΔY/ΔX))
を画像処理装置により求めて、これらX、Y及びθによ
り前記ロボット本体のロボット座標系の位置補正を行
い、その後、前記ワークに設けられた他のマークを前記
カメラで撮影して、該他のマークのX方向の位置及びZ
方向の位置を画像処理装置により求めることを特徴とす
るロボット制御装置。1. A robot control device for performing work by the robot body while moving the robot body relative to a workpiece along an external axis, wherein two marks provided on the workpiece are attached to the robot body. And a change in the position of one of the marks before and after the movement of the robot body, X and Y, and the movement after the movement of the robot body by the robot coordinate system set on the robot body. A movement angle θ (= arctan (ΔY / ΔX)) defined by the ratio of the positional difference ΔX between the two marks in the X direction and the positional difference ΔY in the Y direction.
Is obtained by the image processing device, and the position of the robot coordinate system of the robot body is corrected by these X, Y and θ, and then another mark provided on the work is photographed by the camera to obtain the other mark. Position of mark in X direction and Z
A robot controller characterized in that a position in a direction is obtained by an image processing device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1993005494U JP2584151Y2 (en) | 1993-02-19 | 1993-02-19 | Robot controller |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1993005494U JP2584151Y2 (en) | 1993-02-19 | 1993-02-19 | Robot controller |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0665902U true JPH0665902U (en) | 1994-09-16 |
JP2584151Y2 JP2584151Y2 (en) | 1998-10-30 |
Family
ID=11612794
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP1993005494U Expired - Fee Related JP2584151Y2 (en) | 1993-02-19 | 1993-02-19 | Robot controller |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2584151Y2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011093076A (en) * | 2009-11-02 | 2011-05-12 | Honda Motor Co Ltd | Method and apparatus for information processing, and program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6149205A (en) * | 1984-08-16 | 1986-03-11 | Seiko Instr & Electronics Ltd | Robot control system |
JPH01193902A (en) * | 1988-01-29 | 1989-08-03 | Hitachi Ltd | Coordinate system calibration method for robot with hand vision |
JPH04174005A (en) * | 1990-11-02 | 1992-06-22 | Seiko Instr Inc | Robot controller |
-
1993
- 1993-02-19 JP JP1993005494U patent/JP2584151Y2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6149205A (en) * | 1984-08-16 | 1986-03-11 | Seiko Instr & Electronics Ltd | Robot control system |
JPH01193902A (en) * | 1988-01-29 | 1989-08-03 | Hitachi Ltd | Coordinate system calibration method for robot with hand vision |
JPH04174005A (en) * | 1990-11-02 | 1992-06-22 | Seiko Instr Inc | Robot controller |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011093076A (en) * | 2009-11-02 | 2011-05-12 | Honda Motor Co Ltd | Method and apparatus for information processing, and program |
Also Published As
Publication number | Publication date |
---|---|
JP2584151Y2 (en) | 1998-10-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6966582B2 (en) | Systems and methods for automatic hand-eye calibration of vision systems for robot motion | |
JP4681856B2 (en) | Camera calibration method and camera calibration apparatus | |
US8280151B2 (en) | Method for displaying recognition result obtained by three-dimensional visual sensor and three-dimensional visual sensor | |
JP5815761B2 (en) | Visual sensor data creation system and detection simulation system | |
US7280687B2 (en) | Device for detecting position/orientation of object | |
US20200262080A1 (en) | Comprehensive model-based method for gantry robot calibration via a dual camera vision system | |
US20210217244A1 (en) | Method for matching a virtual scene of a remote scene with a real scene for augmented reality and mixed reality | |
JP6807450B2 (en) | Articulated robot parallelism determination method and articulated robot tilt adjustment device | |
JP3696335B2 (en) | Method for associating each measurement point of multiple images | |
Ravn et al. | Auto-calibration in automation systems using vision | |
CN112598752A (en) | Calibration method based on visual identification and operation method | |
JPH0847881A (en) | Robot remote control method | |
JPH0665902U (en) | Robot controller | |
JPH04269194A (en) | Plane measuring method | |
JP2882910B2 (en) | 3D image recognition method | |
JP2019048350A (en) | Robot control device and robot control method in which control point setting of robot is performed | |
JP3125374B2 (en) | Inspection device coordinate display method | |
JP2021012203A (en) | Camera parallelism judgment method | |
JPH03281182A (en) | Coordinate correcting method for moving robot | |
KR100784734B1 (en) | Elliptic Interpolation Method of Industrial Robot System | |
JPH11254362A (en) | Position correcting system for robot hand | |
JPH069795B2 (en) | Robot wrist positioning method | |
JPH077887U (en) | Coordinate alignment device between robot and image processor | |
JPH07119576B2 (en) | Parallax correction method for visual sensor | |
TW202306729A (en) | Robot system, control device, diagnosis method, and diagnosis program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 19980721 |
|
LAPS | Cancellation because of no payment of annual fees |