[go: up one dir, main page]

JPH01193902A - Coordinate system calibration method for robot with hand vision - Google Patents

Coordinate system calibration method for robot with hand vision

Info

Publication number
JPH01193902A
JPH01193902A JP63017032A JP1703288A JPH01193902A JP H01193902 A JPH01193902 A JP H01193902A JP 63017032 A JP63017032 A JP 63017032A JP 1703288 A JP1703288 A JP 1703288A JP H01193902 A JPH01193902 A JP H01193902A
Authority
JP
Japan
Prior art keywords
robot
coordinate system
hand
recognition
calibration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP63017032A
Other languages
Japanese (ja)
Inventor
Hiroo Furuichi
浩朗 古市
Akira Miyagawa
晃 宮川
Michinaga Kono
河野 通長
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP63017032A priority Critical patent/JPH01193902A/en
Publication of JPH01193902A publication Critical patent/JPH01193902A/en
Pending legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To precisely and simply attain the calibration of a coordinate system by using a coordinate system calibration board where plural recognition patterns which can be identified are drawn on an outer periphery. CONSTITUTION:The coordinate system calibration board 4 where plural recognition patterns which can be identified on the outer periphery is placed on a prescribed work area where calibration is to be executed, and they are image- picked up by an image-pickup device 3. An image processor 10 calculates the positions of the recognition patterns in a visual coordinate system 12. Whenever a robot controller 9 gives a prescribed move quantity and moves the terminal part of the robot 1, the recognition pattern is image-picked up, and the same recognition patterns are visually recognized, whereby the positions are calculated. Thus, both coordinate systems can be made to correspond from the move quantity in the robot coordinate system 11 given to the terminal part of the robot 1 and the relative move quantity of the recognition pattern in the visual coordinate system 12, and a calibration work can simple and precisely be executed.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、ロボットの手先部分に視覚として撮像装置を
備えた手先視覚付きロボットにおける視覚座標系とロボ
ット座標系との較正方法に関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a method of calibrating a visual coordinate system and a robot coordinate system in a robot with hand vision, which is equipped with an imaging device for vision at the hand portion of the robot.

ここで、視覚座標系とは撮像装置の視野内での対象物の
位置を表現する座標系、ロボット座標系とはロボットの
動作を制御するために用いられる座標系をいう。
Here, the visual coordinate system refers to a coordinate system that expresses the position of an object within the field of view of an imaging device, and the robot coordinate system refers to a coordinate system used to control the operation of a robot.

〔従来の技術〕[Conventional technology]

手先視覚付きロボットにおいては、一般に視覚座標系と
ロボット座標系の尺度および方向が異なることから、撮
像装置によって得た視覚座標系の座標をそのままロボッ
ト座標系の座標として用いることはできず、視覚座標系
からロボット座標系への変換が必要であり、このため、
両座種糸を対応付ける、座標系の較正が必要となる。
In robots with hand vision, the scale and direction of the visual coordinate system and the robot coordinate system are generally different. Therefore, the coordinates of the visual coordinate system obtained by the imaging device cannot be directly used as the coordinates of the robot coordinate system, and the visual coordinate system A transformation from the system to the robot coordinate system is required, so
It is necessary to calibrate the coordinate system that associates both zataneito.

従来、この視覚座標系とロボット座標系との較正を行な
う場合には、特開昭61−131887号に記載のよう
に、較正用の認識対象を作業域内の任意の位置に配置し
、ロボットを操作してロボットの手先の基準点を認識対
象の位置に一致させ、この時の手先の位置をロボット座
標系で記憶し、さらに撮像装置により同じ認識対象を撮
像して視覚座標系での位置を算出する方法、またはロボ
ットのプログラム動作の実行により、ロボットの手先の
基準点の位置がロボット座標系で既知である位置に上記
と同様な較正用の認識対象を自動的に配置し、この認識
対象を撮像装置により撮像して視覚座標系での位置を算
出する方法のいずれかにより得た結果から、視覚座標系
とロボット座標系とを対応付けていた。
Conventionally, when calibrating the visual coordinate system and the robot coordinate system, as described in JP-A-61-131887, a recognition target for calibration is placed at an arbitrary position within the work area, and the robot is Operate the reference point of the robot's hand to match the position of the recognition target, memorize the position of the hand at this time in the robot coordinate system, and then take an image of the same recognition target with the imaging device to find the position in the visual coordinate system. By calculating this method or by executing the robot's program operation, a recognition target for calibration similar to the above is automatically placed at a position where the position of the reference point of the robot's hand is known in the robot coordinate system, and this recognition target is The visual coordinate system and the robot coordinate system were associated from the results obtained by one of the methods of capturing an image with an imaging device and calculating the position in the visual coordinate system.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

上記従来技術は次のような問題点を有していた。 The above conventional technology had the following problems.

すなわち、ロボットを操作して、ロボットの手先の基準
点を任意に配置した較正用の認識対象の位置に一致させ
る方法は、正確な位置合わせが困難で、誤差が生じる。
That is, in a method in which a robot is operated to match the reference point of the robot's hand to the position of an arbitrarily placed recognition target for calibration, accurate positioning is difficult and errors occur.

さらに、較正用の認識対象は小ブロックから成るため、
作業面に凹凸がある場合には、較正用の認識対象を安定
して置くことができず、傾きが生じる。これらのことか
ら、較正作業ごとに座標系間の変換係数の精度がばらつ
く、3 。
Furthermore, since the recognition target for calibration consists of small blocks,
If the work surface is uneven, the recognition target for calibration cannot be placed stably, resulting in tilting. For these reasons, the accuracy of the conversion coefficients between coordinate systems varies depending on the calibration process.3.

という欠点があった。There was a drawback.

また、ロボットのプログラム動作の実行により較正用の
認識対象を自動配置する方法は、ロボットの手先の基準
点に対する撮像装置の方向や視野の大きさなどが変化し
た場合、それに合わせて較正用のロボット動作のプログ
ラムを変えなければならないため、プログラム作成に手
間がかかり、手先視覚付きロボットのように、視野の変
化するごとに座標系の較正を必要とする場合には適さな
かった。
In addition, the method of automatically arranging the recognition target for calibration by executing the robot's program operation is such that when the direction of the imaging device or the size of the field of view relative to the reference point of the robot's hand changes, the robot for calibration Because the motion program must be changed, it takes time to create the program, and it is not suitable for robots with hand vision that require calibration of the coordinate system every time the field of view changes.

本発明の目的は、これらの従来技術の問題点を解決し、
精度良く、かつ簡便な手先視覚付きロボットの座標系較
正方法を提供することにある。
The purpose of the present invention is to solve the problems of these conventional techniques,
An object of the present invention is to provide a highly accurate and simple method for calibrating the coordinate system of a robot with hand vision.

〔課題を解決するための手段〕[Means to solve the problem]

上記目的を達成するために本発明は、ロボットの手先部
分に、対象物に作用を施す工具と、該対象物を撮像する
撮像装置とを備え、該撮像装置の撮像データより対象物
を認識して該対象物の位置を算出する画像処理装置と、
ロボットの動作を制御するロボット制御装置とを有する
手先視覚付き、 4 。
In order to achieve the above object, the present invention includes a tool for acting on a target object and an image capturing device for capturing an image of the target object in the hand portion of the robot, and recognizes the target object from the image data of the image capturing device. an image processing device that calculates the position of the object;
4. A robot controller with hand vision that controls the robot's movements.

ロボットにおいて、特定の半径の円周上に複数個の識別
可能な認識パターンが描かれた座標系較正用板を、その
少なくとも1個以上の認識パターンが前記撮像装置の視
野に入るように所定作業域に配置し、前記ロボット制御
装置によりロボットの手先部分に所定の移動量を与え、
ロボットの手先部分が移動するごとに、前記撮像装置の
視野内に捕えられた同一の認識パターンの位置を前記画
像処理装置で算出し、前記ロボット制御装置により与え
られた所定の移動量と、前記画像処理装置により視覚認
識し算出された認識パターンの相対移動量とから、前記
画像処理装置において対象物の位置を表現する視覚座標
系と、ロボットの動作の制御に用いられるロボット座標
系との対応付けを行なうことを特徴とする。
In a robot, a coordinate system calibration plate on which a plurality of discernible recognition patterns are drawn on a circumference of a specific radius is subjected to a predetermined operation such that at least one recognition pattern falls within the field of view of the imaging device. the robot control device applies a predetermined amount of movement to the hand portion of the robot;
Every time the hand part of the robot moves, the image processing device calculates the position of the same recognition pattern captured within the field of view of the imaging device, and calculates the position of the same recognition pattern captured in the field of view of the imaging device, and calculates the position of the same recognition pattern captured in the field of view of the imaging device, and calculates the position of the same recognition pattern captured in the field of view of the imaging device. Correspondence between the visual coordinate system that expresses the position of the object in the image processing device and the robot coordinate system used to control the movement of the robot, based on the relative movement amount of the recognition pattern calculated by visual recognition by the image processing device. It is characterized by attaching.

〔作用〕[Effect]

本発明では、特定の半径の円周上に複数個の識別可能な
認識パターンが描かれた座標系較正用板(以下、単に較
正用板と称す)を、較正を行ないたい所定の作業域に置
き、ロボットの手先部分に取付けられた撮像装置で撮像
し、視野内に捕えられた認識パターンの位置を画像処理
装置により視覚座標系で算出する。そして、ロボット制
御装置によりロボットの手先部分に所定の移動量を与え
てロボットの手先部分を移動させるごとに、認識パター
ンを撮像し、同一の認識パターンを視覚認識してその位
置を算出する。このようにすると、ロボットの手先部分
に与えられたロボット座標系での移動量と、認識パター
ンの視覚座標系での相対移動量とから両座標系を対応付
けることが可能となり、ロボットの手先の基準点を較正
用の認識対象の位置に一致させて認識対象の位置をロボ
ット座標系で算出する必要がなくなる。
In the present invention, a coordinate system calibration plate (hereinafter simply referred to as a calibration plate) on which a plurality of discernible recognition patterns are drawn on a circumference of a specific radius is placed in a predetermined work area where calibration is to be performed. The image is captured by an imaging device attached to the hand of the robot, and the position of the recognition pattern captured within the field of view is calculated in the visual coordinate system by an image processing device. Then, each time the robot control device moves the robot's hand by applying a predetermined amount of movement to the robot's hand, a recognition pattern is captured, and the same recognition pattern is visually recognized to calculate its position. In this way, it becomes possible to associate both coordinate systems based on the amount of movement in the robot coordinate system given to the robot's hand and the relative movement amount in the visual coordinate system of the recognition pattern, and the reference for the robot's hand becomes possible. There is no need to match the point with the position of the recognition target for calibration and calculate the position of the recognition target in the robot coordinate system.

また、較正用板には、円周上に複数個の識別可能な認識
パターンを描いであるため、該較正用板をロボット手先
部分の垂直下方に置けば、ロボットの手先の基準点に対
する撮像装置の方向や視野の大きさにかかわらず、常に
1個以上の認識パターンを視野内に捕えることができ、
さらにロボットの動作により視野が移動しても同一の認
識パターンを視覚認識することが可能である。このこと
より、較正用のロボット動作のプログラム作成が容易と
なる。
In addition, since the calibration plate has a plurality of distinguishable recognition patterns drawn on the circumference, if the calibration plate is placed vertically below the robot's hand, the imaging device will be able to locate the reference point of the robot's hand. Regardless of the direction or size of the field of view, one or more recognition patterns can always be captured within the field of view.
Furthermore, even if the field of view moves due to the movement of the robot, it is possible to visually recognize the same recognition pattern. This makes it easy to create a robot motion program for calibration.

それに加えて、面積の広い較正用板を作業面に置くため
、作業面の小さな凹凸により傾きを生じることがなく、
視覚座標値を正確に算出でき、簡便に精度良く較正作業
を実行できる。
In addition, since the calibration plate with a large area is placed on the work surface, it will not tilt due to small irregularities on the work surface.
Visual coordinate values can be calculated accurately, and calibration work can be performed easily and accurately.

〔実施例〕〔Example〕

以下、本発明の実施例を図面により説明する。 Embodiments of the present invention will be described below with reference to the drawings.

第1図は本発明の一実施例の見取図であり、1はロボッ
ト、2は該ロボット1の手先部分に備えられた工具の一
例であるノ1ンド、3は該ロボット1の手先部分に視覚
として備えられた虚像装置(以下、カメラと称す)、4
は作業面5上に置かれた較正用板を示す。9はロボット
1の動作を制御するロボット制御装置、10はカメラ3
に接続された画像処理装置であり、詳細は図示省略する
が、ロボット制御装置9は、オペレータによるプレイバ
ック動作、座標系較正動作等のプログラム入力およびプ
ログラム選択用の操作パネル、選択され・ 7 ・ たプログラムに従い、プレイバック動作時にはメモリか
ら読み出した教示データと画像処理装置10からの視覚
座標データに基づいてロボットlの動作指令やハンド2
の開閉指令を送出し、較正動作時にはメモリから読み出
した較正用データに基づくロボット1の動作指令の送出
および前述したロボット座標系での移動量と視覚座標系
での移動量から両座標系の間の変換係数の算出を行なう
プロセッサ、該プロセッサの指令によりロボット1の各
軸やハンド2のサーボ駆動系を制御する制御部等から構
成されている。また、画像処理装置10は、撮像データ
を格納する1llji像メモリ、その撮像データよりカ
メラ3の視野内の対象物を視覚認識し、該対象物の位置
を算出する画像プロセッサ等で構成されており、いずれ
もハード構成としては公知のものである。本図には、ロ
ボット1が水平多関節ロボットからなる例を示したが、
本発明は他のいかなる形式のロボットにも適用できる。
FIG. 1 is a sketch of an embodiment of the present invention, in which 1 is a robot, 2 is an example of a tool provided at the hand portion of the robot 1, and 3 is a visual representation of the hand portion of the robot 1. A virtual image device (hereinafter referred to as a camera) provided as
shows a calibration plate placed on the work surface 5. 9 is a robot control device that controls the operation of the robot 1; 10 is a camera 3;
Although the details are not shown, the robot control device 9 includes an operation panel for inputting and selecting programs such as playback operations and coordinate system calibration operations by the operator; During the playback operation, the robot 1's movement commands and the hand 2 are issued based on the teaching data read from the memory and the visual coordinate data from the image processing device 10.
During the calibration operation, the robot 1 sends an operation command based on the calibration data read from the memory, and calculates the distance between the two coordinate systems based on the amount of movement in the robot coordinate system and the amount of movement in the visual coordinate system. The controller is comprised of a processor that calculates conversion coefficients, and a control section that controls each axis of the robot 1 and the servo drive system of the hand 2 according to instructions from the processor. The image processing device 10 also includes an image memory that stores image data, an image processor that visually recognizes an object within the field of view of the camera 3 from the image data, and calculates the position of the object. , all of which have well-known hardware configurations. This figure shows an example in which the robot 1 is a horizontal articulated robot.
The invention is applicable to any other type of robot.

11は上記のロボット1に規定されたロボット座標系(
OR−Xλ、YA% ZR)、12は上記のカメラ3に
規定され8 ・ た視覚座標系(Or  XF% Yy )を示し、以下
の各図において、同一部分は同一の符号で示す。
11 is the robot coordinate system (
OR-Xλ, YA% ZR), 12 indicates the visual coordinate system (Or

第2図囚は較正用板4とカメラ3の視野13との関係を
示す平面図、第2図(B)はロボット1の手先部分と較
正用板4の側面図であり、21はロボット1の手首部分
の回転中心軸、31はカメラ3の光学系の光軸、8は較
正用板4をハンド2で把持するため、較正用板4の中心
点Cに設けた突起部を示す。第2図(C)は較正用板4
の部分拡大図である。
Figure 2 is a plan view showing the relationship between the calibration plate 4 and the field of view 13 of the camera 3, Figure 2 (B) is a side view of the hand portion of the robot 1 and the calibration plate 4, and 21 is a side view of the robot 1. 31 is the optical axis of the optical system of the camera 3, and 8 is a protrusion provided at the center point C of the calibration plate 4 for gripping the calibration plate 4 with the hand 2. Figure 2 (C) shows the calibration plate 4.
FIG.

第2図(4)〜(C)に示すように、較正用板4には、
ロボット1の手首部分の回転中心軸21とカメラ3の光
軸31との距離dとほぼ等しい半径の円周上に、適当な
間隔でn個の認識パターン41.42、・・、4nが較
正用板4の背景40に対してコントラストを有する色で
描かれている。さらに詳しくいえば、n個の認識パター
ンのそれぞれは、たとえば第2図(C)の41a、41
b、41cで示すように、パターンの重心G、、G、、
・・・、Gnを中心とする同心円状に交互にコントラス
トを有する色で描かれ、最内円、たとえば、41cの内
部には、それぞれの隣接する認識パターン42.4nと
識別するために、各パターンごとに個数を変えた小円4
01aがコントラストを有する色で描かれている。これ
らのパターン識別のための小円401a 、 402a
 、 402b 、 −、40na 、 40nb 。
As shown in FIG. 2 (4) to (C), the calibration plate 4 includes
n recognition patterns 41, 42, . . . , 4n are calibrated at appropriate intervals on a circumference with a radius approximately equal to the distance d between the rotation center axis 21 of the wrist portion of the robot 1 and the optical axis 31 of the camera 3. It is drawn in a color that contrasts with the background 40 of the work board 4. More specifically, each of the n recognition patterns is, for example, 41a, 41 in FIG. 2(C).
As shown in b, 41c, the center of gravity of the pattern G,,G,,
..., are drawn in concentric circles with contrasting colors alternately with Gn as the center, and inside the innermost circle, for example, 41c, each mark is drawn in order to distinguish it from each adjacent recognition pattern 42.4n. Small circles 4 with different numbers for each pattern
01a is drawn in a contrasting color. Small circles 401a and 402a for identifying these patterns
, 402b, -, 40na, 40nb.

40nc 、 40ndを、重心位置が各認識パターン
41 、42゜・・・、4nの重心Gl r Gt +
・・・、Gnとは異なるように配置することにより、各
パターン41 、42 、・・・、4nの方向を検出す
ることも可能である。本実施例では、各パターンを41
 a * 41 b 、41 cのような同心円とした
が、第2図中)の71a 、 71b 、 71cのよ
うに、複数個の円以外の相似形の図形を重心位置が一致
するように配意してもよい。また、本実施例では、各パ
ターンの最内円41c、42c、・・・、 4ncの内
部にある小円401a 、 402a 、・・・、 4
0ndの個数により隣接のパターンと識別したが、第2
図中)の701 、702゜703のように、形状や面
積を変えた図形や符号等を記入して、識別してもよい。
40nc, 40nd, the center of gravity position is the center of gravity Gl r Gt + of each recognition pattern 41, 42°..., 4n.
. . , Gn, it is also possible to detect the direction of each pattern 41 , 42 , . . . , 4n. In this example, each pattern has 41
a * 41 b and 41 c were used as concentric circles, but we also made sure that the centers of gravity of multiple similar figures other than circles coincided with each other, such as 71 a , 71 b , and 71 c in Figure 2). You may. In addition, in this embodiment, the small circles 401a, 402a,..., 4 inside the innermost circles 41c, 42c,..., 4nc of each pattern
It was identified as an adjacent pattern by the number of 0nd, but the second
Figures or codes with different shapes and areas, such as 701, 702, and 703 in the figure) may be written for identification.

このような認識パターンが描かれた較正用板4を、ロボ
ット1のハンド2により突起部8を把持して、座標系の
較正を行なう作業面5上に、ロボット1のプログラム動
作によって配置する。較正用板4を作業面5上に配置し
た後、カメラ3を、較正を行なう姿勢、つまり較正を行
なう領域が視野13に入る状態として、第2図(B)に
示すように較正を行なう高さ位置にロボット1の手先部
分を移動させる。この時、カメラ3では、第2図(5)
および(C)の視野13のように撮像される。この視野
13の中で、2個のパターン識別用の小円402a 、
 402bが内部にある同心円状の認識パターン42の
重心位置は、画像処理装置10で42a 、 42b 
、 42cの各日ごとに重心位置を算出し、完全な円と
して見えているもののうち、最も面積の大きい円42 
bの重心位置の算出値を認識パターンの重心位置G、と
することで求められる。なお、これらのパターンの重心
位置は、撮像した画像から、コントラストを付けて描か
れた隣接パターン同志および同一パターン内の同心円同
志をある明るさで明暗に区別して2値画像を得て、各パ
ターンの輪郭を抽出し、公知の重心算出アルゴリズムを
用いて算出される。
The calibration plate 4 on which such a recognition pattern is drawn is held by the protrusion 8 by the hand 2 of the robot 1, and is placed on the work surface 5 on which the coordinate system is to be calibrated by a programmed operation of the robot 1. After placing the calibration plate 4 on the work surface 5, the camera 3 is placed in the calibration position, that is, in a state where the area to be calibrated is within the field of view 13, and the camera 3 is set at the height at which the calibration is to be performed as shown in FIG. 2(B). Move the hand part of the robot 1 to the position shown below. At this time, in camera 3, as shown in Fig. 2 (5)
and imaged as in the field of view 13 in (C). In this visual field 13, two small circles 402a for pattern identification,
The center of gravity of the concentric recognition pattern 42 with 402b inside is determined by the image processing device 10 as 42a and 42b.
, calculate the center of gravity position for each day of 42c, and select the circle 42 with the largest area among those that appear as complete circles.
It is obtained by setting the calculated value of the center of gravity position of b as the center of gravity position G of the recognition pattern. The center of gravity of these patterns can be determined by dividing adjacent patterns drawn with contrast and concentric circles within the same pattern into brightness and darkness using a certain brightness from the captured image to obtain a binary image. The contour is extracted and calculated using a known centroid calculation algorithm.

また、視野の大きさや位置により、視野内に複数個の認
識パターンが認識される場合、たとえば第2図囚の視野
16のように、視野内に重心位置の算出可能な認識パタ
ーンが41および42と2個認識される場合がある。以
下、述べる座標系の対応付けの手順では、視野が移動し
たときに視野内で認識されるパターンと、視野の移動前
に認識されたパターンとを対応付ける必要があり、この
際に前述のパターン識別用の小円401a 、 402
a 、 −、40ndを用いることにより、異なる視野
内でも同一のパターンを対応付けることが可能となる。
In addition, when multiple recognition patterns are recognized within the visual field depending on the size and position of the visual field, for example, as in the visual field 16 of the prisoner in Figure 2, there are recognition patterns 41 and 42 whose center of gravity position can be calculated within the visual field. There are cases where two items are recognized. In the procedure for associating coordinate systems described below, it is necessary to associate the pattern recognized within the field of view when the field of view moves with the pattern recognized before the field of view moves. small circles 401a, 402
By using a, -, 40nd, it is possible to associate the same pattern even within different fields of view.

このようにして認識された特定のパターン42に注目し
、認識パターン6として、第3図以降、簡略化して用い
る。
A particular pattern 42 recognized in this manner is focused on and used in a simplified manner as a recognition pattern 6 from FIG. 3 onwards.

以下、第3図から第6図を用いて、視覚座標系と、ロボ
ット座標系との対応付けの手順を説明する。第3図およ
び第4図において、第2図(B)に示すような較正用板
4の垂直上方におけるロボット1の位置では、カメラ3
の視野13の中で認識パターン6の重心位置は、OV−
XV 、 YVの視覚座標系12でG、と算出される。
Hereinafter, the procedure for associating the visual coordinate system with the robot coordinate system will be explained using FIGS. 3 to 6. 3 and 4, in the position of the robot 1 vertically above the calibration plate 4 as shown in FIG. 2(B), the camera 3
The center of gravity of the recognition pattern 6 in the visual field 13 of OV-
G is calculated in the visual coordinate system 12 of XV and YV.

次に、カメラ3の方向および高さを同じに保ったまま、
ロボット座標系11のY軸に沿って、カメラ3の視野内
に認識パターン6が見える範囲内で、ロボット1の手先
部分をΔXλ移動させると、カメラ3の視野14の中で
認識パターン6の重心位置は、OFI −Xrr + 
YFlの視覚座標系でG、1と算出される。さらに、カ
メラ3の方向および高さを同じに保ったまま、ロボット
座標系11のY軸に沿って、ロボット1の手先部分を−
ΔXJI移動させ、最初の位置に戻してから、カメラ3
の視野内に認識パターン6が見える範囲内で、ロボット
座標系11のY軸に沿って、ロボット1の手先部分をΔ
YR移動させると、カメラ3の視野15の中で認識パタ
ーン6の重心位置は、O,−X、t・YVtの視覚座標
系でGttと算出される。これらは認識パターン6をロ
ボット座標系11に対し固定して、カメラ3をロボット
座標系11内でΔXR2ΔYRだけ移動させ、それぞれ
の重心位置G、、 、Gt、を求めたものであるが、相
対的な移動量としては、カメラ3を視野13に固定して
、認識パターン6をロボット座標系11で、−ΔXR1
−ΔYRだけ移動させて、それぞれの重心位置を第5図
のように視野13でGll + onと算出したことと
等価になる。第5図に示す認識パターンの重心位置G!
 s et+ I on とロボット座標系11および
視覚座標系12との関係を第6図に示す。
Next, while keeping the direction and height of camera 3 the same,
If the hand part of the robot 1 is moved by ΔXλ along the Y-axis of the robot coordinate system 11 within the range where the recognition pattern 6 can be seen within the field of view of the camera 3, the center of gravity of the recognition pattern 6 will be moved within the field of view 14 of the camera 3. The position is OFI −Xrr +
It is calculated as G, 1 in the visual coordinate system of YFl. Furthermore, while keeping the direction and height of the camera 3 the same, the hand portion of the robot 1 is moved along the Y axis of the robot coordinate system 11.
Move ΔXJI, return to the initial position, and then move camera 3
The hand part of the robot 1 is moved along the Y axis of the robot coordinate system 11 within the range where the recognition pattern 6 is visible within the field of view.
When the recognition pattern 6 is moved by YR, the center of gravity of the recognition pattern 6 in the field of view 15 of the camera 3 is calculated as Gtt in the visual coordinate system of O, -X, t.YVt. In these, the recognition pattern 6 is fixed to the robot coordinate system 11, the camera 3 is moved by ΔXR2ΔYR within the robot coordinate system 11, and the respective center of gravity positions G, , Gt, are determined. The amount of movement is -ΔXR1 when the camera 3 is fixed in the field of view 13 and the recognition pattern 6 is expressed in the robot coordinate system 11.
This is equivalent to moving by -ΔYR and calculating the respective center of gravity positions as Gll + on in the visual field 13 as shown in FIG. The center of gravity position G of the recognition pattern shown in Fig. 5!
The relationship between set+ I on and the robot coordinate system 11 and visual coordinate system 12 is shown in FIG.

図中、視覚座標系12での認識パターンの重心位置間の
距離と方向とが、ロボットの移動量に対応する。すなわ
ち、第6図において、矢印の−ΔXR−ΔYRは、ロボ
ット座標系11においてはロボットの手先部分の移動量
に対応するが、視覚座標系12においては、重心位置G
、とG□とを結ぶ直線P1は、−ΔxRを視覚で認識し
た線分、重心位置G、とGttとを結ぶ直線p、F は
、−ΔYRを視覚で認識した線分となる。実際には、視
覚座標系12において、これらの線分PI’ + P2
’は、それぞれ視覚座標系12のX軸成分P、VxP、
VxY軸成分P、’y Pみとして算出され、これらと
−ΔXR2−ΔYRの関係から、視覚座標系12とロボ
ット座標系11との対応関係を求めることができる。第
6図において、線分PIVに関しては、PIXのロボッ
ト座標系11のX軸、Y軸への写@ P1’X−asα
・AXX * PIVc’ gklα・AXY および
P1′1のロボット座標系11のX軸、Y軸への写像P
1’! ・血α・AYX、 p、j、・μsα・AYY
が求まり、ロボット座標系11でのG、からG2、への
ロボットの移動量がX軸方向に−ΔxRで、Y軸方向に
0であるため、次式が成立する。
In the figure, the distance and direction between the centroid positions of the recognition patterns in the visual coordinate system 12 correspond to the amount of movement of the robot. That is, in FIG. 6, the arrow -ΔXR-ΔYR corresponds to the movement amount of the robot's hand in the robot coordinate system 11, but in the visual coordinate system 12, it corresponds to the center of gravity position G.
, and G□ is a line segment that visually recognizes -ΔxR, and the straight lines p and F that connect the center of gravity position G and Gtt are line segments that visually recognize -ΔYR. Actually, in the visual coordinate system 12, these line segments PI' + P2
' are the X-axis components P, VxP, and VxP of the visual coordinate system 12, respectively.
It is calculated as only VxY axis components P and 'yP, and from the relationship between these and -ΔXR2-ΔYR, the correspondence between the visual coordinate system 12 and the robot coordinate system 11 can be determined. In FIG. 6, regarding the line segment PIV, the mapping of PIX to the X-axis and Y-axis of the robot coordinate system 11 @P1'X-asα
・AXX * PIVc' gklα・AXY and mapping P of P1'1 to the X-axis and Y-axis of the robot coordinate system 11
1'!・Blood α・AYX, p, j,・μsα・AYY
Since the amount of movement of the robot from G to G2 in the robot coordinate system 11 is -ΔxR in the X-axis direction and 0 in the Y-axis direction, the following equation holds true.

一ΔX7B−PIVx−casα・Axx+P1VY−
ghlα・AYx・・・・・(1)0−P1’z−si
nαaAzy−PW−asα・AYY      ・−
+21ここで、αは、視覚座標系12がロボット座標系
11に対してなす角度、Axx、AxY、AYx、AY
Yは、視覚座標系12とロボット座標系11のそれぞれ
のX。
-ΔX7B-PIVx-casα・Axx+P1VY-
ghlα・AYx...(1)0-P1'z-si
nαaAzy-PW-asα・AYY ・-
+21 Here, α is the angle that the visual coordinate system 12 makes with respect to the robot coordinate system 11, Axx, AxY, AYx, AY
Y is the respective X of the visual coordinate system 12 and the robot coordinate system 11.

Y軸の尺度比を示す係数で、添字の第1字が視覚座標系
12の軸を、第2字がロボット座標系11の軸を示す。
This is a coefficient indicating the scale ratio of the Y axis, where the first letter of the subscript indicates the axis of the visual coordinate system 12 and the second letter indicates the axis of the robot coordinate system 11.

また、線分P、に関しても、同様にp、 l P:’Y
 のロボット座標系11のX軸、Y軸への写像が求まり
、ロボット座標系11でのG、からonへのロボットの
移動量がX軸方向に0で、Y軸方向に−ΔYRであるこ
とより、次式が成立する。
Similarly, regarding line segment P, p, l P:'Y
The mapping of to the X-axis and Y-axis of the robot coordinate system 11 is determined, and the amount of movement of the robot from G to ON in the robot coordinate system 11 is 0 in the X-axis direction and -ΔYR in the Y-axis direction. Therefore, the following formula holds true.

o−p、、 ・cmα・Axx+Pty −―α・AY
x     ・・−・(3+−ΔYR=P2S噛α”X
Y  P:’y’cmα’Ary    −= (41
式fil〜(4)より、以下の尺度比を示す係数が求ま
る。
op,, cmα・Axx+Pty --α・AY
x...-(3+-ΔYR=P2S bit α"X
Y P:'y'cmα'Ary −= (41
From formula fil~(4), the coefficients representing the following scale ratios are found.

また、視覚座標系12において、X軸成分とY軸成分と
の比率が一定となることより、次式が成立する。
Furthermore, in the visual coordinate system 12, since the ratio between the X-axis component and the Y-axis component is constant, the following equation holds true.

Axx/Ayx = Axy/Ayy        
  =−・i9)式(9)に式(5)〜(8)を代入し
て次式を得る。
Axx/Ayx = Axy/Ayy
=-・i9) Substitute equations (5) to (8) into equation (9) to obtain the following equation.

式αQより、ロボット座標系11と視覚座標系12との
座標軸間のなす角度αが求まる。
The angle α formed between the coordinate axes of the robot coordinate system 11 and the visual coordinate system 12 is determined from the equation αQ.

このようにして求められた座標間の変換係数Axx 、
 AYx 、 Axy 、 Ayyおよびαの値を制御
装置9内のメモリに格納しておくことにより、以降、制
御装置9では、この格納データを用いて、同じ作業域内
でカメラ3により撮像された対象物の視覚座標系12で
の位置ずれをロボット座標系11でのずれ量に変換する
ことが可能となる。
The conversion coefficient Axx between the coordinates obtained in this way,
By storing the values of AYx, Axy, Ayy, and α in the memory in the control device 9, the control device 9 uses this stored data to calculate the object imaged by the camera 3 in the same work area. It becomes possible to convert the positional deviation in the visual coordinate system 12 into a deviation amount in the robot coordinate system 11.

上記実施例では、較正用板に描かれた認識パターンが、
それぞれ複数個の相似形の図形を重心位置が一致するよ
うに配置したものから成っており、カメラ3の視野内で
図形全体の形が完全に見えるもののうち、最も面積の大
きい図形の重心位置の算出値を認識パターンの重心位置
としているので、視野の大きさが変化しても、常に視野
の大きさに合った図形を選択して認識パターンの重心位
置を算出することができる。これにより、視覚座標値の
算出精度は一段と向上するが、本発明の必須要件ではな
い。
In the above embodiment, the recognition pattern drawn on the calibration plate is
Each figure consists of a plurality of similar figures arranged so that their center of gravity coincides, and among the figures whose entire shape can be completely seen within the field of view of the camera 3, the position of the center of gravity of the figure with the largest area is determined. Since the calculated value is used as the position of the center of gravity of the recognition pattern, even if the size of the field of view changes, it is possible to always select a figure that matches the size of the field of view and calculate the position of the center of gravity of the recognition pattern. Although this further improves the calculation accuracy of visual coordinate values, it is not an essential requirement of the present invention.

また、上記実施例によれば、較正用板の作業域への配置
も含めてすべての較正作業をロボットのプログラムの実
行により自動的に行なうことが可能であるが、所定位置
に移動したロボットの手先部分の直下に較正用板を人手
により配置してもよく、ロボットの手先の基準点と較正
用板との厳密な位置合わせは必要でない。
Furthermore, according to the above embodiment, all the calibration work, including the placement of the calibration plate in the work area, can be performed automatically by executing the robot program. The calibration plate may be placed directly under the hand portion by hand, and strict alignment between the reference point of the robot's hand and the calibration plate is not required.

〔発明の効果〕〔Effect of the invention〕

以上のように本発明によれば、円周上に複数個の識別可
能な認識パターンが描かれた較正用板を較正する作業域
に置き、ロボットの手先部分に所定の移動量を与えて、
ロボットの手先部分が移動するごとに、同一認識パター
ンの位置を視覚認識させ、ロボット座標系での移動量と
視覚座標系での相対移動量とを対応付けて、両座種間の
較正を行なうため、従来のようにロボットの手先の基準
点を較正用の認識対象の位置に一致さぜる必要がなく、
したがって位置合わせの誤差が生ぜず、また、面積の広
い較正用板を作業面に置くため、作業面の小さな凹凸に
より較正用板の姿勢に影蕃を受けずに、座標間の変換係
数を精度良く安定に求めることができる。
As described above, according to the present invention, a calibration plate on which a plurality of distinguishable recognition patterns are drawn on the circumference is placed in the work area to be calibrated, and a predetermined movement amount is applied to the hand portion of the robot.
Each time the robot's hand moves, the position of the same recognition pattern is visually recognized, and the amount of movement in the robot coordinate system and the amount of relative movement in the visual coordinate system are correlated to perform calibration between the two-seat species. Therefore, there is no need to match the reference point of the robot's hand to the position of the recognition target for calibration, as in the past.
Therefore, errors in alignment do not occur, and since the calibration plate with a large area is placed on the work surface, the posture of the calibration plate is not affected by small irregularities on the work surface, and the conversion coefficients between coordinates can be accurately adjusted. It can be found well and stably.

さらに、較正用板には、円周上に複数個の識別可能な認
識パターンを描いであるため、ロボットの手先の基準点
に対するカメラの方向および視野の大きさにかかわらず
、認識パターンを視野内に捕えることができ、したがっ
て、ロボットの較正動作のプログラム作成に当たり、カ
メラの方向や視野の大きさの変化を考慮する必要がなく
、プログラム作成が容易となる。これらのことから、手
先視覚付きロボットのように作業域によって視野が変化
し、較正を頻繁に行なう必要があるものに対して、簡便
で精度の良い座標系較正手段を与えることができる。
Furthermore, since multiple distinguishable recognition patterns are drawn on the calibration plate on the circumference, the recognition pattern can be drawn within the field of view regardless of the direction of the camera relative to the reference point of the robot's hand and the size of the field of view. Therefore, when creating a program for the robot's calibration operation, there is no need to consider changes in the direction of the camera or the size of the field of view, making the program easy to create. For these reasons, it is possible to provide a simple and highly accurate coordinate system calibration means for robots with hand vision whose field of view changes depending on the work area and requires frequent calibration.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の一実施例を示す見取図、第2図(5)
、 (B) 、 (C)は本実施例における較正用板と
カメラの視野との関係を示す平面図、側面図および較正
用板の部分拡大図、第2図(D)は較正用板の他の例を
示す部分拡大図、第3図は本実施例におけるロボットの
較正動作を示す見取図、第4図は第3図における座標間
の関係の説明図、第5図は第4図の座標間の関係を等測
的に変換して示した図、第6図は本実施例における座標
間の関係と座標間の変換係数を求める処理の説明図であ
る。 トロボット      2 ・ハンド(工具)3・・カ
メラ(撮像装置) 4.7 較正用板   5・・作業面 6・・認識パターン   8・・・把持用突起部9 ・
ロボット制御装置 10・画像処理装置11・・・ロボ
ット座標系  12・・・視覚座標系13〜16・・・
視野 代理人 弁理士  小 川 勝 男
Figure 1 is a sketch showing an embodiment of the present invention, Figure 2 (5)
, (B), and (C) are a plan view, a side view, and a partially enlarged view of the calibration plate showing the relationship between the calibration plate and the field of view of the camera in this example, and FIG. 2(D) is a partial enlarged view of the calibration plate. A partially enlarged view showing another example, FIG. 3 is a sketch showing the calibration operation of the robot in this example, FIG. 4 is an explanatory diagram of the relationship between the coordinates in FIG. 3, and FIG. 5 is the coordinates in FIG. 4. FIG. 6 is an explanatory diagram of the process of determining the relationship between coordinates and the conversion coefficient between coordinates in this embodiment. Trobot 2 Hand (tool) 3 Camera (imaging device) 4.7 Calibration plate 5 Work surface 6 Recognition pattern 8 Grasping protrusion 9
Robot control device 10・Image processing device 11...Robot coordinate system 12...Visual coordinate system 13-16...
Vision Agent Patent Attorney Katsuo Ogawa

Claims (1)

【特許請求の範囲】 1、ロボットの手先部分に、対象物に作用を施す工具と
、該対象物を撮像する撮像装置とを備え、該撮像装置の
撮像データより対象物を認識して該対象物の位置を算出
する画像処理装置と、ロボットの動作を制御するロボッ
ト制御装置とを有する手先視覚付きロボットにおいて、
特定の半径の円周上に複数個の識別可能な認識パターン
が描かれた座標系較正用板を、その少なくとも1個以上
の認識パターンが前記撮像装置の視野に入るように所定
作業域に配置し、前記ロボット制御装置によりロボット
の手先部分に所定の移動量を与え、ロボットの手先部分
が移動するごとに、前記撮像装置の視野内に捕えられた
同一の認識パターンの位置を前記画像処理装置で算出し
、前記ロボット制御装置により与えられた所定の移動量
と、前記画像処理装置により視覚認識し算出された認識
パターンの相対移動量とから、前記画像処理装置におい
て対象物の位置を表現する視覚座標系と、ロボットの動
作の制御に用いられるロボット座標系との対応付けを行
なうことを特徴とする手先視覚付きロボットの座標系較
正方法。 2、座標系較正用板に描かれた認識パターンが、それぞ
れ複数個の相似形の図形を重心位置が一致するように配
置したものから成ることを特徴とする特許請求の範囲第
1項記載の手先視覚付きロボットの座標系較正方法。 3、座標系較正用板をロボットの手先部分に備えた前記
工具により把持し、前記ロボット制御装置によりロボッ
トの手先部分に所定の移動量を与えて、所定作業域に該
較正用板を配置することを特徴とする特許請求の範囲第
1項または第2項記載の手先視覚付きロボットの座標系
較正方法。
[Claims] 1. The hand portion of the robot is equipped with a tool that acts on an object and an imaging device that takes an image of the object, and the robot recognizes the object from the imaging data of the imaging device and captures the object. A robot with hand vision that has an image processing device that calculates the position of an object and a robot control device that controls the motion of the robot,
A coordinate system calibration board on which a plurality of discernible recognition patterns are drawn on a circumference of a specific radius is arranged in a predetermined work area so that at least one recognition pattern is within the field of view of the imaging device. The robot control device applies a predetermined movement amount to the robot's hand, and each time the robot's hand moves, the image processing device detects the position of the same recognition pattern captured within the field of view of the imaging device. The position of the object is expressed in the image processing device from a predetermined movement amount calculated by the robot control device and a relative movement amount of the recognition pattern calculated by visual recognition by the image processing device. A method for calibrating a coordinate system of a robot with hand vision, the method comprising associating a visual coordinate system with a robot coordinate system used to control the motion of the robot. 2. The recognition pattern drawn on the coordinate system calibration board is composed of a plurality of similar figures arranged so that their center of gravity coincides with each other. Coordinate system calibration method for robots with hand vision. 3. Grip the coordinate system calibration plate with the tool provided at the hand of the robot, apply a predetermined movement amount to the hand of the robot by the robot control device, and place the calibration plate in a predetermined work area. A method for calibrating a coordinate system of a robot with hand vision according to claim 1 or 2, characterized in that:
JP63017032A 1988-01-29 1988-01-29 Coordinate system calibration method for robot with hand vision Pending JPH01193902A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63017032A JPH01193902A (en) 1988-01-29 1988-01-29 Coordinate system calibration method for robot with hand vision

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63017032A JPH01193902A (en) 1988-01-29 1988-01-29 Coordinate system calibration method for robot with hand vision

Publications (1)

Publication Number Publication Date
JPH01193902A true JPH01193902A (en) 1989-08-03

Family

ID=11932663

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63017032A Pending JPH01193902A (en) 1988-01-29 1988-01-29 Coordinate system calibration method for robot with hand vision

Country Status (1)

Country Link
JP (1) JPH01193902A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH044406A (en) * 1990-04-20 1992-01-08 Fujitsu Ltd Automatic teaching system for robot
JPH06215150A (en) * 1993-01-18 1994-08-05 Toshiba Corp Three-dimensional image display device
JPH0665902U (en) * 1993-02-19 1994-09-16 株式会社明電舎 Robot controller
WO2001000371A1 (en) * 1999-06-26 2001-01-04 Bae Systems Plc Method and apparatus for calibrating visual guided robot
WO2023012894A1 (en) * 2021-08-03 2023-02-09 ファナック株式会社 Robot system, control device, diagnosis method, and diagnosis program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH044406A (en) * 1990-04-20 1992-01-08 Fujitsu Ltd Automatic teaching system for robot
JPH06215150A (en) * 1993-01-18 1994-08-05 Toshiba Corp Three-dimensional image display device
JPH0665902U (en) * 1993-02-19 1994-09-16 株式会社明電舎 Robot controller
WO2001000371A1 (en) * 1999-06-26 2001-01-04 Bae Systems Plc Method and apparatus for calibrating visual guided robot
US6618633B1 (en) 1999-06-26 2003-09-09 Bae Systems Plc Method and apparatus for calibrating a first co-ordinate frame of an indexing means in a second frame of reference of a sensing means
WO2023012894A1 (en) * 2021-08-03 2023-02-09 ファナック株式会社 Robot system, control device, diagnosis method, and diagnosis program

Similar Documents

Publication Publication Date Title
EP1215017B1 (en) Robot teaching apparatus
US4305130A (en) Apparatus and method to enable a robot with vision to acquire, orient and transport workpieces
US4402053A (en) Estimating workpiece pose using the feature points method
EP0489919B1 (en) Calibration system of visual sensor
US8095237B2 (en) Method and apparatus for single image 3D vision guided robotics
US6816755B2 (en) Method and apparatus for single camera 3D vision guided robotics
JP6740288B2 (en) Object inspection apparatus, object inspection system, and method for adjusting inspection position
CN111278608B (en) Calibration article for 3D vision robot system
JPS61281305A (en) Articulated robot control device
JP6869159B2 (en) Robot system
CN113021358A (en) Method and device for calibrating origin of coordinate system of mechanical arm tool and electronic equipment
CN110171009A (en) A kind of robot handheld teaching apparatus based on stereoscopic vision
JPH03213251A (en) Workpiece position detecting device
JPH07120211B2 (en) Coordinate alignment method in intelligent robot
JPH01193902A (en) Coordinate system calibration method for robot with hand vision
JPH05312521A (en) Target mark
JP2678002B2 (en) Coordinate system calibration method for a robot with vision
JPH0679671A (en) Method and device for guiding gripping means of robot
JPH04211807A (en) Robot installation error estimation method and device, robot drive control method, workbench with standard, and standard
JP2616225B2 (en) Relative positioning method
JPH0588721A (en) Articulated robot controller
JPH01205994A (en) Visual recognition device for robot
CN114535825A (en) Laser marking vehicle identification code system based on manipulator
JPH012104A (en) Robot positioning error correction method
JPH03270890A (en) Work grasp control device with visual sensor