[go: up one dir, main page]

JPS6015780A - Robot - Google Patents

Robot

Info

Publication number
JPS6015780A
JPS6015780A JP58123260A JP12326083A JPS6015780A JP S6015780 A JPS6015780 A JP S6015780A JP 58123260 A JP58123260 A JP 58123260A JP 12326083 A JP12326083 A JP 12326083A JP S6015780 A JPS6015780 A JP S6015780A
Authority
JP
Japan
Prior art keywords
image
robot
distance
detector
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP58123260A
Other languages
Japanese (ja)
Other versions
JPH0425583B2 (en
Inventor
Takanori Ninomiya
隆典 二宮
Yasuo Nakagawa
中川 泰夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP58123260A priority Critical patent/JPS6015780A/en
Publication of JPS6015780A publication Critical patent/JPS6015780A/en
Publication of JPH0425583B2 publication Critical patent/JPH0425583B2/ja
Granted legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PURPOSE:To attain a perfect visual feedback by performing the arm control of a robot by using the distance (distance picture) between each point of an object and a certain fixed point and a picture obtained on the robot arm to detect the 3-dimensional position, posture and form of the object. CONSTITUTION:A distance picture detector 19 obtains the distance picture of the object 11 and sends it to an image processor 21. The processor 21 also receives a picture viewed from the robot arm side from a picture detector 20 set on the arm 17. Based on both pictures, the form, position and posture of the object 11 are recognized respectively. The control signal is sent to a robot controller 18 to perform the visual feedback control so that the arm 17 is corrected to be at a correct position to the object 11. The processor 21 differentiates the distance picture signal to produce a jump edge picture and separates the object 11 into the areas closed by the jump edge for the recognition of the object 11. Thus the centroid and inclination of an important plane are also detected from the separated areas.

Description

【発明の詳細な説明】 〔発明の利用分野〕 本発明は、ロボットにより組立、検査、調整等各種作業
を行う上で必要となる対象物体の有無2位置、姿勢1作
業範囲内の空間的状況を認識できるロボットに関するも
のである。
[Detailed Description of the Invention] [Field of Application of the Invention] The present invention relates to the presence or absence of a target object necessary for performing various operations such as assembly, inspection, and adjustment by a robot. This is about a robot that can recognize.

〔発明の背景〕[Background of the invention]

ロボット視覚として物体の位置、姿勢を認識するものと
しては、第1図に例示するようIC作業テーブル1上に
像検出器3を置き、周辺から照明器4で作業テーブル上
を照明し、像を検出する。そして対象物の位置、姿勢を
認識し、その情報に従い、四ボットアーム2が動作する
To recognize the position and orientation of an object using robot vision, an image detector 3 is placed on an IC work table 1 as shown in FIG. To detect. Then, the position and orientation of the object are recognized, and the four-bot arm 2 operates according to that information.

この方法においては、テーブル平面上の物体の平面上に
おける位置、姿勢が認識できるが、立体的な形状の認識
はできない。例えば、テーブル上に山積みされた物体に
対し、各物体の傾き情報に従って、その物体のグリップ
面に合致するようロボットアームを傾けて、物体にアプ
ローチするということはできない。また、対象物と作業
テーブルの間にコントラスト(濃淡の違い)が明瞭に存
在しないと、テーブル平面上での位置、姿勢も決定でき
ない。
In this method, the plane position and orientation of an object on the table plane can be recognized, but the three-dimensional shape cannot be recognized. For example, it is not possible to approach objects piled up on a table by tilting the robot arm so as to match the grip surface of the object according to the inclination information of each object. Furthermore, unless there is a clear contrast (difference in shading) between the object and the work table, the position and orientation on the table plane cannot be determined.

一方、ロボットの手先に視覚装置を付け、フィードバッ
クするものがある。第2図は、その例であり、溶接ヘッ
ド7で溶接を行う溶接線5をトラッキングするものであ
る。これは、スリット元投光器6をロボットアーム2の
先端につけ、溶接線上にスリット光8を投光する。そし
てその像をロボットアームの先端につけた像検出器6で
ななめ方向から検出し、浴接線の位置ヲ求メ、これの目
標値からのずれがゼロとなるようにロボットアームを制
御するものである。
On the other hand, some robots have visual devices attached to their hands to provide feedback. FIG. 2 is an example of this, in which a welding line 5 to be welded by a welding head 7 is tracked. In this case, a slit source light projector 6 is attached to the tip of the robot arm 2, and a slit light 8 is projected onto the welding line. The image is then detected from a diagonal direction with an image detector 6 attached to the tip of the robot arm, the position of the bath tangent is determined, and the robot arm is controlled so that the deviation from the target value is zero. .

しかし、この方式では溶接線の位置、すなわち溝状の対
象の位置の検出しかできず、対象物の3次元的な位置、
姿勢を認識し、組立、検査。
However, this method can only detect the position of the weld line, that is, the position of the groove-shaped object;
Recognize posture, assemble, and inspect.

調整等の作業をすることはできない。It is not possible to perform adjustments or other work.

〔発明の目的〕[Purpose of the invention]

本発明の目的は、上記した従来技術の欠点をなくし、対
象物体の姿勢、形状にかかわらず、対象物体の形状1位
置、姿勢をロボットの座標系で認識し、作業出来るよう
にしたロボットを提供することにある。
An object of the present invention is to eliminate the drawbacks of the prior art described above, and to provide a robot that can work by recognizing the shape, position, and orientation of a target object in the robot's coordinate system, regardless of the orientation and shape of the target object. It's about doing.

〔発明の概要〕[Summary of the invention]

本発明は、ロボットの持つある固定された座標系の時点
の点に、その位置から対象物体表面各点までの距離の情
報、すなわち距離画像を検出する検出器を設け、作業対
象全体の距離画像を検知し、検知した距離画像をイメー
ジプロセッサを用いて、二次元的′な微分を行って対象
物体の輪郭を検出し、この輪郭で分離された部分とその
部分に対応する距離画像から得られる距離から三次元的
に配置された対象物を発見、その位置、姿勢および形状
を認識し、その結果をロボットアームの制御装置に伝送
し、対象物体の三次元的に定められた方向よりロボット
アームが接近するよう制御し、さらに、ロボットアーム
上に取付けられた画像検出器より、再度対象物体の位置
、姿勢を前記の距離画像の検出器より良い精度で検知し
、ロボットアームに補正□をかげ、最終的にロボットが
三次元的に任意の位置、姿勢を持つ作業対象物に対して
位置決め精度よ(作業できるようにすることを要旨とす
る。
The present invention provides a detector that detects distance information, that is, a distance image, from a point in a fixed coordinate system of the robot to each point on the surface of the target object, and a distance image of the entire work target. The detected distance image is then differentiated two-dimensionally using an image processor to detect the outline of the target object, and the area separated by this outline and the distance image corresponding to that area are obtained. Discover objects placed three-dimensionally from a distance, recognize their positions, postures, and shapes, transmit the results to the robot arm control device, and move the robot arm from the three-dimensional direction of the target object. Then, the image detector mounted on the robot arm detects the position and orientation of the target object again with better accuracy than the distance image detector described above, and sends the robot arm a correction □. The ultimate goal is to enable the robot to work on a workpiece with arbitrary three-dimensional positions and orientations with high positioning accuracy.

〔発明の実施例〕[Embodiments of the invention]

以下、本発明を図面により詳細に説明する。 Hereinafter, the present invention will be explained in detail with reference to the drawings.

まず、本発明における処理内容について説明する。前述
したように、処理内容はロボットの座標系の固定された
点から作業対象全体の距離画像を検出し、対象物体の発
見とその位置、姿勢を認識する第1の段階と、第1の段
階よりの結果を用いてロボットアームを対象物体IC接
近させた後、ロボットアーム上の画像検出器より ゛の
画像を用いてさらに正確な対象物の位〜、姿勢を検出す
る第2の段階より成る(第13図)。
First, the processing contents in the present invention will be explained. As mentioned above, the processing consists of the first step of detecting a distance image of the entire work object from a fixed point in the robot's coordinate system, discovering the target object, and recognizing its position and orientation; The second step consists of moving the robot arm closer to the target object IC using the results of , and then detecting the position and orientation of the target more accurately using the image of ゛ from the image detector on the robot arm. (Figure 13).

第1の段階で検出する距離画像9は、第3図に示すよう
に、その11M1像の各点の値Viノか、対象物11表
面上の対応する点Pりと検出器10との距離l!的に対
して ■す=飲り十〇 ・・・(]) 放:非零の定数、 C:定数 なる線形の関係を持った画像である。したがって、特に
Kが負数の場合、■りは対象物表面の各点の高さを表わ
したものと見なすことができる。さて、第4図のように
、いくつかの物体が折り重なっている状態を、真上より
距離画像の検出器でとらえた場合を規定すると、これに
対応して第5図のような距離画像9が検出される。
As shown in FIG. 3, the distance image 9 detected in the first stage is determined by the value Vi of each point of the 11M1 image or the distance between the corresponding point P on the surface of the object 11 and the detector 10. l! ■su to the target = 10 drinks...(]) Release: non-zero constant, C: constant It is an image with a linear relationship. Therefore, especially when K is a negative number, the square can be regarded as representing the height of each point on the surface of the object. Now, if we define a case where several objects are folded one on top of the other and captured by a distance image detector from directly above, as shown in FIG. 4, then a distance image 9 as shown in FIG. is detected.

この第5図よりも明らかなように、物体と物体もしくは
物体と背景の境界線では、一般に検出器までの距離が急
激に変化するため、距離画像の値も急激に変化する。距
離画像ではこのような境界線をジャンプエツジと呼ぶ。
As is clear from FIG. 5, since the distance to the detector generally changes rapidly at the boundary line between objects or between objects and the background, the value of the distance image also changes rapidly. In distance images, such boundaries are called jump edges.

この変化を画像の2次元的な微分を用いて検出すると、
第6図のようになる。画像の2次元的な微分には何種類
かの方式が知られているが、ここでは第7図に示す画像
上の点(’l))の微分値dりをとする様な演算である
。但し、(番、))は検出器と対象物との距離方向に垂
直な面の直交座標とする。得られた微分画像をある固定
閾値で2値化すると、第8図に示すようなジャンプエツ
ジ画像が得られる。同図において、黒線はジャンプエツ
ジ12を表わし、これは物体の輪郭線に対応することは
前述した通りである。したがって、ジャンプエツジ12
に囲まれた領域は、物体一つ一つに対応し、それぞれの
領域を画像上で分離抽出することによって、物体を画像
上で分離できる。
When this change is detected using two-dimensional differentiation of the image,
It will look like Figure 6. Several methods are known for two-dimensional differentiation of images, but here we will use a calculation that calculates the differential value d of the point ('l)) on the image shown in Figure 7. . However, (number, )) is the orthogonal coordinate of a plane perpendicular to the distance direction between the detector and the object. When the obtained differential image is binarized using a certain fixed threshold value, a jump edge image as shown in FIG. 8 is obtained. In the figure, the black line represents the jump edge 12, which corresponds to the outline of the object as described above. Therefore, jump edge 12
The areas surrounded by correspond to each object, and by separating and extracting each area on the image, the objects can be separated on the image.

以上のようにして分離抽出した各物体に対応する領域R
から、その面積Sおよび領域の平均的な高さHlすなわ
ち について なる判定基準に合致した領域を、目的とする対象物体の
領域として抽出する。S、、Slは対象とする物体をあ
る平面上に投影した場合の面積の変動範囲の上限および
下限、l−1+、Hzは対象とする物体が存在すると予
想される高さの上限値と下限値で、それぞれ、予め設定
しておく値である。このようにして分離された対象物体
の画像上での領域の形状は、一般に一定の形状を示さな
い。すなわち、この形状はある平面に対して投影された
対象物体の2次元的な形状であってたとえば対象物体の
立体的な形状が直方体である場合、第9図に示すように
その姿勢により長方形または六角形になる。本発明では
対象物体の立体的な形状2位置、姿勢を認識するため、
対象物体がいくつかの平面で構成されていると考え、平
面と平面の交線、すなわち陵線を検出する。陵線は、距
離画像上では第10図に示すように値の変化率が変化す
る点、すなわち画像の2次微分値が極値をもつ点に対応
する。このような線群を距離画像においてはハーフエツ
ジ13と呼ぶ。画像の2次微分法には種々の方法がある
が、ここでは 上の整数であり、rりの値は、着目点(’*J’ )の
距離画像値Vす°の傾き角度の変化に対応する。
Region R corresponding to each object separated and extracted as above
, the area S and the average height Hl of the area, that is, the area that meets the criteria, is extracted as the area of the target object. S,, Sl are the upper and lower limits of the area variation range when the target object is projected onto a certain plane, and l-1+, Hz are the upper and lower limits of the height at which the target object is expected to exist. Each value is a value set in advance. The shape of the area on the image of the target object separated in this way generally does not have a constant shape. In other words, this shape is the two-dimensional shape of the target object projected onto a certain plane. For example, if the three-dimensional shape of the target object is a rectangular parallelepiped, it may be rectangular or rectangular depending on its orientation as shown in Figure 9. It becomes a hexagon. In the present invention, in order to recognize the three-dimensional shape two positions and postures of the target object,
Assuming that the object is made up of several planes, we detect the intersection lines between the planes, that is, the ridge lines. The ridge line corresponds to a point on the distance image where the rate of change in value changes, as shown in FIG. 10, that is, a point where the second-order differential value of the image has an extreme value. Such a group of lines is called a half edge 13 in a distance image. There are various methods for the second-order differential method of images, but here we use the upper integer, and the value of r is determined by the change in the inclination angle of the distance image value V° of the point of interest ('*J'). handle.

つぎに式(5)を用いて演算された2次微分画像をある
閾値に従って2値化することにより、ルーフエツジ15
を検出する。式(5)に示した演算は、 。
Next, by binarizing the quadratic differential image calculated using equation (5) according to a certain threshold, the roof edge 15
Detect. The operation shown in equation (5) is as follows.

検出した距離画像全体にわたってほどこしてもよいが、
先に分離抽出した、対象物体の領域のみで演算した方が
、処理時間の短縮につながる。
It may be applied over the entire detected distance image, but
Performing calculations only on the region of the target object that was previously separated and extracted leads to a reduction in processing time.

以上のような処理を経て検出された対象物体のジャンプ
エツジ12.ハーフエツジ13よりなる画像は、例えば
第10図に示したかだむいた直方体の距離画像の場合、
第11図のようになる。
Jump edge 12 of the target object detected through the above processing. For example, in the case of a distance image of an enlarged rectangular parallelepiped shown in FIG. 10, an image consisting of half edges 13 is
It will look like Figure 11.

ジャンプエツジ12およびハーフエツジ13に囲まれた
領域は物体を構成する個々の面に対応するから領域を画
像上で分離し7、最も面積の大きな領域14を抽出する
ことによって、物体を構成する主要な面15の1つを取
り出すことができる。
Since the regions surrounded by jump edges 12 and half edges 13 correspond to individual faces that make up the object, the regions are separated on the image 7, and by extracting the region 14 with the largest area, the main parts that make up the object are extracted. One of the faces 15 can be taken out.

次にこの領域に対して平面近似を行う。すなわち請求め
る平面方程式を tIx+% y 十ts =z ・= (61とし、領
域内m個の点の距離画像より検出された。zyz座標を
(aftx 、a4 、hi ) ’1==1.2 ・
・・−とすれば式(6)のtl Itm Itmは、(
tk)を行とする行列tとして、 t = (ATA )−’ ATS ・・・(7)と計
算される。ここにAは(α#1.α!、、1.0)を行
とする行列、bは(hrt)を行とする行列、′は転置
行列、−8は逆行列を表わす。またxyz座標(αkl
、α#、、りは、距離画像上の座標Ci、j)および距
離画像の値■す゛に線形変換をほどこし次の(8)式と
してめられる。
Next, plane approximation is performed for this region. That is, the plane equation that can be claimed is tIx + % y + ts = z ・= (61, detected from the range image of m points in the area.Zyz coordinates are (aftx, a4, hi) '1 = = 1.2・
...-, then tl Itm Itm in equation (6) is (
tk) is a matrix t whose rows are t = (ATA)-' ATS (7). Here, A is a matrix whose rows are (α#1.α!, 1.0), b is a matrix whose rows are (hrt), ' is a transposed matrix, and -8 is an inverse matrix. Also, the xyz coordinates (αkl
, α#, , ri can be expressed as the following equation (8) by performing linear transformation on the coordinates Ci, j) on the distance image and the value ゛ of the distance image.

これは検出画像上の座標から検出系の実座標への変換処
理であり、乃jp! xll eq+ z’lt *q
sは検出器の検出分解能等より決定される定数である。
This is a conversion process from the coordinates on the detected image to the actual coordinates of the detection system. xll eq+ z'lt *q
s is a constant determined based on the detection resolution of the detector, etc.

このようにしてめた対象とする物体の主要な平面15の
近似式(6)より、この物体の3次元的な姿勢はその主
要な平面の法線方向16の2軸とのなす角ψと法線のx
y平面への投影とX軸とのなす角θを用いて θ−tan−’ −!−! tl ・・、−(II と表わされる(第12図)。法線の方向がめられれば、
この方向から見た主要な平面の形状を簡単な座標変換で
めることができ、変換後の形状より、従来の平面的な画
像処理技術を用いた対象物体形状、姿勢の認識も可能で
ある。
From the approximation equation (6) for the principal plane 15 of the target object obtained in this way, the three-dimensional posture of this object is determined by the angle ψ between the two axes in the normal direction 16 of the principal plane. normal x
Using the angle θ between the projection onto the y plane and the X axis, θ-tan-' -! -! It is expressed as tl..., -(II (Fig. 12).If the direction of the normal line is determined,
The shape of the main plane seen from this direction can be determined by simple coordinate transformation, and from the transformed shape, it is also possible to recognize the shape and orientation of the target object using conventional planar image processing technology. .

また対象物体の位置は、主要な平面の重心位置(”o*
yoyq)として次の0υ式によりめられる。
In addition, the position of the target object is the center of gravity of the main plane ("o*
yoyq) is determined by the following 0υ formula.

ここで−は領域内での平均を表わす。また、この場合の
平均は領域内のm個点に限らず、領域全面にわたってめ
れば、精度の良いものとなる。
Here, - represents the average within the area. In addition, the average in this case is not limited to m points within the region, but can be calculated over the entire region to obtain a more accurate one.

さて、以上説明した第1の段階による処理結果、すなわ
ち、対象物体の主要な平面の重心の位置(而、S、ち)
および法線の方向ψ、θは、検出系の座標系によるもの
であり、この座像系は一般にロボットアームの座標系と
異なるから、これらの値を用いて直接ロボットアームな
制御することはできない。このために、ロボットアーム
の座標系に座標変換する。ロボットアームの制御系の方
式により、直角座標系、円筒座標系、極座標系など種々
の座標系が考えられるがこれらの座標系への変換は、線
型式数学の公式より公知である。
Now, the processing result of the first stage explained above, that is, the position of the center of gravity of the main plane of the target object (S, C)
The directions ψ and θ of the normal line are based on the coordinate system of the detection system, and since this sitting image system is generally different from the coordinate system of the robot arm, the robot arm cannot be directly controlled using these values. For this purpose, the coordinates are transformed into the coordinate system of the robot arm. Depending on the control system of the robot arm, various coordinate systems such as a rectangular coordinate system, a cylindrical coordinate system, and a polar coordinate system can be considered, and conversion to these coordinate systems is well known from linear mathematical formulas.

なお、以上説明した第1の段階の各処理過程において、
式+21 、 +51 、 +71など演算方式を限定
したが、同様の機能を有する他の演算方式を用いても良
いことは勿論である。
In addition, in each process of the first stage explained above,
Although the calculation methods are limited to formulas +21, +51, +71, etc., it goes without saying that other calculation methods having similar functions may be used.

つぎにロボットアーム上に設けた画像検出器がめられた
対象物体の主要な平面の重心位置に立てた法線方向から
物体を検出できるよう、ロボットアームを制御する。
Next, the robot arm is controlled so that the image detector installed on the robot arm can detect the object from the direction normal to the center of gravity of the main plane of the target object.

以降、ロボットアーム上から画像を検出し、ロボットア
ームと対象物体の位置関係を更に正確に検出し、ロボッ
トアームの正確な作業へと導く処理の第2の段階へ移行
する。ロボットアーム上の画像検出器20は、第1の段
階で使用した距離画像検出器より高分解能のものを用い
るが、第1の段階で対象物体が発見されているのでその
検出視野は小さくてよい。検出画像としては、第1の段
階と同様、距離画像を検出し類似の処理を行うもの、2
次元濃淡画像を検出、処理するもの、その2値画像を処
理するもの、スリット光による光切断法を応用した方法
など種々のものが考えられるが、いずれを用いても良い
Thereafter, the image is detected from above the robot arm, the positional relationship between the robot arm and the target object is detected more accurately, and the process moves to the second stage of the process, which leads to accurate work of the robot arm. The image detector 20 on the robot arm has a higher resolution than the distance image detector used in the first stage, but since the target object has been discovered in the first stage, its detection field of view can be small. . As the detected images, as in the first stage, a distance image is detected and similar processing is performed;
Various methods can be considered, such as a method that detects and processes a dimensional grayscale image, a method that processes a binary image thereof, a method that applies a light cutting method using slit light, and any of these methods may be used.

次に以上説明した処理内容を実現する装置の具体例につ
いて説明する。第13図に全体構成の概略を示す。同図
に示すように、装置はロボットアーム17およびロボッ
ト制御装置18よりなるロボット系、距離画像検出器1
9、ロボットアーム上の画像検出器20、イメージプロ
セッサ21からなる視覚系よりなる。
Next, a specific example of an apparatus that implements the processing contents described above will be described. FIG. 13 shows an outline of the overall configuration. As shown in the figure, the device includes a robot system consisting of a robot arm 17 and a robot control device 18, and a distance image detector 1.
9, a visual system consisting of an image detector 20 and an image processor 21 on the robot arm.

まず、ロボット系について第16図を用いて説明する。First, the robot system will be explained using FIG. 16.

17は産業用ロボットで、例えば5自由度を有する関節
形ロボットである。産業用−ボット17はベース22に
対して垂直軸を中心に旋回する旋回台17α、水平軸2
5αを中心に回転する上腕17b、その先に水平軸23
Aを中心に回転する前腕17C1その先に水平軸23a
を中心に回転し、更にこの水平軸25Cに直角な軸を中
心に回転する手首17dとから構成されている。この手
首17dには指(チャック)25を付けた手機構24が
備え付けられている。ロボットアーム上に取り付ける画
像検出器200.、これらのうちいずれの部位に取り付
けてもよいが、ロボットを動作させ、最も適切な方向よ
り画像検出するためには、手機構24上に取り付けるこ
とが望ましい。
17 is an industrial robot, for example, an articulated robot having five degrees of freedom. Industrial - The bot 17 has a swivel base 17α that rotates around a vertical axis with respect to a base 22, and a horizontal axis 2.
Upper arm 17b rotating around 5α, horizontal axis 23 at the end
Forearm 17C1 rotating around A, horizontal axis 23a at the end
and a wrist 17d that rotates around an axis perpendicular to the horizontal axis 25C. A hand mechanism 24 with fingers (chuck) 25 is attached to the wrist 17d. Image detector 200 mounted on the robot arm. Although it may be attached to any of these locations, it is desirable to attach it to the hand mechanism 24 in order to operate the robot and detect images from the most appropriate direction.

18はロボットを制御するロボット制御装置である。18 is a robot control device that controls the robot.

次に第14図に従ってロボット制御装置18について説
明する。ロボット制御装置18は5自由度をもった関節
形ロボット17を制御するための制御ユニット26とロ
ボットをポイント、ツー、ポイントでブーグラムされた
速度にもとづいて所定の軌跡に沿って動作または動かす
ために、予めプログラムされた軌跡および速度の情報を
教示するための教示ユニット27とによって構成されて
いる。制御ユニット26とロボット機構17は位置制御
システムを構成している。この位置制御システムは、ア
クチュエータMに連結されたパルスエンコーダPEによ
って発生された出力パルスをカウンタ28で計数して制
御ユニット26にフィードバックし、マイクロプロセッ
サ29によって予め定められている目標値あるいは外部
より与えられた所望の座標値との相違のディジタル信号
を検出し、このディジタル信号をD/A変換器30でア
ナログ信号に変換し、アクチュエータMを駆動するよう
に構成している。
Next, the robot control device 18 will be explained according to FIG. The robot controller 18 includes a control unit 26 for controlling the articulated robot 17 having five degrees of freedom, and a control unit 26 for operating or moving the robot along a predetermined trajectory based on the velocity programmed from point to point. , and a teaching unit 27 for teaching pre-programmed trajectory and speed information. The control unit 26 and the robot mechanism 17 constitute a position control system. This position control system counts output pulses generated by a pulse encoder PE connected to an actuator M with a counter 28 and feeds them back to a control unit 26, and a target value predetermined by a microprocessor 29 or given from the outside. The system is configured to detect a digital signal that is different from the desired coordinate value, convert this digital signal into an analog signal by a D/A converter 30, and drive the actuator M.

駆動回路31はアクチュエータMに接続されたタコジェ
ネレータTGからの速度信号とD/A変換器30からの
アナログ信号にもとづいてアクチュエータMを駆動する
回路である。シリアルインターフェース32は教示ユニ
ット27と接続するためのものである。ROM33はロ
ボットを動作させるためのプログラムを収納したメモリ
ーである。
The drive circuit 31 is a circuit that drives the actuator M based on a speed signal from a tacho generator TG connected to the actuator M and an analog signal from the D/A converter 30. The serial interface 32 is for connecting with the teaching unit 27. The ROM 33 is a memory that stores programs for operating the robot.

RAM34は、教示ユニット27に用いて行う教示操作
による情報、またはインタフェース35を介して入力さ
れるイメージプロセッサ29よりの動作情報を演算部3
6により補間演算した結果であるロボットの手機構24
の動作軌跡を記憶するものである。37はパスラインで
ある。
The RAM 34 inputs information from a teaching operation performed using the teaching unit 27 or operation information from the image processor 29 input via the interface 35 to the calculation unit 3.
The robot hand mechanism 24 is the result of interpolation calculation using 6.
This is to store the movement locus of the movement. 37 is a pass line.

11AM34に記憶された四ボットの手機構24の位置
データがマイクロプロセッサ29によって読み出され、
カウンター28より検出される回転変位θ1.θ1.・
・・θ、に座標変換し、所望あるいは目標位置(例えば
視覚系より入力される対象物体位置)へロボットの手機
構24を駆動させる。
11AM The position data of the four-bot hand mechanism 24 stored in the 34 is read out by the microprocessor 29,
The rotational displacement θ1 detected by the counter 28. θ1.・
... θ, and drives the hand mechanism 24 of the robot to a desired or target position (for example, the target object position input from the visual system).

以上の四ボット系の説明は5自由度を持つロボットに限
定したが、他の自由度例えば6自由度のロボットについ
ても同様に構成できる。本発明においては、特に自由度
についての限定を。
Although the above description of the four-bot system is limited to robots with five degrees of freedom, robots with other degrees of freedom, for example, six degrees of freedom, can be configured in the same way. In the present invention, the degree of freedom is particularly limited.

行うものではない。It's not something you do.

次に本実施例のもう一つの構成要素である視覚系につい
て説明する。
Next, the visual system, which is another component of this embodiment, will be explained.

距離画像検出器19の一実施例を第15図に示す。An embodiment of the distance image detector 19 is shown in FIG.

同図に示すように検出器は、対象物11の上方か。Is the detector above the object 11 as shown in the figure?

らスリット光38を投光するスリット光源39と、スリ
ット光38と対象物11の交線、すなわちスリット輝線
の光学像をななめ方向より検出する撮像器40とこれら
の位置関係を保ったまま、水平方向に定速で駆動する送
り装置41、および撮像器40で検出されたスリット輝
線を画像上から分離抽出し、その形状を波形信号として
出力する光切断線抽出装置42より成る。この動作を第
16図〜第20図を用いて説明すると、スリット光38
が対象物11に対して第16図に示す位置に当っている
とする。そうすると撮像器40にて検出される画像は、
例えば第17図のようになる。この画像上において縦方
向の線、例えばmABに沿った明るさの変化は、第18
図のようになる。この線ABに沿った明るさで最も明る
い点の位置(第18図ではC)を、順次線ABをi方向
に動かして抽出して行くと、第19図のようにスリット
輝線の形状を波形信号として取り出すことができる。
The slit light source 39 that emits the slit light 38 from the slit light source 39 and the image pickup device 40 that detects the optical image of the intersection line of the slit light 38 and the object 11, that is, the slit bright line from a diagonal direction, are placed horizontally while maintaining their positional relationship. It consists of a feeding device 41 that is driven at a constant speed in the direction, and a light cutting line extraction device 42 that separates and extracts the slit bright line detected by the imager 40 from the image and outputs its shape as a waveform signal. To explain this operation using FIGS. 16 to 20, the slit light 38
Suppose that the object 11 is in contact with the position shown in FIG. 16. Then, the image detected by the imager 40 is
For example, it becomes as shown in FIG. The change in brightness along the vertical line, for example mAB, on this image is the 18th
It will look like the figure. By sequentially moving line AB in the i direction and extracting the position of the brightest point (C in Figure 18) along this line AB, the shape of the slit bright line can be changed into a waveform as shown in Figure 19. It can be taken out as a signal.

この形状は、対象物11の断面の形状を示している。以
上の波形信号の分離抽出は、第15図の光切断線抽出装
M42により行われる。この光切断線抽出装置42の具
体例は、例えば特開昭56−70407号に開示されて
いる。
This shape indicates the cross-sectional shape of the object 11. The separation and extraction of the waveform signals described above is performed by the optical cutting line extraction device M42 shown in FIG. A specific example of this optical cutting line extraction device 42 is disclosed in, for example, Japanese Patent Laid-Open No. 70407/1983.

即ち第26図に示す如く光切断線抽出装置42は像検出
器からの映像信号V、設定値\、へ(〜〉鳩)、及び像
検出器の各走査のトリガー信号Hd(TVカメラの場合
、水平同期信号)を入力とし、最大値位置検出回路57
と中心位置検出回路58と選択回路59で構成される。
That is, as shown in FIG. 26, the optical cutting line extraction device 42 receives the video signal V from the image detector, the set value \, and the trigger signal Hd for each scan of the image detector (in the case of a TV camera). , horizontal synchronization signal) as input, and the maximum value position detection circuit 57
, a center position detection circuit 58 , and a selection circuit 59 .

その機能は、第27図(α)に例示するように、まず、
映像信号の最大IK Vmaxが、第1と第2の設定値
ことへの範囲内に入っている場合、最大値位置検出回路
7によりそのy位置Yをめめる。また、Vmaxがζ 
より大きい時、(第27図Cb)の場合)は、中心位置
検出回路58により最初に■=v1となったy位置X、
最後にV=又となったy位置へをめ、さらに1’ =(
Yt +Yt )Aとして、その中心位置をめる。そし
て、1つの走査中にJ路58内で■がへ以上になった場
合は選択回路59は回路58の出力を、他方、■がへ以
上にならなかった場合は、選択回路59は回路57の出
力を、それぞれ光切断線の位置として出力する。また、
■が1つの走査中にV1以上になる事がなかった場合、
選択回路59はゼロあるいは不定出力を出力する。
Its functions, as illustrated in FIG. 27 (α), are as follows:
If the maximum IK Vmax of the video signal is within the range between the first and second set values, the maximum value position detection circuit 7 determines the y position Y. Also, Vmax is ζ
(in the case of FIG. 27Cb)), the y position
Finally, move to the y position where V = again, and further 1' = (
Find the center position as Yt + Yt )A. During one scan, if ■ becomes equal to or greater than or equal to within the J path 58, the selection circuit 59 outputs the output of the circuit 58; on the other hand, if ■ does not become equal to or more than output as the position of the optical cutting line. Also,
If ■ never exceeds V1 during one scan,
The selection circuit 59 outputs zero or an undefined output.

第26図の実施例をより詳細に記したものが第28図で
ある。第28図を使用して、動作内容をより具体的に説
明する。
FIG. 28 shows the embodiment of FIG. 26 in more detail. The contents of the operation will be explained in more detail using FIG. 28.

最大位置検出回路57は、ピークホルダ60.コンパレ
ータ61.ワンショット回路62.アンド回路65.レ
ジスタ64.コンパレータ66およびフリップフロップ
67で構成される。一方、中心位置検出回路58は、コ
ンパレータ68.フリップフロップ69.ワンショット
回路70,71.Y、レジスタ72Y、レジスタ73お
よびアンド回路74で構成される。また、各瞬間でのy
位置を知るためカウンタ65を有している。最大位置検
出回路57では、映像信号■はピークホルダ60に入り
、1つの走査中における、ある瞬間までのVのピーク値
をホールドする。コンパレータ61はこのホールドされ
たピーク値とその瞬間のVとを比較し、■がホールドさ
れたピーク値よりも所定値以上大きくなった時、ワンシ
ョット回路62に信号を出力する。一方、■はコンパレ
ータ66において鳩と比較され、■≧鳩の時出力する。
The maximum position detection circuit 57 detects the peak holder 60 . Comparator 61. One-shot circuit 62. AND circuit 65. Register 64. It is composed of a comparator 66 and a flip-flop 67. On the other hand, the center position detection circuit 58 is connected to the comparator 68. flip flop69. One-shot circuits 70, 71. Y, a register 72Y, a register 73, and an AND circuit 74. Also, y at each moment
It has a counter 65 to know the position. In the maximum position detection circuit 57, the video signal ■ enters a peak holder 60, which holds the peak value of V up to a certain moment during one scan. The comparator 61 compares this held peak value with V at that moment, and outputs a signal to the one-shot circuit 62 when ■ becomes larger than the held peak value by a predetermined value or more. On the other hand, ■ is compared with a pigeon in a comparator 66, and outputs when ■≧pigeon.

これとワンショット回路62の出力のアンドをアンド回
路63でとる事により、■≧V、でかつ■がピークとな
った瞬間を検出する事ができる。これをレジスタ640
四−ド信号として使用し、トリガー信号ntLでリセッ
トされるカウンタ65のその瞬間の値をレジスタ64に
記憶する。従って、−走査の終了時には、映像信号Vが
最大値■mαXを示すy座標の位置Yをホールドしてい
る。
By ANDing this with the output of the one-shot circuit 62 in an AND circuit 63, it is possible to detect the moment when ■≧V and ■ becomes the peak. Add this to register 640
The instantaneous value of the counter 65, which is used as a fourth signal and is reset by the trigger signal ntL, is stored in the register 64. Therefore, at the end of the -scan, the video signal V holds the y-coordinate position Y where the maximum value ■mαX is shown.

中心位置検出回路58では、映像信号Vは、設定値又と
コンパレータ68で比較され、その出力は、フリップフ
ロップ69のセット側Sに入力される。なお、フリップ
フロップ69は、トリガ信号HcLによりリセットされ
る。従って、ワンショット回路70は、一つの走査にお
いて最初に■≧スとなる瞬間を検出する。これをレジス
タ72の四−ド信号として使用することにより、レジス
タ72には最初に■≧ことなったy座標上の位置Xがホ
ールドされる。一方、ワンショット回路71は、■≧へ
でなくなる瞬間を検出しており、これをレジスタ73の
ロード信号として使用すれば、レジスタ73には、一つ
の走査i1時[、V≧ζでな(なるy座標上の位置Y、
がホールドされる。74は、Yr=(鷲十yt )/2
を演算する平均値回路である。
In the center position detection circuit 58, the video signal V is compared with a set value by a comparator 68, and its output is input to the set side S of a flip-flop 69. Note that the flip-flop 69 is reset by the trigger signal HcL. Therefore, the one-shot circuit 70 detects the first moment when ■≧S in one scan. By using this as the fourth signal of the register 72, the register 72 holds the position X on the y coordinate where ■≧different for the first time. On the other hand, the one-shot circuit 71 detects the instant when ■≧ does not hold, and if this is used as a load signal for the register 73, the register 73 will have the following information: [, V≧ζ and ( Position Y on the y coordinate,
is held. 74 is Yr=(washiyt)/2
This is an average value circuit that calculates .

クリップ70ツブ69の出力は、V≧V1なる状態が、
一つの走査中に存在したか否かの検出に使用することが
できる。また、フリップフロップ67は、トリガ信号n
dをリセット信号とし、コンパレータ66の出力をセッ
ト信号としているので、■≧へというケースが一つの走
査中に存在したかどうかの検出に使用する事ができる。
The output of the clip 70 knob 69 is when V≧V1.
It can be used to detect whether it was present during one scan. Furthermore, the flip-flop 67 receives a trigger signal n
Since d is used as a reset signal and the output of the comparator 66 is used as a set signal, it can be used to detect whether the case of ■≧ exists during one scan.

従って、選択回路59では、これらを条件信号とし、■
≧鳩が存在した場合、740ホールド値Y′を、へ〈v
≦鳩であった場合640ホールド値YをV≧V、なるケ
ースがなかった場合、ゼロあるいは不定を表わす信号を
出力する。
Therefore, in the selection circuit 59, these are used as condition signals, and
≧ If there is a pigeon, change the 740 hold value Y' to <v
≦Pigeon, 640 hold value Y is V≧V, and if there is no case, outputs a signal representing zero or indeterminate.

なお、この実施例では、像検出器40.42の詳細につ
いては触れなかったが、これはTVカメラ2次固体撮像
素子、1次元固体撮像素子と光学的走査方式の組合せ、
光電子増倍管等受光器と光学的走査方式の組合せのいず
れであっても良い。
Although details of the image detectors 40 and 42 were not mentioned in this embodiment, they are a combination of a TV camera secondary solid-state image sensor, a one-dimensional solid-state image sensor, and an optical scanning method.
Any combination of a light receiver such as a photomultiplier tube and an optical scanning method may be used.

更に、第26図および第28図の実施例では、各手段を
達成する専用ハードを有するものとして図示したが、こ
れらの手段は、いずれもマイクロ、コンピュータを用い
て、そのプログラムにて処理することができる。
Further, although the embodiments shown in FIGS. 26 and 28 are illustrated as having dedicated hardware for achieving each means, these means can all be processed by a program using a microcomputer. I can do it.

更に送り装置41により定速で少しずつスリット光38
の位置および撮像位置を移動させながら遂次スリット輝
線の形状の波形信号を抽出して行くと、全体として第2
0図に示すように、距離画像9が得られる。
Furthermore, the slit light 38 is sent little by little at a constant speed by the feeding device 41.
By successively extracting waveform signals in the shape of the slit bright line while moving the position and the imaging position, the second waveform signal as a whole is obtained.
As shown in FIG. 0, a distance image 9 is obtained.

本実施例における撮像器40は、TVカメラあるいはり
ニアセンサとガルバノミラ−の組合せ等2次元画像検出
器であれば何でもよ(、本実施例によれば、距離画像を
比較的簡単な構成で高精度に検出できる。
The imager 40 in this embodiment may be any two-dimensional image detector, such as a TV camera or a combination of a linear sensor and a galvano mirror. can be detected.

第21図に距離画像検出器19の他の実施例を示す。同
図に示すように、本実施例は、第15図に示した検出器
の撮像器および光切断線抽出装置を2組組合せた構造を
持つ。すなわち、スリット光38のなす平面に対して、
対称の位置に2台の撮像器40α、40hを設け、やは
り送り装置41によって、スリット光源39を移動させ
る。光切断波形の抽出法は前例と全く同様であるが、本
実施例では得られた波形信号を互いに波形の切れている
部分を補うように合成43シ、距離画r象を生成する。
FIG. 21 shows another embodiment of the distance image detector 19. As shown in the figure, this embodiment has a structure in which two sets of the detector imager and the optical cutting line extraction device shown in FIG. 15 are combined. That is, with respect to the plane formed by the slit light 38,
Two imagers 40α and 40h are provided at symmetrical positions, and the slit light source 39 is also moved by the feeding device 41. The method for extracting the optically cut waveform is exactly the same as in the previous example, but in this embodiment, the obtained waveform signals are synthesized so as to compensate for the cut portions of the waveforms, and a distance image is generated.

ここで波形の切れている部分は、第22図に示すように
スリット輝線が片方の撮像器で検出できない部分44に
対応し、距離画像では一種の影となる。本実施例では前
述のように2方向から検出した波形信号を合成している
ので影の少ない距離画像が得られるという効果がある。
Here, the broken part of the waveform corresponds to a part 44 where the slit bright line cannot be detected by one of the imagers, as shown in FIG. 22, and becomes a kind of shadow in the distance image. In this embodiment, as described above, since waveform signals detected from two directions are combined, there is an effect that a distance image with fewer shadows can be obtained.

なお、距−離画像の検出器として、パルスレーザな対応
する点に照射して、反!′f光の飛行時間を計測するこ
とにより距離画像を生成する方式、レーザ元に高周波振
幅変調をかけて対応する点に照射し、反射光の高周波振
幅の位相遅れ乞計測することにより距離画像を生成する
方式が知られているが、これらを用いても良い。これら
の方式では、対象物各点各点の距離をレーザスポットを
用いて計測しているので、スポットを2次元的に走査す
る機構、例えば2組のガルバノミラ−が8硬であるが、
一方これらは真上より元を当てて、真上より反射光を検
出できるので、見えない部分の無い、つまり死角、影の
無い距離画像を生成できるという利点がある。
In addition, as a detector for the distance image, a pulsed laser is used to irradiate the corresponding point, and the opposite! 'F A method of generating a distance image by measuring the flight time of the light, applying high frequency amplitude modulation to the laser source, irradiating it to the corresponding point, and measuring the phase lag of the high frequency amplitude of the reflected light to create a distance image. There are known generation methods, and these may also be used. In these methods, the distance between each point on the object is measured using a laser spot, so the mechanism that scans the spot two-dimensionally, for example, two sets of galvanometer mirrors, is 8 hard.
On the other hand, these methods have the advantage of being able to illuminate the source from directly above and detect the reflected light from directly above, so that a distance image with no invisible parts, ie, no blind spots or shadows, can be generated.

次に、ロボットアームに取り付ける画像検出器20の実
施例について説明する。
Next, an example of the image detector 20 attached to the robot arm will be described.

第23図は、ロボットアームに取り付ける画像検出器2
0とし′〔の距離画像検出器の実施例である。スリット
光源39より投光されたスリット光38による光切断波
形をTV右カメラ5により検出する。この検出器をロボ
ットの手機構24上に取り付け、手を動かしながら光切
断線を抽出、波形信号を取り込むことによって距離画像
を生成できる。距離画像の処理方法は、前述した固定し
た位置に取り付けられた距離画像の場合と全く同様にで
きる。なお、本実施例の詳細および他の実施例は次のよ
うになる。即ち77は産業用ロボットで、例えば5自由
度を有する関節形ロボットがある。産業用ロボット17
はベース22に対して黍直軸を中心に旋回する旋回台1
7e、水平軸25a−を中心に回転する上腕17h1そ
の先に水平軸23Aを中心に回転する前腕17c1その
先に水平軸25cを中心に回転し、更にこの水平軸23
0に直角な軸を中心に回転する手首17dとから構成さ
れている。この手首17dには指(チャック)25を付
けた手機構24が備え付けられている。この手機構24
には主体形状検出器76が備え付けられている。主体形
状検出器76は光切断ヘッド77と、この光切断ヘッド
77をy軸方向に走査する直線移動機構79と、該直線
移動機構79を駆動するモータ80と、該直線移動機構
79によって走査される光切断へラド77の走査量を基
準位置から検出するロータリエンコーダ等の変位検出器
82とから構成されている。
Figure 23 shows the image detector 2 attached to the robot arm.
This is an example of a distance image detector with 0 and '. The TV right camera 5 detects a light cutting waveform caused by the slit light 38 projected from the slit light source 39. This detector is attached to the hand mechanism 24 of the robot, and a distance image can be generated by extracting the optical cutting line and capturing the waveform signal while moving the hand. The distance image can be processed in exactly the same way as the distance image attached to a fixed position described above. Note that details of this embodiment and other embodiments are as follows. That is, 77 is an industrial robot, for example, an articulated robot having five degrees of freedom. Industrial robot 17
is a rotating base 1 that rotates around the millet axis with respect to the base 22.
7e, an upper arm 17h1 that rotates around a horizontal axis 25a-; a forearm 17c1 that rotates around a horizontal axis 23A; a forearm 17c that rotates around a horizontal axis 25c;
The wrist 17d rotates around an axis perpendicular to 0. A hand mechanism 24 with fingers (chuck) 25 is attached to the wrist 17d. This hand mechanism 24
is equipped with a main body shape detector 76. The main body shape detector 76 is scanned by a light cutting head 77, a linear movement mechanism 79 that scans the light cutting head 77 in the y-axis direction, a motor 80 that drives the linear movement mechanism 79, and a linear movement mechanism 79. The displacement detector 82, such as a rotary encoder, detects the scanning amount of the optical cutting radar 77 from the reference position.

第29図では直線移動機構79として送りネジとナツト
しか描写してないが、実際には摺動機構がある。
Although FIG. 29 only depicts a feed screw and a nut as the linear movement mechanism 79, there is actually a sliding mechanism.

83は上記モータ80を一定速度で駆動するモータ制御
回路である。42は像検出器78から得られる二次元的
映像信号を入力して特開昭56−70407号に記載さ
れているように光切断線を抽出する光切断線抽出回路で
ある。21はイメージプロセッサで、ロボットに最も近
く、且つロボットで作業したい目的物の位置、傾きを検
出するものである。18はロボット17を制御するロボ
ット制御装置である。
83 is a motor control circuit that drives the motor 80 at a constant speed. Reference numeral 42 denotes a light section line extraction circuit which inputs the two-dimensional image signal obtained from the image detector 78 and extracts a light section line as described in Japanese Patent Application Laid-Open No. 70407/1983. Reference numeral 21 denotes an image processor that detects the position and inclination of an object that is closest to the robot and that the robot wants to work on. 18 is a robot control device that controls the robot 17.

第23図は、第29図の実施例における光切断ヘッド7
7をより詳細に示したものである。スリット投光器59
は直線フィラメントのランプ84、スリット85.円筒
レンズ86で構成されでいる。像検出器78は、結像レ
ンズ87.TVカメラ45で構成されている。図中88
は固体′rvカメラ内の2次元アレイセンサのチップを
示したものである。
FIG. 23 shows the optical cutting head 7 in the embodiment of FIG. 29.
7 is shown in more detail. Slit floodlight 59
are straight filament lamps 84, slits 85. It is composed of a cylindrical lens 86. The image detector 78 includes an imaging lens 87. It is composed of a TV camera 45. 88 in the diagram
shows a two-dimensional array sensor chip in a solid-state 'rv camera.

スリット投光器69はランプ84が発生した元の内、ス
リット8♂を投光した直線状の元を、円筒レンズ86に
より平行光線として前方を照射する。
The slit projector 69 uses a linear source emitted from the slit 8♂ of the source generated by the lamp 84 to illuminate the front side as a parallel beam using a cylindrical lens 86.

第26図に示す38は発せられるスリットう℃の面を示
している。像検出器78は、保持部20により、その元
軸がスリット光面38aに斜め(角度α)交わるように
傾けて固定されている。第23図s8hの台形面はスリ
ット光面58(Z中、像検出器78が検出する視野を示
している。この視野内に物体があると、第50図に例示
するように輝線38bが物体表面に生じ、この輝綜像が
像検出器で検出される。第30図はロボット作業の一例
としてワイヤのついたコネクタ部品90の位置、姿勢を
検出し、これを握み、基板91上のピン92にさし込む
作業状況を示している。第31図は第23図に示す像検
出器78の検出画像であり、スリット輝線像として明る
く検出される。この画面は第23図のスリット投光器6
9と像検出器780機何曲間係で明らかなように画面上
が遠く、下が近い遠近関係にある。光切断線抽出回路4
2では、第31図のスリット輝線像を画面上からスリッ
ト輝線までの距離として、光切断線を抽出する。第32
図にその処理例を示す。(詳細には特開昭56−704
07号に開示されている。)第32図(α)は像検出器
78から光切断線抽出回路42に入力する入力画像であ
る。今像検出器78から得られる縦方向の例えば1本の
走査線xiの映像信号は第32図<b>のようになって
いる。これより閾値〜と映像信号を比較し、にの交点の
中心位置Ziをめる。各層についてZiをめ出力すれば
第32図(C)のように光切断線(波形データ)を得る
ことができる。なお、光切断抽出はここに示した閾値処
理で中心をめる他、ピーク位置検出であっても良い。ま
た、この例では、Z軸座標は遠い方を原点としたが、近
い方を原点としても良い。また遠近法に従ってZ軸方向
を座標変換することも容易に可能である。またこの処理
は電気回路で高速に行うことができるが、すべてソフト
ウェア処理であっても良い。
38 shown in FIG. 26 indicates the surface of the emitted slit. The image detector 78 is tilted and fixed by the holding part 20 so that its original axis intersects the slit optical surface 38a obliquely (at an angle α). The trapezoidal surface in FIG. 23 s8h indicates the field of view detected by the image detector 78 in the slit light surface 58 (Z). This bright ridge image is detected by an image detector. Fig. 30 shows an example of robot work in which the position and orientation of a connector part 90 with a wire is detected, the connector part 90 with a wire is grasped, and the This shows the working situation of inserting the pin 92. Fig. 31 is a detection image of the image detector 78 shown in Fig. 23, which is detected brightly as a slit bright line image. 6
9 and the image detector 780.As is clear from the relationship between the number of songs, the top of the screen is far away and the bottom is close. Optical cutting line extraction circuit 4
In step 2, a light cutting line is extracted using the slit bright line image in FIG. 31 as the distance from the screen to the slit bright line. 32nd
The figure shows an example of the process. (For details, see Japanese Patent Application Publication No. 56-704.
It is disclosed in No. 07. ) FIG. 32 (α) is an input image input from the image detector 78 to the optical cutting line extraction circuit 42. The video signal of, for example, one scanning line xi in the vertical direction obtained from the image detector 78 is as shown in FIG. 32<b>. From this, the threshold value ~ and the video signal are compared, and the center position Zi of the intersection of is determined. If Zi is determined and outputted for each layer, an optical cutting line (waveform data) can be obtained as shown in FIG. 32(C). Note that the optical cutting extraction may be performed by detecting the peak position, in addition to centering by the threshold processing shown here. Further, in this example, the far side of the Z-axis coordinate is set as the origin, but the near side may be set as the origin. It is also easily possible to perform coordinate transformation in the Z-axis direction according to the perspective law. Further, although this processing can be performed at high speed using an electric circuit, it may also be entirely performed by software processing.

以上の処理をモータ80により光切断ヘッドを移動させ
ながら行うと距離画像を得ることができる。帛33図に
その例を示す。第33図は光切断線を間引いて表示した
例である。すなわち、xy平面画像として見ると、明る
さZが、)“C切断ヘッド3からの距離Sに対応してい
る。明るい方が近い画像である。(第34図において4
=S。
By performing the above processing while moving the optical cutting head using the motor 80, a distance image can be obtained. An example is shown in Figure 33. FIG. 33 is an example in which the optical cutting lines are thinned out and displayed. That is, when viewed as an xy plane image, the brightness Z corresponds to the distance S from the C cutting head 3. The brighter the image, the closer the image is.
=S.

sinα、 7. = 51tinαで示される。)ヘ
ッドの移動、すなわち、y軸方向の送りは定速モータで
行い、イメージプロセッサ21から得られるサンプリン
グ信号92で光切断線抽出回路42は、一定時間間隔で
光切断線をサンプリングスる。パルスモータ80で送り
ながら一定パルス間隔毎に(一定距離PでZ方向に移動
する間隔毎に)光切断線をサンプリングする。DCモー
タ80とエンコーダ82を組合せ一定斤移動毎にサンプ
リングする等いずれであっても良い。検出する光切断線
の本数は2本以上ロボット視覚の作業対象に応じて選定
すれば良い。ピッチについても同じである。これらはイ
メージプロセッサ21により制御される。イメージプロ
セッサ21に入力された距離画像の処理内容もロボット
視覚の作業対象に応じて選定すれば良い。ここで一実施
例として第30図の作業対象について言えば、得られる
距離画像は第33図のものであり、この距離画像(サン
プリングされた光切断線yi毎にxiに対応した距離の
値Zi )は光切断線抽出回路42から得られパラレル
インターフェース50hを介してイメージメモリ用のI
(AM51αに記憶される。イメージプロセッサ21の
マイクロプロセッサ48は例えば第36図に示すように
隣り合った光切断線yi−1と戸+1に対するxi−1
とxi+ 1について(5X5の絵素について)の距離
1i −1ノー1 、Z!+1.j−1,Zi−1,J
+1.Zi+1.j+1を読み出し、 z= 、; =l Z’ 1 * 7’ I Z蔓+ 
1 #、7’ + ’ l + Iイ:i41.j−1
−イ七i−y、−Jユ具 なる微分を施し、この値がある大きな基準値より大きい
ときジャンプエツジ(物体と背景の境界線)があるとい
うことで上記Zt、ノの値をRAM62の別の領域に記
憶する。更にマイクロプロセッサ48は第35図のよう
に実線(ジャンプエツジ)Ejで囲まれた閉領域をセグ
メンテーションをする。そして各閉領域毎へ、への面積
、重心の高さをめ、これらが指定された範囲内でありか
つ重心の高さが最も高い目的とする対象物を分離抽出す
る。
sinα, 7. = 51tinα. ) Movement of the head, that is, feeding in the y-axis direction, is performed by a constant speed motor, and the optical cutting line extraction circuit 42 samples the optical cutting line at regular time intervals using a sampling signal 92 obtained from the image processor 21. While being fed by the pulse motor 80, the optical cutting line is sampled at constant pulse intervals (at every interval of movement in the Z direction by a constant distance P). Any method may be used, such as combining a DC motor 80 and an encoder 82 and sampling every time a certain amount of loaf is moved. The number of optical cutting lines to be detected may be selected from two or more depending on the work target of the robot vision. The same goes for pitch. These are controlled by the image processor 21. The processing content of the distance image input to the image processor 21 may also be selected depending on the work target of the robot vision. As an example, regarding the work object shown in FIG. 30, the obtained distance image is that shown in FIG. ) is obtained from the optical cutting line extraction circuit 42 and sent to the image memory I through the parallel interface 50h.
(This is stored in the AM 51α. The microprocessor 48 of the image processor 21, for example, as shown in FIG.
and distance 1i −1 no 1 for xi+ 1 (for 5×5 pixels), Z! +1. j-1, Zi-1, J
+1. Zi+1. Read j+1, z= ,; =l Z' 1 * 7' I Z vine +
1 #, 7' + ' l + Ii: i41. j-1
-I7i-y, -J-Yu are differentiated, and when this value is larger than a certain large reference value, there is a jump edge (boundary line between the object and the background), so the above values of Zt and Store in another area. Furthermore, the microprocessor 48 performs segmentation of the closed area surrounded by solid lines (jump edges) Ej as shown in FIG. Then, the area and height of the center of gravity are determined for each closed region, and a target object that is within the specified range and has the highest height of the center of gravity is separated and extracted.

更に例えば第35図に点線で示されるルーフエツジEr
とジャンプエツジEノ°とに囲まれた平面領域を抽出し
、分離抽出された平面領域を平面近似し、その法線方向
を部品の3次元的姿勢として認識する。即ちジャンプエ
ツジとルーフエツジとで囲まれた主要平面の領域を最小
2乗法で平面近似する請求める平面方程式を t、 x−4−t、 y+t、 = z ・・・(6)
とし、距離画像より抽出した主要平面内m個の点のxy
z座標を(arl 、arl、hi ) i = 1.
2.・=、mとすれば式filの’l t’! +’l
は、(す)ノ:=1.2.5を行とする行列tとして、 i = (ATA )−’ AT、6 ・・・(7)と
計算される。ここにAは(α71.αr2,1.0 )
を行とする行列、bは(bi)を行とする行列、Tは転
置行列、−1は逆マトリックスを表わす。
Furthermore, for example, the roof edge Er shown by a dotted line in FIG.
A plane area surrounded by the jump edge E and the jump edge E is extracted, the separated and extracted plane area is approximated as a plane, and its normal direction is recognized as the three-dimensional posture of the part. That is, the plane equation that can be used to approximate the area of the main plane surrounded by the jump edge and the roof edge using the least squares method is t, x-4-t, y+t, = z...(6)
and xy of m points in the principal plane extracted from the distance image
Let the z coordinate be (arl, arl, hi) i = 1.
2.・=, m, then 'l t' of the expression fil! +'l
is calculated as i = (ATA)-' AT, 6 (7), where the matrix t has rows of (su)ノ:=1.2.5. Here A is (α71.αr2, 1.0)
b is a matrix whose rows are (bi), T is a transposed matrix, and -1 is an inverse matrix.

なお主要平面領域の重心位置は、すでにセグメンテーシ
ョンの際にめられている。この主要平面の法線方向は法
線とZ軸のなす角ψと法線のx、y平面への投影とX軸
とのなす角θで表わす。
Note that the position of the center of gravity of the main plane area has already been determined during segmentation. The normal direction of this principal plane is expressed by the angle ψ between the normal and the Z axis, and the angle θ between the projection of the normal on the x, y plane and the X axis.

ψとθは、平面近似の際にめたt(式(6))%式%(
9) 更に第35図に示すようにこのψ、θの値に従って主要
平面のパラメータを回転させ、a” 、y’ 、z’に
変換すれば、法線方向からみた主要平面の形状を認識す
ることができる。
ψ and θ are t (formula (6))% formula% (
9) Furthermore, as shown in Figure 35, by rotating the parameters of the principal plane according to the values of ψ and θ and converting them into a'', y', and z', the shape of the principal plane as seen from the normal direction can be recognized. be able to.

このようにしてマイクロプロセッサ48は、目的とする
物品の主要な面の位置と空間的傾きがロボットの手機構
を基準にしてめろことができる。これがコネクタの表面
であるかどうかを前記に述べたようにその面の大きさ、
形状から検定できる。また付近にワイヤA2のある方向
を検知することにより、その反対側か゛ピンを差し込む
べき方向であることを決定できる。残りの2側面がロボ
ットフィンガーが握むべき面である。なお、イメージプ
ロセラ+/′21の[)M49には、各々ジャンプエツ
ジ検出とセグメンテーションと、目的部品の分離抽出と
ルーフエツジ検出による部品の平面領域の抽出と、平面
の法線方向による部品の3次元的姿勢の認識と、部品の
認識等のプログラムが記憶されている。It/Vv15
1 hは演算部55で計算されたデータを一時記憶する
ものである。9ろはパスラインである。
In this manner, the microprocessor 48 can determine the location and spatial orientation of the major surfaces of the object of interest relative to the robot's hand mechanism. The size of that surface as mentioned above, whether this is the surface of the connector,
It can be verified from the shape. Furthermore, by detecting the direction in which the wire A2 is located nearby, it can be determined that the opposite side is the direction in which the pin should be inserted. The remaining two sides are the surfaces that the robot fingers should grip. Note that [)M49 of Image Processor +/'21 includes jump edge detection and segmentation, extraction of a plane area of a part by separating and extracting a target part and roof edge detection, and three-dimensional analysis of a part by the normal direction of the plane. Programs such as target posture recognition and parts recognition are stored. It/Vv15
1h is for temporarily storing data calculated by the calculation unit 55. The 9th line is the pass line.

そしてイメージプロセッサ21のインターフェース52
から目的物の主要面の位置と姿勢と、方向のデータかロ
ボット制御装置18に送られる。
and the interface 52 of the image processor 21
From there, data on the position, orientation, and direction of the main surface of the object are sent to the robot control device 18.

即ちロボットの指25の握み点、アプローチすべき位置
とその方向が決定されたのでロボット制脚装置18のマ
イクロプロセッサ29はこれらを囮33に記憶されてい
る四ポットアーム制御のデータに加えてロボットの制御
座標系に変換し、D/A変換器30を介して駆動回路3
1に伝達する。ロボット17に備えられた各アクチュエ
ータMが駆動され、ロボット17の指は上記情報を元に
コネクタ90を握み、あらかじめ教示によって与えられ
た位置に存在するピン92にこれを差込む。
That is, since the grip point of the robot's finger 25, the position to approach, and its direction have been determined, the microprocessor 29 of the robot leg restraint device 18 adds these to the four-pot arm control data stored in the decoy 33. It is converted into the control coordinate system of the robot and sent to the drive circuit 3 via the D/A converter 30.
1. Each actuator M provided in the robot 17 is driven, and the fingers of the robot 17 grasp the connector 90 based on the above information and insert it into the pin 92 existing at the position given by the teaching in advance.

なお、本発明の実施例としては、光切断法として定常的
なスリット光を使用したが、これをストロボ発光として
も良い。また本発明の実施例では、スリット光を使用し
たが、片側が明るく他の側が暗い、明暗の直線エツジで
あっても良い。またスリット光圧かわって、スポット光
を光切断面25上を走査させる方式であってもよい。
Note that in the embodiment of the present invention, a steady slit light is used as the light cutting method, but this may be replaced by strobe light emission. Further, in the embodiment of the present invention, a slit light is used, but a bright and dark straight edge, bright on one side and dark on the other side, may also be used. Alternatively, instead of the slit light pressure, a method may be adopted in which the spot light is scanned over the light cutting surface 25.

また距離画像をロボット170手機構24に取付けた光
切断検出ヘッド77から得るためには、第29図に示す
実施例の如く手機構24の先に設けられた検出ヘッド走
査機構によって直線的に走査させる他、ロボット制御装
置1日によってロボットの手機構24をy軸方向に等速
度に移動させながら、その座標値をイメージプロセッサ
21に送ると共に一定間隔Pでサンプリング′1−れば
よいことは明らかである。しかしロボットの手機構24
を平行に移動させて走査する実施例は、第29図に示す
実施例に比べ応答性が悪い。
Further, in order to obtain a distance image from the optical cutting detection head 77 attached to the hand mechanism 24 of the robot 170, the detection head scanning mechanism provided at the end of the hand mechanism 24 scans linearly as in the embodiment shown in FIG. It is clear that in addition to the robot control device, the hand mechanism 24 of the robot can be moved at a constant speed in the y-axis direction, and the coordinate values can be sent to the image processor 21 and sampled at regular intervals P. It is. However, the robot's hand mechanism 24
The embodiment in which scanning is performed by moving in parallel has poorer responsiveness than the embodiment shown in FIG.

また距離画像を光切断検出ヘッドから得るためには、検
出ヘッド走査機構が不可欠であるが、これは実施例第2
9図に示した直線移動機構の細筒67図に例示するよう
に紙面に垂直な回転軸94を中心に回転モータ95によ
り撮像装置とスリット投光器39を揺動させる機構であ
っても、第68図に例示するように、スリット投光器3
9のみを揺動させる機構であっても良い。
In addition, in order to obtain a distance image from the optical cutting detection head, a detection head scanning mechanism is essential, but this is explained in the second embodiment.
67 of the linear movement mechanism shown in FIG. As illustrated in the figure, the slit floodlight 3
A mechanism for swinging only 9 may be used.

この場合距離画像は各回転角に比例せず、三角関数を含
む複雑な関係式になるため、目的とする物体のある平面
の傾き方向、位置をめることが非常に複雑となる。しか
し、物体のある平面の傾き、方向、位置を正確にめる必
要のないときは、上記関係式を近似式でおきかえろれる
ため、走査機構として揺動機構を用いることができる。
In this case, the distance image is not proportional to each rotation angle and becomes a complex relational expression including trigonometric functions, so determining the inclination direction and position of the plane where the target object is located becomes extremely complicated. However, when it is not necessary to accurately determine the inclination, direction, and position of the plane on which the object is located, the above relational expression can be replaced with an approximate expression, and a swinging mechanism can be used as the scanning mechanism.

ただ手機構24に付ける走査機構として直線走査機構よ
り揺動機構の方が機構として簡素化できる。
However, as a scanning mechanism attached to the hand mechanism 24, a swinging mechanism can be simpler as a mechanism than a linear scanning mechanism.

また前述したように距離画像の検出器として光切断法に
よらない方法を用いてもよいことは勿論である。
Furthermore, as described above, it is of course possible to use a method other than the light cutting method as a distance image detector.

第24図は四ボットアームに取り付ける画像検出器とし
ての斜十字スリット光46を用いた検出器の実施例であ
る。本実施例では、2台のスリット光源69α、39h
を斜十字状のスリット光46が一照射できる様に配置し
、2台のスリット光源39α39jSを一つづつ発光さ
せた場合の光切断波形をTV左カメラ5を用いて検出す
る。
FIG. 24 shows an embodiment of a detector using an oblique cross slit beam 46 as an image detector attached to a four-bot arm. In this embodiment, two slit light sources 69α and 39h are used.
are arranged so that the diagonal cross-shaped slit light 46 can be irradiated with them, and the TV left camera 5 is used to detect the light cutting waveform when the two slit light sources 39α39jS are emitted one by one.

゛Tv画像信号より光切断線抽出装置42を用いて波形
信号を抽出し、予めめておいた波形信号値と実際の座標
との対応関係を示すデータ27を用いて対象物までの実
際の距離、姿勢などを検出する。なお、本実施例の詳細
については特願昭57−201931号に記載されてい
る。
゛A waveform signal is extracted from the Tv image signal using the optical cutting line extraction device 42, and the actual distance to the target object is determined using data 27 indicating the correspondence between predetermined waveform signal values and actual coordinates. , detect posture, etc. The details of this embodiment are described in Japanese Patent Application No. 57-201931.

以下に、本発明のロボット視覚装置を用いた物体の位置
検出および姿勢検出の一実施例について説明する。
An example of detecting the position and posture of an object using the robot vision device of the present invention will be described below.

ここでは、説明をわかりやすくするために、第69図に
示した装置構成を例にして説明する。
Here, in order to make the explanation easier to understand, the device configuration shown in FIG. 69 will be explained as an example.

尚、以下の説明は、第40図に示す装置構成においても
全く同様に適用できるものである。
Incidentally, the following explanation can be applied in exactly the same manner to the apparatus configuration shown in FIG. 40.

第59図において、2個のスリット光源101α。In FIG. 59, two slit light sources 101α.

101hをそれぞれ1つずつ発光させた場合、撮像装置
2によって検出される光切断線と物体の実際の位置等幅
線Wと等距離線りとの対応関係は、第41図(α)(b
)に示すように、ななめ格子状になる。この対応関係を
あらかじめ寸法が既知の物体を用いて検出器からの位置
を変えながらめ記憶装置に記憶しておく。そして、物体
の位置姿勢の検出の際には、このあらかじめ記憶されて
いる対応関係と撮像装置102から検出された光切断線
の画像上の位置を照合することによって、物体の実際の
位置と傾きをめることができる。本発明では、2つのス
リット光103α、 i ashを切替えて投光し、2
つの互いに平行でない平面における物体までの距離1位
置および傾きがめられるから、これらにより物体の3次
元的な位置と姿勢を一意的にめることができる。
41 (α) (b)
), it forms a diagonal grid pattern. This correspondence relationship is stored in advance in the memory device using an object whose dimensions are known while changing its position from the detector. When detecting the position and orientation of the object, the actual position and inclination of the object are determined by comparing this pre-stored correspondence with the position on the image of the light cutting line detected by the imaging device 102. can be used. In the present invention, two slit lights 103α and i ash are switched and projected,
Since the distance and inclination of the object in two non-parallel planes can be determined, the three-dimensional position and orientation of the object can be uniquely determined.

なお、本発明では2つのスリット光10′5cL、10
3bの交線106が対象物表面と交わるように検出器ま
たは対象物があらかじめ大まかに位置合せされているも
のとし、本発明のロボット視覚装置を用いて、検出器と
対象物の相対的な位置と姿勢を精密に検出するものとす
る。
In addition, in the present invention, two slit lights 10'5cL and 10
It is assumed that the detector or the object is roughly aligned in advance so that the intersection line 106 of 3b intersects with the object surface, and the relative position of the detector and the object is determined using the robot vision device of the present invention. and posture shall be accurately detected.

つぎに、検出される光切断線の画像上での位置と物体の
実際の位置の対応関係をめる方法について、第42図を
用いて説明する。ここでは第39図に示すスリット光源
101aの場合についてのみ説明するが、第39図に示
すスリット光源101’bおよび第47図参照すスリッ
ト光源101α、101bの場合も同様である。第42
図に示すように、2つのスリット光の交線105がX軸
に一致し、スリット光源101aによるスリット光10
3αがxz平面に一致するような座標系xyzを仮定す
る。まず、第42図に示すように2軸に垂直で撮像装置
102の視野より広い平面106を、X軸方向に平行移
動できるように、目盛付のレール107上に立てる。平
面106をたとえば1CrILきざみで検出器から遠ざ
けながら検出画像上での光切断線の位置をめて行くと、
第43図に示す様な等距離線図が得られる。つぎ忙平面
106を幅一定の長方形とし、このようなものをいくつ
かの幅について用意し、やはりレール107上を2軸に
垂直になるように立ててX軸方向に移動させる。平面1
06のX軸方向に測った幅をたとえば2cmきざみとし
、それぞれの平面106を2軸方向に移動させたとき検
出される光切断線の端点の軌跡をめると、第44図に示
すような等幅線図(X座標に関する)が得られる。第4
3図に示した等距離線・図と第44図に示した等幅線図
において、線図上のある水平の線hh′に沿った距離お
よびx’力方向位置の変化を見ると、それぞれ第45図
、第46図のようになる。これらを線図上の縦方向の座
標ノにおける距離の関数2およびX方向の位置の関数X
として、線図上の機方向の座標番を変数として表わすと
、 z)’=f(i#a)’0+aj 11モaj2i2+
a)’5i” −1−・ (L2x)’−4i#hjO
+bj 1 i十h)’2 i” +hj5i” −f
−−−Qlと近似することができる。何次まで近似する
かは必要とされる検出精度により決定する。線図上のす
べてのノ°(たとえば)°=1〜256)について、a
jn、bjn (n = 0,1,2.−) を以上の
方法であらかじめめておけば、検出された光切断線から
式+11 +21を用いて、逆にその2方向およびIX
方向の位置をめることができる。また、検出対象物を構
成する一平面の傾きをめる場合には、以上の様にしてめ
た光切断線の端点の実際の座標(、y、z ) (z’
 、z’ )より、θx= tan−” 7:コQJ を用いて、その平面とX軸のなす角をめることができる
Next, a method of determining the correspondence between the position of the detected optical cutting line on the image and the actual position of the object will be explained using FIG. 42. Although only the case of the slit light source 101a shown in FIG. 39 will be described here, the same applies to the case of the slit light source 101'b shown in FIG. 39 and the slit light sources 101α and 101b shown in FIG. 42nd
As shown in the figure, the intersection line 105 of the two slit lights coincides with the X axis, and the slit light 10 from the slit light source 101a
Assume a coordinate system xyz such that 3α coincides with the xz plane. First, as shown in FIG. 42, a plane 106 that is perpendicular to the two axes and wider than the field of view of the imaging device 102 is erected on a scaled rail 107 so that it can be moved in parallel in the X-axis direction. By moving the plane 106 away from the detector in increments of, for example, 1 CrIL, the position of the light cutting line on the detected image is determined.
An equidistant diagram as shown in FIG. 43 is obtained. Next, the busy plane 106 is a rectangle with a constant width, and such a rectangle is prepared in several widths, and is also erected perpendicular to the two axes on the rail 107 and moved in the X-axis direction. Plane 1
If the width measured in the X-axis direction of 06 is set in steps of 2 cm, for example, and the locus of the end point of the light cutting line detected when each plane 106 is moved in the two-axis direction, the result will be as shown in Fig. 44. A contour plot (in terms of the X coordinate) is obtained. Fourth
In the equidistant line diagram shown in Figure 3 and the equispaced line diagram shown in Figure 44, if we look at the changes in distance and position in the x' force direction along a certain horizontal line hh' on the diagram, we find that, respectively, The result will be as shown in FIGS. 45 and 46. These are the distance function 2 in the vertical coordinate on the diagram and the function X of the position in the X direction.
If we express the coordinate number in the machine direction on the diagram as a variable, then z)'=f(i#a)'0+aj 11moaj2i2+
a) '5i'' -1-・ (L2x)'-4i#hjO
+bj 1 i 10h)'2 i"+hj5i" -f
---It can be approximated as Ql. The degree of approximation is determined by the required detection accuracy. For all the nodes on the diagram (for example) ° = 1 to 256), a
If jn, bjn (n = 0, 1, 2.-) are determined in advance using the above method, the two directions and I
You can set the direction. In addition, when calculating the inclination of a plane constituting the detection target, the actual coordinates (, y, z ) (z'
, z'), the angle between that plane and the X-axis can be calculated using θx=tan-''7:QJ.

次に検出画像より光切断線を抽出する手段について具体
的に説明する。この場合もやはり第59図に示した片側
のスリット光105αの場合にっいて説明する。撮像装
置102によって撮像した光切断線は、スリット光の幅
や光学系のボケなどにより、一般的にはある幅を持って
いる。そこで、撮像装置102の水平走査方向を第43
図と第44図に示した線hA′の方向(横方向)に一致
させて配置し、各水平走査信号のピーク位置(すなわち
最明点)の座標tを各ノにおける光切断線の位置−とす
る(第47図参照)。このようにして、弐n3 +13
を計算するための光切断線の位置の座標を抽出する。
Next, the means for extracting the optical cutting line from the detected image will be specifically explained. In this case as well, the case of the one-sided slit light 105α shown in FIG. 59 will be explained. The optical cutting line imaged by the imaging device 102 generally has a certain width due to the width of the slit light, the blur of the optical system, etc. Therefore, the horizontal scanning direction of the imaging device 102 is changed to the 43rd horizontal scanning direction.
The coordinates t of the peak position (i.e., the brightest point) of each horizontal scanning signal are set to the position of the light cutting line at each node - (See Figure 47). In this way, 2n3 +13
Extract the coordinates of the position of the optical cutting line to calculate.

次に、本発明のロボット視覚装置による対象物の3次元
的な位置、姿勢の検出過程を第48図に示す円柱状の物
体109および第149図に示す平面上にあいた円形の
穴110σ)検出を例にして説明する。
Next, the process of detecting the three-dimensional position and orientation of an object by the robot vision device of the present invention is as follows: Detection of a cylindrical object 109 shown in FIG. 48 and a circular hole 110σ on a plane shown in FIG. This will be explained using an example.

まず、円柱状の対象物109の位置、姿勢の検出法につ
いて説明する。第40図に示すスリット光103αを投
光した場合、たとえば第50図に実線Aに示すような光
切断像が撮像装置102により検出されたとする。同図
において、先に説明した様に横方向の最明点の位置を検
出し、光切断線の形を抽出すると第51図に示す様にな
る。第51図に示す波形を折線近似し、各線分の端点の
座標(Ls)’)をあらかじめめておいた式03 Hな
用いて実際の座標(−、z)に変換すると、第52図に
示す様になる。この図において、最も2座標の小さい線
分A、すなわち最も検出器に近い線分の中点から、円柱
状の物体109の上面のX方向の近似的な中心位置がめ
られる。また、式α4を用いてxz平面における物体1
09の傾きがめられる。つぎにスリット光源を切替え第
40図に示すもう一方のスリット光103hについて得
られる光切断像(第50図中に破線Bで示す)について
も、全く同様の検出を行うことにより、円柱状の物体1
09の上面y方向近似中心位置と、yz平面における物
体109の傾きをめる。更に、以上の検出結果をもとに
、検出器から物体109の上面の中心位置までの距ml
 2は、円柱状の物体109の上面が2軸にほぼ垂直で
ある場合、2=5十−♂−ニジ 、h−±乃・ 0ω2
 h −yl 2 または、 2=Δ」5十”x −”s 、乞き 。。
First, a method for detecting the position and orientation of the cylindrical object 109 will be explained. Suppose that when the slit light 103α shown in FIG. 40 is projected, for example, a light cut image as shown by the solid line A in FIG. 50 is detected by the imaging device 102. In FIG. 51, when the position of the brightest point in the horizontal direction is detected as described above and the shape of the light section line is extracted, it becomes as shown in FIG. When the waveform shown in Fig. 51 is approximated by a broken line and the coordinates (Ls)') of the end points of each line segment are converted into actual coordinates (-, z) using equation 03H, which is determined in advance, Fig. 52 is obtained. It becomes as shown. In this figure, the approximate center position of the top surface of the cylindrical object 109 in the X direction can be found from the line segment A with the smallest two coordinates, that is, the midpoint of the line segment closest to the detector. Also, using equation α4, object 1 in the xz plane
09 tilt is seen. Next, by switching the slit light source and performing the same detection on the optically sectioned image (indicated by broken line B in FIG. 50) obtained for the other slit light 103h shown in FIG. 1
09 and the approximate center position of the upper surface in the y direction and the inclination of the object 109 in the yz plane. Furthermore, based on the above detection results, the distance ml from the detector to the center position of the top surface of the object 109
2 is, when the top surface of the cylindrical object 109 is almost perpendicular to the two axes, 2=50-♂-niji, h-±no・0ω2
h −yl 2 or 2=Δ”50”x −”s, begging. .

2 4十へ 2 としてめられる。ここで、xl s% (X円柱状の物
体109の上面におけるxz平面の光切断像(第50図
に示すA)の端点のX座標であり、3’l−3’!はy
z平面の光切断像(第50図に示すB)の端点のy座標
であり、”+ *”v m”s y”4はそれぞれ4つ
の端点の2座標を表わす。以上の検出結果よりもし円柱
状物体109の上面のxz平而面よびyz平而面おける
傾きが900と著しく異なり、光切断線の中点から中心
位置をめる方法および弐0りまたは鱈による距離の耐昇
の誤差が無視できないと判断される場合には、傾きの検
出結果に従って四ボットアームを移動させ、2軸すなわ
ちスリット光3α、3hの交線が面にほぼ垂直になるよ
うにし、再度中心位置および距離の検出を行う。
2 to 40 2. Here, xl s% (X is the X coordinate of the end point of the optically sectioned image of the xz plane (A shown in FIG.
This is the y-coordinate of the end point of the optically sectioned image of the z-plane (B shown in FIG. 50), and "+*"v m"sy"4 represents the two coordinates of the four end points, respectively. The above detection results show that the inclinations of the upper surface of the cylindrical object 109 in the xz plane and the yz plane are significantly different from 900. If it is determined that the error in distance elevation cannot be ignored, move the four-bot arm according to the inclination detection result so that the two axes, that is, the intersection line of the slit lights 3α and 3h, are almost perpendicular to the surface, Detect the center position and distance again.

つぎに、第49図に示す平面上に垂直にあいた円形状の
穴110の中心位置および穴のおいている方向の検出法
について説明する。第53図は第49図に示す穴110
を撮像装置で撮像したとき得られる光切断線の一例を示
す図である。この場合も、前例と同様に、r2平面およ
びyz平面における2組の光切断像をスリット光源を切
替えることによって、独立に検出する。第53図におけ
る実線と破線は、このようにして得られる2組の光切断
像を示している。同図において、点へ。
Next, a method of detecting the center position of the circular hole 110 perpendicular to the plane shown in FIG. 49 and the direction in which the hole is placed will be described. Figure 53 shows the hole 110 shown in Figure 49.
It is a figure which shows an example of the optical cutting line obtained when imaged by an imaging device. In this case, as in the previous example, two sets of optically sectioned images in the r2 plane and the yz plane are independently detected by switching the slit light source. The solid line and broken line in FIG. 53 indicate two sets of optically sectioned images obtained in this manner. In the same figure, to the point.

−を結ぶ線分と点”Iybtを結ぶ線分をそれぞれ前例
の第50図における線分A、Hに対応させた処理を行う
ことによって、全(同様に穴110の位置および穴のお
いている方向の検出を行うことができる。
By performing processing in which the line segment connecting - and the line segment connecting point "Iybt" respectively correspond to the line segments A and H in FIG. Direction detection can be performed.

以下に、本発明のロボット視覚装置の具体的実施例につ
いて説明する。まず、装置全体の構成およびその動作に
ついて説明し、しかる後検出器各部の具体的構成につい
て述べる。
Below, specific embodiments of the robot visual device of the present invention will be described. First, the overall structure and operation of the apparatus will be explained, and then the specific structure of each part of the detector will be described.

第24図は本発明のロボット視覚装置の全体構成の一実
施例を示す図である。検出器は撮像装置2とスリット光
源59α(101α)、39h(101りから構成され
ており次の様な配置構成法によっている。すなわち、 +112つのスリット光46z(103z)、46h(
1o′5b)のなす平面の交線105を、ロボットのグ
リッパ25の回転軸に一致させる。
FIG. 24 is a diagram showing an embodiment of the overall configuration of the robot visual system of the present invention. The detector is composed of an imaging device 2 and slit light sources 59α (101α) and 39h (101), and is arranged and configured as follows.
1o'5b) is aligned with the rotation axis of the gripper 25 of the robot.

(2) スリット光源59α、59bの光軸108α、
 108bおよび撮像装置45(102)の光軸108
Cはスリット光46α、46bの交線105上のほぼ一
点で交わる。
(2) Optical axis 108α of slit light sources 59α and 59b,
108b and the optical axis 108 of the imaging device 45 (102)
C intersects at approximately one point on the intersection line 105 of the slit lights 46α and 46b.

(3) スリット光源39α、39bの光軸108α、
108hおよび撮像装置45(102)の光軸10日C
は同一平面上にある。
(3) Optical axis 108α of slit light sources 39α and 39b,
108h and the optical axis of the imaging device 45 (102) 10th C
are on the same plane.

(4) スリット光源39αの光軸108αとスリット
光の交線105のなす角と、スリット光源39Aの光軸
108hとスリット光の交線insのなす角とは等しい
(4) The angle between the optical axis 108α of the slit light source 39α and the line of intersection 105 of the slit light is equal to the angle between the optical axis 108h of the slit light source 39A and the line of intersection ins of the slit light.

(5) スリット光源59aの光軸108αと撮像装R
45(102)の光軸108Cのなす角と、スリット光
源397Sの光軸108bと撮像装置45の光軸108
Cのなす角とは等しい。
(5) Optical axis 108α of slit light source 59a and imaging device R
45 (102), the optical axis 108b of the slit light source 397S, and the optical axis 108 of the imaging device 45.
It is equal to the angle formed by C.

以上の様な配置でロボットアーム24上に検出器を構成
する。検出器の構成法の他の変形例としては、上記の(
1)〜(5)のうち論理的に可能な1〜4個の組合せが
ある。また、第24図では検出器がロボットのグリッパ
25を回転駆動する部分に固定されているが、グリッパ
25上に固定し、グリッパ25と一体に回転させる様に
構成しても良い。
A detector is configured on the robot arm 24 with the arrangement as described above. As another modification of the detector configuration method, the above (
There are 1 to 4 logically possible combinations among 1) to (5). Further, in FIG. 24, the detector is fixed to a portion of the robot that rotates the gripper 25, but it may be fixed on the gripper 25 and rotated together with the gripper 25.

このロボット視覚装置の全体は第24図中のイメージプ
ロセッサ47によって制御される。すなわち、スリット
光切替装置113を制御し、スリット光源39a、39
hが1つずつ発光するようにし、1それぞれの光切断像
を撮像装置45(102)によって検出する。検出され
た画像信号は光切断線抽出回路42に入力され、光切断
波形がイメージフロセッサ47に入力される。光切断線
抽出回路42は、先に説明した方法に従って2次元画像
データを1次元波形データに圧縮するものであり、特開
昭56−70407号に開示されている装置を用いても
良い。このようにして得られた2組の光切断線波形デー
タは、イメージフロセッサ(マイクoコンピーータ)4
7内に光圧説明した手順で処理される。すなわち、波形
データの折線近似の後、E Ql −Qeの計算を行っ
て対象物の3次元的位置及び姿勢を検出し、そのデータ
117をロボット腕機構の制御装置に出力する。式02
0萄を計算するのに必要な係数αノル、bノル、()°
=0.1,2,3・・・、rL−0,1,2,3・・・
)は、先に説明した方法であらかじめめられ、記憶装置
116内に格納されており、必要な時適宜読み出されて
使用される。
The entire robot visual system is controlled by an image processor 47 shown in FIG. That is, the slit light switching device 113 is controlled and the slit light sources 39a, 39
h is made to emit light one by one, and each light section image is detected by the imaging device 45 (102). The detected image signal is input to the optical cutting line extraction circuit 42, and the optical cutting waveform is input to the image processor 47. The optical cutting line extraction circuit 42 compresses two-dimensional image data into one-dimensional waveform data according to the method described above, and may use the device disclosed in Japanese Patent Laid-Open No. 70407/1983. The two sets of optically sectioned line waveform data obtained in this way are transferred to the image processor (microphone computer) 4.
7, the light pressure is processed according to the procedure described. That is, after the waveform data is approximated by a broken line, E Ql -Qe is calculated to detect the three-dimensional position and orientation of the object, and the data 117 is output to the control device of the robot arm mechanism. Formula 02
Coefficients α nor, b nor, ()° necessary to calculate 0
=0.1,2,3..., rL-0,1,2,3...
) is determined in advance by the method described above and stored in the storage device 116, and is read out and used as needed.

次に本実施例のロボット視覚装置の動作について詳細に
説明する。
Next, the operation of the robot visual system of this embodiment will be explained in detail.

対象物の検出を行う前に、すでに説明した様に、式(1
1+21に示した係数σ)’n、hノtL(および同様
にして得られる3/)の係数)を記憶装置116 VC
格納する作業が必要である。4J42図に示した装置を
用いてスリット光の交線105がレール107と平行に
なる様にロボソトン動作、固定し、1−でに説明した方
法で第46図に示す等距離線図と第44図に示す等幅線
図をめる。この作業はスリット切替装置113で切替え
、2つのスリブt・光46α(103tL)、46A(
103A) についてそれぞれ行う。つぎに、これらの
データをもとにイメージプロセッサ47によって多項式
近似を行い、各部における式α13の係数αノ゛ル、リ
ルなめ、記憶装置116に格納する。
Before detecting the target object, as already explained, the formula (1
The coefficients σ)'n, hnotL (and the coefficients of 3/ obtained in the same manner) shown in 1+21 are stored in the storage device 116 VC.
Some work is required to store it. Using the device shown in Fig. 4J42, the robosoton operation is performed and fixed so that the intersection line 105 of the slit light is parallel to the rail 107, and the equidistant line diagram shown in Fig. 46 and Fig. Draw the monospaced line diagram shown in the figure. This work is switched by the slit switching device 113, and the two slits and lights 46α (103tL) and 46A (
103A) respectively. Next, polynomial approximation is performed by the image processor 47 based on these data, and the coefficients α of the equation α13 in each part are stored in the storage device 116.

対象物体の検出過程では、すでに第48図及び第49図
を例にして説明した様に、イメージプロセッサ47がス
リット光切替装置113を制御し、2組のスリット光源
101α、101hをそれぞれ発光させた場合の光切断
像に基づく光切断波形を光切断抽出回路42によって得
て、これをイメージフロセッサ47によって折線近似し
た後、それぞれの線分の実際の位置座標が記憶装置11
6に格納された係数αノn、hjnをもとにして式03
 Ql (および同様なyjをめる式)を用いてめられ
る。
In the target object detection process, as already explained using FIGS. 48 and 49 as examples, the image processor 47 controls the slit light switching device 113 to cause the two sets of slit light sources 101α and 101h to emit light, respectively. A photosection waveform based on the photosection image of the case is obtained by the photosection extraction circuit 42, and after this is approximated by a broken line by the image processor 47, the actual position coordinates of each line segment are stored in the storage device 11.
Formula 03 is based on the coefficients αn and hjn stored in 6.
Ql (and similar formulas for yj).

イメージフロセッサ47は、2組のスリット光源101
α、lol、6をそれぞれ発光させた場合の線分のうち
、対象物体上の線分を、距離zを判定基準にそれぞれ1
本ずつ選び出しく通常、最も検出器に近く、視野の中央
近くにある線分)、それぞれの4つの端点から1式am
 −Qeおよび線分の中点の計算を行って、対象物体の
位置および姿勢を検出し、ロボット腕機構の制御装置に
出力する。
The image processor 47 includes two sets of slit light sources 101
Among the line segments when α, lol, and 6 are emitted, the line segments on the target object are each 1 based on the distance z as a criterion.
(Usually, the line segment closest to the detector and near the center of the field of view) is selected one by one from each of the four endpoints.
-Qe and the midpoint of the line segment are calculated to detect the position and orientation of the target object and output them to the control device of the robot arm mechanism.

次に検出器各部の具体的構成について説明する。撮像装
置45にはTVカメラを用い、第47図に示したiの方
向と水平走査方向を一致させることにより、高速で光切
断線を検出することかできる。もちろん、TVカメラ以
外の2次元画像検出器、例えば1次元フォトダイオード
アレーとガルバノミラ−との組合せでも良い。TVカメ
ラのうち、特に2次元固体イメージセンサを用いたもの
は、印耐震、耐衝撃性、(ロ)寿命、(ハ)画像ひずみ
、(ニ)小型。軽量、(ホ)省電力、の5つの点で、電
子管を用いたものよりも優れている。第54図は2次元
固体イメージセンサー19を用いた撮像装置の一具体例
を示す図である。
Next, the specific configuration of each part of the detector will be explained. By using a TV camera as the imaging device 45 and making the direction of i shown in FIG. 47 coincide with the horizontal scanning direction, the optical cutting line can be detected at high speed. Of course, a two-dimensional image detector other than a TV camera, such as a combination of a one-dimensional photodiode array and a galvanometer mirror, may also be used. Among TV cameras, those using two-dimensional solid-state image sensors in particular are characterized by earthquake resistance, impact resistance, (b) lifespan, (c) image distortion, and (d) small size. It is superior to those using electron tubes in five aspects: light weight and (e) power saving. FIG. 54 is a diagram showing a specific example of an imaging device using a two-dimensional solid-state image sensor 19.

本具体例では、ロボットアームに搭載される部烈 分は、第55図に無線で囲んで示す様に、TV右カメラ
御ユニット122を除いた2次元固体イメージセンサー
19と前置画像信号増幅器120と同期駆動信号波形整
形回路121のみであり、さらに小型、軽量化が図られ
ている。第54図において前置画像信号増幅器120は
基板123a上に搭載され、2次元固体イメージセンサ
119と同期駆動信号波形整形回路121は基板123
h上に搭載され、支柱124で裏ぶた125上に固定さ
れている。裏ぶた125にはコネクタ126が取付けら
れ、−切の信号、電源の供給はこのコネクタ126を介
して行われる。また、裏ぶた125および外枠127は
内面に静電シールド用の銅箔を貼った(または金属メッ
キを施した)プラスチック等の非金属で構成されている
。さらに、結像レンズ12Bをプラスチック化すること
も可能である。以上の様に、本実施例による撮像装置を
用いれば、耐震、耐衝撃性、長寿命、低画像ひずみ、省
電力という特徴に加え、検出器を著しく小型、軽量化で
きる効果がある。
In this specific example, the parts mounted on the robot arm are a two-dimensional solid-state image sensor 19 excluding the TV right camera control unit 122, and a front image signal amplifier 120, as shown in FIG. and a synchronous drive signal waveform shaping circuit 121, further reducing the size and weight. In FIG. 54, the front image signal amplifier 120 is mounted on the substrate 123a, and the two-dimensional solid-state image sensor 119 and the synchronous drive signal waveform shaping circuit 121 are mounted on the substrate 123a.
h, and is fixed on the back cover 125 with a support 124. A connector 126 is attached to the back cover 125, and the -off signal and power supply are performed through this connector 126. In addition, the back cover 125 and the outer frame 127 are made of a non-metal such as plastic with copper foil for electrostatic shielding applied to the inner surface (or metal plating applied). Furthermore, it is also possible to make the imaging lens 12B out of plastic. As described above, if the imaging device according to this embodiment is used, in addition to features such as earthquake resistance, impact resistance, long life, low image distortion, and power saving, the detector can be significantly reduced in size and weight.

次に、スリット光源101α、101/lの具体的構成
について説明する。光源としては、ハロゲンランプや放
電管や発光ダイオード等を使用することができるが、(
イ)耐震、耐衝撃性、(ロ)寿命(ハ)小型、軽量性の
3点で発光ダイオードが最も優れている。第56図は発
光ダイオードを用いたスリット光源の一具体例を示す図
である。発光ダイオード129には、赤外発光の高出力
タイプが用いられる。通常2次元固体イメージセンサの
最大感度波長は、800nm付近であるので、この波長
の発光ダイオードを用いれば検出感度を最大にできる。
Next, the specific configuration of the slit light sources 101α and 101/l will be explained. As a light source, halogen lamps, discharge tubes, light emitting diodes, etc. can be used, but (
Light-emitting diodes are the best in three respects: (a) earthquake resistance, impact resistance, (b) lifespan, and (c) compactness and light weight. FIG. 56 is a diagram showing a specific example of a slit light source using a light emitting diode. The light emitting diode 129 is of a high output type that emits infrared light. Since the maximum sensitivity wavelength of two-dimensional solid-state image sensors is usually around 800 nm, detection sensitivity can be maximized by using a light emitting diode of this wavelength.

第56図に示す様に、発光ダイオード129は、複数個
をシリンドリカルレンズ130の長手方向に一致させて
一例に並べて配置する。第56図(α)に示す平面図に
おいて、発光ダイオード129とスリット131はシリ
ンドリカルレンズ160に関して結像関係にある。また
、結像面152の位置は概略の対象物位置に設定し、結
像面132とスリット131とは結像レンズ133に関
して結像関係にある。以上の様な構成をとることにより
、発光ダイオード129から発光される光を効率良く集
光し、スリット光を形成できるので、上記した3つの特
徴に加え明るいスリット光源を実現できる。さらに、発
光ダイオード29にレンズを用いた指向性の強いものを
用いることにより、更に強力なスリット光源も実現可能
である。
As shown in FIG. 56, a plurality of light emitting diodes 129 are arranged in parallel along the longitudinal direction of the cylindrical lens 130, for example. In the plan view shown in FIG. 56(α), the light emitting diode 129 and the slit 131 are in an image forming relationship with respect to the cylindrical lens 160. Further, the position of the imaging plane 152 is set to the approximate position of the object, and the imaging plane 132 and the slit 131 are in an imaging relationship with respect to the imaging lens 133. By employing the above configuration, the light emitted from the light emitting diode 129 can be efficiently condensed to form a slit light, so that in addition to the above three characteristics, a bright slit light source can be realized. Furthermore, by using a lens-based light emitting diode 29 with strong directivity, an even more powerful slit light source can be realized.

第57図は発光ダイオードを用いたスリット光源の他の
具体例を示す図である。第57図に示す様に、発光ダイ
オード129を複数個スリット131に沿って配置し、
スリット131と結像面132は結像レンズ133に関
して結像関係にある。またシリンドリカルレンズ130
は、スリット光に結像面132上でむらが出ない様に、
結像レンズ133とスリット1310間に挿入される。
FIG. 57 is a diagram showing another specific example of a slit light source using a light emitting diode. As shown in FIG. 57, a plurality of light emitting diodes 129 are arranged along the slit 131,
The slit 131 and the imaging surface 132 are in an imaging relationship with respect to the imaging lens 133. Also, cylindrical lens 130
In order to prevent unevenness in the slit light on the imaging plane 132,
It is inserted between the imaging lens 133 and the slit 1310.

本具体例では、結像面132の結像関係が狂うと、スリ
ット光にむらが生じる欠点があるが、光切断線の位置検
出を行う本発明では無視できる。本具体例によれば、第
22図と比較して明らかな様に、光軸方向の長さを短か
くすることができ、発光ダイオード129の持つ特徴に
加え、スリット光源を著しく小型にできる特徴がある。
In this specific example, if the imaging relationship of the imaging plane 132 is out of order, the slit light may become uneven, but this can be ignored in the present invention, which detects the position of the light cutting line. According to this specific example, as is clear from a comparison with FIG. 22, the length in the optical axis direction can be shortened, and in addition to the characteristics of the light emitting diode 129, the slit light source can be made significantly smaller. There is.

また、撮像装置と同様に、外枠をグラスチック等の非金
属で構成すれば検出器を著しく小型。
Also, like the imaging device, if the outer frame is made of non-metallic material such as plastic, the detector can be made significantly smaller.

軽量にできる効果がある。It has the effect of being lightweight.

なお、第56図と第57図に示すスリット光源の具体例
では、スリット光が完全な平板状にならない。この問題
は結像レンズ133の径を必要以上に太き(しないこと
で回避できろ。
Note that in the specific examples of the slit light source shown in FIGS. 56 and 57, the slit light does not have a perfect flat shape. This problem can be avoided by making the diameter of the imaging lens 133 unnecessarily thick.

ロボットアームに取り付ける画像検出器20の他の実施
例としては、TVカメラ、リニアセンサまたはポイント
センナ(フォトダイオード、フォトマルなど)とガルバ
ノミラ−などの走査機構との組合せによる濃淡画像検出
器がある。本発明では四ポットアーム上の画像検出器に
よる認識処理の前に固定した位置にある距離画像検出器
よりの画像の処理を行い、対象物体の主要な平面の法線
方向よりロボットアームを接近させ、その方向よりロボ
ットアーム上の画像検出器より画像検出できるので、主
要な平面の平面的に正しい形状が検出できるため、従来
の濃淡画像処理による平面的な認識法の応用により、対
象物体の形状、位置、姿勢の認識ができる。
Other embodiments of the image detector 20 attached to the robot arm include a grayscale image detector using a combination of a TV camera, a linear sensor, or a point sensor (photodiode, photomulti, etc.) and a scanning mechanism such as a galvanometer mirror. In the present invention, before recognition processing is performed by the image detector on the four-pot arm, the image from the distance image detector at a fixed position is processed, and the robot arm approaches the target object from the normal direction of the main plane. Since the image can be detected from that direction by the image detector on the robot arm, it is possible to detect the correct planar shape of the main planes. , position, and posture can be recognized.

また、背景と対象物体とを濃淡画像の2値化により分離
検出できる場合、2値画像処理、たとえばテンプレート
マツチングなどを用いて、高速に対象物体の形状、位置
、姿勢の検出ができる。
Further, when the background and the target object can be detected separately by binarizing a grayscale image, the shape, position, and orientation of the target object can be detected at high speed using binary image processing, such as template matching.

以上説明したロボットアーム上の画像検出器からの画像
の処理によって得られる対象物体の位置および姿勢は、
画像検出器に固定された座標系によるもの、すなわちロ
ボットアームとの相対位置関係であるから、ロボットア
ームのたわみなどによって絶対位置決め精度が悪い場合
圧もロボットアームを精度良く対象物体にアプローチさ
せることができる。また、この場合四ポット制御装置は
、ロボットアームからの検出時点のロボットアームの姿
勢と、イメージプロセッサからの対象物体の位置と姿勢
から、ロボットの各軸の動作量を計算する必要がある。
The position and orientation of the target object obtained by processing the image from the image detector on the robot arm as explained above is
Because it is based on the coordinate system fixed to the image detector, that is, the relative positional relationship with the robot arm, if the absolute positioning accuracy is poor due to deflection of the robot arm, it is difficult to make the robot arm approach the target object accurately due to pressure. can. Further, in this case, the four-pot control device needs to calculate the motion amount of each axis of the robot from the posture of the robot arm at the time of detection from the robot arm and the position and posture of the target object from the image processor.

次に視覚系の他の構成要素の一つであるイメージプロセ
ッサ21の一実施例を第25図に示す。
Next, FIG. 25 shows an embodiment of an image processor 21, which is one of the other components of the visual system.

イメージプロセッサ21は、距離画像検出器19および
ロボットアーム上の画像検出器20より検出された画像
を前述した方法に従って処理し、対象物体11を発見、
その位置、姿勢を認識し、その情報をりポット制御装置
18に伝送する。イメージプロセッサ21は、マイクロ
プロセッサ48で制御され、ROM49に収納されたプ
ログラムによって動作する。距離画像を生成するための
光切断線抽出装置42およびロボットアーム上の画像検
出器20とは高速のパラレルI/Fsoα、50hによ
り接続され、検出された画像情報は、I(AM51αに
収納される。RAM51はこのように画像情報の一時的
な保存に用いられるほかに、画像処理過程における作業
領域として用いられる。また、ロボット制御装置18と
は、インターフェイス52を介して接続され、認識結果
を伝送する。
The image processor 21 processes the images detected by the distance image detector 19 and the image detector 20 on the robot arm according to the method described above, discovers the target object 11,
Its position and orientation are recognized and the information is transmitted to the pot control device 18. The image processor 21 is controlled by a microprocessor 48 and operates according to a program stored in a ROM 49. The optical cutting line extraction device 42 for generating a distance image and the image detector 20 on the robot arm are connected by a high-speed parallel I/Fsoα, 50h, and the detected image information is stored in the I(AM51α). In addition to being used to temporarily store image information, the RAM 51 is also used as a work area in the image processing process.The RAM 51 is also connected to the robot control device 18 via an interface 52 to transmit recognition results. do.

上記したイメージプロセッサ21の実施例は、マイクロ
プロセッサ48を用いたンフトウエア処処理をする場合
について述べたが、例えば、2値化処理、微分処理等は
比較的簡単なハードウェア構成で実行できるので、部分
的にハードウェアによる処理を行えば、処理の高速化が
図れる。また、非常に高速の処理を行うため、処理アル
ゴリズムを全てハードウェア化することも装置規模は大
きくなるが可能である。
In the above-described embodiment of the image processor 21, a case has been described in which software processing is performed using the microprocessor 48, but for example, binarization processing, differentiation processing, etc. can be executed with a relatively simple hardware configuration. By partially performing processing using hardware, processing speed can be increased. Furthermore, since extremely high-speed processing is performed, it is possible to implement all processing algorithms in hardware, although this increases the scale of the device.

また以上説明した本発明による実施例では、関節形ロボ
ットについて説明したが、直交形ロボット、円筒形ロボ
ットでもよいことは明らかである。
Further, in the embodiments according to the present invention described above, an articulated robot has been described, but it is clear that a Cartesian robot or a cylindrical robot may also be used.

さらに、本発明の他の変形例としては、作業対象ニよっ
ては、距離画像検出器19のみによる対象物体の認識、
ロボットアーム上の画像検出器20のみによる対象物体
の認識も可能であることを付は加えておく。
Furthermore, as another modification of the present invention, depending on the work target, recognition of the target object only by the distance image detector 19,
It should be added that it is also possible to recognize the target object using only the image detector 20 on the robot arm.

〔発明の効果〕〔Effect of the invention〕

以上説明したように、本発明によれば、距離画像処理に
より対象物体の発見、その3次元的な位置、姿勢、形状
の検出を行っているので、対象物体表面の色、明暗、面
荒さ、よごれ等によらず、常に能率のよい認識が可能で
ある。また、距離画像を微分することによ?て、物体と
物体の境界線を検出しているので、やはり対象物表面の
状況圧よらない安定な物体の分離検出が可能である。さ
らに以上の効果を総合して、複雑に折り重なった部品ま
たは背景から、目的の作業対象物体を識別して、その3
次元的な位置、姿勢を認識し、ロボットを制御できると
いう完全な視覚フィードバックを実現することができる
。また、本発明によるロボットアーム上の画像検出器と
組合せた階層的な処理により、ロボットの絶対的な位置
決め精度の悪い場合にも、対象物体に対して精度よく位
置決めすることが可能であり、ロボットを組立、検査、
調整など広い分野に適用することが可能になる。
As explained above, according to the present invention, since the target object is discovered and its three-dimensional position, orientation, and shape are detected by distance image processing, the color, brightness, surface roughness, and surface roughness of the target object surface are detected. Efficient recognition is always possible regardless of dirt or the like. Also, by differentiating the distance image? Since the boundary line between objects is detected, it is possible to stably separate and detect objects regardless of the pressure on the surface of the object. Furthermore, by integrating the above effects, the target object to be worked on can be identified from complexly folded parts or the background, and the third
It is possible to realize complete visual feedback by recognizing dimensional position and posture and controlling the robot. In addition, the hierarchical processing combined with the image detector on the robot arm according to the present invention makes it possible to accurately position the target object even when the absolute positioning accuracy of the robot is poor. assembly, inspection,
It becomes possible to apply it to a wide range of fields such as adjustment.

【図面の簡単な説明】[Brief explanation of drawings]

第1図及び第2図は従来のロボット視覚を示した図、第
3図は距離画像を説明した図、第4図、第5図、第6図
、第7図及び第8図は本発明による距離画像の処理過程
を示した図、第9図は直方体の2つの見え方を示した図
、第10図及び第11図は距離画像のルーフエツジ、ジ
ャンプエッジを示した図、第12図は距離画像処理によ
る物体の姿勢の定義な表わ、した図、第13図は本発明
による実施例の全体構成を示した図、第14図はロボッ
ト制御装置を説明した図、第15図は距離画像検出器の
一実施例を示した図、第16図、第17図、第18図、
第19図及び第20図はその検出過程を示した図、第2
1図は他の距離画像検出器の例、第22図は距離画像の
影の生じる原因を説明した図、第23図及び第24図は
ロボットアーム上の画像検出器の一実施(Jllを示す
図、第25図はイメージプロセッサの一実施例を示した
図、第26図は本発明に係る光切断線抽出回路を示す概
略構成図、第27図は第26図の示す回路の機能を説明
するための図、第28図は第27図に示す回路を具体的
に示した構成図、第29図は第23図に示す本発明に係
るロボット視覚装置の一実施例を具体的に示した図、第
30図は第23図及び第29図に示す実施例における作
業対象を説明するための図、第31図は光切断線の例を
示す図、第32図は光切断抽出処理を説明するための図
、第33図は距離画像の例を示す図、第34図は光切断
線と撮像装置の中心と目的物表面との関係を示した図、
第35図は距離画像におけるジャンプエツジとルーフエ
ツジとを示す図、第36図は距離画像信号を微分してジ
ャンプエツジを検出するために6×3の絵素についての
距離を切出した状態を示す図、第37図は本発明に係る
第29図と異なる他の一実施例を示した図、第68図は
更に本発明に係る他の一実施例を示した図、第39図は
第24図に示す如(本発明に係るロボット十字切断線視
覚装置の原理となる検出器の斜視図、第40図は第39
図に示す゛検出器の基本構成を示す斜視図、第41図は
第39図に示す検出器による等距離線と等幅線を表わし
た図、第42図は等距離線と等幅線を得る検出器の斜視
図、第43図は等距離線の一例を示す図、第44図は等
幅線の一例を示す図、第45図は第45図に示す等距離
線の変化を表わした図、第46図は第44図に示す等幅
線の変化を表わした図、第47図は光切断線の抽出方法
を表わす図、第48図及び第49図は検出対象物体の一
例を示す図、第ste:l、第51図、第52図は第4
8図に示す検出対象物体の検出処理過程を示す図、第5
3図は第49図に示す検出対象物図(α)と第57図(
α)は本発明に係るロボット視覚装置の検出器に用いる
スリット光源の具体例を示す平面図、第56図(b)と
第59図(h)は本発明のロボット視覚装置の検出器に
用いるスリット光源の具体例を示す正面図である。 9・・・距離画像 11・・・対象物体17・・・ロボ
ットアーム18・・・ロボット制御装置19・・・距離
画像検出器 20・・・ロボットアーム上の画像検出器21・・・イ
メージプロセッサ 38・・・スリット光 39・・・スリット光源42・
・・光切断線抽出装置 45・・・’rVカメラ 第1図 第32 茅4図 拳 、5回 乍^ 乙 m 埠 7 図 竿 8 図 茅q図 茅/θ磨 第 //団 茅72 ffi 穿 /乙 図 一一署′ D 第78図 茅 30圀 第31閉 第330 第 34因 \ 茅35図 茅 36m 茅37図 を 第32副 第 4o U イ4/磨 (りン χzq面 (b)”JZ”F面茅422 竿430 茅440 茅 4.Sr 茅46図 茅3/ II 茅、!;2図 茅63困 茅 540 茅、55図 zl
Figures 1 and 2 are diagrams showing conventional robot vision, Figure 3 is a diagram explaining distance images, and Figures 4, 5, 6, 7, and 8 are diagrams of the present invention. Figure 9 shows the process of processing a distance image by A diagram showing the definition of the posture of an object by distance image processing, FIG. 13 is a diagram showing the overall configuration of an embodiment according to the present invention, FIG. 14 is a diagram explaining the robot control device, and FIG. 15 is a diagram showing the distance Diagrams showing one embodiment of the image detector, FIG. 16, FIG. 17, FIG. 18,
Figures 19 and 20 are diagrams showing the detection process, and Figure 2
Figure 1 is an example of another range image detector, Figure 22 is a diagram explaining the cause of shadows in range images, and Figures 23 and 24 are examples of an image detector on a robot arm (showing Jll). 25 is a diagram showing an embodiment of the image processor, FIG. 26 is a schematic configuration diagram showing the optical cutting line extraction circuit according to the present invention, and FIG. 27 explains the function of the circuit shown in FIG. 26. 28 is a block diagram specifically showing the circuit shown in FIG. 27, and FIG. 29 is a diagram specifically showing an embodiment of the robot visual device according to the present invention shown in FIG. 23. 30 is a diagram for explaining the work target in the embodiment shown in FIGS. 23 and 29, FIG. 31 is a diagram showing an example of a light cutting line, and FIG. 32 is a diagram explaining the light cutting extraction process. 33 is a diagram showing an example of a distance image, and FIG. 34 is a diagram showing the relationship between the light cutting line, the center of the imaging device, and the surface of the object.
FIG. 35 is a diagram showing jump edges and roof edges in a distance image, and FIG. 36 is a diagram showing a state in which distances for 6×3 picture elements are cut out to detect jump edges by differentiating the distance image signal. , FIG. 37 is a diagram showing another embodiment different from FIG. 29 according to the present invention, FIG. 68 is a diagram showing another embodiment according to the present invention, and FIG. 39 is a diagram showing another embodiment according to the present invention. As shown in FIG.
Fig. 41 is a perspective view showing the basic configuration of the detector shown in Fig. 41. Fig. 41 is a diagram showing equidistant lines and equispaced lines by the detector shown in Fig. 39. Fig. 42 is a diagram showing equidistant lines and equispaced lines by the detector shown in Fig. 39. FIG. 43 is a diagram showing an example of equidistant lines, FIG. 44 is a diagram showing an example of equidistant lines, and FIG. 45 is a diagram showing changes in the equidistant lines shown in FIG. 45. Figure 46 is a diagram showing changes in the monospaced lines shown in Figure 44, Figure 47 is a diagram showing a method for extracting light cutting lines, and Figures 48 and 49 are examples of objects to be detected. Figures, ste:l, Figures 51 and 52 are in Figure 4.
Figure 5 shows the process of detecting the detection target object shown in Figure 8.
Figure 3 shows the detection target object diagram (α) shown in Figure 49 and Figure 57 (
α) is a plan view showing a specific example of a slit light source used in the detector of the robot vision device according to the present invention, and FIGS. 56(b) and 59(h) are used in the detector of the robot vision device of the present invention. FIG. 3 is a front view showing a specific example of a slit light source. 9...Distance image 11...Target object 17...Robot arm 18...Robot control device 19...Distance image detector 20...Image detector 21 on robot arm...Image processor 38...Slit light 39...Slit light source 42.
... Optical cutting line extraction device 45...'rV camera Figure 1 Figure 32 Kaya 4 Zuken, 5 times ^ Otsu m Bu 7 Zuko 8 Zuko q Zuko / θmadai // Dan Kaya 72 ffi Perforation/Otsu Figure 11 Station' D Figure 78 Chi 30th area 31st closed No. 330 No. 34 factor \ Kaya 35 Figure 36m Kaya 37 Figure 32 sub-No. 4o U I4/Main (Rin χzq surface (b) ) "JZ" F side grass 422 rod 430 grass 440 grass 4.Sr grass 46 illustration grass 3/ II grass,!; 2 grass 63 difficult grass 540 grass, 55 illustration

Claims (1)

【特許請求の範囲】 1、 ロボット基台部に対しである固定した点より作業
対象全体の距離画像を検出する検出器と、上記距離画像
検出器より検出された距離画像を定められた手順に従っ
て処理し、対象物体の発見とその形状位置、姿勢を3次
元的に認識するイメージプロセッサと、イメージプロセ
ッサよりの認識結果に従って対象物体の定められた方向
よりロボットアームを接近させる四ボット制御装置と、
ロボットアーム上に取付けられ、接近した位置より対象
物体の画像を検出する画像検出器と、検出された画像を
定められた手順に従って処理し、対象物体の形状、位置
、姿勢を認識するイメージプロセッサと、イメージプロ
セッサの認識結果に従って四ボットアームを対象物体に
対して正しい位置に補正するロボット制御装置を設け、
組立、検査、調整などの作業を行うことを特徴とするロ
ボット。 2、 上記イメージプロセッサは、距hat画像信号を
微分してジャンプエツジ画像信号を形成する微分手段と
、このジャンプエツジで閉じられた領域に分離する分離
手段と、この分離された領域から必要な領域を抽出し、
この抽出された領域から主要な平面の距離画像を抽出す
る抽出手段と、この距離画像によりこの主要な平面の重
心の位置及び傾き等を検出する検出手段とによって構成
したことを特徴とする特許請求の範囲第1項のロボット
[Claims] 1. A detector that detects a distance image of the entire work object from a fixed point relative to the robot base, and a distance image detected by the distance image detector according to a predetermined procedure. an image processor that detects a target object and three-dimensionally recognizes its shape, position, and orientation; a four-bot control device that causes a robot arm to approach the target object from a predetermined direction according to the recognition results from the image processor;
An image detector is installed on the robot arm and detects an image of the target object from a close position, and an image processor processes the detected image according to a set procedure to recognize the shape, position, and orientation of the target object. , a robot control device is provided that corrects the four robot arms to the correct position relative to the target object according to the recognition results of the image processor,
A robot that performs tasks such as assembly, inspection, and adjustment. 2. The image processor includes a differentiating means for differentiating a distance hat image signal to form a jump edge image signal, a separating means for separating into a region closed by this jump edge, and a necessary region from this separated region. extract,
A patent claim characterized in that it is constituted by an extraction means for extracting a distance image of a main plane from this extracted area, and a detection means for detecting the position and inclination of the center of gravity of this main plane from this distance image. The robot in the first term of the range.
JP58123260A 1983-07-08 1983-07-08 Robot Granted JPS6015780A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP58123260A JPS6015780A (en) 1983-07-08 1983-07-08 Robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP58123260A JPS6015780A (en) 1983-07-08 1983-07-08 Robot

Publications (2)

Publication Number Publication Date
JPS6015780A true JPS6015780A (en) 1985-01-26
JPH0425583B2 JPH0425583B2 (en) 1992-05-01

Family

ID=14856157

Family Applications (1)

Application Number Title Priority Date Filing Date
JP58123260A Granted JPS6015780A (en) 1983-07-08 1983-07-08 Robot

Country Status (1)

Country Link
JP (1) JPS6015780A (en)

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6081681A (en) * 1983-10-07 1985-05-09 Seiko Instr & Electronics Ltd Picture processor for assembling robot
JPS61203285A (en) * 1985-03-04 1986-09-09 株式会社日立製作所 Method of controlling operation of robot
JPS61296409A (en) * 1985-06-25 1986-12-27 Fanuc Ltd Robot control system
JPS629894A (en) * 1985-07-08 1987-01-17 石川県 Method of determining optimum position of holding in shape recognition device
JPS6257004A (en) * 1985-09-05 1987-03-12 Fanuc Ltd Visual sensor for robot
EP0222072A2 (en) * 1985-10-11 1987-05-20 Hitachi, Ltd. Method of loading surface mounted device and an apparatus therefor
JPS62165206A (en) * 1986-01-17 1987-07-21 Hitachi Metals Ltd Determining method for work position in robot visual device
JPS62286189A (en) * 1986-06-04 1987-12-12 Omron Tateisi Electronics Co High speed visual recognizing device
JPS62292377A (en) * 1986-06-10 1987-12-19 日産自動車株式会社 Visual system for picking up scattered and stuck body by robot hand
JPS6334093A (en) * 1986-07-29 1988-02-13 シャープ株式会社 Visual device
JPS6344282A (en) * 1986-08-11 1988-02-25 Matsushita Electric Works Ltd Inspecting instrument for appearances of packaged parts
JPH04255077A (en) * 1990-08-13 1992-09-10 Siemens Ag Image analyzing method
US5189707A (en) * 1985-10-11 1993-02-23 Hitachi, Ltd. Method of loading surface mounted device and an apparatus therefor
JPH08112021A (en) * 1994-08-19 1996-05-07 Iseki & Co Ltd Fruit discrimination apparatus of harvesting robot
US6970802B2 (en) 2002-12-20 2005-11-29 Fanuc Ltd Three-dimensional measuring device
JP2006153771A (en) * 2004-11-30 2006-06-15 Matsushita Electric Works Ltd Measuring instrument
WO2009028489A1 (en) * 2007-08-30 2009-03-05 Kabushiki Kaisha Yaskawa Denki Object detecting method, object detecting device, and robot system
US8395673B2 (en) 2003-03-25 2013-03-12 Fujitsu Limited Shooting device and method with function for guiding an object to be shot
JP2013111672A (en) * 2011-11-25 2013-06-10 Chiba Inst Of Technology Obtaining system for environment information using unmanned traveling body
JP2014516017A (en) * 2011-06-07 2014-07-07 ケアフュージョン・ジャーマニー・326・ゲーエムベーハー Separation device for bulk goods stored in automatic storage equipment
JP5736622B1 (en) * 2014-05-01 2015-06-17 機械設計中畑株式会社 Detection device and operation control of manipulator equipped with the device
JP2019211968A (en) * 2018-06-04 2019-12-12 アズビル株式会社 Two-dimensional position attitude estimation device and two-dimensional position attitude estimation method
JP2020075340A (en) * 2018-11-08 2020-05-21 株式会社東芝 Operation system, control device and program
US10759057B2 (en) 2017-10-31 2020-09-01 Kabushiki Kaisha Toshiba Inspection system
JP2021016910A (en) * 2019-07-18 2021-02-15 株式会社ファースト Object recognition device for picking or devanning, object recognition method for picking or devanning, and program
EP3744484A4 (en) * 2018-01-23 2021-03-17 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND INFORMATION PROCESSING SYSTEM
US11396101B2 (en) 2018-11-08 2022-07-26 Kabushiki Kaisha Toshiba Operating system, control device, and computer program product
JP2023047279A (en) * 2021-09-24 2023-04-05 株式会社ダイヘン Weld line detection system

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003136465A (en) * 2001-11-06 2003-05-14 Yaskawa Electric Corp Method for determining 3D position / posture of detection target and visual sensor for robot
JP5854815B2 (en) * 2011-12-20 2016-02-09 キヤノン株式会社 Information processing apparatus, information processing apparatus control method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS48100853A (en) * 1972-04-05 1973-12-19
JPS5423545A (en) * 1977-07-22 1979-02-22 Mitsubishi Paper Mills Ltd Heat sensitive paper with reduced adherability of dregs to thermal head
JPS57168384A (en) * 1981-04-08 1982-10-16 Nissan Motor Co Ltd Detecting method for shape of object

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS48100853A (en) * 1972-04-05 1973-12-19
JPS5423545A (en) * 1977-07-22 1979-02-22 Mitsubishi Paper Mills Ltd Heat sensitive paper with reduced adherability of dregs to thermal head
JPS57168384A (en) * 1981-04-08 1982-10-16 Nissan Motor Co Ltd Detecting method for shape of object

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6081681A (en) * 1983-10-07 1985-05-09 Seiko Instr & Electronics Ltd Picture processor for assembling robot
JPS61203285A (en) * 1985-03-04 1986-09-09 株式会社日立製作所 Method of controlling operation of robot
JPS61296409A (en) * 1985-06-25 1986-12-27 Fanuc Ltd Robot control system
JPS629894A (en) * 1985-07-08 1987-01-17 石川県 Method of determining optimum position of holding in shape recognition device
JPS6257004A (en) * 1985-09-05 1987-03-12 Fanuc Ltd Visual sensor for robot
EP0222072A3 (en) * 1985-10-11 1989-03-22 Hitachi, Ltd. Method of loading surface mounted device and an apparatus therefor
US4737845A (en) * 1985-10-11 1988-04-12 Hitachi, Ltd. Method of loading surface mounted device and an apparatus therefor
EP0222072A2 (en) * 1985-10-11 1987-05-20 Hitachi, Ltd. Method of loading surface mounted device and an apparatus therefor
US5189707A (en) * 1985-10-11 1993-02-23 Hitachi, Ltd. Method of loading surface mounted device and an apparatus therefor
JPS62165206A (en) * 1986-01-17 1987-07-21 Hitachi Metals Ltd Determining method for work position in robot visual device
JPS62286189A (en) * 1986-06-04 1987-12-12 Omron Tateisi Electronics Co High speed visual recognizing device
JPS62292377A (en) * 1986-06-10 1987-12-19 日産自動車株式会社 Visual system for picking up scattered and stuck body by robot hand
JPS6334093A (en) * 1986-07-29 1988-02-13 シャープ株式会社 Visual device
JPS6344282A (en) * 1986-08-11 1988-02-25 Matsushita Electric Works Ltd Inspecting instrument for appearances of packaged parts
JPH04255077A (en) * 1990-08-13 1992-09-10 Siemens Ag Image analyzing method
JPH08112021A (en) * 1994-08-19 1996-05-07 Iseki & Co Ltd Fruit discrimination apparatus of harvesting robot
US6970802B2 (en) 2002-12-20 2005-11-29 Fanuc Ltd Three-dimensional measuring device
US8395673B2 (en) 2003-03-25 2013-03-12 Fujitsu Limited Shooting device and method with function for guiding an object to be shot
JP2006153771A (en) * 2004-11-30 2006-06-15 Matsushita Electric Works Ltd Measuring instrument
WO2009028489A1 (en) * 2007-08-30 2009-03-05 Kabushiki Kaisha Yaskawa Denki Object detecting method, object detecting device, and robot system
JP5458885B2 (en) * 2007-08-30 2014-04-02 株式会社安川電機 Object detection method, object detection apparatus, and robot system
JP2014516017A (en) * 2011-06-07 2014-07-07 ケアフュージョン・ジャーマニー・326・ゲーエムベーハー Separation device for bulk goods stored in automatic storage equipment
JP2013111672A (en) * 2011-11-25 2013-06-10 Chiba Inst Of Technology Obtaining system for environment information using unmanned traveling body
JP5736622B1 (en) * 2014-05-01 2015-06-17 機械設計中畑株式会社 Detection device and operation control of manipulator equipped with the device
US10759057B2 (en) 2017-10-31 2020-09-01 Kabushiki Kaisha Toshiba Inspection system
US11485019B2 (en) 2017-10-31 2022-11-01 Kabushiki Kaisha Toshiba Inspection system
EP3744484A4 (en) * 2018-01-23 2021-03-17 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND INFORMATION PROCESSING SYSTEM
US11420335B2 (en) 2018-01-23 2022-08-23 Sony Corporation Information processing apparatus, information processing method, and information processing system
WO2019235210A1 (en) * 2018-06-04 2019-12-12 アズビル株式会社 Two-dimensional position/attitude deduction apparatus and two-dimensional position/attitude deduction method
JP2019211968A (en) * 2018-06-04 2019-12-12 アズビル株式会社 Two-dimensional position attitude estimation device and two-dimensional position attitude estimation method
JP2020075340A (en) * 2018-11-08 2020-05-21 株式会社東芝 Operation system, control device and program
US11396101B2 (en) 2018-11-08 2022-07-26 Kabushiki Kaisha Toshiba Operating system, control device, and computer program product
JP2021016910A (en) * 2019-07-18 2021-02-15 株式会社ファースト Object recognition device for picking or devanning, object recognition method for picking or devanning, and program
JP2023047279A (en) * 2021-09-24 2023-04-05 株式会社ダイヘン Weld line detection system

Also Published As

Publication number Publication date
JPH0425583B2 (en) 1992-05-01

Similar Documents

Publication Publication Date Title
JPS6015780A (en) Robot
US4575304A (en) Robot system for recognizing three dimensional shapes
JP5290324B2 (en) Method and system for accurately positioning at least one object in a final pose in space
EP0107820B1 (en) Robot vision system
JP5377758B2 (en) Method and system for accurately positioning at least one object in a final pose in space
Frese et al. Off-the-shelf vision for a robotic ball catcher
US20190184570A1 (en) Intelligent robots
CN108603936B (en) Laser scanning system, laser scanning method, non-transitory computer-readable storage medium
US4044377A (en) Video target locator
EP0634246B1 (en) Robot cutting system
CN105651177A (en) Measuring system suitable for measuring complex structure
JP3208953B2 (en) Three-dimensional position and posture recognition method based on vision and three-dimensional position and posture recognition device based on vision
CN109559355A (en) A kind of polyphaser global calibration device and method without public view field based on phase unit
CN113508012A (en) Vision Systems for Robotic Machinery
JP2000317660A (en) Method and device for removing burr by using laser beam
CN113706454B (en) Workpiece offset detection method based on registration and spraying device
JP2003136465A (en) Method for determining 3D position / posture of detection target and visual sensor for robot
US10037865B2 (en) System and method for providing real-time visual feedback to control multiple autonomous nano-robots
JP2021013983A (en) Apparatus and method for acquiring deviation of moving locus of moving machine
JP2021152525A (en) Measurement device, measurement method, mobile body, robot, electronic device, and modeling device
JP2686685B2 (en) An active camera search system for object manipulation by robots
JPH091338A (en) Method and device for automatically recognizing weld seam
Konno et al. Development of a high speed vision system for mobile robots
GB2240623A (en) An imaging process for detecting the shape of three dimensional objects
JPH0413115B2 (en)