[go: up one dir, main page]

JP2001277167A - 3D pose recognition method - Google Patents

3D pose recognition method

Info

Publication number
JP2001277167A
JP2001277167A JP2000098589A JP2000098589A JP2001277167A JP 2001277167 A JP2001277167 A JP 2001277167A JP 2000098589 A JP2000098589 A JP 2000098589A JP 2000098589 A JP2000098589 A JP 2000098589A JP 2001277167 A JP2001277167 A JP 2001277167A
Authority
JP
Japan
Prior art keywords
target component
label
posture
recognition target
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000098589A
Other languages
Japanese (ja)
Inventor
Yasuhiro Fujito
靖浩 藤土
Hideyuki Harada
秀之 原田
Yoshihiro Fujii
義弘 藤井
Kaname Tanaka
要 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
OKAYAMA PREF GOV SHIN GIJUTSU SHINKO ZAIDAN
Original Assignee
OKAYAMA PREF GOV SHIN GIJUTSU SHINKO ZAIDAN
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by OKAYAMA PREF GOV SHIN GIJUTSU SHINKO ZAIDAN filed Critical OKAYAMA PREF GOV SHIN GIJUTSU SHINKO ZAIDAN
Priority to JP2000098589A priority Critical patent/JP2001277167A/en
Publication of JP2001277167A publication Critical patent/JP2001277167A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a three-dimensional attitude recognizing method for taking components one by one using a robot hand from a group of many piled plate- like components. SOLUTION: This attitude recognizing method is used for taking components one by one using the robot hand 3 from the group 4 of many plate-like components piled in the three-dimensional coordinates. A label figure of the components to be recognized in the two-dimensional coordinates is formed using a label having height information based on luminance of reflected light from the group 4, and an attitude of the components to be recognized is recognized based on this label figure.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、多数の平板状部品
を山積みにした部品群から1個毎にロボットハンドで取
り出す際に用いる認識対象部品の3次元姿勢認識手法に
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for recognizing a three-dimensional posture of a recognition target component used when a robot hand takes out a large number of flat plate components one by one from a group of stacked components.

【0002】[0002]

【従来の技術】生産コストの削減、安全性の向上等の観
点から、加工又は組立ライン(生産ライン)では、以前よ
りロボットを用いた大幅な自動化が図られている。自動
化当初のロボットの利用形態は、予め定めた位置に決め
られた姿勢で収納された部品を供給する態様で、多量少
品種、いわゆる大量生産を前提としていた。ところが、
近年、消費者の多様性の影響を受けて、同一の生産ライ
ンで少量多品種の部品供給の必要性が出てきたため、予
め位置、姿勢を決めて収納された部品をロボットで供給
することは、かえって部品の整頓の手間がかかるという
問題を招くようになってきた。そこで、ロボットを制御
するコンピュータによって、対象となる物体(部品、ワ
ーク)の3次元姿勢を認識する手法が生み出され、この
手法を利用して部品供給を図る装置が開発されるように
なってきている。
2. Description of the Related Art From the viewpoints of reduction of production cost, improvement of safety, and the like, in a processing or assembly line (production line), large automation using a robot has been attempted. At the beginning of the automation, the robot was used in a manner in which parts stored in a predetermined position and in a predetermined posture were supplied, and was premised on a large number of small varieties, so-called mass production. However,
In recent years, due to the influence of the diversity of consumers, it has become necessary to supply small quantities and various types of parts on the same production line. On the contrary, the problem that it takes time to arrange the parts has come to be caused. Therefore, a method of recognizing the three-dimensional posture of a target object (part, work) by a computer for controlling a robot has been developed, and a device for supplying parts using this method has been developed. I have.

【0003】少量多品種の部品を供給するには、(1)山
積みにされた部品を個々に認識し、かつ(2)各部品の姿
勢を判別できればよい。例えば、特開平05-134731号
「山積み部品の高速ピツキング装置」では、画像入力用
カメラにより山積み状態のワークを映した映像信号を物
体認識装置で処理し、輪郭から得た線分画像と照合モデ
ル(ワークの形状のうちの視覚認識可能な単純形状から
成る特定部位に対応したモデル)との照合により、ワー
クの姿勢を認識し、特定部位との定量的な相対位置関係
からピッキング部位を算出する装置が提案されている。
[0003] In order to supply a small number of parts of various types, it is only necessary to (1) individually recognize the stacked parts and (2) determine the attitude of each part. For example, in Japanese Patent Application Laid-Open No. 05-134731, "high-speed picking device for piled parts", an image input camera processes a video signal of a work in a piled state by an object recognition device, and a line segment image obtained from a contour is compared with a matching model. Recognize the posture of the work by comparing it with (a model corresponding to a specific part consisting of a visually recognizable simple shape of the work shape) and calculate the picking part from the quantitative relative positional relationship with the specific part A device has been proposed.

【0004】また、特開平10-089943号「物体位置決め
方法及び装置」では、物体の特徴量を検出して参照モデ
ルとの対応付けすることにより、物体の位置決めをする
方法が、特開平10-118975号「ハンドリング位置認識方
法および認識装置」では、ワーク表面にスリット状のパ
ターン光を投光して得られる距離画像の処理と、スリッ
トを全開にしてワーク表面に照明光を投光して得られる
濃淡画像の処理とを併用し、ワークのハンドリング位置
を認識する手法が、そして特開平11-190620号「ワーク
の姿勢認識方法および装置、並びにワークの姿勢認識プ
ログラムの記録媒体」では、複数のセンサを用い、第1
センサによりワークの一長辺の端縁を検知し、前記検知
状態でセンサ部材を第1センサの左まわりに回転させ
て、第2センサにより一長辺の端縁を検知し、ワークの
姿勢を特定する手法が、それぞれ開示されている。
Japanese Patent Application Laid-Open No. 10-089943 discloses a method for positioning an object by detecting a feature amount of the object and associating it with a reference model. No. 118975 "Handling Position Recognition Method and Recognition Apparatus" processes distance images obtained by projecting slit-shaped pattern light on the surface of the work, and projects illumination light onto the work surface with the slit fully open. The method of recognizing the handling position of the work using both the processing of the gray image to be performed and the method described in JP-A-11-190620 “Method and apparatus for recognizing the posture of a work, and a recording medium for a program for recognizing the posture of a work” are described in Japanese Patent Application Laid-Open No. 11-190620. The first using a sensor
The edge of one long side of the work is detected by the sensor, the sensor member is rotated counterclockwise of the first sensor in the detection state, and the edge of the long side is detected by the second sensor, and the posture of the work is determined. Each of the identifying techniques is disclosed.

【0005】[0005]

【発明が解決しようとする課題】上記例示の従来手法か
らも明らかなように、いずれも、非接触のセンサ又は画
像装置(カメラ)を用いて認識対象部品を把握し、それぞ
れセンサ情報又は画像情報を処理して部品の姿勢情報を
得て、この姿勢情報をもとにロボットを作動させる点に
共通性がある。こうした基本的な手法は変わらないが、
それぞれに姿勢認識の手法が異なっている。例えば、特
開平05-134731号では照合モデルとの照合、特開平10-08
9943号では参照モデルとの対応付けするように、予め記
憶させていたデータとの照合をするものがあるが、これ
らは認識対象部品に変更があると、記憶させるデータの
変更も必要になる不便がある。
As is apparent from the above-mentioned conventional techniques, in each case, the recognition target component is grasped using a non-contact sensor or an image device (camera), and the sensor information or the image information is obtained. Is obtained by obtaining the posture information of the component by processing the robot and operating the robot based on the posture information. These basic techniques remain the same,
Each method has a different posture recognition method. For example, Japanese Patent Application Laid-Open No. 05-134731, Japanese Patent Application Laid-Open No. 10-08
In No. 9943, there is a method of collating with data stored in advance so as to correspond to a reference model. However, if these are changed in a recognition target part, it is necessary to change the data to be stored. There is.

【0006】また、特開平10-118975号ではスリット光
による距離画像と照明光による濃淡画像とを併用し、認
識対象部品を見分けるが、本発明が目的とするような部
品群として山積みにされた部品を分別する場合には、濃
淡画像が正しく得られない可能性がある。そして、特開
平11-190620号では、1個の部品を認識するのに、セン
サの回転を伴う等、時間がかかりすぎる問題がある。そ
こで、多数の平板状部品を山積みにした部品群から1個
毎にロボットハンドで取り出す際に、容易かつ迅速に認
識対象部品の3次元姿勢を認識する手法を検討した。
In Japanese Patent Application Laid-Open No. Hei 10-118975, a recognition target component is distinguished by using both a distance image by slit light and a grayscale image by illumination light, but the components are piled up as a component group as the object of the present invention. When parts are separated, there is a possibility that a grayscale image cannot be obtained correctly. In JP-A-11-190620, there is a problem that it takes too much time to recognize one component, for example, rotation of a sensor is required. Therefore, a technique for easily and quickly recognizing the three-dimensional posture of a recognition target component when taking out a large number of flat components from a piled component group one by one with a robot hand was studied.

【0007】[0007]

【課題を解決するための手段】検討の結果開発したもの
が、3次元座標内に多数の平板状部品を山積みにした部
品群から1個毎にロボットにより取り出す際に用いる姿
勢認識手法であって、部品群からの反射光の輝度に基づ
く高さ情報を有するラベルを用いて2次元座標内での認
識対象部品のラベル図形を構成し、このラベル図形から
認識対象部品について姿勢認識する3次元姿勢認識手法
である。具体的には、ロボットハンドによる把持を正確
に実施するため、前段の姿勢判別と把持方向の決定とか
ら構成する。まず、姿勢判別は、前記手法において、部
品群からの反射光における最大輝度を最高点Tとし、こ
の最高点Tからの輝度の変化に合わせて異なる高さ情報
を有するラベルを付し、このラベルのうち予め定めた輝
度閾値よりも高い輝度を有するラベルのみで2次元座標
内での認識対象部品のラベル図形を構成し、このラベル
図形が有する最高点Tを中心とする複数の半径方向での
輝度の和から輝度平均値を算出し、この輝度平均値より
も大きな和を有する半径方向からラベル図形における2
等分線を決定し、この2等分線とラベル図形の輪郭との
交点距離が予め定めた姿勢判別値よりも大きい場合には
認識対象部品は横姿勢、逆に小さい場合には認識対象部
品は縦姿勢と判別する。
What has been developed as a result of the study is a posture recognition method used when a robot takes out a large number of plate-like components one by one from a group of components stacked in three-dimensional coordinates. A label figure of a part to be recognized in two-dimensional coordinates using a label having height information based on the luminance of the reflected light from the part group, and a three-dimensional posture for recognizing the posture of the part to be recognized from the label figure It is a recognition technique. Specifically, in order to accurately carry out the gripping by the robot hand, it is configured from the posture determination in the preceding stage and the determination of the gripping direction. First, in the posture determination, in the above-described method, the maximum luminance in the reflected light from the component group is set as the maximum point T, and a label having different height information is attached according to a change in luminance from the maximum point T. Among the labels having a luminance higher than a predetermined luminance threshold, a label graphic of the recognition target component in the two-dimensional coordinates is formed, and a plurality of radial directions around the highest point T of the label graphic are formed. An average luminance value is calculated from the sum of the luminances.
A bisector is determined. If the intersection distance between the bisector and the contour of the label graphic is larger than a predetermined posture discrimination value, the recognition target component is in a horizontal posture. Is determined to be a vertical posture.

【0008】上記手法において、部品群からの高さは、
輝度の計測装置をこの部品群に向けた鉛直方向を基準軸
と定め、この基準軸から角度αだけ傾いた方向からレー
ザを照射し、このレーザの反射位置と基準軸との水平距
離Sからこの反射位置の高さZをZ=S/tanαとして求
める。最高点Tは、前記レーザによる計測を部品群全体
に対して複数回繰返し、各計測において得られた高さZ
を比較することにより求める。計測装置は、画像カメラ
や光学センサを用いることができる。基本的には、計測
装置とレーザ照射装置とを一組の計測機構とし、部品群
上をX-Y方向へ等間隔に変位させ、部品群全体の高さ
をサンプリングする。好ましくは、レーザをラインレー
ザLとし、計測毎に得られる直線状の反射位置を、基準
軸を含むラインレーザLと平行な座標軸からの水平距離
として計測することとし、計測機構をX方向又はY方向
へ等間隔に変位させれば、計測に要する時間短縮を図る
ことができる。
In the above method, the height from the parts group is
The luminance measuring device is defined as a reference axis in a vertical direction toward the component group, and a laser is irradiated from a direction inclined from the reference axis by an angle α, and the horizontal distance S between the reflection position of the laser and the reference axis is used as the reference axis. The height Z of the reflection position is obtained as Z = S / tanα. The highest point T is the height Z obtained in each measurement by repeating the measurement with the laser a plurality of times for the entire part group.
Is determined by comparing. As the measuring device, an image camera or an optical sensor can be used. Basically, the measuring device and the laser irradiating device constitute a set of measuring mechanisms, displace the components on the component group at equal intervals in the XY directions, and sample the height of the entire component group. Preferably, the laser is a line laser L, and a linear reflection position obtained for each measurement is measured as a horizontal distance from a coordinate axis parallel to the line laser L including the reference axis, and the measuring mechanism is set in the X direction or Y direction. Displacement at equal intervals in the direction can reduce the time required for measurement.

【0009】多数の平板状部品を山積みにした部品群で
は、個々の平板状部品はそれぞれの3次元姿勢が無秩序
に重なりあっているが、高さによって反射光の輝度が異
なる。本発明では、この高さと輝度の強弱との関係を利
用して、ロボットハンドで取り出しやすい最高点Tを有
する認識対象部品を部品群から選別し、併せてその認識
対象部品の3次元姿勢を判別するのである。こうした認
識対象部品の選別、3次元姿勢の判別に利用するのが、
輝度の変化に合わせて異なる高さ情報を有するラベルで
あり、本発明の特徴となっている。
In a component group in which a large number of flat components are piled up, the three-dimensional postures of the individual flat components are randomly overlapped, but the brightness of the reflected light varies depending on the height. In the present invention, by utilizing the relationship between the height and the intensity of the luminance, a recognition target component having the highest point T which can be easily taken out by the robot hand is selected from the component group, and the three-dimensional posture of the recognition target component is determined. You do it. It is used to select such recognition target parts and determine the three-dimensional posture.
A label having different height information in accordance with a change in luminance, which is a feature of the present invention.

【0010】最大輝度の反射光をもたらす平板状部品
は、部品群において最高位置に位置する。そして、この
最高位置に位置する平板状部品は、当然連続する面を有
しているから、最大輝度から連続的に低下する輝度の反
射光をもたらすはずである。そこで、予め定めた輝度閾
値よりも高い輝度を有するラベルのみで構成したラベル
図形は、最高位置に位置する平板状部品のみを表すこと
になり、これを認識対象部品とする。複数の平板状部品
が重なりあい、それぞれが同程度の輝度の反射光をもた
らす場合には、輝度閾値を適切に調節することで得られ
るラベル図形の修正を図ったり、錯綜する平板状部品そ
れぞれが構成するラベル図形の輪郭は、不連続に変化す
ると予測され、その輪郭の不連続を検出することによ
り、単独の平板状部品を認識対象部品とすることができ
る。
[0010] The plate-shaped component that provides the reflected light with the maximum brightness is located at the highest position in the component group. Since the plate-shaped component located at the highest position naturally has a continuous surface, it should provide reflected light having a luminance that continuously decreases from the maximum luminance. Therefore, a label graphic composed of only labels having a luminance higher than a predetermined luminance threshold represents only a flat part located at the highest position, and this is set as a recognition target part. When a plurality of flat parts are overlapped and each of them produces reflected light of the same level of brightness, the label figure obtained by adjusting the brightness threshold value appropriately can be corrected, or each of the complicated flat parts can be corrected. It is predicted that the contour of the constituent label graphic changes discontinuously, and by detecting the discontinuity of the contour, a single flat component can be set as the recognition target component.

【0011】ラベル図形のみを用いても、ある程度はラ
ベル図形の3次元座標や傾きを検出することができる
が、本発明では正確を期すために、一度姿勢の大別(横
姿勢か、縦姿勢か)し、続いて各適した手法に基づい
て、ラベル図形を含む認識対象部品の3次元座標及び傾
き、すなわち3次元姿勢を決定するようにしている。そ
のため、まず、(1)ラベル図形が有する最高点Tを中心
とする複数の半径方向での輝度の和から輝度平均値を算
出し、(2)この輝度平均値よりも大きな和を有する半径
方向からラベル図形における2等分線を決定し、(3)(a)
この2等分線とラベル図形の輪郭との交点距離が予め定
めた姿勢判別値よりも大きい場合には認識対象部品は横
姿勢、(3)(b)逆に小さい場合には認識対象部品は縦姿勢
と判別する。ラベル図形が有する最高点Tは、認識対象
部品がまったくの水平でない限り、必ずラベル図形の輪
郭上、すなわち認識対象部品の輪郭上に存在する。この
ため、複数の半径方向の輝度をそれぞれ和すると、認識
対象部品外を含む半径方向では、輝度の和が平均輝度を
下回り、逆に認識対象部品内を含む半径方向では、輝度
の和が平均輝度を上回ることになる。こうして決定され
た2等分線の方向は、認識対象部品を水平面に投影した
場合の向き、水平角を表すことになる。また、2等分線
とラベル図形の輪郭との交点距離の長短は、認識対象部
品の傾きに比例する。こうして、ラベル図形を用いて、
認識対象部品の姿勢が掴めるのである。
Although it is possible to detect the three-dimensional coordinates and the inclination of the label figure to some extent by using only the label figure, in order to ensure accuracy, in the present invention, the posture is roughly classified (horizontal posture or vertical posture). Then, the three-dimensional coordinates and inclination of the recognition target component including the label graphic, that is, the three-dimensional posture, are determined based on each suitable technique. Therefore, first, (1) the luminance average value is calculated from the sum of the luminance in a plurality of radial directions centered on the highest point T of the label figure, and (2) the radial direction having a sum greater than this luminance average value. Determines the bisector in the label figure from (3) (a)
If the intersection distance between the bisector and the contour of the label figure is larger than a predetermined posture determination value, the recognition target component is in the horizontal posture. It is determined as a vertical posture. The highest point T of the label graphic always exists on the outline of the label graphic, that is, on the outline of the recognition target component, unless the recognition target component is completely horizontal. Therefore, when the sum of the luminances in the plurality of radial directions is respectively calculated, the sum of the luminances is lower than the average luminance in the radial direction including the outside of the recognition target component, and conversely, the sum of the luminances is averaged in the radial direction including the inside of the recognition target component. Brightness will be exceeded. The direction of the bisector thus determined represents the direction and horizontal angle when the recognition target component is projected on a horizontal plane. The length of the intersection point between the bisector and the contour of the label figure is proportional to the inclination of the recognition target component. Thus, using the label figure,
The posture of the recognition target component can be grasped.

【0012】より詳細には、(a)横姿勢と判別した認識
対象部品については、ラベル図形の輪郭上の点からこの
認識対象部品の回帰平面Rを算出し、この回帰平面Rの
3次元座標に対する水平角、垂直角からこの認識対象部
品の把持方向を決定し、(b)縦姿勢と判別した認識対象
部品については、ラベル図形を囲む矩形(フィレ径)の対
角線方向に並ぶラベルの輝度の和を比較し、この輝度の
和が大きくなる対角線方向に認識対象部品の面方向を定
め、かつこの対角線方向が2次元座標に対してなす水平
角をこの認識対象部品の把持方向として決定する。認識
対象部品の3次元姿勢を大別する理由は、横姿勢の場合
は略鉛直方向から認識対象部品を挟持するロボットハン
ドを用い、縦姿勢の場合は略鉛直方向から認識対象部品
を挟持するロボットハンドを用いるためである。このよ
うに、認識対象部品の3次元姿勢に合わせて異なるロボ
ットハンドを用いることで、ミスなく、確実かつ迅速に
認識対象部品のみを部品群から取りだせるようになる。
More specifically, (a) for the recognition target component determined to be in the horizontal orientation, a regression plane R of the recognition target component is calculated from a point on the contour of the label figure, and the three-dimensional coordinates of the regression plane R are calculated. The gripping direction of this recognition target component is determined from the horizontal angle and the vertical angle with respect to (b) For the recognition target component determined to be in the vertical orientation, the brightness of the label aligned in the diagonal direction of the rectangle (filet diameter) surrounding the label figure The sums are compared, the surface direction of the recognition target component is determined in a diagonal direction in which the sum of the luminances increases, and the horizontal angle formed by the diagonal direction with respect to the two-dimensional coordinates is determined as the gripping direction of the recognition target component. The reason for roughly classifying the three-dimensional posture of the recognition target component is that a robot hand that holds the recognition target component from a substantially vertical direction in a horizontal posture, and a robot that holds the recognition target component from a substantially vertical direction in a vertical posture. This is because a hand is used. In this way, by using different robot hands according to the three-dimensional posture of the recognition target component, only the recognition target component can be reliably and quickly taken out from the component group without error.

【0013】実際の平板状部品は、単なる平板ではな
く、多少の凹凸や段差があり、表裏の区別がある場合が
通例である。そこで、ロボットハンドが取り出した認識
対象部品は、一度表裏判定を経てから、次工程の加工又
は組立ラインへ移すようにするとよい。認識対象部品の
表裏判定には上述した計測機構を応用できる。例えば、
平板状部品の表面に凸が形成されている場合、取り出し
た認識対象部品を計測位置において水平にし、凸が形成
されている部位に向けて斜め方向からレーザーを照射
し、(1)反射光が手前存在すれば凸が上向きにあるから
表を向き、(2)反射光が奥に存在すれば凸が下向きにあ
るから裏を向いている、と判断するのである。こうして
表裏判定を終えた認識対象部品は、表裏別にストッカに
一時収納した後、適宜次工程へ送り出せばよい。
An actual flat component is not a simple flat plate, but has some irregularities and steps, and there is usually a distinction between front and back. Therefore, it is preferable that the recognition target component taken out by the robot hand undergoes a front / back determination once before being transferred to the processing or assembly line in the next process. The above-described measurement mechanism can be applied to the front / back determination of the recognition target component. For example,
When a convex part is formed on the surface of the flat part, the extracted recognition target part is made horizontal at the measurement position, and a laser is irradiated obliquely toward the part where the convex part is formed. If it is present, it is determined that the projection is facing upward because the convex is upward, and (2) if the reflected light is located backward, it is determined that the convex is downward and is facing backward. The recognition target component for which the front / back determination has been completed may be temporarily stored in the stocker separately for the front and back, and then sent to the next process as appropriate.

【0014】[0014]

【発明の実施の形態】以下、本発明の実施形態について
図を参照しながら説明する。図1は本発明の3次元姿勢
認識手法の検証モデルとして構成した部品供給装置のレ
イアウト図、図2は高さを検出するアルゴリズムを説明
する計測機構1の部分側面図、図3は最大輝度を示す最
高点Tを検出した後の姿勢大別に至る処理を表したフロ
ーチャート、図4は横姿勢と判別される場合の認識対象
部品2の状態図、図5は縦姿勢と判別される認識対象部
品2の状態図、図6は認識対象部品2における傾きθと
水平角ψとの関係図、図7は横姿勢の認識対象部品2の
ロボットハンド3による把持方向決定に至るフローチャ
ート、図8は縦姿勢の認識対象部品2のロボットハンド
3による把持方向決定に至るフローチャート、図9は本
検証モデルに用いたロボットハンド3の一例を表した側
面図、図10は表裏判定において認識対象部品2が裏であ
ると識別した場合を表した平面図であり、図11は表裏判
定において認識対象部品2が表であると識別した場合を
表した平面図である。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a layout diagram of a component supply device configured as a verification model of the three-dimensional posture recognition method of the present invention, FIG. 2 is a partial side view of a measuring mechanism 1 for explaining an algorithm for detecting a height, and FIG. FIG. 4 is a flowchart showing a process leading to posture classification after detecting the highest point T shown in FIG. 4, FIG. 4 is a state diagram of the recognition target component 2 when it is determined to be a horizontal posture, and FIG. FIG. 6 is a diagram showing the relationship between the inclination θ and the horizontal angle に お け る in the recognition target component 2, FIG. 7 is a flowchart showing the determination of the gripping direction of the recognition target component 2 in the horizontal posture by the robot hand 3, and FIG. FIG. 9 is a flowchart showing the determination of the gripping direction of the posture recognition target component 2 by the robot hand 3, FIG. 9 is a side view showing an example of the robot hand 3 used in this verification model, and FIG. Is a plan view that shows the case where the identified is, FIG. 11 is a plan view of the recognition target part 2 represents the case where identified as a table in the front and back judgment.

【0015】本例は本発明の3次元認識手法の検証モデ
ルであり、凹凸により表裏の区別がある円環状平板(後
継図12又は図13参照)をケース5内に山積みにして部品
群4を構成し、1個毎にロボットハンド3で取り出す。
検証モデルは、図1に見られるように、山積みにされた
部品群4上を計測機構1がY軸方向に変位する姿勢判別
装置6、姿勢判別装置6により把持方向を決定した認識
対象部品2を取り出すロボットハンド3を動かすロボッ
ト7、そして取り出した認識対象部品2を判定台8に水
平状態で置き、表裏判定する表裏判別装置9とから構成
し、これらをコンピュータ10により制御している。各装
置6,9又はロボットハンド3の制御は、従来公知の技
術を用いることができる。
This example is a verification model of the three-dimensional recognition method according to the present invention. An annular flat plate (see FIG. 12 or FIG. 13) having a distinction between front and back surfaces due to unevenness is piled up in a case 5 to form a part group 4. And the robot hand 3 takes out each one.
As shown in FIG. 1, the verification model includes a posture discriminating device 6 in which the measuring mechanism 1 is displaced in the Y-axis direction on the piled component group 4, and a recognition target component 2 whose holding direction is determined by the posture discriminating device 6. A robot 7 that moves a robot hand 3 that takes out the object, and a recognition target component 2 that is taken out are placed in a horizontal position on a judgment table 8, and a front / back discrimination device 9 that judges front / back is configured, and these are controlled by a computer 10. The control of each device 6, 9 or the robot hand 3 can use a conventionally known technique.

【0016】姿勢判別装置6は、クロステーブル11上を
Y軸方向に変位するベース12に両腕13,13を有するステ
ー14を立設し、このステー14に計測機構1を構成してい
る。計測機構1は、ステー14中央からCCDカメラ(計測装
置)15を鉛直方向に向け、両腕13から斜め方向にライン
レーザLを照射するレーザ装置16を取り付けている。本
発明では、CCDカメラ15の方向=鉛直方向に対して、斜
めからラインレーザLを照射するレーザ装置16を1基設
ければ姿勢判別可能であるが、現実には、部品の重なり
具合によって、一方向からのラインレーザLだけでは正
確な計測ができないので、この検証モデルでは2基のレ
ーザー装置16,16を用いている。
The posture discriminating apparatus 6 has a stay 14 having both arms 13, 13 standing on a base 12 displaced in the Y-axis direction on a cross table 11, and the stay 14 constitutes the measuring mechanism 1. The measuring mechanism 1 has a laser device 16 that directs a CCD camera (measuring device) 15 from the center of the stay 14 in the vertical direction and irradiates the line laser L obliquely from both arms 13. In the present invention, the orientation can be determined by providing one laser device 16 that irradiates the line laser L obliquely with respect to the direction of the CCD camera 15 = the vertical direction. Since accurate measurement cannot be performed with only the line laser L from one direction, two laser devices 16 and 16 are used in this verification model.

【0017】本発明では、まずケース5内に山積みにさ
れた部品群4における最高点Tを検出し、認識対象部品
2を選ばなければならない。このため、姿勢判別装置6
における計測機構1を一定間隔で部品群4上を変位させ
ながら、ラインレーザLによる反射光の輝度をCCDカメ
ラ15で計測し、最大輝度の位置を求める。具体的には、
図2に見られるように、角度αの斜め方向から照射され
たラインレーザLの反射位置をCCDカメラ15の基準線か
らの距離Sで比較し、前記距離SをCCDカメラ15との高
低差(Z=S/tanα)として、各反射光をもたらす部品の
高さを間接的に取得する。CCDカメラ15が計測する反射
光の位置は、あくまでCCDカメラ15に定めた基準線に対
する相対座標であるが、CCDカメラ15はY軸方向に変位
するベース12に従ってY座標のみを増減させるので、前
記Y座標の増減分を前記相対座標に反映すれば、各反射
光の位置の3次元座標(x,y,z)を求めることができる。
In the present invention, first, the highest point T in the component group 4 piled up in the case 5 must be detected, and the component 2 to be recognized must be selected. For this reason, the posture determination device 6
While displacing the measurement mechanism 1 above the parts group 4 at a constant interval, the luminance of the reflected light by the line laser L is measured by the CCD camera 15 to obtain the position of the maximum luminance. In particular,
As shown in FIG. 2, the reflection position of the line laser L irradiated from the oblique direction of the angle α is compared with the distance S from the reference line of the CCD camera 15, and the distance S is compared with the height difference from the CCD camera 15 ( As Z = S / tan α), the height of the component that causes each reflected light is obtained indirectly. The position of the reflected light measured by the CCD camera 15 is only relative coordinates with respect to the reference line defined by the CCD camera 15, but since the CCD camera 15 increases or decreases only the Y coordinate according to the base 12 displaced in the Y-axis direction, By reflecting the increase or decrease of the Y coordinate on the relative coordinates, the three-dimensional coordinates (x, y, z) of the position of each reflected light can be obtained.

【0018】こうして、得られた各反射光の位置におい
て、最大輝度を有する座標を、部品群4及び認識対象部
品2の最高点Tをみなし、図3に見られるフローチャー
トに基づいて、認識対象部品2の姿勢判別を実施する。
部品群4全体に対する計測では、時間短縮を図るために
最高点Tの検出は粗く実施するとよい。このため、認識
対象部品2を選別した後、改めて最高点Tを計測し直す
のである。仮に、当初から部品群4全体で正確かつ緻密
に最高点Tの計測を実施していれば、認識対象部品2の
最高点Tを改めて計測し直す必要はない。
At the positions of the respective reflected lights thus obtained, the coordinates having the maximum luminance are regarded as the highest point T of the component group 4 and the recognition target component 2 and the recognition target component is determined based on the flowchart shown in FIG. 2 is performed.
In the measurement of the entire part group 4, the detection of the highest point T may be roughly performed in order to reduce the time. For this reason, after selecting the recognition target component 2, the highest point T is measured again. If the highest point T of the entire component group 4 is accurately and precisely measured from the beginning, it is not necessary to measure the highest point T of the recognition target component 2 again.

【0019】姿勢判別は、輝度情報に従った認識対象部
品2のラベル付けから始める。本検証モデルでは、色に
よるラベル付けを用いて、ラベル付けの結果をモニタ等
(例えば制御用のコンピュータ10のモニタ)で視覚的に確
認できるようにしている。まず、認識対象部品2と他の
部品との選別を図るため、認識対象部品2からの反射光
のみでラベル付けを実施できるように、他の部品の輝度
を拾わない適切な輝度閾値Siを決定する。具体的に
は、最大輝度を輝度閾値Siの最大値として少しずつ輝
度閾値Siを下げながら、ラベルのエッジEg,Eg(ラベ
ルが形成する画像の輪郭のベクトルが急変する端部、後
継図4参照)間の距離が急激に変化する輝度閾値Siの1
つ手前を、他の部品の輝度を拾わない輝度閾値Siとす
る。部品同士が重なりあった状態でラベル付けすると、
そのラベルにおけるエッジEg,Eg間の距離は、部品の
重なりあいによって輪郭が途切れ、短くなる。これか
ら、エッジEg,Eg間の距離を比較し、急にその長さが
短くなった輝度閾値Siの1つ手前を他の部品と認識対
象部品2とを分別する輝度閾値Siと定めることができ
る。ラベル図形17は、この輝度閾値Siに基づいて認識
対象部品2だけによる反射光のラベル画像として構成す
る。
The posture determination starts with labeling of the recognition target component 2 according to the luminance information. This verification model uses color labeling to monitor the results of labeling, etc.
(For example, a monitor of the control computer 10). First, in order to sort the recognition target component 2 from other components, an appropriate brightness threshold value Si that does not pick up the brightness of other components is determined so that labeling can be performed only with the reflected light from the recognition target component 2. I do. More specifically, the edge of the label Eg, Eg (the end where the vector of the outline of the image formed by the label changes suddenly, while the maximum luminance is set to the maximum value of the luminance threshold Si and the luminance threshold Si is gradually reduced, see FIG. 1) of the brightness threshold value Si at which the distance between
Immediately before this, a brightness threshold value Si at which the brightness of other components is not picked up is set. When labeling with parts overlapping,
The distance between the edges Eg and Eg in the label becomes shorter due to the overlapping of the parts and the outline is interrupted. From this, it is possible to compare the distance between the edges Eg and Eg, and determine the one immediately before the luminance threshold Si whose length has suddenly become short as the luminance threshold Si for separating the other component from the recognition target component 2. . The label graphic 17 is configured as a label image of light reflected by only the recognition target component 2 based on the luminance threshold Si.

【0020】手順としてはフローチャートに示す通り
で、まず最初に輝度閾値Siを255(フローチャートで
は、計算上初期値を256としてループの最初で1だけ減
算している)と定め、最高点Tと同じ輝度を有する点の
みの反射光を取得し、CCDカメラ15が取得した画像を2
値化して同一色(本検証モデルでは赤色)のラベル付けを
図る。このラベルの輪郭から、エッジEg,Eg間の距離
を求めておく。次に、輝度閾値Siを254に下げ、同様に
ラベル付け、エッジEg,Eg間の距離を求め、前回のエ
ッジEg,Eg間の距離と比較する。後は、輝度閾値を1
ずつ下げながら、各輝度閾値に対応したエッジEg,Eg
間の距離を求めながら、エッジEg,Eg間の距離が最大
となる輝度閾値Siを求める。この輝度閾値Siは、他の
部品からの反射光を含むラベル付けを得るものなので、
認識対象部品2のみのラベル図形は、輝度輝度閾値Si
+1で再度2値化、ラベル付けして構成する。先に計算
したラベル図形17を記憶しておき、この記憶したラベル
図形17を用いるようにしてもよい。
The procedure is as shown in the flow chart. First, the luminance threshold value Si is set to 255 (in the flow chart, the initial value is 256 for calculation and 1 is subtracted at the beginning of the loop). The reflected light of only points having brightness is acquired, and the image acquired by the CCD camera 15 is
Convert to value and label the same color (red in this verification model). The distance between the edges Eg, Eg is determined from the outline of the label. Next, the luminance threshold value Si is reduced to 254, labeling is performed in the same manner, the distance between the edges Eg, Eg is obtained, and compared with the distance between the previous edges Eg, Eg. After that, the brightness threshold is set to 1
Edges Eg, Eg corresponding to each luminance threshold
While obtaining the distance between the edges Eg, a luminance threshold value Si at which the distance between the edges Eg is maximized is obtained. Since this luminance threshold value Si obtains a label including light reflected from other components,
The label figure of only the recognition target component 2 has the luminance / luminance threshold Si
+1 is used for binarizing and labeling again. The previously calculated label graphic 17 may be stored, and the stored label graphic 17 may be used.

【0021】次に、認識対象部品2について、姿勢判別
を実施する。まず、図4に見られるように、ラベル図形
17における最高点Tを中心に、複数の半径方向の輝度の
和を求める。本検証モデルでは、等間隔の24方向に一定
範囲の輝度の和を求めるようにしている。この輝度の和
を更に合計して24で割ることにより、輝度平均値が求め
られる。この輝度平均値以上の方向のみを残し、これら
の方向からラベル図形17の2等分線18を求める。最高点
Tはラベル図形17の輪郭上に存在するはずで、認識対象
部品2外における半径方向の輝度の和は輝度平均値より
低くなり、逆に認識対象部品2内における半径方向の輝
度の和は輝度平均値より高くなるのは自明であり、こう
して2等分線18を求めることができる。
Next, the posture of the recognition target component 2 is determined. First, as shown in FIG.
The sum of a plurality of luminances in the radial direction is obtained with the highest point T at 17 as the center. In this verification model, the sum of luminances in a fixed range in 24 equally spaced directions is obtained. The sum of the luminances is further summed and divided by 24 to obtain an average luminance value. The bisector 18 of the label graphic 17 is determined from these directions, leaving only directions above the average luminance value. The highest point T must exist on the outline of the label graphic 17, and the sum of the luminance in the radial direction outside the recognition target component 2 is lower than the average luminance value, and conversely, the sum of the luminance in the radial direction inside the recognition target component 2. It is obvious that is higher than the luminance average value, and thus the bisector 18 can be obtained.

【0022】そして、上記2等分線18とラベル図形17と
の輪郭との交点、更に交点間の水平距離Dを求める。こ
の水平距離Dは、認識対象部品2の傾きθによって長さ
が変わり、予め設定した姿勢判別値Kとの比較により、
認識対象部品2の姿勢を横姿勢又は縦姿勢と大別できる
のである。本検証システムでは、後述するロボットハン
ド3の把持能力を勘案して、θ=70度と定めて姿勢判別
値Kを算出し、認識対象部品2の傾きθが70度より小さ
ければ横姿勢(図4)、傾きθが70度以上であれば縦姿勢
(図5)と区別することにしている。
Then, an intersection between the bisector 18 and the contour of the label graphic 17 and a horizontal distance D between the intersections are obtained. The length of the horizontal distance D changes depending on the inclination θ of the recognition target component 2, and is compared with a preset posture determination value K.
The posture of the recognition target component 2 can be roughly classified into a horizontal posture or a vertical posture. In this verification system, taking into account the gripping ability of the robot hand 3 described later, the posture determination value K is calculated by setting θ = 70 degrees, and if the inclination θ of the recognition target component 2 is smaller than 70 degrees, the lateral posture (FIG. 4) If the inclination θ is 70 degrees or more, the posture is vertical.
(Fig. 5).

【0023】認識対象部品2をロボットハンド3で把持
するには、認識対象部品2の把持する部位を定めてその
3次元座標を得ることはもちろん、ロボットハンド3を
どの方向から接近させ、把持するかが重要となる。この
把持方向を決定するのが、図6に表されるように、認識
対象部品2の傾きθ及び水平角ψである。先に姿勢の大
別を済ませているが、これはあくまでロボットハンド3
の把持機構の選別を図っているのであり、次に横姿勢の
場合と縦姿勢の場合とを分けて、異なる手順(図7、図
8)で正確な把持方向を決定する。
In order to hold the recognition target component 2 with the robot hand 3, the part to be recognized of the recognition target component 2 is determined and its three-dimensional coordinates are obtained. Is important. The grip direction is determined by the inclination θ and the horizontal angle の of the recognition target component 2 as shown in FIG. The posture has already been roughly divided, but this is just robot hand 3
Therefore, the gripping mechanism is selected, and then the horizontal gripping and the vertical gripping are separated, and the correct gripping direction is determined by different procedures (FIGS. 7 and 8).

【0024】横姿勢の場合、図7に示すフローチャート
に従う。既に求められたラベル図形(改めて、輝度閾値
Si+1で反射光を測定、2値化、ラベル付けを経てラ
ベル図形17を構成してもよい)をもとに、まずラベル図
形17の輪郭上に並ぶ複数点それぞれの3次元座標を得
る。この3次元座標は、認識対象部品2上に存在するこ
とは間違いなく、この3次元座標を基礎としてラベル図
形17の回帰平面Rを求め、この回帰平面Rの法線ベクト
ルHから傾きθを特定する。回帰平面Rの算出は、従来
公知の手法を用いる。また、法線ベクトルHがXY平面
に対して有する水平角ψは、認識対象部品2の水平角ψ
となる。こうして、ロボットハンド3による把持に必要
な(1)認識対象部品2の最高点T(最大輝度の3次元座
標)、(2)最高点Tにおける傾きθ、そして(3)同最高点
Tにおける水平角ψがすべて求められたので、前記情報
に従ってロボットハンド3を動かし、認識対象部品2を
挟持して取り出せばよい。
In the case of the horizontal posture, the flowchart shown in FIG. 7 is followed. Based on the label figure already determined (the reflected light may be measured again with the luminance threshold value Si + 1, the label figure 17 may be formed through binarization and labeling), the label figure 17 is first arranged on the contour of the label figure 17 The three-dimensional coordinates of each of the plurality of points are obtained. It is certain that the three-dimensional coordinates exist on the recognition target component 2, and the regression plane R of the label graphic 17 is obtained based on the three-dimensional coordinates, and the inclination θ is specified from the normal vector H of the regression plane R. I do. The calculation of the regression plane R uses a conventionally known method. The horizontal angle 法 that the normal vector H has with respect to the XY plane is the horizontal angle の of the recognition target component 2.
Becomes Thus, (1) the highest point T (three-dimensional coordinates of the maximum brightness) of the recognition target component 2 necessary for gripping by the robot hand 3, (2) the inclination θ at the highest point T, and (3) the horizontal at the highest point T Since all the angles ψ have been obtained, the robot hand 3 may be moved in accordance with the information, and the recognition target component 2 may be pinched and taken out.

【0025】本検証システムでは、70度以上の傾きθで
の縦姿勢はすべて上方からのロボットハンド3の接近に
より把持できるようにしているので、縦姿勢と判別した
場合、認識対象部品2の水平角ψのみを特定すればよ
い。その手順を示すのが図8のフローチャートである。
既に求められたラベル図形17(改めて、輝度閾値Si+1
で反射光を測定、2値化、ラベル付けを経てラベル図形
を構成してもよい)をもとに、まずラベル図形17のフェ
レ径を求め、このフェレ径における対角線T1,T2におけ
る輝度の和R1,R2を求める。そして、輝度の和R1,R2を比
較して、R1>R2であれば認識対象部品2はT1と平行であ
るとして、T1の水平角を認識対象部品2の水平角ψと定
める。逆に、R1<R2であれば、T2の水平角を認識対象部
品2の水平角ψと定める。こうして、ロボットハンド3
による把持に必要な(1)認識対象部品2の最高点T、(2)
最高点Tにおける傾きθ(=90度と設定)、そして(3)同
最高点Tにおける水平角ψがすべて求められたので、前
記情報に従ってロボットハンド3を動かし、認識対象部
品2を挟持して取り出せばよい。
In the present verification system, all vertical postures at an inclination θ of 70 degrees or more can be grasped by approaching the robot hand 3 from above. Only the angle ψ needs to be specified. The procedure is shown in the flowchart of FIG.
The label figure 17 already determined (again, the luminance threshold value Si + 1
The reflected light may be measured by binarizing and labeling may be configured through labeling) .First, the Feret diameter of the label graphic 17 is determined, and the sum of the luminances on the diagonal lines T1 and T2 at this ferret diameter is obtained. Find R1 and R2. The luminance sums R1 and R2 are compared, and if R1> R2, the recognition target component 2 is determined to be parallel to T1, and the horizontal angle of T1 is determined as the horizontal angle の of the recognition target component 2. Conversely, if R1 <R2, the horizontal angle of T2 is determined as the horizontal angle の of the recognition target component 2. Thus, robot hand 3
(1) the highest point T of the part 2 to be recognized,
Since the inclination θ at the highest point T (= 90 degrees) and (3) the horizontal angle に お け る at the highest point T are all obtained, the robot hand 3 is moved according to the above information, and the recognition target component 2 is held. I just need to take it out.

【0026】本検証モデルにおいて、認識対象部品2の
取り出しを横姿勢、縦姿勢で分けたのは、本発明が対象
としている部品が平板状であり、横姿勢及び縦姿勢に端
位置の把持機構しか持たないロボットハンド3で対応す
ると、ロボットハンド3又はロボット7の作動量が大き
くなり、制御が難しくなるほか、他の装置との干渉が起
きうると考えたからである。そこで、ロボットハンド3
自体の作動範囲を抑制しながら、適宜挟持部位を切り替
えられるようにしたロボットハンド3が、図9に示す例
である。このロボットハンド3では、2つの縦横エアシ
リンダ19,20を有し、横姿勢の認識対象部品2に対して
は横チャック21を把持方向から接近させて横エアシリン
ダ20を作動させ、縦姿勢の認識対象部品2に対しては縦
チャック22を把持方向から接近させて縦エアシリンダ19
を作動させる。このほか、縦姿勢に対しては、チャック
の爪を認識対象部品の下側に回り込ませることが難しい
場合も想定され、そうした場合に対して、吸着による取
り上げも可能なように、磁石や吸盤をロボットハンドに
取り付けてもよい。
In the present verification model, the components to be recognized 2 are taken out in the horizontal position and the vertical position, because the target object of the present invention is a flat plate, and the gripping mechanism at the end position in the horizontal position and the vertical position. This is because if the robot hand 3 has only the robot hand 3, the operation amount of the robot hand 3 or the robot 7 becomes large, control becomes difficult, and interference with other devices may occur. So robot hand 3
FIG. 9 shows an example in which the robot hand 3 is configured to be able to appropriately switch the holding portion while suppressing its own operation range. The robot hand 3 has two vertical and horizontal air cylinders 19 and 20. The horizontal air cylinder 20 is actuated by moving the horizontal chuck 21 toward the recognition target component 2 in the horizontal posture from the gripping direction, and The vertical chuck 22 is moved closer to the recognition target component 2 from the gripping direction, and the vertical air cylinder 19 is moved.
Activate In addition, it is assumed that it is difficult to make the chuck claw go under the recognition target component in the vertical position, and in such a case, a magnet or suction cup is attached so that it can be picked up by suction. It may be attached to a robot hand.

【0027】本発明では、山積みされた平板状部品の部
品群から1個毎にロボットハンドで取り出すことを目的
としており、3次元姿勢の認識も各部品を扁平な板とし
てみなしているが、現実の部品形状は、小さくとも起伏
があり、表裏の別があるのが通例である。そこで、本検
証モデルでは、ロボットハンド3が取り出した認識対象
部品2を、別途表裏判別装置の水平な判定台8に置き、
斜め方向からラインレーザLを当てて、ラインレーザL
の軸線が内、外いずれにずれるかによって表裏を判定し
ている。
In the present invention, the purpose is to take out one by one from the component group of the flat plate components piled up by the robot hand, and to recognize the three-dimensional posture, each component is regarded as a flat plate. The shape of the part is undulating even if it is small, and there is usually a distinction between front and back. Therefore, in this verification model, the recognition target component 2 taken out by the robot hand 3 is placed on a horizontal judgment table 8 of a front / back discrimination device separately.
The line laser L is applied obliquely to the line laser L.
The front and back are determined based on which of the axes is shifted inside or outside.

【0028】具体的には、図10及び図11に見られるよう
に、認識対象部品2が星形状の突部23を表側に突出させ
た円環状部品であれば、この突部23を横断するようにラ
インレーザLを照射し、ラインレーザLの反射光の位置
により、表裏を判定する。ここで、判定台8に置いた認
識対象部品2が裏側を向いていれば、ラインレーザLに
よる反射光は一部内側(ラインレーザLに近い側)に現
れ、逆に認識対象部品2が表側を向いていれば、ライン
レーザLによる反射光は一部外側(ラインレーザLに遠
い側)に現れる。この表裏判別装置9では、表裏の判定
の際に判定台8の所定位置に認識対象部品2を置く関係
から、部品形状を画像認識して品質判定も実施できる。
また、表裏判別装置9を用いず、ロボットハンド3が認
識対象部品2を把持した状態で特定姿勢(認識対象部品
2を指定位置で水平にする)となり、特定方向から照射
したラインレーザLの反射光から表裏を判定してもよ
い。
More specifically, as shown in FIG. 10 and FIG. 11, if the recognition target component 2 is an annular component having a star-shaped protrusion 23 protruding to the front side, the recognition target component 2 crosses the protrusion 23. The line laser L is irradiated as described above, and the front and back sides are determined based on the position of the reflected light of the line laser L. Here, if the recognition target component 2 placed on the judgment table 8 faces the back side, the reflected light by the line laser L appears partially inside (the side close to the line laser L), and conversely, the recognition target component 2 , The light reflected by the line laser L appears partially outside (on the side far from the line laser L). The front / back discrimination device 9 can also perform quality judgment by recognizing the shape of the component based on the relationship of placing the recognition target component 2 at a predetermined position on the judgment table 8 at the time of front / back determination.
In addition, without using the front / back discrimination device 9, the robot hand 3 takes a specific posture (the recognition target component 2 is made horizontal at a specified position) while holding the recognition target component 2, and reflects the line laser L irradiated from a specific direction. The front and back may be determined from light.

【0029】[0029]

【発明の効果】本発明の3次元認識手法では、取り出す
対象となる部品形状のデータを記憶したデータベースを
用いることなく、反射光の輝度から導きだされるラベル
図形の処理のみによって、部品群から認識対象部品を選
別し、ロボットハンドの把持方向まで特定できる特徴を
有している。3次元の物体である部品を、高さ情報を有
する2次元図形(ラベル図形)に変換して処理することか
ら、外形的に複雑な立体部品を対象にすることは難しい
が、平板状部品であれば、本発明の3次元姿勢認識手法
を用いることで、迅速かつ正確なロボットハンドの制御
を実施することができるようになる。
According to the three-dimensional recognition method of the present invention, without using a database storing the data of the shape of the component to be extracted, only the processing of the label figure derived from the luminance of the reflected light is performed from the component group. It has the feature that it can select the recognition target parts and specify the gripping direction of the robot hand. Since a part that is a three-dimensional object is converted into a two-dimensional figure (label figure) having height information and processed, it is difficult to target a three-dimensional part with a complicated external shape. If so, the use of the three-dimensional posture recognition method of the present invention enables quick and accurate control of the robot hand.

【0030】上述の検証モデルの例示から明らかなよう
に、ハード構成としては、認識対象部品を横姿勢又は縦
姿勢と判別することによって挟持部位が異なるロボット
ハンド以外、既存の装置やセンサ、パソコン等を用いて
システムを構成することができ、ソフトウェアの改変に
より、多種多様な平板状部品に対して本発明を適用でき
る利点もある。例示では、平板状円環の部品に対する装
置構成を示したが、もちろん他の平板状部品を対象とし
た一般的な部品供給装置をも構成可能である。このよう
に、本発明の基礎的な手法は、広く適用可能であり、今
後の少量多品種の生産ラインでの汎用的部品供給装置の
提供を実現する。
As is evident from the above example of the verification model, the hardware configuration includes existing devices, sensors, personal computers, etc., other than the robot hand having different holding parts by discriminating the recognition target component into the horizontal posture or the vertical posture. Can be used to configure the system, and there is also an advantage that the present invention can be applied to various kinds of plate-shaped components by modifying software. In the illustrated example, the device configuration for the flat annular component is shown, but it is needless to say that a general component supply device for other flat components can also be configured. As described above, the basic method of the present invention is widely applicable, and realizes the provision of a general-purpose component supply device in a future small-lot multi-product line.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の3次元姿勢認識手法の検証モデルとし
て構成した部品供給装置のレイアウト図である。
FIG. 1 is a layout diagram of a component supply device configured as a verification model of a three-dimensional posture recognition method of the present invention.

【図2】高さを検出するアルゴリズムを説明する計測機
構の部分側面図である。
FIG. 2 is a partial side view of a measuring mechanism for explaining an algorithm for detecting a height.

【図3】最大輝度を示す最高点Tを検出した後の姿勢大
別に至る処理を表したフローチャートである。
FIG. 3 is a flowchart showing a process leading to posture classification after detecting a maximum point T indicating a maximum luminance.

【図4】横姿勢と判別される場合の部品の状態図であ
る。
FIG. 4 is a state diagram of a component when it is determined that the component is in a horizontal orientation.

【図5】縦姿勢と判別される部品の状態図である。FIG. 5 is a state diagram of a component determined to be in a vertical posture.

【図6】認識対象部品における傾きθと水平角ψとの関
係図である。
FIG. 6 is a diagram illustrating a relationship between a tilt θ and a horizontal angle に お け る in a recognition target component.

【図7】横姿勢の認識対象部品のロボットハンドによる
把持方向決定に至るフローチャートである。
FIG. 7 is a flowchart showing a process of determining a gripping direction of a recognition target component in a lateral posture by a robot hand.

【図8】縦姿勢の認識対象部品のロボットハンドによる
把持方向決定に至るフローチャートである。
FIG. 8 is a flowchart showing a process of determining a gripping direction of a recognition target component having a vertical posture by a robot hand.

【図9】本検証モデルに用いたロボットハンドの一例を
表した側面図である。
FIG. 9 is a side view illustrating an example of the robot hand used in the present verification model.

【図10】表裏判定において認識対象部品が裏であると識
別した場合を表した平面図である。
FIG. 10 is a plan view illustrating a case where the recognition target component is identified as the back in the front / back determination.

【図11】表裏判定において認識対象部品が表であると識
別した場合を表した平面図である。
FIG. 11 is a plan view illustrating a case where the recognition target component is identified as a front in the front / back determination.

【符号の説明】[Explanation of symbols]

1 計測機構 2 認識対象部品 3 ロボットハンド 4 部品群 6 姿勢判別装置 9 表裏判別装置 10 コンピュータ 15 CCDカメラ(計測装置) 16 レーザ装置 17 ラベル図形 18 2等分線 T 最高点 α レーザの照射角度 S 水平距離 Z 反射位置の高さ R 回帰平面 K 姿勢判別値 θ 認識対象部品の傾き ψ 認識対象部品の水平角 Si 輝度閾値 H 回帰平面の法線ベクトル DESCRIPTION OF SYMBOLS 1 Measuring mechanism 2 Recognized part 3 Robot hand 4 Parts group 6 Attitude discriminating device 9 Front / back discriminating device 10 Computer 15 CCD camera (measuring device) 16 Laser device 17 Label graphic 18 Bisection line T Highest point α Laser irradiation angle S Horizontal distance Z Height of reflection position R Regression plane K Posture discrimination value θ Tilt of recognition target component 水平 Horizontal angle of recognition target component Si Luminance threshold H Normal vector of regression plane

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2F065 AA04 AA12 AA21 AA24 AA35 AA37 AA51 BB01 BB27 DD06 FF01 FF02 FF09 FF42 GG04 HH05 HH12 HH14 JJ03 JJ09 JJ26 NN17 NN20 PP02 QQ00 QQ08 QQ17 QQ24 QQ27 QQ42 3F059 AA01 BA08 CA05 DA02 DA09 DB04 DB07 DB10 DC07 DD11 FA03 FA05 FB01 FB12 FB22 FC04 FC13 FC14  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 2F065 AA04 AA12 AA21 AA24 AA35 AA37 AA51 BB01 BB27 DD06 FF01 FF02 FF09 FF42 GG04 HH05 HH12 HH14 JJ03 JJ09 JJ26 NN17 NN20 PP02 QQ00 QQ08 QQQAQQQAQQAQQAQQAQQAQAQAQ DB07 DB10 DC07 DD11 FA03 FA05 FB01 FB12 FB22 FC04 FC13 FC14

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 3次元座標内に多数の平板状部品を山積
みにした部品群から1個毎にロボットハンドにより取り
出す際に用いる姿勢認識手法であって、部品群からの反
射光の輝度に基づく高さ情報を有するラベルを用いて2
次元座標内での認識対象部品のラベル図形を構成し、該
ラベル図形から認識対象部品について姿勢認識する3次
元姿勢認識手法。
1. A posture recognition method used when a robot hand picks up a large number of plate-shaped parts in a three-dimensional coordinate system from a group of parts one by one, based on the luminance of light reflected from the parts group. Using a label with height information 2
A three-dimensional posture recognition method in which a label graphic of a recognition target component is configured in dimensional coordinates, and the posture of the recognition target component is recognized from the label graphic.
【請求項2】 3次元座標内に多数の平板状部品を山積
みにした部品群から1個毎にロボットハンドにより取り
出す際に用いる姿勢認識手法であって、部品群からの反
射光における最大輝度を最高点Tとし、該最高点Tから
の輝度の変化に合わせて異なる高さ情報を有するラベル
を付し、該ラベルのうち予め定めた輝度閾値よりも高い
輝度を有するラベルのみで2次元座標内での認識対象部
品のラベル図形を構成し、該ラベル図形が有する最高点
Tを中心とする複数の半径方向での輝度の和から輝度平
均値を算出し、該輝度平均値よりも大きな和を有する半
径方向からラベル図形における2等分線を決定し、該2
等分線とラベル図形の輪郭との交点距離が予め定めた姿
勢判別値よりも大きい場合は認識対象部品は横姿勢、逆
に小さい場合は認識対象部品は縦姿勢と判別する3次元
姿勢認識手法。
2. An attitude recognition method used when a robot hand takes out a large number of plate-shaped components from a pile of components in three-dimensional coordinates one by one by a robot hand. As the highest point T, a label having different height information is attached in accordance with a change in luminance from the highest point T, and only the label having a luminance higher than a predetermined luminance threshold among the labels is in two-dimensional coordinates. A label figure of the part to be recognized in step (a), a luminance average value is calculated from the sum of luminance in a plurality of radial directions centering on the highest point T of the label figure, and a sum larger than the luminance average value is calculated. Determine a bisector in the label figure from the radial direction
A three-dimensional posture recognition method in which the recognition target component is determined to be a horizontal posture when the intersection distance between the equal line and the contour of the label graphic is larger than a predetermined posture determination value, and the recognition target component is determined to be a vertical posture when the intersection distance is small. .
【請求項3】 部品群からの高さは、輝度の計測装置を
該部品群に向けた鉛直方向を基準軸と定め、該基準軸か
ら角度αだけ傾いた方向からレーザを照射し、該レーザ
の反射位置と基準軸との水平距離Sから該反射位置の高
さZをZ=S/tanαとして求める請求項2記載の3次元
姿勢認識手法。
3. The height from the part group is determined by irradiating a laser from a direction inclined at an angle α from the reference axis with the vertical direction facing the luminance measuring device as the reference axis. 3. The three-dimensional posture recognition method according to claim 2, wherein a height Z of the reflection position is obtained as Z = S / tanα from a horizontal distance S between the reflection position and the reference axis.
【請求項4】 横姿勢と判別した認識対象部品について
は、ラベル図形の輪郭上の点から該認識対象部品の回帰
平面Rを算出し、該回帰平面Rの3次元座標に対する水
平角、垂直角から該認識対象部品の把持方向を決定する
請求項2記載の3次元姿勢認識手法。
4. For a recognition target component determined to be in a horizontal posture, a regression plane R of the recognition target component is calculated from a point on the contour of the label figure, and a horizontal angle and a vertical angle of the regression plane R with respect to three-dimensional coordinates are calculated. The three-dimensional posture recognition method according to claim 2, wherein a gripping direction of the recognition target component is determined from the following.
【請求項5】 縦姿勢と判別した認識対象部品について
は、ラベル図形を囲む矩形(フィレ径)の対角線方向に並
ぶラベルの輝度の和を比較し、該輝度の和が大きくなる
対角線方向に認識対象部品の面方向を定め、かつ該対角
線方向が2次元座標に対してなす水平角を該認識対象部
品の把持方向として決定する請求項2記載の3次元姿勢
認識手法。
5. For a recognition target component determined to be in a vertical orientation, the sum of the luminances of labels arranged in a diagonal direction of a rectangle (filler diameter) surrounding the label figure is compared, and the recognition is performed in a diagonal direction in which the sum of the luminances increases. 3. The three-dimensional posture recognition method according to claim 2, wherein a surface direction of the target component is determined, and a horizontal angle formed by the diagonal direction with respect to the two-dimensional coordinates is determined as a gripping direction of the target component.
JP2000098589A 2000-03-31 2000-03-31 3D pose recognition method Pending JP2001277167A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000098589A JP2001277167A (en) 2000-03-31 2000-03-31 3D pose recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000098589A JP2001277167A (en) 2000-03-31 2000-03-31 3D pose recognition method

Publications (1)

Publication Number Publication Date
JP2001277167A true JP2001277167A (en) 2001-10-09

Family

ID=18613052

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000098589A Pending JP2001277167A (en) 2000-03-31 2000-03-31 3D pose recognition method

Country Status (1)

Country Link
JP (1) JP2001277167A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003039820A1 (en) * 2001-11-06 2003-05-15 Kabushiki Kaisha Yaskawa Denki Method for determining three-dimensional position and posture of object being sensed and visual sensor for robot
JP2008275391A (en) * 2007-04-26 2008-11-13 Canon Inc Position attitude measurement device and method
JP2011022133A (en) * 2009-06-19 2011-02-03 Yaskawa Electric Corp Shape detection system and robot system
CN102189551A (en) * 2010-03-11 2011-09-21 株式会社安川电机 Robot system and transfer method
EP2444210A1 (en) 2010-10-25 2012-04-25 Kabushiki Kaisha Yaskawa Denki Shape measuring system and shape measuring method
JP2015009314A (en) * 2013-06-28 2015-01-19 キヤノン株式会社 Interference determination apparatus, interference determination method, and computer program
JP2015100866A (en) * 2013-11-22 2015-06-04 三菱電機株式会社 Robot simulation device, program, recording medium and method
CN105619414A (en) * 2016-04-09 2016-06-01 王玮 Program-controlled robot system
CN105666494A (en) * 2016-04-09 2016-06-15 王玮 Robot control method and robot system
JP2018126862A (en) * 2018-05-14 2018-08-16 キヤノン株式会社 Interference determination apparatus, interference determination method, and computer program
JP2020049651A (en) * 2019-12-11 2020-04-02 キヤノン株式会社 Interference determination apparatus, interference determination method, and computer program
CN111300484A (en) * 2020-03-13 2020-06-19 达闼科技成都有限公司 Method for determining joint positioning error of robot, robot and storage medium
EP3738727A4 (en) * 2018-03-14 2021-10-06 Kabushiki Kaisha Toshiba Picking system and end effector for robot arm

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003039820A1 (en) * 2001-11-06 2003-05-15 Kabushiki Kaisha Yaskawa Denki Method for determining three-dimensional position and posture of object being sensed and visual sensor for robot
JP2008275391A (en) * 2007-04-26 2008-11-13 Canon Inc Position attitude measurement device and method
JP2011022133A (en) * 2009-06-19 2011-02-03 Yaskawa Electric Corp Shape detection system and robot system
CN102189551A (en) * 2010-03-11 2011-09-21 株式会社安川电机 Robot system and transfer method
JP2011183537A (en) * 2010-03-11 2011-09-22 Yaskawa Electric Corp Robot system, robot device and work taking-out method
EP2364823A3 (en) * 2010-03-11 2013-06-19 Kabushiki Kaisha Yaskawa Denki Robot system and transfer method
US8725285B2 (en) 2010-03-11 2014-05-13 Kabushiki Kaisha Yaskawa Denki Robot system and transfer method
EP2444210A1 (en) 2010-10-25 2012-04-25 Kabushiki Kaisha Yaskawa Denki Shape measuring system and shape measuring method
JP2012093104A (en) * 2010-10-25 2012-05-17 Yaskawa Electric Corp Shape measuring device, robot system, and shape measuring method
US10675763B2 (en) 2013-06-28 2020-06-09 Canon Kabushiki Kaisha Information processing apparatus for determining interference between object and grasping unit, information processing method, and storage medium
JP2015009314A (en) * 2013-06-28 2015-01-19 キヤノン株式会社 Interference determination apparatus, interference determination method, and computer program
JP2015100866A (en) * 2013-11-22 2015-06-04 三菱電機株式会社 Robot simulation device, program, recording medium and method
CN105666494A (en) * 2016-04-09 2016-06-15 王玮 Robot control method and robot system
CN106272421A (en) * 2016-04-09 2017-01-04 王玮 A kind of program control industrial robot
CN105619414A (en) * 2016-04-09 2016-06-01 王玮 Program-controlled robot system
EP3738727A4 (en) * 2018-03-14 2021-10-06 Kabushiki Kaisha Toshiba Picking system and end effector for robot arm
JP2018126862A (en) * 2018-05-14 2018-08-16 キヤノン株式会社 Interference determination apparatus, interference determination method, and computer program
JP2020049651A (en) * 2019-12-11 2020-04-02 キヤノン株式会社 Interference determination apparatus, interference determination method, and computer program
JP7066671B2 (en) 2019-12-11 2022-05-13 キヤノン株式会社 Interference determination device, interference determination method, program and system
CN111300484A (en) * 2020-03-13 2020-06-19 达闼科技成都有限公司 Method for determining joint positioning error of robot, robot and storage medium

Similar Documents

Publication Publication Date Title
US11511421B2 (en) Object recognition processing apparatus and method, and object picking apparatus and method
US8098928B2 (en) Apparatus for picking up objects
US9415511B2 (en) Apparatus and method for picking up article randomly piled using robot
JP2001277167A (en) 3D pose recognition method
US7280687B2 (en) Device for detecting position/orientation of object
US20060102608A1 (en) Laser processing machine and laser processing method
CN1922474B (en) Method and system for inspecting surfaces
JPH11333770A (en) Loading position and attitude recognizing device
JP2017162133A (en) Imaging system, measurement system, production system, imaging method, program, recording media, and measurement method
US9361695B2 (en) Method of recognizing a position of a workpiece from a photographed image
US7106896B2 (en) ID recognition apparatus and ID recognition sorter system for semiconductor wafer
JPH08271223A (en) Device for recognizing object position
JP3019005B2 (en) LSI handler
JP2010243405A (en) Image processing marker, image processing apparatus and image processing program for detecting the position and orientation of an object on which the marker is displayed
CN115319761B (en) Control method and control system for high-precision manipulator grabbing and robot
US12361582B2 (en) Object detection device and model pattern evaluation device
JP2539015B2 (en) Pellet bonding method and device
JPH10118975A (en) Handling position recognizing method and recognizing device
CN114518079A (en) Hole internal feature detection system and detection method
JP2562047B2 (en) Position and orientation recognition method of target object
JP3417503B2 (en) Article position determination method and article position determination device
JPH10118976A (en) Image inputting position setting method and setting device
JPH02110789A (en) Shape recognition method for 3D objects
CN118887519B (en) Method for obtaining angle based on template matching to adjust the applied layer of workpiece
JPH09272090A (en) Robot system