[go: up one dir, main page]

JP2001246582A - Working robot device - Google Patents

Working robot device

Info

Publication number
JP2001246582A
JP2001246582A JP2000054660A JP2000054660A JP2001246582A JP 2001246582 A JP2001246582 A JP 2001246582A JP 2000054660 A JP2000054660 A JP 2000054660A JP 2000054660 A JP2000054660 A JP 2000054660A JP 2001246582 A JP2001246582 A JP 2001246582A
Authority
JP
Japan
Prior art keywords
work
image
robot
camera
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000054660A
Other languages
Japanese (ja)
Inventor
Toyoichi Uchida
豊一 内田
Yuji Inoue
裕二 井上
Nobuhiro Iwata
延弘 岩田
Toshiharu Kawahara
寿治 河原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2000054660A priority Critical patent/JP2001246582A/en
Publication of JP2001246582A publication Critical patent/JP2001246582A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a working robot device having a means capable of compensating a work position at a high speed and with high precision in accordance with positional deviation of an object for work when works such as welding, painting and assembly are done by a tip of a robot hand. SOLUTION: A camera and a lighting system are provided on a revolute joint of a robot arm, and image processing is applied to an image photographed by the camera when light is applied on the object for work from the lighting system to compensate a position of the tip of the robot hand based on the results.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、溶接、塗装、組立
等の作業を行う作業用ロボット装置に関し、特に、それ
らの作業を実行するロボットハンド先端の位置補正を容
易に行うことができる作業用ロボット装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a work robot apparatus for performing operations such as welding, painting, and assembly, and more particularly, to a work robot apparatus capable of easily correcting the position of the tip of a robot hand for performing the work. It relates to a robot device.

【0002】[0002]

【従来の技術】従来より、多関節型のロボット装置が、
溶接、塗装、組立等の工業的作業に広く応用されてい
る。図8は、従来のロウ付けロボット装置の一例を説明
するための概要図である。図に示す例は、ルームエアコ
ンの熱交換器(ワーク140)に配管160をロウ付け
する場合であり、このロウ付け作業が、ロボットハンド
102の先端で繰り返し行われる。
2. Description of the Related Art Conventionally, articulated robot devices have
Widely applied to industrial work such as welding, painting and assembly. FIG. 8 is a schematic diagram for explaining an example of a conventional brazing robot device. The example shown in the figure is a case where the pipe 160 is brazed to the heat exchanger (work 140) of the room air conditioner. This brazing operation is repeatedly performed at the tip of the robot hand 102.

【0003】ロウ付けロボット装置は、ロボットアーム
101、ロボットハンド102などを有するロウ付けロ
ボット100と、その動きを制御するロボットコントロ
ーラ110及びティーチングペンダント120から構成
される。ロウ付けの作業は、同様の動作を繰り返し行う
ことが必要となるため、実作業の前に、どのような動作
すれば良いかをロボットコントローラ110に記憶させ
るティーチング作業を行う。
[0003] The brazing robot device comprises a brazing robot 100 having a robot arm 101, a robot hand 102, etc., a robot controller 110 for controlling the movement thereof, and a teaching pendant 120. Since it is necessary to repeatedly perform the same operation in the brazing operation, a teaching operation for storing what operation should be performed in the robot controller 110 is performed before the actual operation.

【0004】まず、作業者300は、コンベア130で
搬送されてくるワーク140を、位置固定・供給冶具1
50に固定する。その後、ロウ付けする配管160を所
定の位置へ挿入し、ワーク140をロウ付けロボット1
00へ供給する。次に、作業者300は、供給されたワ
ーク140に対するロウ付けロボット100の実作業時
の動作をティーチングする。ティーチングでは、ティー
チングペンダント120又は作業者300の手で、実際
にロボットアーム101及びロボットハンド102を移
動させ、ロウ付け作業の位置及びその作業位置までの動
作をロボットコントローラ110にティーチングデータ
として登録する。
First, an operator 300 fixes a work 140 conveyed by a conveyor 130 to a position fixing / supply jig 1.
Fix to 50. Thereafter, the pipe 160 to be brazed is inserted into a predetermined position, and the work 140 is brazed to the robot 1.
Supply to 00. Next, the worker 300 teaches the operation of the brazing robot 100 to the supplied work 140 at the time of actual work. In the teaching, the robot arm 101 and the robot hand 102 are actually moved by the teaching pendant 120 or the hand of the operator 300, and the position of the brazing work and the operation up to the work position are registered in the robot controller 110 as teaching data.

【0005】実作業時には、上記ティーチング時と同様
にワーク140がロウ付けロボット100へ供給される
と、ロウ付けロボット100は上記登録されたティーチ
ングデータに基づいて作業位置まで自動的に移動し、ロ
ウ付けの作業を開始する。この動作がワーク140が搬
送される度に繰り返され、熱交換器のロウ付け作業が実
行されることになる。
In the actual work, when the work 140 is supplied to the brazing robot 100 in the same manner as in the teaching, the brazing robot 100 automatically moves to the work position based on the registered teaching data, and Start work. This operation is repeated every time the work 140 is transported, and the work of brazing the heat exchanger is performed.

【0006】以上説明したように、実作業時のワーク1
40を用いて実際にロボットアームを動かしてティーチ
ングすることにより、作業者300はロウ付けロボット
100の各関節の位置や角度を意識することなくティー
チングをすることができる。また、ティーチングに基づ
いて繰り返される動作において、その繰返し位置再現精
度はかなり高く、一般的な用途では十分な性能であっ
た。従って、上記で説明したロウ付けロボット装置のよ
うなロボット装置は、通常の作業を目的とする場合には
有効に用いられていた。
As described above, the work 1 during actual work
By actually moving the robot arm and teaching using the 40, the operator 300 can perform teaching without being conscious of the position and angle of each joint of the brazing robot 100. Further, in the operation repeated based on the teaching, the repetition position reproducibility is considerably high, and the performance is sufficient for general use. Therefore, a robot device such as the brazing robot device described above has been effectively used for the purpose of normal work.

【0007】[0007]

【発明が解決しようとする課題】しかしながら、供給さ
れる作業対象物側の位置精度が悪い場合には、ロボット
装置側の繰返し位置再現精度が高くても良好な作業が行
えないという課題があった。例えば、前述のロウ付け作
業の場合には、供給されるワーク140の配管160の
取付け位置にばらつきが大きく、ロボットハンド102
の先端をティーチングデータに基づいて精度良くティー
チング時の位置に移動しても、実際の作業位置とずれて
しまう場合があった。従って、そのまま作業を行えば製
品不良を発生することとなった。
However, when the positional accuracy of the supplied work object is low, there is a problem that good work cannot be performed even if the repeated position reproduction accuracy of the robot device is high. . For example, in the case of the above-mentioned brazing operation, the mounting position of the pipe 160 of the workpiece 140 to be supplied varies greatly, and the robot hand 102
In some cases, even if the tip of the robot was moved to the position at the time of teaching with high accuracy based on the teaching data, the actual working position was deviated. Therefore, if the work is performed as it is, a product defect will occur.

【0008】かかる問題を解消するためには、実作業時
に、提供された作業対象物の実際の作業箇所の3次元相
対位置を計測し、それに基づいてロボットハンド102
先端位置を補正する必要がある。しかし、一般的に、3
次元位置の計測には複雑な処理が必要であり、従来は、
このような3次元での位置補正を、要求される作業時間
内に精度良く行える位置補正装置はなかった。
In order to solve such a problem, at the time of actual work, a three-dimensional relative position of an actual work location of the provided work target is measured, and the robot hand 102
It is necessary to correct the tip position. But in general, 3
Measuring the dimensional position requires complicated processing, and conventionally,
There has been no position correction device capable of accurately performing such three-dimensional position correction within a required working time.

【0009】そこで、本発明の目的は、ロボットハンド
先端で溶接、塗装、組立等の作業を実行する際に、作業
対象物の位置ずれに応じて、作業位置を高速にかつ精度
良く補正することのできる手段を有した作業用ロボット
装置を提供することである。
SUMMARY OF THE INVENTION It is an object of the present invention to correct a work position at a high speed and with high accuracy according to a positional shift of a work object when performing work such as welding, painting, and assembly at the tip of a robot hand. An object of the present invention is to provide a working robot device having means capable of performing the following.

【0010】[0010]

【課題を解決するための手段】上記の目的を達成するた
めに、本発明の一つの側面は、ロボットアームの関節に
カメラと照明装置を設け、照明装置から作業対象物へ光
を照射している時にカメラで撮影した画像に画像処理を
施し、その結果に基づいてロボットハンド先端の位置補
正を行うことである。従って、本発明によれば、供給さ
れる作業対象物の位置にばらつきがある場合において
も、迅速なロボットハンド先端位置の補正が可能とな
り、適正な位置において作業を実行することができる。
よって、不良発生率の低減と製品品質の安定化を図るこ
とができる。
In order to achieve the above object, one aspect of the present invention is to provide a camera and a lighting device at a joint of a robot arm, and irradiate the work object with light from the lighting device. Image processing is performed on an image taken by the camera when the camera is in the position, and the position of the tip of the robot hand is corrected based on the result. Therefore, according to the present invention, even when there is a variation in the position of the supplied work target, the robot hand tip position can be quickly corrected, and the work can be performed at an appropriate position.
Therefore, it is possible to reduce the defect occurrence rate and stabilize the product quality.

【0011】上記の目的を達成するために、本発明の別
の側面は、ロボットアームの動作によりロボットハンド
先端を所定の位置へ移動させ、前記ロボットハンド先端
で被作業物に対し所定の作業を行う作業用ロボット装置
であって、前記ロボットアームの関節に設けられたカメ
ラ及び照明装置と、前記照明装置から前記被作業物へ光
を照射している時に前記カメラで撮影した画像に、画像
処理を施すことによって前記被作業物における作業位置
を検知する画像処理装置を有し、前記検知された作業位
置に基づいて、前記ロボットハンド先端の位置を補正す
ることを特徴とする。
In order to achieve the above object, another aspect of the present invention is to move a tip of a robot hand to a predetermined position by operation of a robot arm, and to perform a predetermined operation on a workpiece with the tip of the robot hand. A work and robot device for performing, comprising: a camera and a lighting device provided at a joint of the robot arm; and an image photographed by the camera when the work device irradiates the work with light. And an image processing device for detecting a work position on the work, and correcting the position of the tip of the robot hand based on the detected work position.

【0012】更に、上記の発明において、その好ましい
態様は、前記照明装置が、スポット光照射部とスリット
光照射部を有し、前記画像処理装置が、前記スポット光
照射部から光を照射している時に前記カメラで撮影され
た画像と、前記スリット光照射部から光を照射している
時に前記カメラで撮影された画像の両方の画像に対し前
記画像処理を施すことにより、前記被作業物における作
業位置を検知することを特徴とする。
In a preferred aspect of the present invention, the illumination device has a spot light irradiation unit and a slit light irradiation unit, and the image processing device emits light from the spot light irradiation unit. By performing the image processing on both the image taken by the camera when the image is taken and the image taken by the camera while irradiating the light from the slit light irradiating section, The operation position is detected.

【0013】更に、上記の発明において、別の態様は、
前記画像処理装置が、前記画像処理の中で、前記両方の
画像に対して同一方法のパターンマッチング処理を実行
することを特徴とする。
Further, in the above-mentioned invention, another aspect is as follows.
The image processing apparatus may perform a pattern matching process using the same method on both of the images during the image processing.

【0014】また、上記の発明において、別の態様は、
前記画像処理装置が、前記スリット光照射部から光を照
射している時に前記カメラで撮影された画像に対する画
像処理により、前記スリット光照射部からの光が前記被
作業物上に照射されている位置を検出し、当該検出され
た位置に基づいて、前記被作業物における作業位置の高
さ方向の位置を検知することを特徴とする。
In the above invention, another aspect is as follows.
The image processing apparatus is configured to perform image processing on an image captured by the camera while irradiating light from the slit light irradiating unit, whereby light from the slit light irradiating unit is irradiated on the work. A position is detected, and a position in the height direction of the work position on the work is detected based on the detected position.

【0015】更にまた、上記の発明において、別の態様
は、前記画像処理装置が、前記パターンマッチング処理
の前に前記画像に対して前処理を施すことを特徴とす
る。
Still another aspect of the invention is characterized in that the image processing apparatus performs preprocessing on the image before the pattern matching processing.

【0016】更に、上記の発明において、別の態様は、
前記画像処理装置が、一つの前記画像に対し、所定の前
記前処理を施した後に前記パターンマッチング処理を行
った結果と、前記所定の前処理とは異なる前処理を施し
た後に前記パターンマッチング処理を行った結果を比較
し、結果が一致した場合に、前記パターンマッチング処
理を終了することを特徴とする。
[0016] Further, in the above invention, another aspect is as follows.
The image processing apparatus performs the pattern matching process after performing the predetermined preprocessing on one image, and performs the pattern matching process after performing a preprocessing different from the predetermined preprocessing. Are compared, and if the results match, the pattern matching process is terminated.

【0017】また、上記の発明において、別の態様は、
前記パターンマッチング処理で検出する対象箇所を、一
つの前記画像内に二つ以上設けることを特徴とする。本
発明の更なる目的及び、特徴は、以下に説明する発明の
実施の形態から明らかになる。
In the above invention, another aspect is as follows.
Two or more target locations to be detected in the pattern matching process are provided in one image. Further objects and features of the present invention will be apparent from embodiments of the present invention described below.

【0018】[0018]

【発明の実施の形態】以下、図面を参照して本発明の実
施の形態例を説明する。しかしながら、かかる実施の形
態例が、本発明の技術的範囲を限定するものではない。
なお、図において、同一又は類似のものには同一の参照
番号又は参照記号を付して説明する。
Embodiments of the present invention will be described below with reference to the drawings. However, such embodiments do not limit the technical scope of the present invention.
In the drawings, the same or similar components are denoted by the same reference numerals or reference symbols.

【0019】図1は、本発明を適用した作業用ロボット
装置の実施の形態例を説明するための概要図である。図
1に示す実施の形態例は、図8に基づいて説明した例と
同様、熱交換器のロウ付け作業を行うロボット装置の例
である。本実施の形態例に係るロウ付けロボット装置
は、従来の如くコンベア130、作業者300、位置固
定・供給冶具150を介して供給されるワーク140に
対し、実作業時にロボットハンド102先端の位置補正
を実施し、ワーク140の位置ずれに対応して常に適正
な位置でロウ付け作業を行おうとするものである。
FIG. 1 is a schematic diagram for explaining an embodiment of a working robot apparatus to which the present invention is applied. The embodiment shown in FIG. 1 is an example of a robot apparatus for performing a brazing operation of a heat exchanger, similarly to the example described based on FIG. The brazing robot apparatus according to the present embodiment corrects the position of the tip of the robot hand 102 at the time of actual work with respect to the workpiece 140 supplied via the conveyor 130, the operator 300, and the position fixing / supplying jig 150 as in the related art. Is performed, and the brazing operation is always performed at an appropriate position in response to the positional deviation of the work 140.

【0020】図2は、本実施の形態例に係るロウ付けロ
ボット装置200の構成を示したブロック図である。以
下、図1及び図2に基づいてロウ付けロボット装置20
0の構成について説明する。ロボットアーム101及び
ロボットハンド102を有するロウ付けロボット10
0、その動作を制御するロボットコントローラ110に
ついては、従来の装置と同様である。これらに加え、本
実施の形態例に係るロウ付けロボット装置200は、ロ
ボットハンド102先端の位置補正を実施するための装
置として、カメラ10、照明のための光源部20と照射
部30、及びコンピュータ40を有している。
FIG. 2 is a block diagram showing the configuration of the brazing robot device 200 according to the present embodiment. Hereinafter, the brazing robot device 20 will be described with reference to FIGS.
0 will be described. Brazing robot 10 having robot arm 101 and robot hand 102
0, the robot controller 110 for controlling the operation is the same as the conventional device. In addition to these, the brazing robot device 200 according to the present embodiment includes a camera 10, a light source unit 20 and an irradiation unit 30 for illumination, and a computer as devices for correcting the position of the tip of the robot hand 102. 40.

【0021】カメラ10は、図1に示すとおり、ロボッ
トアーム101の関節部に、作業を行うロボットハンド
102先端部を撮影できる向きで設置されている。ま
た、その撮影のための照明として、2種類の照明装置で
あるスポット光照射部31とスリット光照射部32がカ
メラ10の両側に設置されている。
As shown in FIG. 1, the camera 10 is installed at the joint of the robot arm 101 in a direction in which the tip of the robot hand 102 performing the work can be photographed. As illumination for the photographing, two types of illumination devices, a spot light irradiator 31 and a slit light irradiator 32, are provided on both sides of the camera 10.

【0022】このように、位置補正のための装置をロボ
ットアーム101の関節に設置した点は、本ロウ付けロ
ボット装置の一つの特徴である。通常、ロボットハンド
102部には、溶接トーチやグリッパなどがあり、ロボ
ットハンド102先端部の重量は限られているため、こ
れら位置補正のための装置を設置するための重量が十分
に確保できない場合がある。また、ロボットハンド10
2先端部では、作業時にロウ材が飛び散り位置補正のた
めの装置を汚す可能性もある。さらに、通常のロボット
では、ロボットハンド102先端と関節との繰返し位置
決め精度は高いため、ロボットハンド102先端の位置
補正のための装置を関節に設置しても問題とならない。
従って、位置補正のためのカメラ10及び照明装置を関
節に設置することは有効な手段となる。
Thus, the point that the device for position correction is installed at the joint of the robot arm 101 is one feature of the brazing robot device. Usually, the robot hand 102 has a welding torch, a gripper, and the like, and the weight of the tip of the robot hand 102 is limited. Therefore, when the weight for installing these position correcting devices cannot be sufficiently secured. There is. The robot hand 10
2 At the front end, there is a possibility that the brazing material scatters at the time of work and soils the device for position correction. Furthermore, in a normal robot, since the repeated positioning accuracy between the distal end of the robot hand 102 and the joint is high, there is no problem even if a device for correcting the position of the distal end of the robot hand 102 is installed at the joint.
Therefore, installing the camera 10 and the lighting device for position correction at the joint is an effective means.

【0023】光源部20は、スポット光照射用光源部2
1とスリット光照射用光源部22で構成され、それぞれ
光ファイバ部33を介してスポット光照射部31とスリ
ット光照射部32へ光を送る。光源部20には、機械式
シャッタがあり、光ファイバ部33へ導光する光を制御
することができる。
The light source unit 20 includes a light source unit 2 for irradiating a spot light.
1 and a light source unit 22 for irradiating a slit light, and transmit light to a spot light irradiating unit 31 and a slit light irradiating unit 32 via an optical fiber unit 33 respectively. The light source unit 20 has a mechanical shutter, and can control light guided to the optical fiber unit 33.

【0024】コンピュータ40は、カメラ10で撮影さ
れた画像に画像処理を施し、ワーク140のロウ付け位
置とロボットハンド102先端の位置ずれを計測し、そ
れに基づいて求められた位置補正データをロボットコン
トローラ110へ伝える部分である。その内部は、カメ
ラ画像入力部41、外部出力部42、モニタ43、処理
部44、及び記憶部45などで構成されている。
The computer 40 performs image processing on the image photographed by the camera 10, measures the displacement between the brazing position of the work 140 and the tip of the robot hand 102, and sends the position correction data obtained based on the displacement to the robot controller. This is the part that conveys to 110. The inside thereof includes a camera image input unit 41, an external output unit 42, a monitor 43, a processing unit 44, a storage unit 45, and the like.

【0025】カメラ画像入力部41は、カメラ10から
の画像を受入れる部分であり、外部出力部42は、上記
処理後の位置補正データをロボットコントローラ110
へ伝える部分である。また、モニタ43は、カメラ10
で撮影された画像の確認用の画面である。処理部44
は、上記画像処理等の演算を実施する部分であり、記憶
部45は、後述するティーチング時に撮影された画像を
登録しておく部分である。
The camera image input unit 41 is a unit for receiving an image from the camera 10, and the external output unit 42 outputs the processed position correction data to the robot controller 110.
It is a part to tell. The monitor 43 is connected to the camera 10.
3 is a screen for confirming an image captured in step S1. Processing unit 44
Is a part for performing calculations such as the image processing described above, and the storage unit 45 is a part for registering an image photographed at the time of teaching, which will be described later.

【0026】また、このコンピュータ40で行われる処
理が、1回の位置補正につき、スポット照明に対して得
られた画像とスリット照明に対して得られた画像の両方
を用いて行われることが本ロウ付けロボット装置の一つ
の特徴である。処理の内容は後述するが、スポット光照
射部31からの照明を受けている時に撮影された画像
は、水平(X,Y)方向の位置ずれ計測に利用され、スリ
ット光照射部32からの照明を受けている時に撮影され
た画像は、高さ(Z)方向の位置ずれ計測に利用され
る。この処理により、本ロウ付けロボット装置では3次
元の位置計測が可能となっている。
Further, the processing performed by the computer 40 is performed by using both an image obtained for spot illumination and an image obtained for slit illumination for one position correction. This is one feature of the brazing robot device. Although the details of the processing will be described later, an image captured while receiving illumination from the spot light irradiation unit 31 is used for horizontal (X, Y) direction displacement measurement, and the illumination from the slit light irradiation unit 32 is used. The image taken while receiving the image is used for measuring the displacement in the height (Z) direction. By this processing, three-dimensional position measurement is possible in the brazing robot device.

【0027】以上、説明したように本ロウ付けロボット
装置では、カメラ10と2種類の照明装置(31及び3
2)をロボットアーム101の関節部に設け、各照明に
対して撮影された2種類の画像をコンピュータ40で画
像処理することにより、ロボットハンド102先端の位
置補正を行う。以下、本ロウ付けロボット装置を用いた
場合の作業の手順と、位置補正の処理内容について説明
する。
As described above, in the present brazing robot device, the camera 10 and two types of lighting devices (31 and 3) are used.
2) is provided at the joint of the robot arm 101, and the computer 40 performs image processing on two types of images captured for each illumination, thereby correcting the position of the tip of the robot hand 102. Hereinafter, a description will be given of a procedure of an operation when the brazing robot device is used and a processing content of the position correction.

【0028】図3は、本実施の形態例に係るロウ付けロ
ボット装置の作業及び処理の流れを示したフローチャー
トである。本ロウ付けロボット装置を用いる場合にも、
従来と同様にティーチングの作業が必要であり、図の
(a)は、ティーチング時のフローを、(b)は実作業時
のフローを示している。ティーチング時には、まず、作
業者300がコンベア130で搬送されたワーク140
を位置固定・供給冶具150へセットする(図3のステ
ップS1及びS2)。続いて、ロウ付けする配管160を
所定位置へ挿入し、ワーク140をロウ付けロボット1
00へ供給する(図3のステップS3及びS4)。
FIG. 3 is a flowchart showing the work and processing flow of the brazing robot apparatus according to this embodiment. Even when using this brazing robot device,
Teaching work is required in the same manner as in the related art. FIG. 12A shows a flow at the time of teaching, and FIG. 12B shows a flow at the time of actual work. At the time of teaching, first, the worker 300 moves the work 140 transferred by the conveyor 130.
Is set on the position fixing / supply jig 150 (steps S1 and S2 in FIG. 3). Subsequently, the pipe 160 to be brazed is inserted into a predetermined position, and the work 140 is brazed to the brazing robot 1.
00 (steps S3 and S4 in FIG. 3).

【0029】この状態で、操作者300は、ティーチン
グペンダント120を用いてロボットハンド102を作
業位置まで移動させ、作業位置とその位置までの動作を
ロボットコントローラ110へティーチングデータとし
て記憶させる(図3のステップS5)。ここまでの作業
の内容は、従来の場合と同様であるが、本ロウ付けロボ
ット装置の場合には、このティーチングの際に、合わせ
てカメラ10による撮影を行う。
In this state, the operator 300 moves the robot hand 102 to the work position by using the teaching pendant 120, and stores the work position and the operation to that position in the robot controller 110 as teaching data (FIG. 3). Step S5). The contents of the work up to this point are the same as those in the conventional case, but in the case of the present brazing robot device, the camera 10 also shoots at the time of this teaching.

【0030】作業者300は、作業位置までの動作を教
示する時に、モニタ43を見ながら、カメラ10と照射
部30がワーク140のロウ付け部(作業部)を向くよ
うに移動させ、スポット光照射部31とスリット光照射
部32のそれぞれが照射した時の画像をカメラ10で撮
影する(図3のステップS6)。
When teaching the operation to the work position, the operator 300 moves the camera 10 and the irradiation unit 30 so as to face the brazing part (working part) of the work 140 while watching the monitor 43, and An image when each of the irradiation unit 31 and the slit light irradiation unit 32 emits light is captured by the camera 10 (step S6 in FIG. 3).

【0031】次に、作業者300は、撮影された画像の
中から位置補正時の画像処理で必要となる部分を、モニ
タ43上で指定し、その部分を画像パターンとして登録
する(図3のステップS7)。スポット光照射時に撮影
された画像については、ロウ付け箇所(作業部)を含む
領域を指定し、スリット光照射時に撮影された画像につ
いては、スリット光が作業対象物(ワーク140又は配
管160)に当たった場所を含む領域を指定する。登録
された画像パターンは、登録モデルとして、コンピュー
タ40の記憶部45に記憶される。
Next, the operator 300 designates, on the monitor 43, a portion required for image processing at the time of position correction from the captured image, and registers the portion as an image pattern (FIG. 3). Step S7). For an image photographed at the time of spot light irradiation, a region including a brazing point (working portion) is specified, and for an image photographed at the time of slit light irradiation, the slit light is applied to the work object (work 140 or pipe 160). Specify the area including the hit location. The registered image pattern is stored in the storage unit 45 of the computer 40 as a registered model.

【0032】実作業時には、まず、ティーチング時と同
様に配管160を挿入されたワーク140が位置固定・
供給冶具150上でロウ付けロボット100へ供給され
る(図3のステップS1〜S4)。次に、ティーチングデ
ータに基づくロボットコントローラ110の制御によ
り、ロボットハンド102の先端がティーチング時の作
業位置まで移動する(図3のステップS8)。ここまで
の動作は、従来装置の場合と同様である。
At the time of actual work, first, the work 140 into which the pipe 160 has been inserted is fixed in position as in the teaching.
It is supplied to the brazing robot 100 on the supply jig 150 (Steps S1 to S4 in FIG. 3). Next, under the control of the robot controller 110 based on the teaching data, the tip of the robot hand 102 moves to the work position at the time of teaching (step S8 in FIG. 3). The operation so far is the same as that of the conventional device.

【0033】次に、スポット光照射部31及びスリット
光照射部32のそれぞれから光を照射し、カメラ10に
よりそれぞれの光に対する画像を撮影する(図3のステ
ップS9及びS12)。撮影された画像は、カメラ画像入
力部41を介してコンピュータ40の処理部44に取り
込まれ、画像処理が施される。スポット光の場合には、
作業部(ロウ付け箇所)を含む画像が取得され、画像処
理により、まず、取得された画像中で当該作業部の検知
が行われる(図3のステップS10)。作業部の検知
は、ティーチング時に記憶部45に登録された前記登録
モデル(作業部の画像パターン)を用いて、パターンマ
ッチング(正規化相関)処理により行われる。ここで用
いるパターンマッチング処理の方法は、従来から用いら
れている一般的な方法である。
Next, light is emitted from each of the spot light irradiating section 31 and the slit light irradiating section 32, and an image corresponding to each light is taken by the camera 10 (steps S9 and S12 in FIG. 3). The photographed image is taken into the processing unit 44 of the computer 40 via the camera image input unit 41 and subjected to image processing. In the case of spot light,
An image including a working unit (a brazing portion) is acquired, and the image processing first detects the working unit in the acquired image (step S10 in FIG. 3). The detection of the working unit is performed by a pattern matching (normalized correlation) process using the registered model (image pattern of the working unit) registered in the storage unit 45 at the time of teaching. The method of the pattern matching processing used here is a general method conventionally used.

【0034】作業部が検知されると、次に、取得された
画像中において、その位置とロボットハンド102先端
位置(ティーチング時の作業部の位置)との位置ずれ量
を求める(図3のステップS11)。この位置ずれ量
は、ティーチング時の作業位置と実際の作業位置との水
平(X,Y)方向の位置ずれを意味し、画素数として求め
られる。
When the work unit is detected, the amount of displacement between the position of the work unit and the position of the tip of the robot hand 102 (the position of the work unit at the time of teaching) in the acquired image is determined (step in FIG. 3). S11). This displacement amount means a displacement in the horizontal (X, Y) direction between the work position at the time of teaching and the actual work position, and is obtained as the number of pixels.

【0035】一方、スリット光の場合には、スリット光
が作業対象物(ワーク140又は配管160)に当たっ
た場所を含む画像が取得され、まず、取得された画像中
で当該スリット光が当たった部分の検知が行われる(図
3のステップS13)。スリット光が当たった部分の検
知は、上記スポット光の場合と同様に、ティーチング時
に登録された前記登録モデル(スリット光が当たった部
分の画像パターン)を用いて、パターンマッチング(正
規化相関)処理により行われる。
On the other hand, in the case of the slit light, an image including a place where the slit light hits the work (workpiece 140 or the pipe 160) is obtained. First, the slit light hits in the obtained image. Part detection is performed (step S13 in FIG. 3). As in the case of the spot light, the detection of the portion hit by the slit light is performed by pattern matching (normalized correlation) processing using the registered model (image pattern of the portion hit by the slit light) registered at the time of teaching. It is performed by

【0036】次に、取得された画像中において、検知し
た部分の位置とティーチング時のスリット光が当たった
部分の位置との位置ずれ量を求める。この2次元画像上
の位置ずれ量から、後述する原理により、実際の作業位
置の高さ(Z)方向の位置ずれ量を求めることができる
(図3のステップS14)。このように、スリット光の
場合においても、パターンマッチング処理及び画像上で
の位置ずれ量の算出処理は、スポット光の場合と同じ処
理を行う。従って、処理プログラムを簡素化することが
でき、さらに処理の最適化も容易となるので処理の高速
化を図ることもできる。この点も本ロウ付けロボット装
置の特徴である。
Next, the amount of displacement between the position of the detected portion and the position of the portion hit by the slit light during teaching in the acquired image is determined. From the displacement amount on the two-dimensional image, the displacement amount in the height (Z) direction of the actual work position can be obtained by the principle described later (step S14 in FIG. 3). As described above, even in the case of the slit light, the pattern matching processing and the calculation processing of the positional deviation amount on the image perform the same processing as in the case of the spot light. Therefore, the processing program can be simplified, and the processing can be optimized easily, so that the processing can be speeded up. This point is also a feature of the brazing robot device.

【0037】次に、処理部44では、計測された水平
(X,Y)方向及び高さ(Z)方向の位置ずれ量に基づい
て、ロボットハンド102先端の位置補正データを作成
し(図3のステップS15)、外部出力部42を介し
て、ロボットコントローラ110へ出力する。位置ずれ
量から、実際のロボットハンド102の移動量である位
置補正データへの変換は、幾何学的な計算で算出するこ
ともできるが、予め、実際にワーク140及びロボット
ハンド102を移動させて、上記画像処理によって得ら
れる位置ずれ量と実際の位置ずれ量をキャリブレーショ
ンしておくことで、精度を高めることができる。
Next, the processing unit 44 creates position correction data of the tip of the robot hand 102 based on the measured amount of displacement in the horizontal (X, Y) and height (Z) directions (FIG. 3). Step S15), and outputs the result to the robot controller 110 via the external output unit 42. The conversion from the displacement amount to the position correction data, which is the actual movement amount of the robot hand 102, can be calculated by a geometric calculation. However, in advance, the work 140 and the robot hand 102 are actually moved beforehand. The accuracy can be improved by calibrating the positional deviation amount obtained by the image processing and the actual positional deviation amount.

【0038】位置補正データを受けたロボットコントロ
ーラ110は、それに基づいてロウ付けロボット100
を制御し、ロボットハンド102先端の位置を補正する
(図3のステップS16)。ロボットハンド102先端
の位置が補正されれば、ロウ付け作業を開始する(図3
のステップS17)。以上、説明した動作(図3のステ
ップS8〜S17)がワーク140が供給される度に実行
される。
The robot controller 110 having received the position correction data, based on the data,
To correct the position of the tip of the robot hand 102 (step S16 in FIG. 3). When the position of the tip of the robot hand 102 is corrected, the brazing operation is started (FIG. 3).
Step S17). The operations described above (steps S8 to S17 in FIG. 3) are executed each time the work 140 is supplied.

【0039】なお、処理時間に問題が無ければ、スリッ
ト光の照射、画像取得、画像処理、及び高さ方向の位置
補正の処理(図3のステップS12〜S16)を先に行
い、その後にスポット光の照射、画像取得、画像処理、
及び水平方向の位置補正の処理(図3のステップS9〜S
11、S15、S16)を行うようにしても良い。この場
合の方が、位置補正精度を向上させることができる。
If there is no problem in the processing time, the irradiation of slit light, image acquisition, image processing, and position correction processing in the height direction (steps S12 to S16 in FIG. 3) are performed first, and then the spot Light irradiation, image acquisition, image processing,
And horizontal position correction processing (steps S9 to S in FIG. 3).
11, S15 and S16) may be performed. In this case, the position correction accuracy can be improved.

【0040】また、図3に示すように、スポット光によ
る処理とスリット光による処理を同時に平行して行う場
合には、スポット光とスリット光の色(波長)を変え、
カメラ10からの情報を色毎に分離抽出して、別々の画
像を得ることで対応可能である。
As shown in FIG. 3, when the processing using the spot light and the processing using the slit light are performed simultaneously in parallel, the colors (wavelengths) of the spot light and the slit light are changed.
This can be dealt with by separately extracting information from the camera 10 for each color and obtaining separate images.

【0041】図4は、前述した水平(X,Y)方向の位置
ずれ検出の原理を説明するための図である。図の(a)
は、カメラ10による撮影時の位置関係を表した図であ
り、図中のAは、ティーチング時のワーク140の位置
を、Bは、実作業時のワーク140の位置を表してい
る。スポット光照射部31は、ワーク140に斜めに光
を照射するように設置し、作業部であるロウ付け箇所に
影を作るようにする。これにより、パターンマッチング
時の検知が容易となる。
FIG. 4 is a diagram for explaining the principle of detection of the above-described positional deviation in the horizontal (X, Y) direction. (A) in the figure
Is a diagram showing a positional relationship at the time of photographing by the camera 10, in which A represents the position of the work 140 during teaching, and B represents the position of the work 140 during actual work. The spot light irradiating section 31 is installed so as to irradiate the work 140 with light obliquely, and creates a shadow at a brazing portion which is a working section. This facilitates detection at the time of pattern matching.

【0042】図の(b)は、ティーチング時の撮影画像
(基準画像)であり、前述のとおり、この中のイ部が登
録モデルとして記憶部45に記憶される(図の
(c))。図の(d)は、実作業時に撮影された画像(検
出画像)であり、前述のとおり、(c)の登録モデルを
用いたパターンマッチング処理により、ロ部が検知され
る。(d)のdx及びdyが前記計測される水平方向の位置
ずれ量となる。
FIG. 7B shows a photographed image (reference image) at the time of teaching, and as described above, part A of this is stored in the storage unit 45 as a registered model (FIG. 10C). (D) of the figure is an image (detected image) photographed at the time of actual work. As described above, the part (b) is detected by the pattern matching processing using the registered model of (c). In (d), dx and dy are the measured horizontal displacements.

【0043】次に、図5は、スリット光による高さ
(Z)方向の位置ずれ検出の原理を説明するための図で
ある。図の(a)は、カメラ10による撮影時の位置関
係を表した図であり、図中のAは、ティーチング時のワ
ーク140の位置を、Bは、実作業時のワーク140の
位置を表している。カメラ10の撮像面をワーク140
及び配管160と水平にし、スリット光照射部32は、
配管160に斜めに光を照射するように設置する。図か
ら明らかなとおり、ワーク140の高さが変わることに
より、スリット光が配管160に当たる位置が変化す
る。図のAとBでは、高さがdz分異なるが、それによりス
リット光が当たる位置がdx分ずれることになる。スリッ
ト光による高さ方向の位置ずれ検出は、この原理を利用
したものである。
Next, FIG. 5 is a diagram for explaining the principle of detecting a position shift in the height (Z) direction by slit light. (A) of the figure is a diagram showing a positional relationship at the time of shooting by the camera 10, where A represents the position of the work 140 during teaching, and B represents the position of the work 140 during actual work. ing. The imaging surface of the camera 10 is
And the pipe 160, and the slit light irradiation unit 32
The pipe 160 is installed so as to irradiate light obliquely. As is apparent from the figure, the position where the slit light hits the pipe 160 changes as the height of the work 140 changes. Although the height is different by dz between A and B in the figure, the position where the slit light hits is shifted by dx. The detection of the positional deviation in the height direction by the slit light utilizes this principle.

【0044】また、スリット光が配管160に当たった
部分は、反射光が三日月形状となるため、この形状を検
出することで当該位置を検知することができる。図の
(b)は、ティーチング時の撮影画像(基準画像)であ
り、前述のとおり、この中のイ部(三日月形状)が登録
モデルとして記憶部45に記憶される(図の(c))。
Further, since the reflected light has a crescent shape in the portion where the slit light hits the pipe 160, the position can be detected by detecting this shape. (B) of the figure is a captured image (reference image) at the time of teaching, and as described above, the part A (crescent shape) is stored in the storage unit 45 as a registered model ((c) of the figure). .

【0045】図の(d)は、実作業時に撮影された画像
(検出画像)であり、前述のとおり、(c)の登録モデ
ルを用いたパターンマッチング処理により、ロ部が検知
される。そして、(d)のdxを計測することにより、上
記の原理に基づいて、簡単な計算で高さ方向の位置ずれ
量dzを求めることができる。この方法は、図に示した様
に、水平な物体が垂直方向に平行移動した場合には、精
度良く計測を行うことができる。
FIG. 5D shows an image (detected image) photographed during the actual work. As described above, the pattern matching process using the registered model shown in FIG. Then, by measuring dx in (d), the positional deviation amount dz in the height direction can be obtained by simple calculation based on the above principle. According to this method, as shown in the figure, when a horizontal object moves in parallel in the vertical direction, measurement can be performed with high accuracy.

【0046】本実施の形態例におけるロウ付け作業で
は、供給されるワーク140の3次元的な位置ずれが、
捻れを伴わない平行移動である場合が多いため、上述し
た水平方向及び高さ方向の位置ずれ検出方法により、精
度良く位置補正することが可能である。従って、3次元
の位置補正を、同様な2次元の画像処理を2回行うこと
で実現できることになり、処理の高速化及び装置の簡易
化・低コスト化を図ることができる。
In the brazing operation according to the present embodiment, the three-dimensional displacement of the supplied workpiece 140 is
In many cases, the movement is parallel movement without torsion, and therefore, the position can be accurately corrected by the above-described method of detecting the displacement in the horizontal direction and the height direction. Therefore, three-dimensional position correction can be realized by performing the same two-dimensional image processing twice, and the processing can be speeded up and the apparatus can be simplified and the cost can be reduced.

【0047】なお、以上の説明の中でパターンマッチン
グ処理による対象箇所の検知(図3のステップS10及
びS13)について述べたが、その際に誤検知を低減さ
せるために、パターンマッチング処理の前に取得された
画像に対し前処理を施すようにしても良い。前処理とし
ては、微分処理、平均化処理、2値化処理など目的に合
った画像を生成するために行われる一般的な画像処理手
法を用いることができる。また、スポット光及びスリッ
ト光を照射する前の画像を照射後の画像から減算する処
理を用いてもよい。このような前処理を施すことによ
り、ロウ付け箇所などの対象箇所を強調することがで
き、パターンマッチングによる誤検知を減少させ、処理
時間も短縮させることができる。
In the above description, the detection of the target portion by the pattern matching process (steps S10 and S13 in FIG. 3) has been described. In order to reduce erroneous detection at that time, before the pattern matching process, Preprocessing may be performed on the acquired image. As the pre-processing, a general image processing method performed for generating an image suitable for the purpose, such as a differentiation process, an averaging process, and a binarization process, can be used. Further, a process of subtracting the image before the irradiation with the spot light and the slit light from the image after the irradiation may be used. By performing such preprocessing, a target portion such as a brazing portion can be emphasized, erroneous detection by pattern matching can be reduced, and the processing time can be shortened.

【0048】また、異なる二通りの前処理を行って、検
知精度を高めても良い。図6の(a)は、その一例を示
した処理フローである。図に示す処理は、図3のステッ
プS10あるいはS13に対応する処理である。取得され
た同じ画像に対し、異なる二通りの前処理を別々に実行
し(ステップS1及びS1')、その結果に対してそれぞ
れ前述したパターンマッチングを行う(ステップS2及
びS2')。そして、その二つの結果を比較し(ステップ
S3)、一致した場合には対象箇所が検知できたものと
し(ステップS4)、そうでない場合には、再度処理を
行う(ステップS5)。こうすることにより、更に誤検
知を低減することができる。
Further, two different pre-processes may be performed to increase the detection accuracy. FIG. 6A is a processing flow showing an example thereof. The processing shown in the figure is processing corresponding to step S10 or S13 in FIG. Two different preprocessings are separately performed on the same acquired image (steps S1 and S1 ′), and the results are subjected to the above-described pattern matching (steps S2 and S2 ′). Then compare the two results (step
S3) If they match, it is assumed that the target portion has been detected (step S4); otherwise, the process is performed again (step S5). By doing so, erroneous detection can be further reduced.

【0049】さらに又、パターンマッチングによる誤検
知を低減させるために、検知する箇所を一画像内に複数
設ける方法を取っても良い。図6の(b)は、その一例
を示した処理フローである。図に示す処理は、図3のス
テップS10あるいはS13に対応する処理である。複数
の検知対象箇所としては、作業対象のロウ付け箇所を含
み、ワーク140全体が移動しても相対位置が変わらな
い部位を選ぶ必要がある。特に形状が特徴的であり、検
知しやすい箇所を選ぶと効果的である。
Further, in order to reduce erroneous detection by pattern matching, a method of providing a plurality of detection locations in one image may be adopted. FIG. 6B is a processing flow showing an example thereof. The processing shown in the figure is processing corresponding to step S10 or S13 in FIG. As the plurality of detection target portions, it is necessary to select a portion that includes a brazing portion of the work target and whose relative position does not change even when the entire work 140 moves. In particular, it is effective to select a portion that has a distinctive shape and is easily detected.

【0050】まず、一つの検知対象箇所に対してパター
ンマッチング処理を実行する(ステップS1)。通常、
パターンマッチング処理では、検知結果が確からしい順
に複数の候補として得られるため、その中の一つを選出
する(ステップS2)。一方、同じ画像内に存在する他
の検知対象箇所については、既に検知が完了しているも
のとする(ステップS1')。
First, a pattern matching process is performed on one detection target portion (step S1). Normal,
In the pattern matching process, since the detection result is obtained as a plurality of candidates in a likely order, one of them is selected (step S2). On the other hand, it is assumed that the detection has already been completed for other detection target portions existing in the same image (step S1 ′).

【0051】ここで、選出された候補と検知された他の
検知対象箇所の相対位置をチェックし(ステップS
3)、その結果が妥当である場合には、その候補を所定
の検知対象箇所であるとして検知を完了する(ステップ
S4)。一方、相対位置が妥当でない場合には、他の候
補を選出し、再度相対位置のチェックを行うなど再処理
を施す。このような処理を行うことでも、パターンマッ
チングによる検知精度を向上させることができる。
Here, the relative positions of the selected candidate and the other detected object to be detected are checked (step S).
3) If the result is valid, the detection is completed assuming that the candidate is a predetermined detection target location (step
S4). On the other hand, if the relative position is not appropriate, another candidate is selected and re-processing such as checking the relative position again is performed. By performing such processing, the detection accuracy by pattern matching can be improved.

【0052】以上説明したように、本実施の形態例に係
るロウ付けロボット装置を用いることにより、実作業時
に供給される作業対象物の位置のばらつきに対応した作
業位置の補正を、高速にかつ精度良く行うことが可能と
なり、不良の発生の低減と製品品質の安定化を図ること
ができる。図7は、位置補正を行わない場合(図中の
×)と、本ロウ付けロボット装置によって位置補正を実
行した場合(図中の●)の位置ずれの実験結果をプロッ
トした図である。図の(a)は、水平方向のずれを、
(b)は高さ方向のずれを表している。図から、本ロウ
付けロボット装置による位置補正が有効であることが明
らかである。
As described above, by using the brazing robot device according to the present embodiment, the correction of the work position corresponding to the variation in the position of the work object supplied at the time of the actual work can be performed at high speed. It is possible to carry out with high accuracy, and it is possible to reduce the occurrence of defects and stabilize product quality. FIG. 7 is a diagram plotting experimental results of misregistration when position correction is not performed (x in the figure) and when position correction is performed by the brazing robot device (● in the figure). (A) of the figure shows the horizontal displacement,
(B) shows the displacement in the height direction. It is apparent from the figure that the position correction by the brazing robot device is effective.

【0053】なお、実施の形態例としては、ロウ付け作
業用のロボット装置として説明したが、本発明は、他の
作業を行う場合にも応用することができる。
Although the embodiment has been described as a robot apparatus for brazing work, the present invention can be applied to other work.

【0054】本発明の保護範囲は、上記の実施の形態に
限定されず、特許請求の範囲に記載された発明とその均
等物に及ぶものである。
The scope of protection of the present invention is not limited to the above embodiments, but extends to the inventions described in the claims and their equivalents.

【0055】[0055]

【発明の効果】以上、添付図にしたがって説明したよう
に、本発明では以下のような効果を有する。
As described above with reference to the accompanying drawings, the present invention has the following effects.

【0056】第一に、ロボットアームの関節にカメラと
照明装置を設け、カメラで撮影された画像の画像処理結
果に基づいてロボットハンド先端の位置補正を行うこと
により、供給される作業対象物の位置にばらつきがある
場合においても、適正な位置において作業を実行するこ
とができ、不良発生率の低減と製品品質の安定化を図る
ことができる。
First, a camera and an illuminating device are provided at the joint of the robot arm, and the position of the tip of the robot hand is corrected based on the image processing result of the image taken by the camera, so that the supplied work object is corrected. Even when there is a variation in the position, the work can be executed at an appropriate position, and the occurrence rate of defects can be reduced and the product quality can be stabilized.

【0057】第二に、スポット光照明とスリット光照明
を用い、それぞれの光を照射している時に得られる画像
に対して画像処理を施すことにより、容易にかつ精度良
くロボットハンド先端の位置補正を行うことができる。
Second, by using spot light illumination and slit light illumination and performing image processing on an image obtained when each light is irradiated, the position of the tip of the robot hand can be corrected easily and accurately. It can be performed.

【0058】第三に、スポット光に対して得られる画像
と、スリット光に対して得られる画像のパターンマッチ
ング処理において、同一の処理方法を用いることによ
り、処理の簡素化と高速化を図ることができる。
Third, in the pattern matching processing of an image obtained for spot light and an image obtained for slit light, the same processing method is used to simplify and speed up the processing. Can be.

【0059】第四に、スリット光が作業対象物に当たる
位置のずれに基づいて、作業対象物の高さ方向のずれを
検知することにより、容易かつ高速に3次元の位置補正
を行うことができる。
Fourth, by detecting a shift in the height direction of the work object based on a shift of the position where the slit light hits the work object, three-dimensional position correction can be easily and rapidly performed. .

【0060】第五に、パターンマッチング処理の前に適
正な前処理を行うことにより、パターンマッチングにお
ける誤検知を減少させ、処理時間も短縮させることがで
きる。
Fifth, by performing appropriate preprocessing before the pattern matching processing, erroneous detection in pattern matching can be reduced, and the processing time can be shortened.

【0061】第六に、一つの画像に対し、異なる前処理
を行った場合のパターンマッチング結果と比較して検知
を行うことにより、さらに検知精度を高めることができ
る。
Sixth, the detection accuracy can be further improved by performing detection by comparing with a pattern matching result obtained when different preprocessing is performed on one image.

【0062】第七に、パターンマッチングによる検知対
象箇所を一つの画像内に複数設け、それらの相対位置を
加味して検知を行うことにより、さらに検知精度を高め
ることができる。
Seventh, a plurality of locations to be detected by pattern matching are provided in one image, and the detection is performed in consideration of their relative positions, whereby the detection accuracy can be further improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を適用した作業用ロボット装置の実施の
形態例を説明するための概要図である。
FIG. 1 is a schematic diagram for explaining an embodiment of a working robot device to which the present invention is applied.

【図2】同実施の形態例に係るロウ付けロボット装置2
00の構成を示したブロック図である。
FIG. 2 is a brazing robot device 2 according to the embodiment;
FIG. 2 is a block diagram showing a configuration of a 00.

【図3】同実施の形態例に係るロウ付けロボット装置の
作業及び処理の流れを示したフローチャートである。
FIG. 3 is a flowchart showing a flow of work and processing of the brazing robot device according to the embodiment.

【図4】水平(X,Y)方向の位置ずれ検出の原理を説明
するための図である。
FIG. 4 is a diagram for explaining the principle of detecting a position shift in the horizontal (X, Y) direction.

【図5】高さ(Z)方向の位置ずれ検出の原理を説明す
るための図である。
FIG. 5 is a diagram for explaining the principle of detecting a position shift in the height (Z) direction.

【図6】パターンマッチングの検知精度を高めるための
処理例を示したフローチャートである。
FIG. 6 is a flowchart illustrating a processing example for improving detection accuracy of pattern matching.

【図7】位置補正を行わない場合と、位置補正を実行し
た場合の位置ずれの実験結果をプロットした図である。
FIG. 7 is a diagram plotting experimental results of positional deviation when no position correction is performed and when position correction is performed.

【図8】従来のロウ付けロボット装置の一例を説明する
ための概要図である。
FIG. 8 is a schematic diagram for explaining an example of a conventional brazing robot device.

【符号の説明】[Explanation of symbols]

10 カメラ 20 光源部 21 スポット光照射用光源部 22 スリット光照射用光源部 30 照射部 31 スポット光照射部 32 スリット光照射部 33 光ファイバ部 40 コンピュータ 41 カメラ画像入力部 42 外部出力部 43 モニタ 44 処理部 45 記憶部 100 ロウ付けロボット 101 ロボットアーム 102 ロボットハンド 110 ロボットコントローラ 120 ティーチングペンダント 130 コンベア 140 ワーク 150 位置固定・供給冶具 160 配管 200 ロウ付けロボット装置 300 作業者 DESCRIPTION OF SYMBOLS 10 Camera 20 Light source part 21 Light source part for spot light irradiation 22 Light source part for slit light irradiation 30 Irradiation part 31 Spot light irradiation part 32 Slit light irradiation part 33 Optical fiber part 40 Computer 41 Camera image input part 42 External output part 43 Monitor 44 Processing unit 45 Storage unit 100 Brazing robot 101 Robot arm 102 Robot hand 110 Robot controller 120 Teaching pendant 130 Conveyor 140 Work 150 Position fixing / supply jig 160 Piping 200 Brazing robot device 300 Worker

フロントページの続き (72)発明者 岩田 延弘 愛知県西春日井郡西枇杷島町旭町3丁目1 番地 三菱重工業株式会社エアコン製作所 内 (72)発明者 河原 寿治 愛知県西春日井郡西枇杷島町旭町3丁目1 番地 三菱重工業株式会社エアコン製作所 内 Fターム(参考) 2F065 AA04 AA20 DD06 EE00 FF01 FF04 HH04 HH05 JJ03 JJ19 JJ26 LL02 LL30 NN01 PP25 QQ24 QQ31 QQ38 3F059 AA03 AA05 AA07 DB05 DB09 DB10 FB12 FB16 5B057 AA05 BA02 DA07 DC32 Continued on the front page (72) Inventor Nobuhiro Iwata 3-1-1 Asahi-cho, Nishibiwajima-cho, Nishi-Kasugai-gun, Aichi Prefecture Inside the Air Conditioning Works of Mitsubishi Heavy Industries, Ltd. Address F-term in Mitsubishi Heavy Industries, Ltd. Air Conditioning Works (reference)

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】ロボットアームの動作によりロボットハン
ド先端を所定の位置へ移動させ、該ロボットハンド先端
で被作業物に対し所定の作業を行う作業用ロボット装置
であって、 該ロボットアームの関節に設けられたカメラ及び照明装
置と、 該照明装置から該被作業物へ光を照射している時に該カ
メラで撮影した画像に、画像処理を施すことによって該
被作業物における作業位置を検知する画像処理装置を有
し、 該検知された作業位置に基づいて、該ロボットハンド先
端の位置を補正することを特徴とする作業用ロボット装
置。
1. A working robot device for moving a tip of a robot hand to a predetermined position by an operation of a robot arm and performing a predetermined operation on an object to be worked with the tip of the robot hand. A camera and a lighting device provided, and an image for detecting a working position on the work by performing image processing on an image photographed by the camera when the work is illuminating the work with light from the lighting device. A work robot device, comprising: a processing device, wherein the position of the tip of the robot hand is corrected based on the detected work position.
【請求項2】請求項1において、 前記照明装置が、スポット光照射部とスリット光照射部
を有し、 前記画像処理装置が、該スポット光照射部から光を照射
している時に前記カメラで撮影された画像と、該スリッ
ト光照射部から光を照射している時に前記カメラで撮影
された画像の両方の画像に対し前記画像処理を施すこと
により、前記被作業物における作業位置を検知すること
を特徴とする作業用ロボット装置。
2. The camera according to claim 1, wherein the illuminating device has a spot light irradiating unit and a slit light irradiating unit, and the image processing device is configured to illuminate the camera with the light when irradiating light from the spot light irradiating unit. By performing the image processing on both the captured image and the image captured by the camera while irradiating the light from the slit light irradiating unit, a work position on the workpiece is detected. A work robot device characterized by the above-mentioned.
【請求項3】請求項2において、 前記画像処理装置が、 前記画像処理の中で、前記両方の画像に対して同一方法
のパターンマッチング処理を実行することを特徴とする
作業用ロボット装置。
3. The working robot device according to claim 2, wherein the image processing device executes a pattern matching process using the same method for the both images in the image processing.
【請求項4】請求項2あるいは請求項3において、 前記画像処理装置が、 前記スリット光照射部から光を照射している時に前記カ
メラで撮影された画像に対する画像処理により、前記ス
リット光照射部からの光が前記被作業物上に照射されて
いる位置を検出し、 該検出された位置に基づいて、前記被作業物における作
業位置の高さ方向の位置を検知することを特徴とする作
業用ロボット装置。
4. The slit light irradiating unit according to claim 2, wherein the image processing device performs image processing on an image captured by the camera while irradiating light from the slit light irradiating unit. Detecting a position where light from the object is irradiated on the work, and detecting a position of the work position in the work in a height direction based on the detected position. Robot device.
【請求項5】請求項3において、 前記画像処理装置が、前記パターンマッチング処理の前
に前記画像に対して前処理を施すことを特徴とする作業
用ロボット装置。
5. The working robot device according to claim 3, wherein the image processing device performs preprocessing on the image before the pattern matching process.
【請求項6】請求項5において、 前記画像処理装置が、一つの前記画像に対し、 所定の前記前処理を施した後に前記パターンマッチング
処理を行った結果と、 該所定の前処理とは異なる前処理を施した後に前記パタ
ーンマッチング処理を行った結果を比較し、 該結果が一致した場合に、前記パターンマッチング処理
を終了することを特徴とする作業用ロボット装置。
6. The image processing apparatus according to claim 5, wherein a result of performing the pattern matching process after performing the predetermined pre-processing on one of the images is different from the predetermined pre-processing. A work robot apparatus, wherein the result of performing the pattern matching process after performing the preprocessing is compared, and when the result matches, the pattern matching process is terminated.
【請求項7】請求項3、請求項5あるいは請求項6にお
いて、 前記パターンマッチング処理で検出する対象箇所を、一
つの前記画像内に二つ以上設けることを特徴とする作業
用ロボット装置。
7. The working robot device according to claim 3, wherein two or more target locations to be detected in the pattern matching process are provided in one image.
JP2000054660A 2000-02-29 2000-02-29 Working robot device Withdrawn JP2001246582A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000054660A JP2001246582A (en) 2000-02-29 2000-02-29 Working robot device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000054660A JP2001246582A (en) 2000-02-29 2000-02-29 Working robot device

Publications (1)

Publication Number Publication Date
JP2001246582A true JP2001246582A (en) 2001-09-11

Family

ID=18575887

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000054660A Withdrawn JP2001246582A (en) 2000-02-29 2000-02-29 Working robot device

Country Status (1)

Country Link
JP (1) JP2001246582A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2007138987A1 (en) * 2006-05-25 2009-10-08 豪洋 石崎 Work robot
JP2010058235A (en) * 2008-09-04 2010-03-18 Ihi Corp Teaching method and teaching tool for robot system
JP2010112859A (en) * 2008-11-07 2010-05-20 Seiko Epson Corp Robot system, robot control device, and method for controlling robot
JP2011093055A (en) * 2009-10-30 2011-05-12 Honda Motor Co Ltd Information processing method, apparatus, and program
JP2011093056A (en) * 2009-10-30 2011-05-12 Honda Motor Co Ltd Method, device, and program for processing information
US8600552B2 (en) 2009-10-30 2013-12-03 Honda Motor Co., Ltd. Information processing method, apparatus, and computer readable medium
JP2017083895A (en) * 2017-01-18 2017-05-18 オリンパス株式会社 Endoscope device and program
JP2018187691A (en) * 2017-04-28 2018-11-29 タクボエンジニアリング株式会社 Coating robot and method for displaying utilization status of coating robot with use thereof
JP2020525306A (en) * 2017-06-26 2020-08-27 キャップシックス Device for managing movement of robot and associated processing robot
CN113910259A (en) * 2021-11-03 2022-01-11 珠海格力智能装备有限公司 Robot paint spraying system and paint spraying method

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2007138987A1 (en) * 2006-05-25 2009-10-08 豪洋 石崎 Work robot
US8930025B2 (en) 2006-05-25 2015-01-06 Takehiro Ishizaki Work robot
JP2010058235A (en) * 2008-09-04 2010-03-18 Ihi Corp Teaching method and teaching tool for robot system
JP2010112859A (en) * 2008-11-07 2010-05-20 Seiko Epson Corp Robot system, robot control device, and method for controlling robot
CN101733755A (en) * 2008-11-07 2010-06-16 精工爱普生株式会社 Robot system, robot control device and method for controlling robot
US8600552B2 (en) 2009-10-30 2013-12-03 Honda Motor Co., Ltd. Information processing method, apparatus, and computer readable medium
JP2011093056A (en) * 2009-10-30 2011-05-12 Honda Motor Co Ltd Method, device, and program for processing information
JP2011093055A (en) * 2009-10-30 2011-05-12 Honda Motor Co Ltd Information processing method, apparatus, and program
US9073210B2 (en) 2009-10-30 2015-07-07 Honda Motor Co., Ltd. Information processing method, apparatus, and computer readable medium
JP2017083895A (en) * 2017-01-18 2017-05-18 オリンパス株式会社 Endoscope device and program
JP2018187691A (en) * 2017-04-28 2018-11-29 タクボエンジニアリング株式会社 Coating robot and method for displaying utilization status of coating robot with use thereof
JP2020525306A (en) * 2017-06-26 2020-08-27 キャップシックス Device for managing movement of robot and associated processing robot
US11338443B2 (en) 2017-06-26 2022-05-24 Capsix Device for managing the movements of a robot, and associated treatment robot
JP7097956B2 (en) 2017-06-26 2022-07-08 キャップシックス Equipment for managing the movement of robots, and related processing robots
CN113910259A (en) * 2021-11-03 2022-01-11 珠海格力智能装备有限公司 Robot paint spraying system and paint spraying method

Similar Documents

Publication Publication Date Title
US10026164B2 (en) Method of performing and monitoring a processing step on a workpiece
JP3946716B2 (en) Method and apparatus for recalibrating a three-dimensional visual sensor in a robot system
JP7691218B2 (en) Apparatus and method for acquiring deviation amount of working position of tool
US8346392B2 (en) Method and system for the high-precision positioning of at least one object in a final location in space
US20080252248A1 (en) Device and Method for Calibrating the Center Point of a Tool Mounted on a Robot by Means of a Camera
JP2002090113A (en) Position and attiude recognizing device
JP2015135331A (en) Practical use 3d vision system device and method thereof
JP6869159B2 (en) Robot system
CN102435138B (en) Determine the gap of the body part of motor vehicles and/or the method for flushing property and measurement mechanism
JPH11183134A (en) Method for measuring interval and displacement amount between facing parts
JP2019063955A (en) Robot system, motion control method and motion control program
JP2007122705A (en) Welding teaching point correction system and calibration method
US20190197676A1 (en) Object inspection system and object inspection method
KR20130075712A (en) Laser vision sensor and its correction method
JP2001246582A (en) Working robot device
JP6031368B2 (en) Correlation positioning method with workpiece
JP4284765B2 (en) Robot hand position measuring device
JP2021013983A (en) Apparatus and method for acquiring deviation of moving locus of moving machine
JP5418490B2 (en) POSITIONING CONTROL DEVICE AND POSITIONING DEVICE HAVING THE SAME
KR100640743B1 (en) Robot Vision System Calibration Method
JP7292344B2 (en) Welding system, welding method and program
JPH09222913A (en) Teaching position correcting device for robot
JPH0820207B2 (en) Optical 3D position measurement method
JP2718249B2 (en) Robot displacement detection device
JP3195850B2 (en) Method and apparatus for measuring three-dimensional position on curved surface

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070501