JP3666108B2 - Appearance inspection device - Google Patents
Appearance inspection device Download PDFInfo
- Publication number
- JP3666108B2 JP3666108B2 JP05024396A JP5024396A JP3666108B2 JP 3666108 B2 JP3666108 B2 JP 3666108B2 JP 05024396 A JP05024396 A JP 05024396A JP 5024396 A JP5024396 A JP 5024396A JP 3666108 B2 JP3666108 B2 JP 3666108B2
- Authority
- JP
- Japan
- Prior art keywords
- inspection
- camera
- feature amount
- inspection object
- positional relationship
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Manipulator (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、例えばロボット等に取り付けられたカメラを用いて部品組み付け後の外観を検査するようにした外観検査装置に係り、特に検査箇所の角度変化に応じて画像処理に適した撮像位置を自動的に探索し決定する機能を備えた外観検査装置に関する。
【0002】
また、本発明は、例えばロボット等に取り付けられたカメラを用いて部品組み付け後の外観を検査するようにした外観検査装置に係り、特にロボットでティーチングする検査箇所の角度に応じて、画像処理に適したカメラ位置を自動的に探索・決定する機能を追加し、ティーチング時間を短縮することにより、部品組み付け後の外観検査に好適する外観検査装置に関する。
【0003】
【従来の技術】
従来、首記のような分野では、定位置に固定されたカメラ又は定位置への移動をティーチングされたロボットに取り付けたカメラ(カメラロボット)により外観検査が行われている。
【0004】
すなわち、カメラロボットで検査箇所の座標をティーチングする場合は、まずカメラに対象を映したのち、検査のための画像処理に適した画像が得られるように、作業者が目視又は定規や治具を用いて手作業で調整を行なっている。
【0005】
しかし、この方法では、作業者によって位置決めの精度にばらつきが生じ、また精密に設定しようとすれば、時間がかかるという問題があると共に、検査箇所が検査対象ワークの各方向にあるため、側面や、形状の複雑な箇所では治具等による作業が難しいという問題がある。
【0006】
また、ロボットと検査面が平行に移動するだけならば、特開昭63−196803号公報に開示されたパターン探索のように重心の位置を検出することで自動ティーチングが可能となるが、検査対象ワークが立体的でロボットと検査面が平行だけでなく、回転移動の位置にある場合には対応することができない。
【0007】
また、外観検査を行う場合、検査対象物の平面的な位置ずれに対しては、重心を測定して位置補正する方法が特開昭63−196803号公報に開示されている。
【0008】
しかるに、この方法では、部品の組み付け時の角度ばらつき等立体的なずれが生じる場合には、画像の明るさや形状が変化して誤検出してしまうという問題が生じている。
【0009】
すなわち、上記特開昭63−196803号公報に開示されたパターン探索装置によると、視野中心から離れたパターンに対して、その重心位置に基づいてカメラをロボットにより移動し、視野中心でパターンをとらえることにより、パターン形状誤差を抑え、位置認識を正しく行える。
【0010】
この方法では、視野中心とパターン重心位置を合わせるために、カメラをパターンの置かれている面に対して平行移動させている。
しかし、パターンの置かれている面が斜めになる等カメラに対して傾いた場合には、視野中心にパターン重心位置を合わせてもパターンは傾いたまま見えるため、パターン形状誤差がなくならず、位置認識を正しく行うことができない。
【0011】
また、パターンの傾きに合わせてカメラを移動させようとしても、パターン重心位置の検出だけではパターンの傾きを検出できず、パターンの傾きに対してカメラ位置を補正することができない。
【0012】
つまり、この方法を利用して、検査箇所に傾き(部品組み付け時の角度ばらつきなど)の発生する検査を行う場合、いくら視野中心にパターン(検査箇所)重心位置を合わせても検査箇所の傾きが補正されないので、この状態で検査を行っても誤検出してしまうという問題点がある。
【0013】
【発明が解決しようとする課題】
そこで、本発明は以上のような点に鑑みてなされたもので、対象物に角度のばらつき等の傾きを含む立体的な位置ずれが生じた場合でもそれを確実に補正して誤検出が生じないようにした外観検査装置を提供することを目的としている。
【0014】
また、本発明は以上のような点に鑑みてなされたもので、カメラを検査箇所を中心として移動させ、画像の明るさや形状等の特徴量の変化を計測することにより、画像処理に適したカメラ位置を決定し、上記問題点を解決するようにした外観検査装置を提供することを目的としている。
【0015】
【課題を解決するための手段】
本発明によると、上記課題を解決するために、検査対象物を撮像する画像入力手段と、前記検査対象物と画像入力手段との間を円弧を描いて相対的に移動せしめる移動手段と、前記画像入力手段からの画像データに基いて前記検査対象物の検査箇所と前記画像入力手段との間の相対角度に対応する所定の特徴量を抽出する特徴量抽出手段と、前記特徴量抽出手段によって抽出される所定の特徴量に基いて前記検査対象物と画像入力手段との位置関係が最適であるか否かを判断する判断手段と、前記判断手段によって判断される前記検査対象物と画像入力手段との位置関係が最適となる位置関係が得られるように前記移動手段を制御する制御手段とを具備し、前記画像入力手段は同軸照明装置を有するカメラを含み、前記移動手段は前記画像入力手段に含まれる前記同軸照明装置を有するカメラを前記検査対象物の検査箇所を中心として回転移動せしめる手段を含み、前記特徴量抽出手段によって抽出される所定の特徴量が前記同軸照明装置の正反射光成分にあたる最も明るい画素の数とされるとき、前記判断手段はこの特徴量が最大となる位置関係を最適位置関係であると判断することを特徴とする外観検査装置が提供される。
【0018】
上述した解決手段によると、検査箇所に傾きが生じる場合、移動手段により検査箇所との相対角度が変化するようにカメラ等の画像入力手段を検査箇所を中心に円弧を描いて移動させて画像を入力し、この画像から検査箇所とカメラ等の画像入力手段との相対角度の変化に応じた特徴量を特徴量抽出手段によって測定し、この特徴量から検査に適したカメラ等の画像入力手段の位置を判断手段によって判断しカメラ等の画像入力手段の位置を補正する際に、前記画像入力手段は同軸照明装置を有するカメラを含み、前記移動手段は前記画像入力手段に含まれる前記同軸照明装置を有するカメラを前記検査対象物の検査箇所を中心として回転移動せしめる手段を含み、前記特徴量抽出手段によって抽出される所定の特徴量が前記同軸照明装置の正反射光成分にあたる最も明るい画素の数とされるとき、前記判断手段はこの特徴量が最大となる位置関係を最適位置関係であると判断することにより、検査箇所の傾きに対して安定した画像が得られるので、誤検出を生じることなく検査することができる。
【0019】
従って、以上のような本発明によれば、対象物に角度のばらつき等の傾きを含む立体的な位置ずれが生じた場合でもそれを確実に補正して誤検出が生じないようにした外観検査装置を提供することが可能となる。
【0020】
さらに、本発明によると、検査対象物を撮像するもので、同軸照明装置を有するテレビカメラと、前記検査対象物とテレビカメラとの間を円弧を描いて相対的に移動せしめるもので、前記テレビカメラを前記検査対象物の検査箇所を中心として回転移動せしめるロボットと、前記テレビカメラからの画像データに基いて前記検査対象物の検査箇所と前記テレビカメラとの間の相対角度に対応する所定の特徴量を抽出する特徴量抽出手段と、前記特徴量抽出手段によって抽出される所定の特徴量に基いて前記検査対象物とテレビカメラとの位置関係が最適であるか否かを判断する判断手段と、前記判断手段によって判断される前記検査対象物とテレビカメラとの位置関係が最適となる位置関係が得られるように前記ロボットを制御する制御手段と、前記判断手段及び制御手段とにより、最適となる前記検査対象物とテレビカメラとの位置関係が得られた状態で当該検査箇所における前記テレビカメラの位置を最適位置座標として登録する自動ティーチング手段とを具備し、前記特徴量抽出手段によって抽出される所定の特徴量が前記同軸照明装置の正反射光成分にあたる最も明るい画素の数とされるとき、前記判断手段はこの特徴量が最大となる位置関係を最適位置関係であると判断することを特徴とする外観検査装置が提供される。
【0022】
上述した解決手段によると、検査箇所に傾きが生じる場合、検査箇所との相対角度が変化するように同軸照明装置を有するテレビカメラを検査箇所を中心に円弧を描いて移動させて画像を入力し、この画像から検査箇所と前記同軸照明装置を有するテレビカメラとの相対角度の変化に応じた特徴量を特徴量抽出手段によって測定し、この特徴量から検査に適した前記同軸照明装置を有するテレビカメの位置を判断手段によって判断し同軸照明装置を有するテレビカメラの位置を補正するとともに、前記判断手段によって判断される前記検査対象物と画像入力手段との位置関係が最適となる位置関係が得られるように前記移動手段を制御手段によって制御する際に、前記特徴量抽出手段によって抽出される所定の特徴量が前記同軸照明装置の正反射光成分にあたる最も明るい画素の数とされるとき、前記判断手段はこの特徴量が最大となる位置関係を最適位置関係であると判断することにより、検査箇所の傾きに対して安定した画像が得られるので、誤検出を生じることなく検査することができると共に、特にロボットに取り付けられたカメラを用いて部品組み付け後の外観を検査するようにした外観検査装置であって、前記判断手段及び制御手段との協同により、最適となる前記検査対象物とテレビカメラとの位置関係が得られた状態で当該検査箇所における前記テレビカメラの位置を最適位置座標として登録する自動ティーチング手段を備えることにより、ロボットでティーチングする検査箇所の角度に応じて、画像処理に適したカメラ位置を自動的に探索・決定する機能を追加し、ティーチング時間を短縮することができる。
【0023】
従って、以上のような本発明によれば、カメラを検査箇所を中心として移動させ、画像の明るさや形状等の特徴量の変化を計測することにより、画像処理に適したカメラ位置を決定し、上記問題点を解決するようにした外観検査装置を提供することが可能となる。
【0024】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態につき説明する。
図1は、本発明の第1の実施例Aによる外観検査装置のシステム構成を示す図である。
【0025】
図1において1は、後述するテレビカメラ2及び照明装置3を移動させるためのロボットで、ロボットコントローラ6の制御により検査対象物(ワーク)4を検査するために予め教示されたカメラ位置21へ移動することができる。
【0026】
また、このロボット1は図2に示すようにテレビカメラ2を検査対象部品41の検査箇所42を中心に検査に最適カメラ位置22まで円弧を描いて回転移動方向23により回転移動させることができる。
【0027】
図1において、2は画像を入力するためのテレビカメラ、3は照明装置で、検査対象物4に照明光を与えると共に検査対象物4からの反射光成分のみがテレビカメラ2に入射されるようにした同軸照明を実現している。
【0028】
また、4は検査対象物(ワーク)、5は画像処理装置、6はロボットコントローラである。
図2は、上記テレビカメラ2の回転移動の説明図である。
【0029】
図2において、21は検査のために予め教示されたカメラ位置、22はテレビカメラ2を回転移動した後の検査に最適なカメラ位置、23はテレビカメラ2が円弧を描いて回転移動をする移動方向を示す。
【0030】
また、図2において、41は検査対象物4に組みつけられた検査対象部品で、組み付けによる角度ばらつきを有している。
また、図2において、42は実際の検査箇所で、カメラ2の回転移動の中心でもある。
【0031】
図3は、上記画像処理装置5の内部構成図である。
図3において、51はテレビカメラ2からの画像データをアナログからデジタルへ変換するA/D変換器、52はA/D変換器51からのデジタル画像データから特徴量を演算する特徴抽出部、53はその特徴量から検査に最適なカメラ位置を判断するカメラ位置判断部である。
【0032】
また、図3において、54は実際に検査を行なう検査処理部、55はカメラ位置データを記憶しておくメモリである。
図4は上述した本発明の第1の実施例Aによる外観検査装置の応用例として車両に用いられるディストリビュータのコネクタ端子検査に適用される場合の処理手順を示す。
【0033】
この場合、検査に最適なカメラ位置22は、テレビカメラ2と同軸照明を行う照明装置3が検査箇所42の平面に垂直な位置にあるとする。
そして、テレビカメラ2から入力される画像中の同軸照明装置3の正反射光成分にあたる最も明るい画素(例えば濃淡階調が0〜15であれば15の白レベル相当部)の数を特徴量とすることにより、この特徴量が最大となる位置を後述するようにして探すことで最適なカメラ位置22を求めることができる。
【0034】
まず、画像処理装置5内のメモリ55に予め記憶されている予めティーチングされたカメラ位置データを読み出し、ロボットコントローラ6にその位置への移動制御を指示する。
【0035】
次に、ロボットコントローラ6はその指示を受け、ロボット1を移動する(ステップS1)。
そして、画像入力を行うテレビカメラ2により、検査箇所42の画像を撮像する(ステップS2)。
【0036】
この画像データは画像処理装置5へ転送され、A/D変換器51によりデジタル信号に変換され、特徴抽出部52で前記特徴量を演算し、変数Hとして代入される(ステップS3)。
【0037】
そして、カメラ位置判断部53において、最初に0を代入しておいた(ステップS0)H0 と、今回測定されたHとを比較することで最大値を探す(ステップS4)。
【0038】
H≧H0 ならH0 に新たにHの値を代入し(ステップS5)、ロボットコントローラ6に図2に示すにように、テレビカメラ2を検査箇所42を中心に円弧を描くように回転移動制御の指示を出す。
【0039】
これにより、ロボット1はロボットコントローラ6で指示された位置へ移動し(ステップS6)、再びステップS2(画像入力)以降の処理を繰り返す。
この時のテレビカメラ2の回転移動の移動量は、誤検出することなく検査が可能な、検査箇所42とテレビカメラ2の相対角度の範囲を予め調べておき、その角度以下に設定すればよい。
【0040】
また、テレビカメラ2の回転移動方向23は、まず検査対象部品41のばらつきが生じる方向を、その部品の組み付け方法から予め推測する。
次に、推測した方向の全てについて、テレビカメラ2を図2に示すように回転移動をして、特徴量を演算する。
【0041】
そして、その特徴量の増加が最も大きい方向を移動方向とすればよい。
ステップS4において、H<H0 ならば、現在の1つ前の位置が最大の特徴量を与えるカメラ位置であり、その位置が検査に最適なカメラ位置22であると判断し、ロボットコントローラ6へその位置への移動制御を指示する。
【0042】
これにより、ロボットコントローラ6はその最適なカメラ位置22へロボット1を移動制御し(ステップS7)、ロボット1に取り付けられたテレビカメラ2により検査箇所42の画像を撮像する。
【0043】
この入力画像データは画像処理装置5へ転送され、A/D変換器51によりデジタル信号に変換され、検査処理部54にてこの場合、コネクタの外観形状やピン数が正常であるか否か等の検査が行われる(ステップS8)。
【0044】
以上により、カメラと検査箇所の相対角度を変え、そこで得られた画像の特徴量から、検査箇所のばらつきに応じて最適なカメラ位置を決定でき、誤検出することなく検査することが可能となる。
【0045】
なお、以上の説明では最適なカメラ位置22を決定してから検査を実行したが、まず検査を実行し誤検出があった場合にのみ最適なカメラ位置を決定し再度検査を実行する方法も可能である。
【0046】
また、ここでは照明装置3として、同軸照明装置を使い、その正反射光成分にあたる最も明るい画素の数を特徴量としたが、斜方照明等他の照明方法を使い、検査箇所の輪郭形状等カメラと検査箇所との相対角度によって変化する特徴量や、予め記憶しておいた最適なカメラ位置での画像とのマッチング度等も特徴量として使用することもできる。
【0047】
また、以上の説明では検査対象4を固定し、テレビカメラ2及び照明装置3をロボット1により移動したが、逆にテレビカメラ2及び照明装置3を固定して検査対象4をロボット1により移動させても同様の効果が得られる。
【0048】
つまり、これらの両者の間で円弧を描いて相対的に移動せしめるようにしてやればよい。
また、前述の第1の実施例Aでは、テレビカメラ2が円弧を描いて回転移動を行うようにしているが、例えば、テレビカメラ2にズーム機構を持たせるようにすることにより、テレビカメラ2と検査箇所42との間の距離を変えて円弧以外の軌跡を描くようにしてもよい。
【0049】
すなわち、テレビカメラ2の焦点距離に応じた軌跡で、移動可能としてやればよい。
さらに、ここではカメラ位置判断部53や、カメラ位置を記憶しておくメモリ55を画像処理装置5内に実現したが、これらはロボットコントローラ6や、パーソナルコンピュータ等で実現することもできる。
【0050】
従って、以上詳述したように本発明の第1の実施例Aによれば、対象物に角度のばらつき等の傾きを含む立体的な位置ずれが生じた場合でもそれを確実に補正して誤検出が生じないようにした外観検査装置を提供することが可能となる。
【0051】
ところで、以上のような本発明の第1の実施例Aでは、最適なカメラ位置を決定して検査を行なう例について説明したが、検査のために予めカメラ位置を自動的にティーチングする場合にも適用することができる。
【0052】
なお、予め、カメラ位置をティーチングするのは、検査対象物4のすべての検査箇所が対象となる。
この場合、従来の方法では、上記従来の技術の項に記載したように、作業者はまずロボット1を操作し、テレビカメラ2に検査箇所を映した後、次に検査に最適なカメラ位置になるよう、作業者が目視又は定規や治具を用いて手作業でカメラ位置の調整を行なうことになる。
【0053】
しかし、この方法では、作業者によって位置決めの精度にばらつきが生じ、また精密に設定しようとすれば時間がかかってしまうという問題があると共に、検査箇所は検査対象物4の各方向にあるため、側面や形状の複雑な箇所では、治具等による作業が難しいという問題がある。
【0054】
次に、以上のような問題点を解決するために、検査のために予めカメラ位置を自動的にティーチングする場合にも適用することができるようにした本発明の第2の実施例Bについて説明する。
【0055】
図5は、本発明の第2の実施例Bによる外観検査装置のシステム構成を示す図である。
図5において、1はカメラを移動させるためのロボット、2はロボットに取付けられたテレビカメラ、3はカメラと共に移動する照明、4は検査対象物、5は画像処理装置、6はロボットコントローラ、7は、ロボット1のティーチペンダントである。
【0056】
図6は、本発明の第2の実施例Bによるティーチングの作業手順を示すもので、カメラ位置の自動ティーチングを上述した第1の実施例Aと同様にコネクタ検査のティーチングに適用した場合の手順を示す。
【0057】
ロボット1に取り付けられたテレビカメラ2と照明3は、作業者がティーチペンダント7を使って検査箇所がテレビカメラ2に映る位置へ移動し、最適なカメラ位置の自動ティーチングが開始される(ステップS10)。
【0058】
まず、テレビカメラ2により、検査箇所42の画像を撮像し、画像処理装置5へ画像入力する(ステップS12)。
ディストリビュータのコネクタ端子検査を例にとると、検査に最適なカメラ位置は、テレビカメラ2と同軸照明が検査面に垂直な位置にあるときで、このとき画像の中で同軸照明の正反射光成分にあたる最も明るい画素の数を特徴量とすることにより、その特徴量が最大となる位置が最適なカメラ位置となる。
【0059】
そこで、この入力画像から特徴量を計測するために、その画像データから特徴量を演算し、変数Hへ代入される(ステップS13)。
そして、最初にステップS11で0を代入しておいた変数H0 と、今回測定した変数Hとを比較することで最大値を探す(ステップS14)。
【0060】
H≧H0 ならH0 に新たにその変数Hの値を代入し(ステップS15)、ロボットコントローラ6により、図2に示すように、テレビカメラ2が検査箇所42を中心に円弧を描くように回転移動させ(ステップS16)、再び上記ステップS12以降を繰り返す。
【0061】
H<H0 なら現在の1つ前の位置が最大の特徴量を与えるカメラ位置であり、その位置が検査に最適なカメラ位置22であると判断し、ロボット1をそこへ移動する(ステップS17)。
【0062】
この位置を当該検査箇所の予めティーチングしておくべきカメラ位置のティーチング座標として登録する(ステップS18)。
なお、テレビカメラ2の移動方向は、変数Hが増加する方向を予め探すことで決定できると共に、その移動角度は検査時のテレビカメラ2の位置決め精度から決められる。
【0063】
また、ここでは同軸照明を使い最も明るい画素数を特徴量としたが、斜方照明等他の照明を使い対象の輪郭形状等カメラの角度によって変化する特徴量を使用することもできる。
【0064】
以上により、テレビカメラ2と検査箇所の相対角度を変え、そこで得られた画像の特徴量から画像処理に最適なカメラ位置を決定でき、作業者は、検査箇所をカメラに映すのみで良くなり、ロボット1に対するティーチング時間を短縮することが可能となる。
【0065】
なお、この第2の実施例Bでは,図2における予めティーチングされたカメラ位置21は、ステップS10でのカメラ位置に相当する。
以上により、カメラと検査箇所の相対角度を変え、そこで得られた画像の特徴量から、検査に最適なカメラ位置を決定することができ、作業者は検査箇所をカメラに映すのみで良く、カメラ位置のティーチング時間を短縮することができ、作業者による位置決めの精度のばらつきをなくすことが可能となる。
【0066】
従って、以上詳述したように本発明の第2の実施例Bによれば、カメラを検査箇所を中心として移動させ、画像の明るさや形状等の特徴量の変化を計測することにより、画像処理に適したカメラ位置を決定し、上記問題点を解決するようにした外観検査装置を提供することができる。
【図面の簡単な説明】
【図1】本発明による第1の実施例Aの全体構成を示す図。
【図2】図1に用いるテレビカメラの回転移動を示す図。
【図3】図1に用いる画像処理装置の具体例を示す図。
【図4】本発明による第1の実施例Aの動作を説明するためのフローチャート。
【図5】本発明による第2の実施例Bの全体構成を示す図。
【図6】本発明による第2の実施例Bの動作を説明するためのフローチャート。
【符号の説明】
1…ロボット、
2…テレビカメラ、
3…照明装置、
4…検査対象物(ワーク)、
41…検査対象部品、
42…検査箇所、
5…画像処理装置、
51…A/D変換器、
52…特徴抽出部、
53…カメラ位置判断部、5
4…検査処理部、
55…メモリ、
6…ロボットコントローラ、
7…ロボットペンダント。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an appearance inspection apparatus that inspects an appearance after assembling parts using a camera attached to a robot or the like, for example, and in particular, automatically picks up an imaging position suitable for image processing according to an angle change of an inspection place. The present invention relates to an appearance inspection apparatus having a function of searching and determining automatically.
[0002]
The present invention also relates to an appearance inspection apparatus for inspecting the appearance after assembling parts using a camera attached to a robot or the like, for example, image processing according to the angle of an inspection location taught by a robot. The present invention relates to an appearance inspection apparatus suitable for appearance inspection after assembling parts by adding a function of automatically searching for and determining a suitable camera position and reducing teaching time.
[0003]
[Prior art]
Conventionally, in the fields such as the headline, an appearance inspection is performed by a camera (camera robot) attached to a camera fixed at a fixed position or a robot taught to move to a fixed position.
[0004]
In other words, when teaching the coordinates of an inspection location with a camera robot, the operator first looks at the camera and then uses an eye or a ruler or jig so that an image suitable for image processing for inspection can be obtained. It is used for manual adjustment.
[0005]
However, in this method, there are variations in positioning accuracy depending on the operator, and there is a problem that it takes time if precise setting is made, and since the inspection point is in each direction of the work to be inspected, There is a problem that it is difficult to work with a jig or the like in a complicated shape.
[0006]
If the robot and the inspection surface only move in parallel, automatic teaching can be performed by detecting the position of the center of gravity as in the pattern search disclosed in Japanese Patent Laid-Open No. 63-196803. If the workpiece is three-dimensional and the robot and the inspection surface are not only parallel, but also in a rotational movement position, it cannot be handled.
[0007]
In addition, when performing an appearance inspection, Japanese Patent Laid-Open No. 63-196803 discloses a method of correcting the position by measuring the center of gravity with respect to the planar displacement of the inspection object.
[0008]
However, in this method, when a three-dimensional deviation such as an angle variation at the time of assembling the components occurs, there is a problem that the brightness and shape of the image change and erroneous detection occurs.
[0009]
That is, according to the pattern search device disclosed in the above Japanese Patent Laid-Open No. 63-196803, the camera is moved by the robot based on the position of the center of gravity with respect to the pattern away from the center of the field of view, and the pattern is captured at the center of the field of view. As a result, pattern shape errors can be suppressed and position recognition can be performed correctly.
[0010]
In this method, the camera is translated with respect to the surface on which the pattern is placed in order to align the center of the visual field and the position of the center of gravity of the pattern.
However, if the surface on which the pattern is placed is tilted with respect to the camera, for example, the pattern will remain tilted even if the pattern center of gravity is aligned with the center of the field of view, the pattern shape error will not disappear, The position cannot be recognized correctly.
[0011]
Even if the camera is moved in accordance with the inclination of the pattern, the inclination of the pattern cannot be detected only by detecting the position of the center of gravity of the pattern, and the camera position cannot be corrected with respect to the inclination of the pattern.
[0012]
In other words, using this method, when performing inspections that cause tilt (such as angle variations when assembling parts) at the inspection location, the inclination of the inspection location will remain even if the pattern (inspection location) center of gravity is aligned with the center of the field of view. Since the correction is not performed, there is a problem that even if the inspection is performed in this state, the detection error occurs.
[0013]
[Problems to be solved by the invention]
Therefore, the present invention has been made in view of the above points, and even when a three-dimensional positional deviation including an inclination such as a variation in angle occurs in an object, it is reliably corrected and erroneous detection occurs. It is an object of the present invention to provide a visual inspection apparatus that is not provided.
[0014]
In addition, the present invention has been made in view of the above points, and is suitable for image processing by moving a camera around an inspection location and measuring a change in a feature amount such as brightness and shape of an image. An object of the present invention is to provide an appearance inspection apparatus that determines the camera position and solves the above-described problems.
[0015]
[Means for Solving the Problems]
According to the present invention, in order to solve the above-described problem, an image input unit that captures an image of an inspection object, a moving unit that moves relatively between the inspection object and the image input unit while drawing an arc, and A feature amount extracting means for extracting a predetermined feature amount corresponding to a relative angle between the inspection location of the inspection object and the image input means based on image data from the image input means; and the feature amount extracting means. Determination means for determining whether or not the positional relationship between the inspection object and the image input means is optimal based on a predetermined feature amount extracted, and the inspection object and image input determined by the determination means positional relationship between the means and control means for controlling said moving means so that the position relation is obtained for the optimization, the image input means includes a camera having a coaxial illumination unit, said moving means said image input Means for rotating the camera having the coaxial illumination device included in the means around the inspection location of the inspection object, and the predetermined feature amount extracted by the feature amount extraction means is the regular reflection of the coaxial illumination device When the number of the brightest pixels corresponding to the light component is determined, the determination means determines that the positional relationship that maximizes the feature amount is the optimal positional relationship .
[0018]
According to the above-described solution means, when the inspection location is tilted, the image input device such as a camera is moved in an arc around the inspection location so that the relative angle with the inspection location is changed by the moving device. The feature amount corresponding to the change in relative angle between the inspection location and the image input means such as the camera is measured from the image by the feature amount extraction means, and the image input means such as the camera suitable for the inspection is determined from the feature amount. When the position is determined by the determination means and the position of the image input means such as a camera is corrected , the image input means includes a camera having a coaxial illumination device, and the moving means is the coaxial illumination device included in the image input means. Means for rotating the camera around the inspection location of the inspection object, and the predetermined feature amount extracted by the feature amount extraction means is the same as that of the coaxial illumination device. When it is the number of the brightest pixel at reflection component, the judgment unit may by determined to be optimal positional relationship positional relationship which the feature amount is maximum, stable image against the inclination of the inspection region Since it is obtained, inspection can be performed without causing erroneous detection.
[0019]
Therefore, according to the present invention as described above, even when a three-dimensional misalignment including an inclination such as a variation in angle occurs in an object, it is surely corrected so that no false detection occurs. An apparatus can be provided.
[0020]
Further, according to the present invention, the object to be inspected is imaged, and the television camera having a coaxial illumination device and the object to be inspected are relatively moved in a circular arc between the object to be inspected and the television camera. A robot that rotates the camera around the inspection location of the inspection object, and a predetermined angle corresponding to a relative angle between the inspection location of the inspection object and the television camera based on image data from the television camera. Feature amount extraction means for extracting feature amounts, and determination means for determining whether or not the positional relationship between the inspection object and the television camera is optimal based on the predetermined feature amounts extracted by the feature amount extraction means And a control means for controlling the robot so as to obtain a positional relationship in which the positional relationship between the inspection object and the television camera determined by the determining means is optimal. By said determining means and control means, and an automatic teaching means for registering the position of the TV camera in the inspection position as the optimum position coordinates at a position state where the relationship is obtained between the test object and the television camera to be optimized When the predetermined feature amount extracted by the feature amount extraction means is the number of the brightest pixels corresponding to the specularly reflected light component of the coaxial illumination device, the determination means is a position where the feature amount is maximum. There is provided an appearance inspection apparatus characterized in that a relationship is determined to be an optimal positional relationship .
[0022]
According to the above solution, when the inspection location is tilted, the television camera having the coaxial illumination device is moved in an arc around the inspection location so that the relative angle with the inspection location changes, and an image is input. Then, a feature amount corresponding to a change in relative angle between the inspection location and the television camera having the coaxial illumination device is measured from the image by a feature amount extraction means, and the television having the coaxial illumination device suitable for the inspection from the feature amount. The position of the turtle is determined by the determining means to correct the position of the television camera having the coaxial illumination device, and the positional relationship between the inspection object and the image input means determined by the determining means is optimized. When the moving means is controlled by the control means, the predetermined feature quantity extracted by the feature quantity extraction means is the correct value of the coaxial illumination device. When it is the number of the brightest pixel at Shako component, the judgment unit may by determined to be optimal positional relationship positional relationship which the feature amount is maximum, stable images obtained for the inclination of the inspection region Therefore, it is possible to inspect without causing false detection, and in particular, an appearance inspection apparatus for inspecting the appearance after assembling the parts using a camera attached to the robot , wherein the determination means and the control means By providing automatic teaching means for registering the position of the television camera at the inspection location as optimum position coordinates in a state where the optimal positional relationship between the inspection object and the television camera is obtained in cooperation with the robot, Added a function to automatically search and determine the camera position suitable for image processing according to the angle of the inspection location to teach , It is possible to shorten the teaching time.
[0023]
Therefore, according to the present invention as described above, the camera position suitable for image processing is determined by moving the camera around the inspection location and measuring the change in the feature amount such as the brightness and shape of the image. It is possible to provide an appearance inspection apparatus that solves the above problems.
[0024]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing a system configuration of an appearance inspection apparatus according to a first embodiment A of the present invention.
[0025]
In FIG. 1, reference numeral 1 denotes a robot for moving a
[0026]
Further, as shown in FIG. 2, the robot 1 can rotate the
[0027]
In FIG. 1,
[0028]
FIG. 2 is an explanatory diagram of the rotational movement of the
[0029]
In FIG. 2, 21 is a camera position taught in advance for inspection, 22 is an optimal camera position for inspection after rotating the
[0030]
In FIG. 2, reference numeral 41 denotes an inspection target component assembled to the
In FIG. 2, reference numeral 42 denotes an actual inspection location, which is also the center of rotational movement of the
[0031]
FIG. 3 is an internal configuration diagram of the
In FIG. 3, 51 is an A / D converter that converts image data from the
[0032]
In FIG. 3,
FIG. 4 shows a processing procedure when applied to connector terminal inspection of a distributor used in a vehicle as an application example of the appearance inspection apparatus according to the first embodiment A of the present invention described above.
[0033]
In this case, it is assumed that the optimal camera position 22 for inspection is located at a position perpendicular to the plane of the inspection location 42 with the
Then, the number of brightest pixels (for example, a portion corresponding to 15 white levels if the grayscale is 0 to 15) corresponding to the specularly reflected light component of the
[0034]
First, the pre-teached camera position data stored in advance in the
[0035]
Next, the
And the image of the test | inspection location 42 is imaged with the
[0036]
This image data is transferred to the
[0037]
Then, the camera position determination unit 53 searches for the maximum value by comparing H 0 that has been initially substituted with 0 (step S 0) and H measured this time (step S 4).
[0038]
If H ≧ H 0 , a new value of H is substituted for H 0 (step S5), and the
[0039]
Thereby, the robot 1 moves to the position instructed by the robot controller 6 (step S6), and repeats the processing after step S2 (image input) again.
The moving amount of the rotational movement of the
[0040]
As for the rotational movement direction 23 of the
Next, with respect to all the estimated directions, the
[0041]
Then, the direction in which the increase in the feature amount is the largest may be set as the movement direction.
In step S4, if H <H 0 , it is determined that the current previous position is the camera position giving the maximum feature value, and that the position is the optimal camera position 22 for inspection, and the
[0042]
As a result, the
[0043]
This input image data is transferred to the
[0044]
As described above, the relative angle between the camera and the inspection location can be changed, and the optimum camera position can be determined from the feature amount of the image obtained there in accordance with the variation of the inspection location, allowing inspection without erroneous detection. .
[0045]
In the above description, the optimal camera position 22 is determined and then the inspection is executed. However, it is also possible to execute an inspection first and then determine the optimal camera position and execute the inspection again only when there is a false detection. It is.
[0046]
In addition, here, a coaxial illumination device is used as the
[0047]
In the above description, the
[0048]
That is, what is necessary is just to make it move relatively by drawing a circular arc between these both.
In the first embodiment A described above, the
[0049]
In other words, it is only necessary to make it movable with a locus corresponding to the focal length of the
Furthermore, although the camera position determination unit 53 and the
[0050]
Therefore, as described in detail above, according to the first embodiment A of the present invention, even if a three-dimensional positional deviation including an inclination such as a variation in angle occurs in an object, it is corrected and reliably corrected. It is possible to provide an appearance inspection apparatus that prevents detection.
[0051]
By the way, in the first embodiment A of the present invention as described above, the example in which the optimal camera position is determined and the inspection is performed has been described. However, even in the case where the camera position is automatically taught in advance for the inspection. Can be applied.
[0052]
It should be noted that teaching the camera position in advance applies to all inspection locations of the
In this case, in the conventional method, as described in the above-mentioned section of the prior art, the operator first operates the robot 1 to display the inspection location on the
[0053]
However, in this method, the accuracy of positioning varies depending on the operator, and there is a problem that it takes time if it is set precisely, and the inspection point is in each direction of the
[0054]
Next, in order to solve the above-described problems, a second embodiment B of the present invention that can be applied to the case where the camera position is automatically taught for inspection will be described. To do.
[0055]
FIG. 5 is a diagram showing a system configuration of an appearance inspection apparatus according to the second embodiment B of the present invention.
In FIG. 5, 1 is a robot for moving a camera, 2 is a television camera attached to the robot, 3 is an illumination that moves together with the camera, 4 is an inspection object, 5 is an image processing device, 6 is a robot controller, 7 Is a teach pendant of the robot 1.
[0056]
FIG. 6 shows the work procedure of teaching according to the second embodiment B of the present invention, and the procedure when the automatic teaching of the camera position is applied to the teaching of connector inspection as in the first embodiment A described above. Indicates.
[0057]
The
[0058]
First, the
Taking the distributor connector terminal inspection as an example, the optimal camera position for the inspection is when the
[0059]
Therefore, in order to measure the feature amount from the input image, the feature amount is calculated from the image data and substituted into the variable H (step S13).
The first variable H 0 which had been substituted for 0 in step S11, search for the maximum value by comparing the variable H measured time (step S14).
[0060]
If H ≧ H 0, the value of the variable H is newly substituted for H 0 (step S15), and the
[0061]
If H <H 0, it is determined that the current previous position is the camera position giving the maximum feature value, and that the position is the optimal camera position 22 for inspection, and the robot 1 is moved there (step S17). ).
[0062]
This position is registered as the teaching coordinate of the camera position to be taught in advance for the inspection location (step S18).
The moving direction of the
[0063]
Here, the feature quantity is the brightest number of pixels using coaxial illumination, but a feature quantity that changes depending on the angle of the camera, such as a target contour shape, can be used using other illumination such as oblique illumination.
[0064]
As described above, the relative angle between the
[0065]
In the second embodiment B, the previously taught
As described above, the relative angle between the camera and the inspection location can be changed, and the optimal camera position for the inspection can be determined from the feature amount of the image obtained there. The operator only has to display the inspection location on the camera. Position teaching time can be shortened, and variations in positioning accuracy by the operator can be eliminated.
[0066]
Therefore, as described in detail above, according to the second embodiment B of the present invention, the image processing is performed by moving the camera around the inspection location and measuring the change in the feature amount such as the brightness and shape of the image. It is possible to provide an appearance inspection apparatus that determines a camera position suitable for the above and solves the above problems.
[Brief description of the drawings]
FIG. 1 is a diagram showing an overall configuration of a first embodiment A according to the present invention.
FIG. 2 is a diagram showing rotational movement of the television camera used in FIG. 1;
FIG. 3 is a diagram showing a specific example of the image processing apparatus used in FIG. 1;
FIG. 4 is a flowchart for explaining the operation of the first embodiment A according to the present invention.
FIG. 5 is a diagram showing an overall configuration of a second embodiment B according to the present invention.
FIG. 6 is a flowchart for explaining the operation of the second embodiment B according to the present invention.
[Explanation of symbols]
1 ... Robot,
2 ... TV camera,
3 ... lighting device,
4 ... Inspection object (work),
41 ... parts to be inspected,
42 ... inspection location,
5 ... Image processing device,
51 ... A / D converter,
52. Feature extraction unit,
53 ... Camera position determination unit, 5
4 ... inspection processing part,
55 ... Memory,
6 ... Robot controller,
7 ... Robot pendant.
Claims (2)
前記検査対象物と画像入力手段との間を円弧を描いて相対的に移動せしめる移動手段と、
前記画像入力手段からの画像データに基いて前記検査対象物の検査箇所と前記画像入力手段との間の相対角度に対応する所定の特徴量を抽出する特徴量抽出手段と、
前記特徴量抽出手段によって抽出される所定の特徴量に基いて前記検査対象物と画像入力手段との位置関係が最適であるか否かを判断する判断手段と、
前記判断手段によって判断される前記検査対象物と画像入力手段との位置関係が最適となる位置関係が得られるように前記移動手段を制御する制御手段とを具備し、
前記画像入力手段は同軸照明装置を有するカメラを含み、
前記移動手段は前記画像入力手段に含まれる前記同軸照明装置を有するカメラを前記検査対象物の検査箇所を中心として回転移動せしめる手段を含み、
前記特徴量抽出手段によって抽出される所定の特徴量が前記同軸照明装置の正反射光成分にあたる最も明るい画素の数とされるとき、前記判断手段はこの特徴量が最大となる位置関係を最適位置関係であると判断することを特徴とする外観検査装置。Image input means for imaging an inspection object;
A moving means for moving the inspection object and the image input means relative to each other while drawing an arc;
Feature amount extraction means for extracting a predetermined feature amount corresponding to a relative angle between the inspection location of the inspection object and the image input means based on image data from the image input means;
Determining means for determining whether the positional relationship between the inspection object and the image input means is optimal based on a predetermined feature value extracted by the feature value extracting means;
Control means for controlling the moving means so as to obtain a positional relationship in which the positional relationship between the inspection object and the image input means determined by the determining means is optimal ,
The image input means includes a camera having a coaxial illumination device,
The moving means includes means for rotating the camera having the coaxial illumination device included in the image input means around the inspection location of the inspection object;
When the predetermined feature amount extracted by the feature amount extraction unit is the number of the brightest pixels corresponding to the specularly reflected light component of the coaxial illumination device, the determination unit determines the positional relationship where the feature amount is maximum as the optimum position. An appearance inspection apparatus characterized by determining that the relation is established .
前記検査対象物とテレビカメラとの間を円弧を描いて相対的に移動せしめるもので、前記テレビカメラを前記検査対象物の検査箇所を中心として回転移動せしめるロボットと、
前記テレビカメラからの画像データに基いて前記検査対象物の検査箇所と前記テレビカメラとの間の相対角度に対応する所定の特徴量を抽出する特徴量抽出手段と、
前記特徴量抽出手段によって抽出される所定の特徴量に基いて前記検査対象物とテレビカメラとの位置関係が最適であるか否かを判断する判断手段と、
前記判断手段によって判断される前記検査対象物とテレビカメラとの位置関係が最適となる位置関係が得られるように前記ロボットを制御する制御手段と、
前記判断手段及び制御手段とにより、最適となる前記検査対象物とテレビカメラとの位置関係が得られた状態で当該検査箇所における前記テレビカメラの位置を最適位置座標として登録する自動ティーチング手段とを具備し、
前記特徴量抽出手段によって抽出される所定の特徴量が前記同軸照明装置の正反射光成分にあたる最も明るい画素の数とされるとき、前記判断手段はこの特徴量が最大となる位置関係を最適位置関係であると判断することを特徴とする外観検査装置。 An image of an inspection object, a television camera having a coaxial illumination device,
A robot that relatively moves the inspection object and the television camera while drawing an arc, and a robot that rotates the television camera around the inspection portion of the inspection object;
Feature amount extraction means for extracting a predetermined feature amount corresponding to a relative angle between the inspection location of the inspection object and the television camera based on image data from the television camera;
Determining means for determining whether the positional relationship between the inspection object and the television camera is optimal based on a predetermined feature amount extracted by the feature amount extracting means;
Control means for controlling the robot so as to obtain a positional relationship in which the positional relationship between the inspection object and the television camera determined by the determining unit is optimal;
Automatic teaching means for registering the position of the television camera at the inspection location as optimum position coordinates in a state where the optimum positional relationship between the inspection object and the television camera is obtained by the determination means and the control means. Equipped,
When the predetermined feature amount extracted by the feature amount extraction unit is the number of the brightest pixels corresponding to the specularly reflected light component of the coaxial illumination device, the determination unit determines the positional relationship where the feature amount is maximum as the optimum position. appearance inspection device you and determines that the relationship.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP05024396A JP3666108B2 (en) | 1995-03-16 | 1996-03-07 | Appearance inspection device |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7-56900 | 1995-03-16 | ||
JP5690095 | 1995-03-16 | ||
JP05024396A JP3666108B2 (en) | 1995-03-16 | 1996-03-07 | Appearance inspection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH08313225A JPH08313225A (en) | 1996-11-29 |
JP3666108B2 true JP3666108B2 (en) | 2005-06-29 |
Family
ID=26390693
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP05024396A Expired - Fee Related JP3666108B2 (en) | 1995-03-16 | 1996-03-07 | Appearance inspection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3666108B2 (en) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4585080B2 (en) * | 2000-04-19 | 2010-11-24 | 三菱重工業株式会社 | Nuclear pressure vessel seat surface inspection system |
JP4508252B2 (en) | 2008-03-12 | 2010-07-21 | 株式会社デンソーウェーブ | Robot teaching device |
CN102019565B (en) * | 2009-09-21 | 2015-10-14 | Abb技术有限公司 | For the manufacture of quality control system and the method for parts |
JP5499802B2 (en) * | 2010-03-18 | 2014-05-21 | 株式会社デンソーウェーブ | Visual inspection system |
JP5854815B2 (en) * | 2011-12-20 | 2016-02-09 | キヤノン株式会社 | Information processing apparatus, information processing apparatus control method, and program |
JP5912627B2 (en) * | 2012-02-14 | 2016-04-27 | 川崎重工業株式会社 | Imaging inspection apparatus, control apparatus and control method thereof |
JP6004809B2 (en) * | 2012-03-13 | 2016-10-12 | キヤノン株式会社 | Position / orientation estimation apparatus, information processing apparatus, and information processing method |
JP2013255972A (en) * | 2012-06-14 | 2013-12-26 | Shinnichi Kogyo Co Ltd | Workpiece conveying device and method for controlling the same |
CN108965690B (en) | 2017-05-17 | 2021-02-26 | 欧姆龙株式会社 | Image processing system, image processing apparatus, and computer-readable storage medium |
JP6973233B2 (en) * | 2017-05-17 | 2021-11-24 | オムロン株式会社 | Image processing system, image processing device and image processing program |
CN110340887B (en) * | 2019-06-12 | 2021-02-19 | 西安交通大学 | An Image-Based Approach for Vision Guidance of Refueling Robot |
JP7533265B2 (en) * | 2021-02-12 | 2024-08-14 | オムロン株式会社 | Support system, image processing device, support method and program |
-
1996
- 1996-03-07 JP JP05024396A patent/JP3666108B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH08313225A (en) | 1996-11-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9677879B2 (en) | Tire appearance inspection apparatus and method | |
JP3666108B2 (en) | Appearance inspection device | |
JP3508369B2 (en) | Image measuring machine | |
US7120286B2 (en) | Method and apparatus for three dimensional edge tracing with Z height adjustment | |
CN112104851B (en) | Detection method, device and detection system for picture correction | |
US20190197676A1 (en) | Object inspection system and object inspection method | |
JP4284765B2 (en) | Robot hand position measuring device | |
JPH1054709A (en) | Three-dimensional image recognizing device with microscope | |
JPH04365586A (en) | Optical axis aligning method and orthogonal axis aligning method for hand eye | |
JP2001246582A (en) | Working robot device | |
JP2020197983A (en) | Object measurement method, measuring device, program, and computer-readable recording medium | |
CN112888531A (en) | Workpiece inspection apparatus and workpiece inspection method | |
JP6900261B2 (en) | Processing equipment, substrate inspection equipment, processing method and substrate inspection method | |
KR100939541B1 (en) | Automatic Image Inspection System and Automatic Image Inspection Method in the System | |
JP7655664B2 (en) | Apparatus and method for inspecting appearance of semi-split cylindrical workpiece | |
JPH0829120A (en) | Position measuring method of object having curved surface and positioning controller for two objects having curved surface | |
JP2588339Y2 (en) | Body surface inspection device | |
JPH054180A (en) | Co-ordinate system matching method for multi-axis robot with hand-eye | |
JP2007027302A (en) | Inspection apparatus and positioning method thereby | |
JP3534817B2 (en) | Automatic lighting setting method and device | |
JP3859245B2 (en) | How to center the chart | |
JP7579130B2 (en) | Visual inspection device and visual inspection method | |
JP3779118B2 (en) | Method for detecting displacement of camera in imaging apparatus, method for detecting tilt of camera in imaging apparatus, and method for correcting movement amount of camera in imaging apparatus | |
JP2022146059A (en) | APPEARANCE INSPECTION DEVICE AND APPEARANCE INSPECTION METHOD FOR HALF CYLINDRICAL WORK | |
JPH08166810A (en) | Method for measuring position correction precision of robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20040402 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040622 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040730 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050315 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050328 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080415 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110415 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |