JP4258189B2 - Appearance inspection apparatus and appearance inspection method - Google Patents
Appearance inspection apparatus and appearance inspection method Download PDFInfo
- Publication number
- JP4258189B2 JP4258189B2 JP2002254679A JP2002254679A JP4258189B2 JP 4258189 B2 JP4258189 B2 JP 4258189B2 JP 2002254679 A JP2002254679 A JP 2002254679A JP 2002254679 A JP2002254679 A JP 2002254679A JP 4258189 B2 JP4258189 B2 JP 4258189B2
- Authority
- JP
- Japan
- Prior art keywords
- field
- view
- inspection
- photographing
- inspection object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
- Testing Or Measuring Of Semiconductors Or The Like (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、検査対象物の外観検査を行う外観検査装置および外観検査方法に関し、特にトレイのポケット内に収納された検査対象物を複数の視野に分割して撮影して外観検査を行う外観検査装置および外観検査方法に関する。
【0002】
【従来の技術】
従来、トレイのポケット内に収納されたICチップをカメラ等によって撮影し、撮影された画像を画像処理部に入力してチップが良品であるか不良品であるかを判断するICチップの外観検査装置が存在する(例えば、特許文献1参照。)。
【0003】
この種のICチップの外観検査装置は、トレイのポケット内に収納されたICチップ全面を1つの撮影視野で撮影するもので、ICチップのサイズが大きいほど画像の分解能が粗くなってしまい、微少な欠陥を検出しづらくなるという欠点があった。
【0004】
そこで、トレイのポケット内に収納されたICチップの位置決め固定を行い、位置決めをしたICチップの表面全体に環状照明にて照明し、その上方より顕微鏡カメラにより撮影しながらXYθテーブルを駆動し、同一ICチップを複数の撮影視野で撮影して検査を行う外観検査装置が提案されている(例えば、特許文献2参照。)。
【0005】
【特許文献1】
特開平5−152406号公報
【特許文献2】
特開平8−145895号公報
【0006】
【発明が解決しようとする課題】
しかしながら、従来技術では、トレイに収納されたICチップを複数の撮影視野で撮影する際のICチップの位置ずれを防止するために、複雑な機構のICチップの位置決め固定手段が必要になると共に、機械的にICチップの位置決めが行われているため、各撮影視野で撮影された画像を高精度に検査することができないという問題点があった。
【0007】
本発明は斯かる問題点を鑑みてなされたものであり、その目的とするところは、トレイのポケットに収納された検査対象物を複数の撮影視野で分割撮影する際に、トレイのポケットに収納された検査対象物の機械的な位置決めをすることなく、各撮影視野で撮影された画像を高精度に検査することができる外観検査装置および外観検査方法を提供する点にある。
【0008】
さらに、本発明の目的とするところは、トレイのポケットに収納された検査対象物を複数の撮影視野で分割撮影する際の撮影視野数を最小限にすることができ、各撮影視野での位置合わせ時間を短縮することができる外観検査装置および外観検査方法を提供する点にある。
【0009】
【課題を解決するための手段】
本発明は上記課題を解決すべく、以下に掲げる構成とした。
本発明の外観検査装置は、トレイのポケットに収納された検査対象物を複数の撮影視野に分割して撮影し、当該撮影によって得られる画像によって前記検査対象物の外観検査を行う外観検査装置であって、前記撮影視野で前記検査対象物を撮影する撮影手段と、前記撮影視野を移動させる移動手段と、前記検査対象物の特徴領域を記憶している特徴領域記憶手段と、前記撮影手段によって前記撮影視野で撮影された画像から前記検査対象物の前記特徴領域を検索し、当該検索によって得られた情報を参照して前記検査対象物の姿勢情報を算出する姿勢検出手段と、前記姿勢情報に基づいて前記移動手段による前記撮影視野の撮影位置を決定する移動制御手段とを具備することを特徴とする。
さらに、本発明の外観検査装置は、前記姿勢検出手段は、予め定められた第1撮影視野で撮影された画像から前記検査対象物の前記特徴領域を検索し、当該検索によって得られた情報を参照して前記検査対象物の前記姿勢情報を算出し、前記移動制御手段は、前記第1撮影視野における撮影で算出された前記姿勢情報に基づいて前記第1撮影視野に続く第2撮影視野以降の撮影位置を決定し、前記移動手段を制御することを特徴とする。
さらに、本発明の外観検査装置は、前記姿勢情報に基づいて前記撮影視野で撮影された画像から検査領域を抽出し、抽出した検査領域の傾きを補正する画像処理手段と、該画像処理手段によって抽出され傾きを補正された前記検査領域を検査する検査手段とを具備することを特徴とする。
さらに、本発明の外観検査装置は、前記姿勢検出手段は、予め定められた第1撮影視野で撮影された画像から前記検査対象物の前記特徴領域を検索し、当該検索によって得られた情報を参照して前記検査対象物の前記姿勢情報を算出し、前記画像処理手段は、前記第1撮影視野における撮影で算出された前記姿勢情報に基づいて前記第1撮影視野に続く第2撮影視野以降で撮影された画像から前記検査領域を抽出し、抽出した前記検査領域の傾きを補正することを特徴とする。
さらに、本発明の外観検査装置は、前記移動制御手段は、前記姿勢情報に基づいて当該姿勢情報が算出された前記撮影視野の次に撮影される前記撮影視野の撮影位置を決定させることを特徴とする。
さらに、本発明の外観検査装置は、前記画像処理手段は、前記姿勢情報に基づいて当該姿勢情報が算出された前記撮影視野で撮影された画像から前記検査領域を抽出し、抽出した前記検査領域の傾きを補正することを特徴とする。
さらに、本発明の外観検査装置は、前記移動制御手段は、前記姿勢検出手段が前記撮影視野で撮影された画像から前記姿勢情報の算出に失敗した際には、前記姿勢情報の算出に失敗した前記撮影視野の次に撮影される前記撮影視野の撮影位置を前記姿勢検出手段によって既に算出されている前記姿勢情報に基づいて決定させることを特徴とする。
さらに、本発明の外観検査装置は、前記画像処理手段は、前記姿勢検出手段が前記撮影視野で撮影された画像から前記姿勢情報の算出に失敗した際には、前記姿勢検出手段によって既に算出されている前記姿勢情報に基づいて前記姿勢情報の算出に失敗した前記撮影視野で撮影された画像から前記検査領域を抽出し、抽出した前記検査領域の傾きを補正することを特徴とする。
さらに、本発明の外観検査装置は、前記姿勢検出手段が予め定められた第1撮影視野で撮影された画像から前記姿勢情報の算出に失敗した際には、前記撮影手段によって予め定められた前記第1撮影視野とは異なる予備撮影視野で前記検査対象物を撮影させ、前記姿勢検出手段によって前記予備撮影視野で撮影された画像から前記姿勢情報を算出させ、前記移動制御手段によって前記予備撮影視野で算出された前記姿勢情報から前記第1撮影視野の撮影位置を決定させ、前記姿勢検出手段によって再度前記第1撮影視野で撮影された画像から前記姿勢情報を算出させることを特徴とする。
さらに、本発明の外観検査装置は、トレイのポケットに収納された検査対象物を複数の撮影視野に分割して撮影し、当該撮影によって得られる画像によって前記検査対象物の外観検査を行う外観検査装置であって、前記撮影視野で前記検査対象物を撮影する撮影手段と、前記撮影視野を移動させる移動手段と、前記検査対象物の特徴領域を記憶している特徴領域記憶手段と、前記撮影手段によって予め定められた基準撮影視野で撮影された画像から前記検査対象物の前記特徴領域を検索し、当該検索によって得られた情報を参照して前記検査対象物の基準姿勢情報を算出する姿勢検出手段と、該姿勢検出手段によって算出された前記基準姿勢情報に基づいて前記移動手段による前記基準撮影視野を除く前記複数の撮影視野の撮影位置をそれぞれ決定し、前記移動手段を制御する移動制御手段とを具備することを特徴とする。
さらに、本発明の外観検査装置は、前記基準姿勢情報に基づいて前記複数の撮影視野で撮影されたそれぞれの画像から検査領域をそれぞれ抽出し、抽出した前記検査領域の傾きを補正する画像処理手段と、該画像処理手段によって抽出され傾きを補正されたそれぞれの前記検査領域を検査する検査手段とを具備することを特徴とする。
さらに、本発明の外観検査装置は、トレイのポケットに収納された検査対象物を複数の撮影視野に分割して撮影し、当該撮影によって得られる画像によって前記検査対象物の外観検査を行う外観検査装置であって、前記撮影視野で前記検査対象物を撮影する撮影手段と、前記撮影視野を移動させる移動手段と、前記検査対象物の特徴領域を記憶している特徴領域記憶手段と、前記撮影手段によって前記撮影視野で撮影された画像から前記検査対象物の前記特徴領域を検索し、当該検索によって得られた情報を参照して前記検査対象物の姿勢情報を算出する姿勢検出手段と、該姿勢検出手段によって算出された前記姿勢情報に基づいて前記移動手段による前記撮影視野の撮影位置を決定し、前記移動手段を制御する移動制御手段と、前記ポケットのサイズと前記検査対象物のサイズと前記撮影視野のサイズとから複数の前記撮影視野の撮影位置を決定する撮影位置決定手段と、前記検査対象物の全体を撮影するために必要な前記姿勢情報に基づいて決定される撮影視野数と前記撮影位置決定手段によって決定される撮影視野数とを前記ポケットのサイズと前記検査対象物のサイズと前記撮影視野のサイズとから算出する視野数算出手段と、該視野数算出手段によって算出された前記姿勢情報に基づいて決定される撮影視野数と前記撮影位置決定手段によって決定される撮影視野数とを比較する視野数比較手段と、前記姿勢情報に基づいて決定される撮影視野数が前記撮影位置決定手段によって決定される撮影視野数よりも少ない場合には、前記姿勢情報に基づいた撮影位置での検査を選択し、前記姿勢情報に基づいて決定される撮影視野数と前記撮影位置決定手段によって決定される撮影視野数とが同一である場合には、前記撮影位置決定手段によって決定される撮影位置での検査を選択する選択手段とを具備することを特徴とする。
さらに、本発明の外観検査装置は、前記検査手段は、前記検査領域を検査する際の基準となる画像として前記撮影視野で撮影された複数の画像を合成したものを使用させることを特徴とする。
本発明の外観検査方法は、トレイのポケットに収納された検査対象物を複数の撮影視野に分割して撮影し、当該撮影によって得られる画像によって前記検査対象物の外観検査を行う外観検査方法であって、前記撮影視野で前記検査対象物を撮影し、前記検査対象物の特徴領域を記憶しておき、前記撮影視野で撮影した画像から前記検査対象物の前記特徴領域を検索し、該検索によって得られた情報を参照して前記検査対象物の姿勢情報を算出し、該算出した前記姿勢情報に基づいて前記撮影視野の撮影位置を決定し、該決定した撮影位置に前記撮影視野を移動させることを特徴とする。
さらに、本発明の外観検査方法は、予め定められた第1撮影視野で撮影された画像から前記検査対象物の前記特徴領域を検索し、該検索によって得られた情報を参照して前記検査対象物の前記姿勢情報を算出し、前記第1撮影視野において算出した前記姿勢情報に基づいて前記第1撮影視野に続く第2撮影視野以降の撮影位置を決定することを特徴とする。
さらに、本発明の外観検査方法は、前記姿勢情報に基づいて前記撮影視野で撮影した画像から検査領域を抽出すると共に抽出した前記検査領域の傾きを補正し、該抽出して傾きを補正した前記検査領域を検査することを特徴とする。
さらに、本発明の外観検査方法は、予め定められた第1撮影視野で撮影した画像から前記検査対象物の前記特徴領域を検索し、該検索によって得られた情報を参照して前記検査対象物の前記姿勢情報を算出し、前記第1撮影視野において算出した前記姿勢情報に基づいて前記第1撮影視野に続く第2撮影視野以降に撮影した画像から前記検査領域を抽出すると共に抽出した前記検査領域の傾きを補正することを特徴とする。
さらに、本発明の外観検査方法は、前記姿勢情報に基づいて当該姿勢情報を算出した前記撮影視野の次に撮影する前記撮影視野の撮影位置を決定することを特徴とする。
さらに、本発明の外観検査方法は、前記姿勢情報に基づいて当該姿勢情報が算出された前記撮影視野で撮影された画像から前記検査領域を抽出すると共に抽出した前記検査領域の傾きを補正することを特徴とする。
さらに、本発明の外観検査方法は、前記撮影視野で撮影した画像から前記姿勢情報の算出に失敗した際には、前記姿勢情報の算出に失敗した前記撮影視野の次に撮影する前記撮影視野の撮影位置を既に算出している前記姿勢情報に基づいて決定することを特徴とする。
さらに、本発明の外観検査方法は、前記撮影視野で撮影した画像から前記姿勢情報の算出に失敗した際には、既に算出されている前記姿勢情報に基づいて前記姿勢情報の算出に失敗した前記撮影視野で撮影された画像から前記検査領域を抽出すると共に抽出した前記検査領域の傾きを補正することを特徴とする。
さらに、本発明の外観検査方法は、予め定められた第1撮影視野で撮影した画像から前記姿勢情報の算出に失敗した際には、予め定められた前記第1撮影視野とは異なる予備撮影視野で前記検査対象物を撮影し、前記予備撮影視野で撮影した画像から前記姿勢情報を算出し、前記予備撮影視野で算出した前記姿勢情報から前記第1撮影視野の撮影位置を決定し、該決定した撮影位置で再度前記第1撮影視野を撮影し、再度前記第1撮影視野で撮影した画像から前記姿勢情報を算出することを特徴とする。
さらに、本発明の外観検査方法は、トレイのポケットに収納された検査対象物を複数の撮影視野に分割して撮影し、当該撮影によって得られる画像によって前記検査対象物の外観検査を行う外観検査方法であって、前記撮影視野で前記検査対象物を撮影し、前記検査対象物の特徴領域を記憶しておき、予め定められた基準撮影視野で撮影した画像から前記検査対象物の前記特徴領域を検索し、該検索によって得られた情報を参照して前記検査対象物の基準姿勢情報を算出し、該算出した前記基準姿勢情報に基づいて前記基準撮影視野を除く前記複数の撮影視野の撮影位置をそれぞれ決定し、該決定したそれぞれの撮影位置に前記撮影視野を移動させることを特徴とする。
さらに、本発明の外観検査方法は、前記基準姿勢情報に基づいて前記複数の撮影視野で撮影されたそれぞれの画像から検査領域をそれぞれ抽出すると共に抽出した前記検査領域の傾きをそれぞれ補正し、該抽出して傾きを補正したそれぞれの前記検査領域を検査することを特徴とする。
さらに、本発明の外観検査方法は、トレイのポケットに収納された検査対象物を複数の撮影視野に分割して撮影し、当該撮影によって得られる画像によって前記検査対象物の外観検査を行う外観検査方法であって、前記撮影視野で前記検査対象物を撮影する工程と、前記撮影視野を移動させる工程と、前記検査対象物の特徴領域を記憶しておき、前記撮影視野で撮影された画像から前記検査対象物の前記特徴領域を検索し、該検索によって得られた情報を参照して前記検査対象物の姿勢情報を算出する工程と、該算出した前記姿勢情報に基づいて前記撮影視野の撮影位置を決定する工程と、前記ポケットのサイズと前記検査対象物のサイズと前記撮影視野のサイズとからなるサイズ情報に基づいて複数の前記撮影視野の撮影位置を決定し、前記撮影視野の移動を制御する工程と、前記検査対象物の全体を撮影するために必要な前記姿勢情報に基づいて決定した撮影視野数と前記サイズ情報に基づいて決定した撮影視野数とを前記ポケットのサイズと前記検査対象物のサイズと前記撮影視野のサイズとから算出する工程と、該算出した前記姿勢情報に基づいて決定した撮影視野数と前記サイズ情報に基づいて決定した撮影視野数とを比較する工程と、前記姿勢情報に基づいて決定した撮影視野数が前記サイズ情報に基づいて決定した撮影視野数よりも少ない場合には、前記姿勢情報に基づいた撮影位置での検査を選択し、前記姿勢情報に基づいて決定した撮影視野数と前記サイズ情報に基づいて決定した撮影視野数とが同一である場合には、前記サイズ情報に基づいて決定した撮影視野での検査を選択する工程とを有することを特徴とする。
さらに、本発明の外観検査方法は、前記抽出して傾きを補正した前記検査領域を検査する際の基準となる画像として前記撮影視野で撮影した複数の画像を合成したものを使用することを特徴とする。
さらに、本発明の外観検査方法をコンピュータに実行させるためのプログラムは、トレイのポケットに収納された検査対象物を複数の撮影視野に分割して撮影し、当該撮影によって得られる画像によって前記検査対象物の外観検査を行う外観検査方法をコンピュータに実行させるためのプログラムであって、前記撮影視野で前記検査対象物を撮影する工程と、前記検査対象物の特徴領域を記憶しておき、前記撮影視野で撮影し画像から前記検査対象物の前記特徴領域を検索し、該検索によって得られた情報を参照して前記検査対象物の姿勢情報を算出する工程と、該算出した前記姿勢情報に基づいて前記撮影視野の撮影位置を決定する工程と、該決定した撮影位置に前記撮影視野を移動させる工程とを有する。
【0010】
【発明の実施の形態】
以下、本発明の実施の形態を図面に基づいて詳細に説明する。
【0011】
(第1の実施の形態)
図1は、本発明に係る外観検査装置の第1の実施の形態の構成を示すブロック図であり、図2は、図1に示す検査対象物が収納されるトレイの形状を示す斜視図であり、図3は、図1に示す撮影手段による撮影視野とポケットおよび検査対象物との対応関係を説明する説明図であり、図4は、図1に示す特徴領域記憶部に記憶される特徴領域例を示す説明図であり、図5は、図1に示す撮影手段によって撮影される第1撮影視野の範囲を説明するための説明図である。
【0012】
第1の実施の形態は、図1を参照すると、撮影手段2と、撮影手段2を移動させる移動手段3と、検査対象物1に照明を照射する照明手段4と、撮影手段2によって撮影された検査対象物1の画像を取り込むと共に、移動手段3と照明手段4とを制御する画像処理装置5とからなり、図2に示すトレイ7のポケット71内に収納された検査対象物1の外観検査を行う。
【0013】
撮影手段2は、トレイ7上に配置され、トレイ7のポケット71内に収納されたICチップ等の検査対象物1を上方から撮影するための顕微鏡やCCDカメラ等からなり、移動手段3によって移動可能に構成され、トレイ7の複数のポケット71内にそれぞれ収納されている検査対象物1を順次撮影する。撮影手段2による撮影視野8は、トレイ7のポケット71よりも狭い範囲に設定され、トレイ7のポケット71内に収納された検査対象物1を分割して撮影する。具体的には、図3に示すように、ポケット71の横方向の長さをLp、検査対象物1の横方向の長さをLc、撮影視野8の横方向の長さをLrとすると、Lp>Lc>Lrの関係になり、ポケット71の縦方向の長さをMp、検査対象物1の縦方向の長さをMc、撮影視野8の縦方向の長さをMrとすると、Mc<Mp<Mrの関係になり、撮影手段2は、ポケット71の横方向に移動しながら検査対象物1を複数の撮影視野8に分割して撮影する。
【0014】
移動手段3は、少なくとも撮影手段2をトレイ7の表面と平行にX−Y方向に移動させる機能を有し、画像処理装置5の制御によって撮影手段2をトレイ7の各ポケット71上に移動させる。なお、移動手段3によってトレイ7を移動させるように構成しても良いことはいうまでもない。
【0015】
画像処理装置5は、プログラム制御によって動作する情報処理装置であり、図1を参照すると、画像取込部51と、キーボード、マウス等からなる入力部52と、特徴領域設定部53と、ディスプレイ等の表示部54と、特徴領域記憶部55と、姿勢検出部56と、画像処理部57と、検査部58と、移動制御部59とからなる。
【0016】
画像取込部51は、撮影手段2によって撮影された画像を取り込み、取り込んだ画像を姿勢検出部に出力すると共に、照明手段4を制御して撮影手段2による撮影時に光を照射する。
【0017】
特徴領域設定部53は、検査対象物1のパターンデータを特徴領域設定用データとして取り込み、取り込んだ特徴領域設定用データを表示部54に表示させると共に、表示部54に表示された特徴領域設定用データに基づくオペレータによる入力部52から入力によって指定された範囲を特徴領域9として設定し、設定した特徴領域9を特徴領域記憶部55に記憶させる。なお、特徴領域設定用データは、検査対象物1の表面全体のパターンデータであり、撮影手段2の撮影によって特徴領域設定部53に取り組まれるようにしても良く、検査対象物1のパターンデータをそのままデータとして外部から取り込むようにしても良い。特徴領域9の設定方法については後述する。
【0018】
特徴領域9は、想定される各撮影視野8毎に設定され、各撮影視野8内で該当位置を一意に定めるためのパターンを含む領域で、同一撮影視野8内で他に似たようなパターンを含む領域がなく、かつ縦横方向が特定可能であることが必要となり、オペレータによる入力部52から入力によって設定可能になっている。なお、同一撮影視野8内に設定される特徴領域9の数は、1つの特徴領域9内で検査対象物1の位置および傾きを検出できるのであれば、1つだけでも良く、同一撮影視野8内に特徴領域9を2つ以上の設定しても良い。
【0019】
ICチップ等の検査対象物1における特徴領域9の例としては、図4を参照すると、主に検査対象物1に形成された回路のパターンが利用され、特に、縦方向および横方向の直線状のパターンが含まれるように特徴領域9を設定することで、正確に検査対象物1の位置合わせを行うことができる。一例としては、回路パターン100のようなL字状のパターンが挙げられるが、T字状あるいは十字状といったパターンも考えられる。ここでは、特徴領域9に含まれるパターンの形状を限定するものではない。また、検査対象物1に予め位置合わせ用マーク101が付加されている場合は、位置合わせ用マーク101を含む領域を特徴領域9に設定することで、回路パターン100を特徴領域9として使用した場合と同様に検査対象物1の位置合わせを行うことができる。さらに、バンプ102を含む領域や検査対象物1の角部103を含む領域を特徴領域9として設定して位置合わせを行うことができる。
【0020】
特徴領域記憶部55は、ハードディスク装置等の情報記憶手段であり、各撮影視野で設定された特徴領域9を記憶する。
【0021】
姿勢検出部56は、画像取込部51に取り込まれた画像の位置合わせ処理を行う。姿勢検出部56による位置合わせ処理は、画像取込部51に取り込まれた画像に基づいて検査対象物1の位置と傾きとからなる姿勢情報を算出する処理であり、各撮影視野8に対応して特徴領域記憶部55に記憶されているそれぞれの特徴領域9を用いて行われる。
【0022】
なお、各ポケット71において最初に撮影される第1の撮影視野8(以下、第1撮影視野81と称す)は、ポケット71の端部を基準にして予め定められている。すなわち、撮影回数を少なくして処理時間を短縮するために、無駄な領域の撮影を減らす必要から、図5(a)に示すように、検査対象物1の右側から撮影を行う場合、第1撮影視野81の右端とポケット71の右端が一致するように第1撮影視野81の撮影位置が設定されており、第1撮影視野81におけるポケット71以外の領域を少なくし、第1撮影視野81で必ず撮影される検査対象物1の領域A(以下、第1領域Aと称す)を大きく取ることが可能となる。以下、第1撮影視野81によって得られた姿勢情報に応じて2番目に撮影される第2の撮影視野8(以下、第2撮影視野82と称す)、3番目に撮影される第3の撮影視野8(以下、第3撮影視野83と称す)が撮影される。なお、トレイ7に設けられたポケット71の位置の精度や撮影手段2を移動させる際の精度などを考慮して、第1撮影視野81の右端をポケット71の右端から右側に若干ずらして設定するようにしても良いが、図5(b)に示すように、第1撮影視野81の右端をポケット71の右端から大きく右側にずらして設定すると、第1撮影視野81におけるポケット71以外の領域が大きくなり、第1撮影視野81で必ず撮影される検査対象物1の領域Bが小さくなってしまい、検査対象物1の全体を撮影しようとすると、4番目に撮影される第4の撮影視野8(以下、第4撮影視野84と称す)までが必要になり、第1撮影視野81の右端とポケット71の右端が一致するようにした場合と比較して、検査対象物1を検査するために要する撮影視野8が増加する場合がある。
【0023】
画像処理部57は、姿勢検出部56によって算出された姿勢情報に基づいて画像取込部51に取り込まれた画像から検査対象物1に対応する領域を検査領域として抽出し、抽出した検査領域の傾きを補正する。なお、画像処理部57による傾きの補正は、検査部58に一定の傾きの検査領域を出力するために行われ、姿勢情報に含まれる検査対象物1の傾きに基づいて行われる。
【0024】
検査部58は、画像処理部57によって画像から抽出され傾きを補正された検査領域を検査する。検査部58による検査は、予め設定した検査の基準となる画像等からなる検査用データと比較を行う方法や、画像処理により抽出した特徴量を用いて良否の判断を行う方法等が考えられる。
【0025】
移動制御部59は、移動手段3による撮影手段2の移動を制御するもので、姿勢検出部56によって算出された姿勢情報に基づいて撮影視野8の撮影位置を決定する。
【0026】
次に、第1の実施の形態における特徴領域9の設定動作について図6および図7を参照して詳細に説明する。
図6は、図1に示す特徴領域設定部によって特徴領域を設定する範囲を説明するための説明図であり、図7は、図1に示す特徴領域設定部による撮影視野数の算出方法を説明するための説明図である。
【0027】
まず、特徴領域設定部53は、特徴領域設定用データと、ポケット71の横方向の長さLp、検査対象物1の横方向の長さLcおよび撮影視野8の横方向の長さLrからなるサイズ情報とを取り込む。サイズ情報は、入力部52から特徴領域設定部53に入力するようにしても良く、また、特徴領域設定用データから読み取るようにしても良い。
【0028】
次に、特徴領域設定部53は、取り込んだ特徴領域設定用データを表示部54に表示させ、第1撮影視野81において必ず撮影される第1領域Aへの特徴領域9の設定を受け付ける。検査対象物1の右側から順に撮影する場合、図6に示す第1領域Aは、ポケット71内の検査対象物1の位置が図6の(a)と(b)とに示すように左右に最大限ずれていても、第1撮影視野81において必ず撮影される。検査対象物1の位置は、ポケット71の横方向の長さLpと検査対象物1の横方向の長さをLcとの差だけ最大異なることになり、図7に示すように、第1撮影視野81で必ず撮影される第1領域Aの検査対象物1の右端からの長さLcf1は、Lcf1=Lr−(Lp−Lc)で表すことができる。従って、特徴領域設定部53は、サイズ情報に基づいて第1撮影視野81で必ず撮影される第1領域Aの検査対象物1の右端からの長さLcf1を算出することで、第1領域Aを特定し、少なくとも第1領域A部分の特徴領域設定用データを表示部54に表示し、第1領域Aへの特徴領域9の設定のみを受け付ける。この際、表示部54において、特徴領域設定用データの第1領域Aの部分とそれ以外の部分とを色等で区別して表示することにより、オペレータに特徴領域9を設定する第1領域Aの範囲を知らせることができる。
【0029】
次に、オペレータが表示部54に表示された特徴領域設定用データの第1領域Aを参照しながら特徴領域9の範囲を入力部52からの入力によって指定すると、特徴領域設定部53は、指定された範囲と同一のパターンが第1領域A内に存在するか否かを検索し、指定された範囲と同一のパターンが第1領域A内に存在する場合には、オペレータに対して指定された範囲を特徴領域9として設定できない旨の報知を表示部54への表示等により報知して再入力を促し、指定された範囲と同一のパターンが第1領域A内に存在しない場合には、指定された範囲を特徴領域9として設定して特徴領域記憶部55に記憶させる。なお、特徴領域記憶部55には、特徴領域9の形状を表すパターン情報と共に、検査対象物1における特徴領域9の位置情報も記憶される。
【0030】
第1領域Aにおける特徴領域9の設定が終了すると、特徴領域設定部53は、第2撮影視野82において撮影される領域B(以下、第2領域Bと称す)を表示部54に表示し、第2領域Bへの特徴領域9の設定を受け付ける。第2撮影視野82において撮影される領域Bは、図7に示すように、第1領域Aに引き続く、横方向の長さが撮影視野8の横方向の長さLrと同一の領域であり、以下、第1領域Aの場合と同様な方法で第2領域Bに特徴領域9が設定される。なお、図7には、ポケット71内の検査対象物1の傾きが考慮されていないため、第2領域Bの幅を撮影視野8の横方向の長さLrとしたが、実際の第2領域Bの幅は、ポケット71内の検査対象物1の傾きを考慮して撮影視野8の横方向の長さLrよりも若干短い長さとなる。
【0031】
領域Bにおける特徴領域9の設定が終了すると、特徴領域設定部53は、第3撮影視野83において撮影される領域Cを表示部54に表示し、領域Cへの特徴領域9の設定を受け付ける。第3撮影視野83において撮影される領域Cは、図7に示すように、領域Bに引き続く、横方向の長さが撮影視野8の横方向の長さLrよりも短い領域であり、最終の撮影視野8となる。以下、第1領域Aの場合と同様な方法で領域Cに特徴領域9が設定され、特徴領域9の設定動作を終了する。
【0032】
以上、ポケット71を第1撮影視野81〜第3撮影視野83の3つに分割して撮影する場合の特徴領域9の設定動作について説明したが、ポケット71内の検査対象物1の全体を撮影するための撮影視野数Nrfは、ポケット71の横方向の長さLpと撮影視野8の横方向の長さLrとによって決まる。すなわち、第2撮影視野82以降は、最終の撮影視野8以外の各撮影視野8で検査される領域の長さは、図7に示すように、撮影視野8の横方向の長さLrに等しくなり、最終視野では、検査対象物1の左端まで検査を行うので、検査を行う長さは最大で撮影視野8の横方向の長さLrとなり、従って、撮影視野数Nrfは、Nrf= Lp/Lr( 小数点以下切り上げ )によって算出され、撮影視野数Nrfに対応する領域毎に特徴領域9が設定される。
【0033】
次に、第1の実施の形態における検査動作について図8を参照して詳細に説明する。
図8は、本発明に係る外観検査装置の第1の実施の形態の検査動作を説明するためのフローチャートである。
【0034】
まず、移動制御部59は、移動手段3を制御して撮影手段2を第1撮影視野81で撮影する位置に移動させる(S11)。第1撮影視野81を撮影する位置への移動が完了したら、撮影手段2によって第1撮影視野81を撮影し(S12)、撮影手段2によって第1撮影視野81で撮影された画像が画像取込部51に取り込まれ、姿勢検出部56は、第1撮影視野81で撮影された画像の位置合わせ処理を行う(S13)。なお、S12における第1撮影視野81での撮影時に、撮影順番mをm=1にセットする。
【0035】
姿勢検出部56による位置合わせ処理は、画像取込部51に取り込まれた画像に基づいて検査対象物1の位置と傾きとを算出する処理であり、第1撮影視野81に対応する特徴領域記憶部55に記憶されている特徴領域9を用いて行われる。具体的には、画像取込部51に取り込まれた画像を縦横に移動あるいは回転させて、特徴領域9と最も一致している領域を探索し、発見した特徴領域9に最も一致している領域の位置から取り込まれた画像における検査対象物1の位置および傾きを算出し、算出した位置および傾きを姿勢情報する。すなわち、特徴領域9には、検査対象物1における位置情報が含まれているため、発見した特徴領域9に最も一致している領域の位置と傾きが分かれば、検査対象物1の位置および傾きを算出することができる。また、検査対象物1の位置とは、取り込まれた画像における検査対象物1の位置を座標等で表したもので、例えば検査対象物1の角部の座標が取り込まれた画像における検査対象物1の位置として算出される。なお、位置合わせ処理における特徴領域9と最も一致している領域の探索は、特徴領域9を移動および回転させる、あるいは特徴領域9を移動させて画像を回転させるというように、特徴領域9と画像との間で相対的に移動および回転させる方法であれば良い。また、特徴領域9を探索する際に、予め探索領域を設定して、設定した探索領域内でのみ探索を行うことも可能である。
【0036】
姿勢検出部56による位置合わせ処理によって算出された姿勢情報は、移動制御部59に出力され、移動制御部59は、第1撮影視野81の撮影位置と算出した姿勢情報に基づいて第2撮影視野82以降の全ての撮影視野8の撮影位置を決定する(S14)。
【0037】
また、姿勢検出部56によって算出された姿勢情報は、画像処理部57にも出力され、画像処理部57は、姿勢情報に基づいて画像から第1領域Aを検査領域として抽出し、抽出した第1領域Aの傾きを補正し、画像処理部57によって画像から抽出され傾きを補正された第1領域Aは、検査部58によって検査される(S15)。検査部58による検査は、予め設定した検査の基準となる画像等からなる検査用データと比較を行う方法や、画像処理により抽出した特徴量を用いて良否の判断を行う方法等が考えられる。なお、第1の実施の形態では、画像から第1領域Aを検査領域として抽出し、抽出した第1領域Aの傾きを補正するようにしたが、検査用データを変換するなど、撮影した画像と検査用データとのずれを補正する方式であれば良く、画像全体を補正してから検査を実施する検査領域を抽出するようにしても良い。
【0038】
次に、検査部58は、検査対象物1の全撮影視野8について検査が終了したかどうかを確認し(S16)、検査が終了していない場合は、撮影順番mをインクリメントし(S17)、移動制御部59の制御によって次の撮影視野8であるインクリメントされたm番目の撮影視野8の撮影位置に撮影手段2が移動され(S18)、撮影手段2によってm番目の撮影視野8の撮影が行われる(S19)。次に撮影手段2によってm番目の撮影視野8で撮影された画像が画像取込部51に取り込まれ、姿勢検出部56は、m番目の撮影視野8で撮影された画像の位置合わせ処理を行う(S20)。以下、m番目の撮影視野8で撮影された画像に対してS15の検査が行われ、検査対象物1の全撮影視野8について検査が終了するまで撮影と検査とが繰り返し行われる。検査部58による検査結果は、検査対象物1の全撮影視野8についての検査の終了後、表示部54に表示される。
【0039】
なお、図8に示すフローチャートでは、前の撮影視野8での検査が終了した後に次撮影視野8の撮影を行うとしたが、前の撮影視野8における撮影終了後の検査と次撮影視野8以降の撮影位置への移動および撮影を平行して実行することも可能である。また、次撮影視野8以降の撮影位置は、第1撮影視野81で撮影した画像の位置合わせ処理後に予め算出しているが、各撮影視野8の撮影位置へ移動する直前に算出するように変更することも可能である。さらに、次撮影視野8の仮の撮影位置を予め設定しておき、仮の撮影位置へ撮影手段2を移動させる処理と平行して位置合わせ処理の結果から次撮影視野8の撮影位置を算出し、仮の撮影位置へ移動した撮影手段2を、算出した次撮影視野8の撮影位置へ再度移動するということも可能である。
【0040】
次に、第1の実施の形態における検査動作の具体例について図9乃至図11を参照して詳細に説明する。
図9は、本発明に係る外観検査装置の第1の実施の形態の具体的な検査動作を説明するための説明図であり、図10は、撮影視野が予め設定されている場合の撮影視野の移動例を示す説明図であり、図11は、本発明に係る外観検査装置の第1の実施の形態の撮影視野の移動例を示す説明図である。
【0041】
本例では、図9に示すように、トレイ7のポケット71に収納された検査対象物1を第1撮影視野81、第2撮影視野82および第3撮影視野83の3つの撮影視野8に分割して撮影するもので、第1撮影視野81で撮影される第1領域Aに対応して設定された特徴領域91、92と、第2撮影視野82で撮影される第2領域Bに対応して設定された特徴領域93、94と、第3撮影視野83で撮影される第3領域Cに対応して設定された特徴領域95、96とが、それぞれ特徴領域記憶部55に記憶されているものとしている。
【0042】
まず、移動制御部59の制御によって移動手段3は、トレイ7のポケット71の位置から予め設定されている第1撮影視野81の撮影位置に撮影手段2を移動させ、撮影手段2によって第1撮影視野81を撮影する。撮影手段2によって第1撮影視野81で撮影した画像が画像取込部51に取り込まれ、姿勢検出部56は、画像取込部51に取り込まれた画像の位置合わせ処理を特徴領域91、92を用いて行う。
【0043】
姿勢検出部56は、第1撮影視野81で撮影した画像の中から特徴領域91、92を検出することにより検査対象物1のポケット71内の位置および傾きからなる姿勢情報を算出し、算出した姿勢情報を移動制御部59と画像処理部57とに出力する。移動制御部59は、算出した姿勢情報に基づき第2撮影視野82および第3撮影視野83の撮影位置を決定する。画像処理部57は、第1撮影視野81で撮影した画像から第1領域Aを姿勢情報に基づいて抽出すると共に傾きを補正し、検査部58は、第1領域Aについて検査を行う。
【0044】
第1撮影視野81で撮影した画像を用いた検査が終了したら、第2撮影視野82の撮影位置へ撮影手段2を移動させ、撮影手段2によって第2撮影視野82を撮影する。撮影手段2によって第2撮影視野82で撮影した画像は、画像取込部51に取り込まれ、姿勢検出部56は、画像取込部51に取り込まれた画像の位置合わせ処理を特徴領域93、94を用いて行う。姿勢検出部56は、第2撮影視野82で撮影した画像の中から特徴領域93、94を検出することにより第2撮影視野82で撮影した画像の位置および傾きからなる姿勢情報を算出し、算出した姿勢情報を画像処理部57に出力する。画像処理部57は、第2撮影視野82で撮影した画像から第2領域Bを第2撮影視野82で算出された姿勢情報に基づいて抽出すると共に傾きを補正し、検査部58は、第2領域Bについて検査を行う。以下、第3撮影視野83においても同様に第3領域Cについて検査を行い、検査対象物1の検査動作を終了する。
【0045】
図9を参照すると、第1撮影視野81と第2撮影視野82とが重なっている部分と、第2撮影視野82と第3撮影視野83とが重なっている部分とがあることがわかる。第1撮影視野81と第2撮影視野82とが重なっている部分は、第1撮影視野81で必ず撮影される第1領域Aに引き続く第2領域Bを撮影するための重なりであり、第2撮影視野82と第3撮影視野83とが重なっている部分は、ポケット71内の検査対象物1が傾いている場合にも、第2撮影視野82と第3撮影視野83とでそれぞれ第2領域Bと第3領域Cとを撮影するための重なりであるが、各撮影視野8の重なりを最小限に抑えることができため、撮影回数を少なくすることができる。
【0046】
すなわち、撮影位置を予め設定しておく方法では、トレイ7のポケット71内で検査対象物1がどのように置かれているのかによって、同じ撮影視野8でも画像には大きな違いが生じるため、ある撮影視野8で必ず撮影される検査対象物1の領域は、撮影した画像の限られた範囲となり、各撮影視野8を大きく重ねておく必要がある。
【0047】
図10は、撮影位置を予め設定する場合の第1撮影視野81乃至第4撮影視野84を示したものである。検査対象物1がポケット71内で右端あるいは左端に寄っている場合を考えると、必ず第1撮影視野81で撮影される検査対象物の第1領域Aは限定されるため、第1撮影視野81と第2撮影視野82とは大きく重なることがわかり、図10に示す例では、第1撮影視野81乃至第4撮影視野84の4つの撮影視野8に分割して検査を行う必要がある。なお、図10に示す各撮影視野8の大きさは若干異なっているが、これは各撮影視野8を分かりやすくするためであり、実際は全各撮影視野8の大きさは同一である。
【0048】
これに対し、第1の実施の形態によると、第1撮影視野81で撮影した画像から検査対象物1の姿勢情報を算出することで、第2撮影視野82以降の撮影位置を決定しているため、第2撮影視野82以降に関しては各撮影視野において常に検査対象物の決まった領域を撮影することができる。従って、図11に示すように、検査対象物1がポケット71内で左右いずれの端に寄っている場合でも、第1撮影視野81乃至第3撮影視野83の3つの撮影視野8に分割して検査を行えば良い。なお、図11に示す各撮影視野8の大きさは若干異なっているが、これは各撮影視野8を分かりやすくするためであり、実際は全各撮影視野8の大きさは同一である。さらに、図11では、第2撮影視野82と第3撮影視野83とが全く重なっていないが、実際には検査対象物1の傾きなどにより、第2撮影視野82以降でも隣接した撮影視野8間では若干の重なりが生じることがある。
【0049】
以上説明したように、第1の実施の形態によれば、トレイ7のポケット71に収納された検査対象物1を複数の撮影視野8で分割撮影する際に、第1撮影視野81で撮影された画像から検査対象物1の姿勢情報を算出し、算出した姿勢情報によって第2撮影視野82以降の撮影位置を決定するように構成することにより、トレイ7のポケット71に収納された検査対象物1の機械的な位置決めをすることなく、各撮影視野8で撮影された画像を高精度に検査することができ、トレイ7のポケット71に収納された検査対象物1を複数の撮影視野8で分割撮影する際の撮影視野数を最小限にすることができ、各撮影視野8での位置合わせ時間を短縮することができるという効果を奏する。
【0050】
さらに、第1の実施の形態によれば、第2撮影視野82以降は各撮影視野8において常に各撮影視野8でそれぞれ決まった検査対象物1の領域をそれぞれ撮影することができることから、各撮影視野8で特徴領域9の探索領域を設定する場合に、第2撮影視野82以降の探索領域を広範囲に設定する必要がなく、探索時間を短縮することが可能となるという効果を奏する。
【0051】
なお、第1の実施の形態では、検査対象物1の右側より検査を開始したが、他の位置を第1撮影視野81として検査を開始することも可能である。また、検査対象物1に対し2次元的に視野を分割して検査を実行することも可能であり、さらに、任意の位置を第1撮影視野81として検査を開始することも可能である。
【0052】
(第2の実施の形態)
図12は、本発明に係る外観検査装置の第2の実施の形態の検査動作を説明するためのフローチャートである。
【0053】
第2の実施の形態は、第1の実施の形態における検査対象物1の第2撮影視野82以降の撮影位置の決定方法が異なるもので、直前の撮影視野8における位置合わせ処理によって算出される姿勢情報から次撮影視野8の撮影位置を算出して決定するもので、図12に示すS11からS13までは、第1の実施の形態の検査動作と同様である。
【0054】
第2の実施の形態では、姿勢検出部56による位置合わせ処理(S13)が終了後、姿勢検出部56による位置合わせ処理によって算出された姿勢情報は、移動制御部59に出力され、移動制御部59は、姿勢情報に基づいて次撮影視野8であるm+1番目の撮影視野8の撮影位置を決定する(S21)。また、姿勢検出部56によって算出された姿勢情報は、画像処理部57にも出力され、画像処理部57は、姿勢情報に基づいて画像から第1領域Aを検査領域として抽出し、抽出した第1領域Aの傾きを補正し、画像処理部57によって画像から抽出され傾きを補正された第1領域Aは、検査部58によって検査される(S15)。
【0055】
次に、検査部58は、検査対象物1の全撮影視野8について検査が終了したかどうかを確認し(S16)、検査が終了していない場合は、撮影順番mをインクリメントし(S17)、移動制御部59の制御によって次撮影視野8であるインクリメントされたm番目の撮影視野8の撮影位置に撮影手段2が移動され(S18)、撮影手段2によってm番目の撮影視野8の撮影が行われ(S19)、撮影手段2によってm番目の撮影視野8で撮影された画像が画像取込部51に取り込まれ、姿勢検出部56は、m番目の撮影視野8で撮影された画像の位置合わせ処理を行う(S20)。以下、第1撮影視野81と同様に、S21の姿勢情報に基づく次撮影視野8であるm+1番目の撮影視野8の撮影位置の決定と、m番目の撮影視野8で撮影された画像に対するS15の検査とが行われ、検査対象物1の全撮影視野8について検査が終了するまで撮影と検査とが繰り返し行われる。
【0056】
次に、第2の実施の形態における検査動作の具体例について図9を参照して詳細に説明する。
まず、移動制御部59の制御によって移動手段3は、トレイ7のポケット71の位置から予め設定されている第1撮影視野81の撮影位置に撮影手段2を移動させ、撮影手段2によって第1撮影視野81を撮影する。撮影手段2によって第1撮影視野81で撮影した画像が画像取込部51に取り込まれ、姿勢検出部56は、画像取込部51に取り込まれた画像の位置合わせ処理を特徴領域91、92を用いて行う。
【0057】
姿勢検出部56は、第1撮影視野81で撮影した画像の中から特徴領域91、92を検出することにより検査対象物1のポケット71内の位置および傾きからなる姿勢情報を算出し、算出した姿勢情報を移動制御部59と画像処理部57とに出力する。移動制御部59は、第1撮影視野81で算出された姿勢情報に基づいて第2撮影視野82の撮影位置を決定すると共に、画像処理部57は、第1撮影視野81で撮影した画像から第1領域Aを第1撮影視野81で算出された姿勢情報に基づいて抽出すると共に傾きを補正し、検査部58は、第1領域Aについて検査を行う。
【0058】
第1撮影視野81で撮影した画像を用いた検査が終了したら、第2撮影視野82の撮影位置へ撮影手段2を移動させ、撮影手段2によって第2撮影視野82を撮影する。撮影手段2によって第2撮影視野82で撮影した画像は、画像取込部51に取り込まれ、姿勢検出部56は、画像取込部51に取り込まれた画像の位置合わせ処理を特徴領域93、94を用いて行う。姿勢検出部56は、第2撮影視野82で撮影した画像の内から特徴領域93、94を検出することにより第2撮影視野82で撮影した画像の位置および傾きからなる姿勢情報を算出し、算出した姿勢情報を移動制御部59と画像処理部57とに出力する。移動制御部59は、第2撮影視野82で算出された姿勢情報に基づいて第3撮影視野83の撮影位置を決定すると共に、画像処理部57は、第2撮影視野82で撮影した画像から第2領域Bを第2撮影視野82で算出した姿勢情報に基づいて抽出すると共に傾きを補正し、検査部58は、第2領域Bについて検査を行う。
【0059】
第2撮影視野82で撮影した画像を用いた検査が終了したら、最終の撮影視野8である第3撮影視野83の撮影位置へ撮影手段2を移動させ、撮影手段2によって第2撮影視野82を撮影する。撮影手段2によって第3撮影視野83で撮影した画像は、画像取込部51に取り込まれ、姿勢検出部56は、画像取込部51に取り込まれた画像の位置合わせ処理を特徴領域95、96を用いて行う。姿勢検出部56は、第3撮影視野83で撮影した画像の中から特徴領域95、96を検出することにより第3撮影視野83で撮影した画像の位置および傾きからなる姿勢情報を算出し、算出した姿勢情報を画像処理部57に出力する。画像処理部57は、第3撮影視野83で撮影した画像から第3領域Cを第3撮影視野83で算出された姿勢情報に基づいて抽出すると共に傾きを補正し、検査部58は、第3領域Cについて検査を行い、検査対象物1の検査動作を終了する。
【0060】
以上説明したように、第2の実施の形態によれば、直前の撮影視野8で撮影した画像の位置合わせ結果から次撮影視野8の撮影位置を算出する様に構成することにより、第1の実施の形態に比べて、次撮影視野8の撮影位置の誤差を少なくすることができる。撮影位置に誤差があると、誤差を考慮して各撮影視野を一部重ね合わせておく必要があるため、誤差を減らすことでより効率的に検査を実行することができる。
【0061】
(第3の実施の形態)
図13は、本発明に係る外観検査装置の第3の実施の形態の検査動作を説明するためのフローチャートである。
【0062】
第3の実施の形態は、第2の実施の形態における第2撮影視野82以降の撮影において、位置合わせ処理に失敗して検査対象物1の姿勢情報が得られなかった場合に、位置合わせに成功した1つあるいは複数の別撮影視野8で撮影した画像から算出された姿勢情報を用いるもので、図13に示すS11からS20までは、第2の実施の形態の検査動作と同様である。
【0063】
第3の実施の形態では、S20でm番目の撮影視野8で撮影された画像の位置合わせ処理を行った後、姿勢検出部56は、位置合わせ処理において位置合わせが成功、すなわち検査対象物1の姿勢情報を算出することができたか否かを確認し(S32)、位置合わせが成功した場合には算出された検査対象物1の姿勢情報を保存すると共に(S33)、移動制御部59に出力し、移動制御部59は、姿勢情報に基づいて次撮影視野8であるm+1番目の撮影視野8の撮影位置を決定する(S21)。また、算出された姿勢情報は、画像処理部57にも出力され、画像処理部57は、算出された姿勢情報に基づいてm番目の撮影視野8で撮影された画像から検査領域を抽出し、抽出した検査領域の傾きを補正し、画像処理部57によって画像から抽出され傾きを補正された検査領域は、検査部58によって検査される(S15)。
【0064】
位置合わせに失敗した場合には、姿勢検出部56は、それまで位置合わせに成功した別の撮影視野8での姿勢情報から現撮影視野8であるm番目の撮影視野8の検査対象物1の姿勢情報を決定し(S34)、決定した姿勢情報を移動制御部59に出力し、移動制御部59は、決定した姿勢情報に基づいて次撮影視野8であるm+1番目の撮影視野8の撮影位置を決定する(S21)。また、決定した姿勢情報は、画像処理部57にも出力され、画像処理部57は、決定した姿勢情報に基づいてm番目の撮影視野8で撮影された画像から検査領域を抽出し、抽出した検査領域の傾きを補正し、画像処理部57によって画像から抽出され傾きを補正された検査領域は、検査部58によって検査される(S15)。以下、検査対象物1の全撮影視野8について検査が終了するまで撮影と検査とが繰り返し行われる。
【0065】
次に、第3の実施の形態における検査動作の具体例について図9を参照して詳細に説明する。
なお、本例では、図9に示す第2撮影視野82では位置合わせに失敗するものとする。
【0066】
まず、移動制御部59の制御によって移動手段3は、トレイ7のポケット71の位置から予め設定されている第1撮影視野81の撮影位置に撮影手段2を移動させ、撮影手段2によって第1撮影視野81を撮影する。撮影手段2によって第1撮影視野81で撮影した画像が画像取込部51に取り込まれ、姿勢検出部56は、画像取込部51に取り込まれた画像の位置合わせ処理を特徴領域91、92を用いて行う。
【0067】
姿勢検出部56は、第1撮影視野81で撮影した画像の内から特徴領域91、92を検出することにより検査対象物1のポケット71内の位置および傾きからなる姿勢情報を算出し、算出した姿勢情報を保存すると共に、算出した姿勢情報を移動制御部59と画像処理部57とに出力する。移動制御部59は、第1撮影視野81で算出された姿勢情報に基づいて第2撮影視野82の撮影位置を決定すると共に、画像処理部57は、第1撮影視野81で撮影した画像から第1領域Aを第1撮影視野81で算出された姿勢情報に基づいて抽出すると共に傾きを補正し、検査部58は、第1領域Aについて検査を行う。
【0068】
第1撮影視野81で撮影した画像を用いた検査が終了したら、第2撮影視野82の撮影位置へ撮影手段2を移動させ、撮影手段2によって第2撮影視野82を撮影する。撮影手段2によって第2撮影視野82で撮影した画像は、画像取込部51に取り込まれ、姿勢検出部56は、画像取込部51に取り込まれた画像の位置合わせ処理を特徴領域93、94を用いて行うが位置合わせを失敗してしまう。
【0069】
姿勢検出部56は、位置合わせの失敗を認識すると、保存されている第1撮影視野81で算出された姿勢情報を読み出し、読み出した姿勢情報を移動制御部59と画像処理部57とに出力する。移動制御部59は、第1撮影視野81で算出された姿勢情報に基づいて第3撮影視野83の撮影位置を決定すると共に、画像処理部57は、第2撮影視野82で撮影した画像から第2領域Bを第1撮影視野81で算出された姿勢情報に基づいて抽出すると共に傾きを補正し、検査部58は、第2領域Bについて検査を行う。以下、第3撮影視野83においても同様に第3領域Cについて検査を行い、検査対象物1の検査動作を終了する。
【0070】
以上説明したように、第3の実施の形態によれば、ある撮影視野8で位置合わせに失敗して検査対象物1の姿勢情報が得られなかった場合に、既に位置合わせに成功した撮影視野8での姿勢情報に基づいて当該撮影視野8での検査を行うように構成することにより、ある視野で姿勢情報が得られなかった場合でも検査を継続することができるという効果を奏する。
【0071】
(第4の実施の形態)
図14は、本発明に係る外観検査装置の第4の実施の形態の検査動作を説明するためのフローチャートである。
【0072】
第4の実施の形態は、第2の実施の形態における第2撮影視野82以降の撮影において、次撮影視野以降に特徴領域9が設定できない場合、第1撮影視野81で算出された検査対象物1の姿勢情報を第2撮影視野82以降における姿勢情報として使用するもので、図14に示すS11からS13までは、第1の実施の形態の検査動作と同様である。
【0073】
第4の実施の形態では、姿勢検出部56による位置合わせ処理(S13)が終了後、姿勢検出部56による位置合わせ処理によって算出された姿勢情報は、保存されると共に(S41)、移動制御部59に出力され、移動制御部59は、姿勢情報に基づいて次撮影視野8であるm+1番目の撮影視野8の撮影位置を決定する(S21)。また、姿勢検出部56によって算出された姿勢情報は、画像処理部57にも出力され、画像処理部57は、姿勢情報に基づいて画像から第1領域Aを検査領域として抽出し、抽出した第1領域Aの傾きを補正し、画像処理部57によって画像から抽出され傾きを補正された第1領域Aは、検査部58によって検査される(S15)。
【0074】
次に、検査部58は、検査対象物1の全撮影視野8について検査が終了したかどうかを確認し(S16)、検査が終了していない場合は、撮影順番mをインクリメントし(S17)、移動制御部59の制御によって次撮影視野8のであるインクリメントされたm番目の撮影視野8の撮影位置に撮影手段2が移動され(S18)、撮影手段2によってm番目の撮影が行われ(S19)、撮影手段2によってm番目の撮影視野8で撮影された画像が画像取込部51に取り込まれる。
【0075】
次に、姿勢検出部56は、保存されている第1撮影視野81で算出された姿勢情報を読み出し(S42)、読み出した第1撮影視野81で算出された姿勢情報を移動制御部59と画像処理部57とに出力する。移動制御部59は、読み出された姿勢情報に基づいて次撮影視野8であるm+1番目の撮影視野8の撮影位置を決定する(S21)。また、読み出された姿勢情報は、画像処理部57にも出力され、画像処理部57は、読み出された姿勢情報に基づいてm番目の撮影視野8で撮影された画像から検査領域を抽出し、抽出した検査領域の傾きを補正し、画像処理部57によって画像から抽出され傾きを補正された検査領域は、検査部58によって検査される(S15)。以下、検査対象物1の全撮影視野8について検査が終了するまで撮影と検査とが繰り返し行われる。
【0076】
次に、第4の実施の形態における検査動作の具体例について図15を参照して詳細に説明する。
図15は、図1に示す特徴領域記憶部に第1撮影視野に対応する特徴的視野のみが記憶されている場合の検査動作を説明するための説明図である。
【0077】
本例では、図15に示すように、トレイ7のポケット71に収納された検査対象物1を第1撮影視野81、第2撮影視野82および第3撮影視野83の3つの撮影視野8に分割して撮影するもので、第1撮影視野81で撮影される第1領域Aに対応して設定された特徴領域91、92のみが特徴領域記憶部55に記憶され、第1撮影視野81を基準撮影視野とし、基準撮影視野である第1撮影視野81で算出された姿勢情報を基準姿勢情報とする。
【0078】
まず、移動制御部59の制御によって移動手段3は、トレイ7のポケット71の位置から予め設定されている基準撮影視野である第1撮影視野81の撮影位置に撮影手段2を移動させ、撮影手段2によって第1撮影視野81を撮影する。撮影手段2によって第1撮影視野81で撮影した画像が画像取込部51に取り込まれ、姿勢検出部56は、画像取込部51に取り込まれた画像の位置合わせ処理を特徴領域91、92を用いて行う。
【0079】
姿勢検出部56は、第1撮影視野81で撮影した画像の中から特徴領域91、92を検出することにより検査対象物1のポケット71内の位置および傾きからなる姿勢情報を基準姿勢情報として算出し、算出した基準姿勢情報を保存すると共に、算出した基準姿勢情報を移動制御部59と画像処理部57とに出力する。移動制御部59は、第1撮影視野81で算出された基準姿勢情報に基づいて第2撮影視野82の撮影位置を決定すると共に、画像処理部57は、第1撮影視野81で撮影した画像から第1領域Aを第1撮影視野81で算出された姿勢情報に基づいて抽出すると共に傾きを補正し、検査部58は、第1領域Aについて検査を行う。
【0080】
第1撮影視野81で撮影した画像を用いた検査が終了したら、第2撮影視野82の撮影位置へ撮影手段2を移動させ、撮影手段2によって第2撮影視野82を撮影する。撮影手段2によって第2撮影視野82で撮影した画像は、画像取込部51に取り込まれ、姿勢検出部56は、保存されている第1撮影視野81で算出された基準姿勢情報を読み出し、読み出した基準姿勢情報を移動制御部59と画像処理部57とに出力する。移動制御部59は、第1撮影視野81で算出された基準姿勢情報に基づいて第3撮影視野83の撮影位置を決定すると共に、画像処理部57は、第2撮影視野82で撮影した画像から第2領域Bを第1撮影視野81で算出された基準姿勢情報に基づいて抽出すると共に傾きを補正し、検査部58は、第2領域Bについて検査を行う。以下、第3撮影視野83においても同様に第3領域Cについて検査を行い、検査対象物1の検査動作を終了する。
【0081】
以上説明したように、第4の実施の形態によれば、基準撮影視野であるで算出された検査対象物1の姿勢情報を基準姿勢情報とし、第2撮影視野82以降、すなわち基準撮影視野を除く各撮影視野8における姿勢情報として使用するように構成することにより、特徴領域9が設定されていない、あるいは同じような領域が複数あるため特徴領域9を設定することができない撮影視野8が存在することがわかっている検査対象物1に対しても、撮影および検査を実行することができるという効果を奏する。
【0082】
さらに、第4の実施の形態によれば、各撮影視野8で位置合わせ可能な特徴領域9が存在する検査対象物1に対しても、第4の実施の形態の検査動作を適用することで第2撮影視野82以降の位置合わせ処理が不要となるため、処理時間を短縮することが可能になるという効果を奏する。
【0083】
なお、第4の実施の形態では、第1撮影視野81で撮影した画像を用いて算出された検査対象物1の基準撮影視野を第2撮影視野82以降の全ての撮影視野8における姿勢情報として使用するものであるが、位置合わせができない撮影視野8に関してのみ第1撮影視野81で算出された姿勢情報を使用するようにしても良く、位置合わせが可能な撮影視野8に関しては位置合わせを行って検査対象物1の姿勢情報を得ることも可能である。
【0084】
さらに、第4の実施の形態では、第1撮影視野81で算出した検査対象物1の姿勢情報を基準姿勢情報として第2撮影視野82における姿勢情報として用いたが、例えば第3撮影視野83にも位置合わせ可能な領域が存在するとした場合、第2撮影視野82の撮影より先に第3撮影視野83の撮影および位置合わせを行い、第1撮影視野81および第3撮影視野83でそれぞれ算出した検査対象物1の姿勢情報から基準姿勢情報を決定し、第2撮影視野82における姿勢情報を算出して、第2撮影視野82の撮影および検査を実行することも可能である。また、第1撮影視野81で算出した姿勢情報を用いて第2撮影視野82における撮影位置の算出を行って第2撮影視野82での撮影のみ実施しておき、第3撮影視野83の撮影および位置合わせを行った後に第1撮影視野81および第3撮影視野83で算出した検査対象物1の姿勢情報から第2撮影視野82における姿勢情報を算出して、第2撮影視野82の検査を実行することも可能である。
【0085】
(第5の実施の形態)
図16は、本発明に係る外観検査装置の第5の実施の形態の検査動作を説明するためのフローチャートである。
【0086】
第5の実施の形態は、トレイ7のポケット71内に収納された検査対象物1を複数の視野に分割して撮影することにおいて、ポケット71のサイズおよび検査対象物1のサイズから事前に各撮影視野8の撮影位置を決定するものである。
【0087】
まず検査実施前に、トレイ7のポケット71のサイズと検査対象物1のサイズとから、各撮影視野8で撮影を行う際の撮影位置を決定しておき、移動制御部59は、決定された各撮影視野8のそれぞれの撮影位置への撮影手段2の移動を制御する。まず、移動制御部59は、移動手段3を制御して撮影手段2を第1撮影視野81で撮影する位置に移動させる(S11)。第1撮影視野81を撮影する位置への移動が完了したら、撮影手段2によって第1撮影視野81を撮影し(S12)、撮影手段2によって第1撮影視野81で撮影された画像が画像取込部51に取り込まれ、姿勢検出部56は、第1撮影視野81で撮影された画像の位置合わせ処理を行う(S13)。なお、S12における第1撮影視野81での撮影時に、撮影順番mをm=1にセットする。姿勢検出部56によって算出された姿勢情報は、画像処理部57にも出力され、画像処理部57は、姿勢情報に基づいて画像から第1領域Aを検査領域として抽出し、抽出した第1領域Aの傾きを補正し、画像処理部57によって画像から抽出され傾きを補正された第1領域Aは、検査部58によって検査される(S15)。
【0088】
次に、検査部58は、検査対象物1の全撮影視野8について検査が終了したかどうかを確認し(S16)、検査が終了していない場合は、撮影順番mをインクリメントし(S17)、移動制御部59の制御によって次の撮影視野8であるインクリメントされたm番目の撮影視野8の撮影位置に撮影手段2が移動され(S18)、撮影手段2によってm番目の撮影視野8の撮影が行われる(S19)。次に撮影手段2によってm番目の撮影視野8で撮影された画像が画像取込部51に取り込まれ、姿勢検出部56は、m番目の撮影視野8で撮影された画像の位置合わせ処理を行う(S20)。以下、m番目の撮影視野8で撮影された画像に対してS15の検査が行われ、検査対象物1の全撮影視野8について検査が終了するまで撮影と検査とが繰り返し行われる。検査部58による検査結果は、検査対象物1の全撮影視野8についての検査の終了後、表示部54に表示される。
【0089】
次に、第5の実施の形態における検査動作の具体例について図17乃至図19を参照して詳細に説明する。
図17は、本発明に係る外観検査装置の第5の実施の形態の検査動作を説明するための説明図であり、図18は、本発明に係る外観検査装置の第5の実施の形態の検査動作における検査経路を説明する説明図であり、図19は、本発明に係る外観検査装置の第5の実施の形態における各撮影視野での検査領域を示す説明図であり、図20は、本発明に係る外観検査装置の第5の実施の形態における撮影視野数の算出方法を説明するための説明図である。
【0090】
本例では、図17に示すように、トレイ7のポケット71に収納された検査対象物1を第1撮影視野81、第2撮影視野82、第3撮影視野83および第4撮影視野84の4つの撮影視野8に分割して撮影する。なお、図17に示す各撮影視野8の大きさは若干異なっているが、これは各撮影視野8を分かりやすくするためであり、実際は全各撮影視野8の大きさは同一である。
【0091】
第5の実施の形態では、まず、検査前にポケット71のサイズと検査対象物1のサイズとから、第1撮影視野81、第2撮影視野82、第3撮影視野83および第4撮影視野84の撮影位置を決定する。検査を開始したら、第1撮影視野81の撮影位置に撮影手段2を移動し、第1撮影視野81を撮影する。撮影が終了したら、撮影した画像を用いて位置合わせを行い、検査対象物1の姿勢情報を算出して検査を行う。第1撮影視野81で撮影した画像による検査が終了したら、同様にして第2撮影視野82の撮影および検査を行う。第2撮影視野82の検査終了後、第3撮影視野83および第4撮影視野84に関しても同様に撮影および検査を行い、検査対象物1の検査を終了する。
【0092】
なお、第5の実施の形態では、検査対象物1の右端の視野から順に検査を行ったが、予め撮影する位置を設定しておくため、任意の視野から、かつ任意の順番で検査を実行することが可能である。従って、第1の実施の形態では、図18(a)に示すように、各ポケット71において決まった撮影視野8から検査を開始する必要があるため、各ポケット71間の撮影手段2の移動を最短距離で行うことができないが、第5の実施の形態では、図18(b)に示すように、各ポケット71間の撮影手段2の移動を最短距離で行うことができ、第5の実施の形態では、第1の実施の形態による撮影手段2の移動経路よりも短い撮影手段2の移動経路を採用することが可能である。
【0093】
また、第5の実施の形態においては、検査対象物1に対し2次元的に撮影視野8を分割して、任意の撮影視野8かつ任意の順番で検査を実行することも可能であり、さらに、ある撮影視野8での検査が終了した後に次撮影視野8の撮影を行うとしたが、ある視野における撮影終了後の検査と次視野の撮影を平行して実行することも可能である。
【0094】
検査対象物1の右側から順に撮影する場合、第5の実施の形態においても第1の実施の形態と同様に、図19に示す第1領域Aは、ポケット71内の検査対象物1の位置が図19(a)と(b)とに示すように左右に最大限ずれていても、第1撮影視野81において必ず撮影される。従って、検査対象物1の位置は、ポケット71の横方向の長さLpと検査対象物1の横方向の長さをLcとの差だけ最大異なることになり、図20に示すように、第1撮影視野81で必ず撮影される第1領域Aの検査対象物1の右端からの長さNcf1は、Ncf1=Lr−(Lp−Lc)で表すことができ、検査対象物1の姿勢情報を取得可能である場合、第1領域Aを検査領域とすることができる。なお、検査対象物1のサイズ等の外形情報を取得する方法としては、検査の基準となる画像を作成する際に、オペレータによって検査対象物1の角位置をティーチングする方法や、画像認識による検査対象物1の角の検出などが考えられる。
【0095】
第5の実施の形態では、各撮影視野8に関してポケット71の長さから撮影位置を予め決定し、第1撮影視野81での位置合わせによる検査対象物1の姿勢情報から、第2撮影視野82以降の撮影視野8における検査領域を設定して検査を行う。検査では、ある撮影視野8で必ず撮影される範囲がその撮影視野8での検査範囲になるため、ポケット71内での検査対象物1の位置によらず検査対象物1全体を検査するには、図20に示すように、隣接する撮影視野8でポケット71と検査対象物1の長さの差(Lp−Lc)だけ撮影視野8を重ねておく必要がある。図19に第1撮影視野81乃至第4撮影視野84の各撮影視野8で検査するそれぞれの検査領域を示す。図19(a)はポケット71内で検査対象物1が最も右端にある例を示し、図19(b)はポケット71内で検査対象物1が最も左端にある例を示している。この図19(a)および(b)を参照すると、第1撮影視野81で検査される第1領域A、第2撮影視野82で検査される第2領域B’、第3撮影視野83で検査される第3領域C’およびで第4撮影視野84で検査される第4領域D’がそれぞれ第1撮影視野81乃至第4撮影視野84で必ず撮影される範囲であることがわかる。
【0096】
また、図19を参照すると、第5の実施の形態における撮影視野数Nraは、撮影視野数Nra= Lc/(Lr−(Lp−Lc))( 小数点切り上げ )で表すことができる。また、2次元的に撮影視野8を分割して検査を行う場合は、縦方向および横方向について撮影視野数Nrfを算出することで全体の撮影視野数Nrfを算出することができる。
【0097】
以上説明したように、第5の実施の形態によれば、トレイ7のポケット71のサイズおよび検査対象物1のサイズから撮影位置を予め算出しておくため、第1の実施の形態で実施していた第2撮影視野82以降の撮影位置算出処理が不要となり、第1の実施の形態と撮影視野数が同一である場合には、処理時間が短くなるという効果を奏する。
【0098】
さらに、第5の実施の形態によれば、任意の撮影視野、任意の順番で検査を実行できるため、複数の検査対象物1を検査する場合に、第1の実施の形態による検査と比較して撮影手段2を移動させる距離が短くて済み、検査全体の時間を短くすることが可能であるという効果を奏する。
【0099】
(第6の実施の形態)
第6の実施の形態は、第1の実施の形態から第5の実施の形態の検査動作のいずれかを選択可能に構成したものである。
【0100】
第1の実施の形態から第4の実施の形態と、第5の実施の形態とを比較すると、第1の実施の形態から第4の実施の形態における撮影視野数の方が少ない場合が多く、撮影視野数が少ない方が撮影に要する時間が短くなる。しかし、第1の実施の形態から第4の実施の形態と、第5の実施の形態との撮影視野数が同一であった場合には、第5の実施の形態では検査中に撮影手段2の撮影位置を決定する必要がなく、検査に要する時間が短くなる。従って、第1の実施の形態から第4の実施の形態における撮影視野数の方が少ない場合には、第1の実施の形態から第4の実施の形態のいずれかを選択し、第1の実施の形態から第4の実施の形態と、第5の実施の形態との撮影視野数が同一であった場合には、第5の実施の形態を選択することが考えられる。この場合には、第1の実施の形態から第4の実施の形態の撮影視野数Nrfは、ポケット71の横方向の長さLpおよび撮影視野8の横方向の長さLrによって算出され、第5の実施の形態の撮影視野数Nraは、ポケット71の横方向の長さLp、検査対象物1の横方向の長さLcおよび撮影視野8の横方向の長さLrによって算出されるため、ポケット71、検査対象物1および撮影視野8のサイズ情報とから撮影視野数Nrfと撮影視野数Nraとを算出する手段と、算出された撮影視野数Nrfと撮影視野数Nraと比較する手段と、撮影視野数Nrfが撮影視野数Nraよりも少ない場合には、第1の実施の形態から第4の実施の形態のいずれかを選択し、撮影視野数Nrfと撮影視野数Nraとが同数である場合には、第5の実施の形態を選択する手段とを設けると好適である。
【0101】
第1の実施の形態から第4の実施の形態のそれぞれの処理時間を比較すると、第1の実施の形態から第3の実施の形態の処理時間は同一となるが、第4の実施の形態では位置合わせ処理を第1撮影視野81でのみ実施しているため、他の実施の形態と比較して位置合わせ処理が少なく、全体の処理時間が若干速くなる。
【0102】
また、第1の実施の形態では第1撮影視野81で算出した検査対象物1の姿勢情報から第2撮影視野82以降の撮影位置を算出するが、検査時間が撮影手段2の移動時間に比べて短い場合、まず第2撮影視野82の撮影位置のみを算出し、撮影手段2の移動と並列に検査および第3撮影視野83以降の撮影位置の算出を行うことで、全体の処理時間を若干短縮することができる。第2の実施の形態と第3の実施の形態は、位置合わせ失敗時の処理を除いて同一の処理であるため、位置合わせに失敗しない限り処理時間は同一である。
【0103】
このように、第1の実施の形態から第4の実施の形態おいては、処理時間に大きな差が生じないため、第1の実施の形態から第4の実施の形態における撮影視野数の方が第5の実施の形態よりも少ない場合は、必要に応じて第1の実施の形態から第4の実施の形態の内いずれかをオペレータが選択できるように構成すると良い。例えば、処理の高速性を重視する場合は第4の実施の形態を、検査精度を重視する場合は第2の実施の形態あるいは第3の実施の形態のいずれかを選択するということが考えられる。
【0104】
以上説明したように、第6の実施の形態によれば、処理時間、検査精度等を基準として複数の検査方法から検査動作を選択できるように構成することにより、検査対象物1の形態によらず最も適切な検査動作を採用することができるという効果を奏する。
【0105】
(第7の実施の形態)
第7の実施の形態は、第1の実施の形態から第6の実施の形態において、ポケット71内にある検査対象物1に対し、複数の検査対象物1を撮影した画像を視野毎に合成して、前記合成した画像を検査の基準となる画像として検査を行うようにしたものである。
【0106】
第7の実施の形態を第1の実施の形態に適用した場合、まず、検査対象物1の第1撮影視野81を撮影し、得られた画像を第1撮影視野81における検査の基準となる仮の画像とする。この画像を用いて位置合わせを行う特徴領域9を設定して全撮影視野8の撮影を行い、得られた画像を各撮影視野8の検査における検査の基準となる仮の画像とする。各撮影視野8において検査の基準となる仮の画像を設定したら、他の検査対象物1における各撮影視野8の撮影を行って、撮影した画像を用いて位置合わせ処理を行い、姿勢情報を算出する。姿勢情報を算出したら撮影した画像の変換を行い、ずれを補正する。撮影した全ての画像のずれ補正が終了したら、撮影視野8毎に画像を合成して、前記合成した画像を正式に検査の基準となる画像として設定する。
【0107】
次に、第7の実施の形態を第5の実施の形態に適用した場合、まず、検査対象物1の各撮影視野8を撮影し、得られた画像を各撮影視野8の検査における検査の基準となる仮の画像とする。各撮影視野8において前記検査の基準となる仮の画像を設定したら、他の検査対象物1における各視野の撮影を行って、撮影した画像を用いて位置合わせ処理を行い、姿勢情報を算出する。姿勢情報を算出したら撮影した画像の変換を行い、ずれを補正する。撮影した全ての画像の補正が終了したら、撮影視野8毎に画像を合成して、前記合成した画像を正式に検査の基準となる画像として設定する。また、最初に全ての検査対象物1の撮影のみを行い、合成を行う前に撮影した画像の補正をまとめて行うようにすることも可能である。
【0108】
以上説明したように、第7の実施の形態によれば、撮影した画像を用いて位置合わせ処理を行い、ずれを補正しながら画像を収集するように構成することにより、検査対象物1をトレイ7のポケット71に収納した状態で、検査の基準となる仮の画像を収集することができ、検査の基準となる画像を効率よく生成することができるという効果を奏する。
【0109】
(第8の実施の形態)
図21は、本発明に係る外観検査装置の第8の実施の形態の検査動作を説明するためのフローチャートである。
【0110】
第8の実施の形態は、第1の実施の形態から第4の実施の形態において、第1撮影視野81における位置合わせに失敗して検査対象物1の姿勢情報が得られなかった場合に、第1撮影視野81とは異なる予備の撮影視野8を予め設定しておき、当該予備の撮影視野8で撮影を行い、撮影した画像を用いた位置合わせにより得られた検査対象物1の姿勢情報から第1撮影視野81の撮影位置を決定し、再検査を行うようにしたものである。図21には、第1の実施の形態の検査動作に第8の実施の形態のS81〜S85の処理動作を追加した例を示す。
【0111】
第8の実施の形態では、S13での第1撮影視野81で撮影された画像の位置合わせ処理が終了後、第1撮影視野81の位置合わせ処理が成功したかどうかを確認し(S81)、失敗した場合は予め設定しておいた予備の撮影視野8に撮影手段2を移動する(S82)。撮影手段2の移動が終了したら撮影を行い(S83)、予備の撮影視野8で撮影された画像に対して位置合わせを行い(S84)、検査対象物1の姿勢情報を算出し、算出した検査対象物1の姿勢情報から、改めて第1撮影視野81の撮影位置を決定し(S85)、S11からの検査動作を継続する。なお、予備の撮影視野8は、1つに限らず、複数設定しても良い。
【0112】
以上説明したように、第8の実施の形態によれば、第1撮影視野81において位置合わせに失敗して検査対象物1の姿勢情報が得られなかった場合でも、改めて検査を実行することが可能になり、検査効率を向上させることができるという効果を奏する。
【0113】
なお、本発明が上記各実施の形態に限定されず、本発明の技術思想の範囲内において、各実施の形態は適宜変更され得ることは明らかである。また、上記構成部材の数、位置、形状等は上記実施の形態に限定されず、本発明を実施する上で好適な数、位置、形状等にすることができる。なお、各図において、同一構成要素には同一符号を付している。
【0114】
【発明の効果】
本発明の外観検査装置および外観検査方法は、トレイのポケットに収納された検査対象物を複数の撮影視野で分割撮影する際に、第1撮影視野で撮影された画像から検査対象物の姿勢情報を算出し、算出した姿勢情報によって第2撮影視野以降の撮影位置を決定するように構成することにより、トレイのポケットに収納された検査対象物の機械的な位置決めをすることなく、各撮影視野で撮影された画像を高精度に検査することができ、トレイのポケットに収納された検査対象物を複数の撮影視野で分割撮影する際の撮影視野数を最小限にすることができ、各撮影視野での位置合わせ時間を短縮することができるという効果を奏する。
【0115】
さらに、本発明の外観検査装置および外観検査方法は、第2撮影視野以降は各撮影視野において常に各撮影視野でそれぞれ決まった検査対象物の領域をそれぞれ撮影することができることから、各撮影視野で特徴領域の探索領域を設定する場合に、第2撮影視野以降の探索領域を広範囲に設定する必要がなく、探索時間を短縮することが可能となるという効果を奏する。
【0116】
さらに、本発明の外観検査装置および外観検査方法は、直前の撮影視野で撮影した画像の位置合わせ結果から次撮影視野の撮影位置を算出する様に構成することにより、次撮影視野の撮影位置の誤差を少なくすることができる。
【0117】
さらに、本発明の外観検査装置および外観検査方法は、ある撮影視野で位置合わせに失敗して検査対象物の姿勢情報が得られなかった場合に、既に位置合わせに成功した撮影視野での姿勢情報に基づいて当該撮影視野での検査を行うように構成することにより、ある視野で姿勢情報が得られなかった場合でも検査を継続することができるという効果を奏する。
【0118】
さらに、本発明の外観検査装置および外観検査方法は、第1撮影視野で算出された検査対象物の姿勢情報を撮影視野以降における姿勢情報として使用するように構成することにより、特徴領域が設定されていない、あるいは同じような領域が複数あるため特徴領域を設定することができない撮影視野が存在することがわかっている検査対象物に対しても、撮影および検査を実行することができるという効果を奏する。
【0119】
さらに、本発明の外観検査装置および外観検査方法は、各撮影視野で位置合わせ可能な特徴領域が存在する検査対象物に対しても、第2撮影視野以降の位置合わせ処理を不要とすることができ、処理時間を短縮することが可能になるという効果を奏する。
【0120】
さらに、本発明の外観検査装置および外観検査方法は、トレイのポケットのサイズおよび検査対象物のサイズから撮影位置を予め算出することにより、第2撮影視野以降の撮影位置算出処理を不要することができ、処理時間を短縮することが可能になるという効果を奏する。
【0121】
さらに、本発明の外観検査装置および外観検査方法は、任意の撮影視野、任意の順番で検査を実行できるため、複数の検査対象物を検査する場合に、撮影手段を移動させる距離が短くすることができ、処理時間を短縮することが可能になるという効果を奏する。
【0122】
さらに、本発明の外観検査装置および外観検査方法は、処理時間、検査精度等を基準として複数の検査方法から検査動作を選択できるように構成することにより、検査対象物1の形態によらず最も適切な検査動作を採用することができるという効果を奏する。
【0123】
さらに、本発明の外観検査装置および外観検査方法は、撮影した画像を用いて位置合わせ処理を行い、ずれを補正しながら画像を収集するように構成することにより、検査対象物をトレイのポケットに収納した状態で、検査の基準となる仮の画像を収集することができ、検査の基準となる画像を効率よく生成することができるという効果を奏する。
【0124】
さらに、本発明の外観検査装置および外観検査方法は、第1撮影視野において位置合わせに失敗して検査対象物の姿勢情報が得られなかった場合でも、改めて検査を実行することが可能になり、検査効率を向上させることができるという効果を奏する。
【図面の簡単な説明】
【図1】本発明に係る外観検査装置の第1の実施の形態の構成を示すブロック図である。
【図2】図1に示す検査対象物が収納されるトレイの形状を示す斜視図である。
【図3】図1に示す撮影手段による撮影視野とポケットおよび検査対象物との対応関係を説明する説明図である。
【図4】図1に示す特徴領域記憶部に記憶される特徴領域例を示す説明図である。
【図5】図1に示す撮影手段によって撮影される第1撮影視野の範囲を説明するための説明図である。
【図6】図1に示す特徴領域設定部によって特徴領域を設定する範囲を説明するための説明図である。
【図7】図1に示す特徴領域設定部による撮影視野数の算出方法を説明するため説明図である。
【図8】本発明に係る外観検査装置の第1の実施の形態の検査動作を説明するためのフローチャートである。
【図9】本発明に係る外観検査装置の第1の実施の形態の具体的な検査動作を説明するための説明図である。
【図10】撮影視野が予め設定されている場合の撮影視野の移動例を示す説明図である。
【図11】本発明に係る外観検査装置の第1の実施の形態の撮影視野の移動例を示す説明図である。
【図12】本発明に係る外観検査装置の第2の実施の形態の検査動作を説明するためのフローチャートである。
【図13】本発明に係る外観検査装置の第3の実施の形態の検査動作を説明するためのフローチャートである。
【図14】本発明に係る外観検査装置の第4の実施の形態の検査動作を説明するためのフローチャートである。
【図15】図1に示す特徴領域記憶部に第1撮影視野に対応する特徴的視野のみが記憶されている場合の検査動作を説明するための説明図である。
【図16】本発明に係る外観検査装置の第5の実施の形態の検査動作を説明するためのフローチャートである。
【図17】本発明に係る外観検査装置の第5の実施の形態の検査動作を説明するための説明図である。
【図18】本発明に係る外観検査装置の第5の実施の形態の検査動作における検査経路を説明する説明図である。
【図19】本発明に係る外観検査装置の第5の実施の形態における各撮影視野での検査領域を示す説明図である。
【図20】本発明に係る外観検査装置の第5の実施の形態における撮影視野数の算出方法を説明するための説明図である。
【図21】本発明に係る外観検査装置の第8の実施の形態の検査動作を説明するためのフローチャートである。
【符号の説明】
1 検査対象物
2 撮影手段
3 移動手段
4 照明手段
5 画像処理装置
51 画像取込部
52 入力部
53 特徴領域設定部
54 表示部
55 特徴領域記憶部
56 姿勢検出部
57 画像処理部
58 検査部
59 移動制御部
7 トレイ
71 ポケット
8 撮影視野
81 第1撮影視野
82 第2撮影視野
83 第3撮影視野
84 第4撮影視野
9、91、92、93、94、95、96 特徴領域
100 回路パターン
101 位置合わせ用マーク
102 バンプ
103 角部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an appearance inspection apparatus and an appearance inspection method for inspecting an appearance of an inspection object, and in particular, an appearance inspection for inspecting an appearance by dividing an inspection object stored in a tray pocket into a plurality of fields of view. The present invention relates to an apparatus and an appearance inspection method.
[0002]
[Prior art]
Conventionally, an IC chip appearance test is performed in which an IC chip stored in a tray pocket is photographed by a camera or the like, and the photographed image is input to an image processing unit to determine whether the chip is a good product or a defective product. There exists an apparatus (for example, refer to Patent Document 1).
[0003]
This type of IC chip appearance inspection apparatus photographs the entire surface of an IC chip housed in a tray pocket with a single field of view. The larger the IC chip size, the coarser the resolution of the image. There is a drawback that it is difficult to detect a certain defect.
[0004]
Therefore, the IC chip housed in the tray pocket is positioned and fixed, the entire surface of the positioned IC chip is illuminated with an annular illumination, and the XYθ table is driven while photographing with a microscope camera from above. There has been proposed an appearance inspection apparatus that performs an inspection by photographing an IC chip from a plurality of photographing fields of view (for example, see Patent Document 2).
[0005]
[Patent Document 1]
JP-A-5-152406
[Patent Document 2]
JP-A-8-145895
[0006]
[Problems to be solved by the invention]
However, in the prior art, in order to prevent the IC chip position shift when photographing the IC chip stored in the tray with a plurality of fields of view, an IC chip positioning and fixing means having a complicated mechanism is required, Since the IC chip is mechanically positioned, there has been a problem in that images taken in each field of view cannot be inspected with high accuracy.
[0007]
The present invention has been made in view of such a problem, and an object of the present invention is to store an inspection object stored in a tray pocket in a tray pocket when performing divided shooting in a plurality of fields of view. An object of the present invention is to provide an appearance inspection apparatus and an appearance inspection method capable of inspecting an image captured in each field of view with high accuracy without mechanically positioning the inspection object.
[0008]
Furthermore, an object of the present invention is to minimize the number of field of view when the object to be inspected stored in the pocket of the tray is divided and photographed in a plurality of fields of view, and the position in each field of view. An object of the present invention is to provide an appearance inspection apparatus and an appearance inspection method capable of shortening the alignment time.
[0009]
[Means for Solving the Problems]
In order to solve the above problems, the present invention has the following configuration.
An appearance inspection apparatus according to the present invention is an appearance inspection apparatus that divides and images an inspection object stored in a tray pocket into a plurality of imaging fields of view, and performs an appearance inspection of the inspection object by an image obtained by the imaging. The imaging means for imaging the inspection object in the imaging field of view, the moving means for moving the imaging field of view, the characteristic area storage means for storing the characteristic area of the inspection object, and the imaging means Attitude detection means for searching the characteristic area of the inspection object from an image captured in the imaging field of view and calculating attitude information of the inspection object with reference to information obtained by the search; and the attitude information And a movement control means for determining a photographing position of the photographing visual field by the moving means based on the above.
Further, in the appearance inspection apparatus according to the present invention, the posture detection means searches the feature region of the inspection object from an image photographed in a predetermined first field of view, and obtains information obtained by the retrieval. The posture information of the object to be inspected is calculated with reference, and the movement control means is a second photographing visual field subsequent to the first photographing visual field based on the posture information calculated by photographing in the first photographing visual field. The photographing position is determined and the moving means is controlled.
Furthermore, the appearance inspection apparatus of the present invention extracts an inspection area from an image captured in the field of view based on the posture information, and corrects the inclination of the extracted inspection area, and the image processing means. Inspection means for inspecting the inspection area extracted and corrected in inclination.
Further, in the appearance inspection apparatus according to the present invention, the posture detection means searches the feature region of the inspection object from an image photographed in a predetermined first field of view, and obtains information obtained by the retrieval. The posture information of the object to be inspected is calculated with reference to the image processing means, and the image processing means starts the second photographing field following the first photographing field based on the posture information calculated by photographing in the first photographing field. The inspection area is extracted from the image photographed in step S1, and the inclination of the extracted inspection area is corrected.
Furthermore, in the appearance inspection apparatus according to the present invention, the movement control unit determines a shooting position of the shooting field of view taken after the shooting field of view where the posture information is calculated based on the posture information. And
Furthermore, in the appearance inspection apparatus of the present invention, the image processing means extracts the inspection area from an image photographed in the photographing field of view where the posture information is calculated based on the posture information, and the extracted inspection area It is characterized by correcting the inclination of the.
Further, in the appearance inspection apparatus according to the present invention, the movement control unit fails to calculate the posture information when the posture detection unit fails to calculate the posture information from an image photographed in the photographing field of view. The photographing position of the photographing field to be photographed next to the photographing field is determined based on the posture information already calculated by the posture detecting means.
Furthermore, in the appearance inspection apparatus of the present invention, the image processing means is already calculated by the attitude detection means when the attitude detection means fails to calculate the attitude information from an image taken in the imaging field of view. The inspection area is extracted from an image captured in the imaging field of view where the calculation of the attitude information has failed based on the attitude information, and the inclination of the extracted inspection area is corrected.
Furthermore, in the appearance inspection apparatus according to the present invention, when the posture detection unit fails to calculate the posture information from an image photographed in a predetermined first field of view, the posture inspection unit performs the predetermined by the photographing unit. The inspection object is photographed in a preliminary photographing field different from the first photographing field, the posture information is calculated from the image photographed in the preliminary photographing field by the posture detecting means, and the preliminary photographing field is obtained by the movement control means. The photographing position of the first photographing field of view is determined from the posture information calculated in
Further, the appearance inspection apparatus of the present invention divides and images the inspection object stored in the tray pocket into a plurality of imaging fields of view, and performs the appearance inspection of the inspection object by the image obtained by the imaging. An apparatus, an imaging unit that images the inspection object in the imaging field, a moving unit that moves the imaging field, a feature area storage unit that stores a feature area of the inspection object, and the imaging A posture for retrieving the characteristic region of the inspection object from an image photographed in a reference photographing field predetermined by the means, and calculating reference posture information of the inspection object with reference to information obtained by the retrieval Based on the reference posture information calculated by the detection means and the posture detection means, the shooting positions of the plurality of shooting fields of view excluding the reference shooting field of view by the moving unit are respectively determined. Determined, characterized by comprising a movement control means for controlling said moving means.
Further, the appearance inspection apparatus according to the present invention is an image processing unit that extracts an inspection area from each of the images captured in the plurality of imaging fields based on the reference posture information, and corrects the inclination of the extracted inspection area. And inspection means for inspecting each of the inspection regions extracted by the image processing means and corrected for inclination..
TheFurthermore, the appearance inspection apparatus of the present invention divides and images the inspection object stored in the pocket of the tray into a plurality of imaging fields of view, and performs an appearance inspection of the inspection object by an image obtained by the imaging. An inspection apparatus, an imaging unit that images the inspection object in the imaging field, a moving unit that moves the imaging field, a feature region storage unit that stores a feature region of the inspection object, A posture detection unit that searches the feature region of the inspection object from an image photographed in the field of view by the photographing unit, and calculates posture information of the inspection object with reference to information obtained by the search; A movement control means for determining a photographing position of the photographing field of view by the moving means based on the posture information calculated by the posture detecting means and controlling the moving means; and the pocket In the posture information necessary for photographing the whole inspection object, photographing position determining means for determining photographing positions of the plurality of photographing fields from the size, the size of the inspection object, and the size of the photographing field. Field number calculation means for calculating the number of field of view determined based on the number of fields of view determined by the field of view and the field of view determined by the position determination means based on the size of the pocket, the size of the inspection object, and the size of the field of view of the inspection; A number-of-views comparison unit that compares the number of fields of view determined based on the posture information calculated by the number-of-views calculation unit and a number of fields of view determined by the shooting position determination unit; If the number of field of view determined is smaller than the number of fields of view determined by the shooting position determining means, the inspection at the shooting position based on the posture information is selected. When the number of field of view determined based on the posture information is the same as the number of fields of view determined by the shooting position determining unit, the inspection at the shooting position determined by the shooting position determining unit is performed. And selecting means for selecting.
Furthermore, the appearance inspection apparatus of the present invention is characterized in that the inspection means uses a composite of a plurality of images photographed in the photographing field of view as a reference image for inspecting the inspection region. .
The appearance inspection method of the present invention is an appearance inspection method in which an inspection object stored in a pocket of a tray is divided into a plurality of photographing fields and photographed, and an appearance inspection of the inspection object is performed by an image obtained by the photographing. The inspection object is imaged in the imaging field of view, the characteristic area of the inspection object is stored, the characteristic area of the inspection object is searched from the image captured in the imaging field of view, and the search is performed. The posture information of the inspection object is calculated with reference to the information obtained by determining the shooting position of the shooting field of view based on the calculated posture information, and the shooting field of view is moved to the determined shooting position. It is characterized by making it.
Furthermore, in the appearance inspection method of the present invention, the feature region of the inspection object is searched from an image taken in a predetermined first field of view, and the inspection object is referred to by referring to information obtained by the search. The posture information of an object is calculated, and a shooting position after the second shooting field of view following the first shooting field of view is determined based on the posture information calculated in the first shooting field of view.
Further, in the appearance inspection method of the present invention, the inspection area is extracted from the image captured in the imaging field of view based on the posture information, the inclination of the extracted inspection area is corrected, and the extracted and corrected inclination is corrected. An inspection area is inspected.
Further, in the appearance inspection method of the present invention, the feature region of the inspection object is searched from an image captured in a predetermined first field of view, and the inspection object is referred to by referring to information obtained by the search. The inspection information is calculated and the inspection region is extracted and extracted from an image photographed after the second photographing visual field following the first photographing visual field based on the posture information calculated in the first photographing visual field. It is characterized by correcting the inclination of the region.
Furthermore, the appearance inspection method of the present invention is characterized in that, based on the posture information, a shooting position of the shooting field of view to be photographed after the shooting field of view of which the posture information is calculated is determined.
Further, the appearance inspection method of the present invention extracts the inspection area from the image captured in the imaging field of view where the attitude information is calculated based on the attitude information and corrects the inclination of the extracted inspection area. It is characterized by.
Further, in the appearance inspection method of the present invention, when the calculation of the posture information fails from the image shot in the shooting field of view, the imaging field of view taken after the shooting field of view where the calculation of the posture information has failed. The imaging position is determined based on the posture information that has already been calculated.
Furthermore, in the appearance inspection method of the present invention, when the calculation of the posture information has failed from the image shot in the shooting field of view, the calculation of the posture information has failed based on the posture information that has already been calculated. The inspection area is extracted from an image captured in a field of view and the inclination of the extracted inspection area is corrected.
Furthermore, in the appearance inspection method of the present invention, when the calculation of the posture information fails from an image photographed in a predetermined first photographing visual field, a preliminary photographing visual field different from the predetermined first photographing visual field. The posture information is calculated from the image captured in the preliminary photographing field, the photographing position of the first photographing field is determined from the posture information calculated in the preliminary photographing field, and the determination is performed. The first field of view is captured again at the captured position, and the posture information is calculated from an image captured again in the first field of view.
Furthermore, the visual inspection method of the present invention is a visual inspection in which the inspection object stored in the pocket of the tray is imaged by dividing it into a plurality of imaging fields, and the appearance inspection of the inspection object is performed by an image obtained by the imaging. A method for photographing the inspection object in the photographing field of view, storing a characteristic region of the inspection object, and storing the characteristic region of the inspection object from an image photographed in a predetermined reference photographing field of view. The reference posture information of the inspection object is calculated with reference to the information obtained by the search, and the plurality of shooting fields of view excluding the reference shooting field of view are calculated based on the calculated reference posture information. Each position is determined, and the photographing field of view is moved to each determined photographing position.
Further, the visual inspection method of the present invention extracts an inspection area from each of the images captured in the plurality of fields of view based on the reference posture information and corrects the inclination of the extracted inspection area, Inspecting each of the inspection areas extracted and corrected for inclination.
TheFurthermore, the appearance inspection method of the present invention is an appearance in which an inspection object stored in a tray pocket is imaged by dividing it into a plurality of imaging fields of view, and an appearance inspection of the inspection object is performed by an image obtained by the imaging. An inspection method, the step of photographing the inspection object in the photographing field, the step of moving the photographing field, the feature region of the inspection object, and the image photographed in the photographing field The feature area of the inspection object is searched from, the posture information of the inspection object is calculated with reference to the information obtained by the search, and the imaging field of view is calculated based on the calculated posture information. Determining a shooting position; and determining the shooting positions of the plurality of shooting fields based on size information including the size of the pocket, the size of the inspection object, and the size of the field of view; A step of controlling the movement of the shadow field, the number of field of view determined based on the posture information necessary for capturing the entire inspection object, and the number of field of view determined based on the size information. Calculating the size of the inspection object, the size of the inspection object, and the size of the imaging field, the number of imaging fields determined based on the calculated posture information, and the number of imaging fields determined based on the size information. When the number of field of view determined based on the posture information is smaller than the number of field of view determined based on the size information, and the step of comparing, select the inspection at the shooting position based on the posture information, When the number of field of view determined based on the posture information is the same as the number of fields of view determined based on the size information, the field of view determined based on the size information Characterized by a step of selecting the test.
Furthermore, the appearance inspection method of the present invention uses a composite of a plurality of images taken in the field of view as a reference image when inspecting the inspection area extracted and corrected in inclination. And
Further, a program for causing a computer to execute the appearance inspection method according to the present invention is to divide and image an inspection object stored in a tray pocket into a plurality of imaging fields of view, and to obtain the inspection object by an image obtained by the imaging. A program for causing a computer to execute an appearance inspection method for performing an appearance inspection of an object, the step of photographing the inspection object in the photographing field of view, and storing a characteristic region of the inspection object, Based on the calculated posture information, a step of retrieving the characteristic region of the inspection object from an image captured in a field of view, referring to information obtained by the search, and calculating posture information of the inspection object And determining the shooting position of the shooting field of view, and moving the shooting field of view to the determined shooting position.
[0010]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0011]
(First embodiment)
FIG. 1 is a block diagram showing a configuration of a first embodiment of an appearance inspection apparatus according to the present invention, and FIG. 2 is a perspective view showing a shape of a tray in which an inspection object shown in FIG. 1 is stored. 3 is an explanatory diagram for explaining the correspondence between the field of view taken by the photographing means shown in FIG. 1, the pockets, and the inspection object, and FIG. 4 is a feature stored in the feature region storage unit shown in FIG. FIG. 5 is an explanatory diagram illustrating an example of a region, and FIG. 5 is an explanatory diagram illustrating a range of a first field of view captured by the imaging unit illustrated in FIG. 1.
[0012]
Referring to FIG. 1, the first embodiment is photographed by photographing
[0013]
The photographing means 2 is arranged on the
[0014]
The moving means 3 has a function of moving at least the photographing
[0015]
The image processing apparatus 5 is an information processing apparatus that operates by program control. Referring to FIG. 1, an image capturing unit 51, an
[0016]
The image capturing unit 51 captures an image captured by the capturing
[0017]
The feature
[0018]
The
[0019]
As an example of the
[0020]
The feature area storage unit 55 is information storage means such as a hard disk device, and stores the
[0021]
The posture detection unit 56 performs alignment processing for the image captured by the image capture unit 51. The alignment process by the attitude detection unit 56 is a process of calculating attitude information including the position and inclination of the
[0022]
The first imaging field 8 (hereinafter referred to as the first imaging field 81) that is first imaged in each
[0023]
The image processing unit 57 extracts a region corresponding to the
[0024]
The inspection unit 58 inspects the inspection region whose inclination is corrected and extracted from the image by the image processing unit 57. For the inspection by the inspection unit 58, a method of comparing with inspection data including an image as a reference for inspection set in advance, a method of determining pass / fail using a feature amount extracted by image processing, and the like can be considered.
[0025]
The movement control unit 59 controls the movement of the photographing
[0026]
Next, the setting operation of the
6 is an explanatory diagram for explaining a range in which a feature region is set by the feature region setting unit shown in FIG. 1, and FIG. 7 is a diagram for explaining a method of calculating the number of fields of view by the feature region setting unit shown in FIG. It is explanatory drawing for doing.
[0027]
First, the feature
[0028]
Next, the feature
[0029]
Next, when the operator designates the range of the
[0030]
When the setting of the
[0031]
When the setting of the
[0032]
The setting operation of the
[0033]
Next, the inspection operation in the first embodiment will be described in detail with reference to FIG.
FIG. 8 is a flowchart for explaining the inspection operation of the first embodiment of the appearance inspection apparatus according to the present invention.
[0034]
First, the movement control unit 59 controls the moving means 3 to move the photographing
[0035]
The alignment process by the posture detection unit 56 is a process of calculating the position and inclination of the
[0036]
The posture information calculated by the alignment processing by the posture detection unit 56 is output to the movement control unit 59, and the movement control unit 59 uses the second photographing field of view based on the photographing position of the first photographing
[0037]
The posture information calculated by the posture detection unit 56 is also output to the image processing unit 57, and the image processing unit 57 extracts the first region A from the image as an inspection region based on the posture information, and extracts the extracted first information. The first area A, in which the inclination of the one area A is corrected and is extracted from the image by the image processing unit 57 and the inclination is corrected, is inspected by the inspection unit 58 (S15). For the inspection by the inspection unit 58, a method of comparing with inspection data including an image as a reference for inspection set in advance, a method of determining pass / fail using a feature amount extracted by image processing, and the like can be considered. In the first embodiment, the first area A is extracted from the image as the inspection area, and the inclination of the extracted first area A is corrected. However, the captured image is converted, for example, by converting the inspection data. Any method may be used as long as it corrects the difference between the inspection data and the inspection data, and the inspection area to be inspected may be extracted after correcting the entire image.
[0038]
Next, the inspection unit 58 confirms whether or not the inspection has been completed for all the
[0039]
In the flowchart shown in FIG. 8, the next photographing
[0040]
Next, a specific example of the inspection operation in the first embodiment will be described in detail with reference to FIGS.
FIG. 9 is an explanatory diagram for explaining a specific inspection operation of the first embodiment of the appearance inspection apparatus according to the present invention, and FIG. 10 is a photographing field when a photographing field is preset. FIG. 11 is an explanatory diagram showing a moving example of the imaging field of view of the first embodiment of the appearance inspection apparatus according to the present invention.
[0041]
In this example, as shown in FIG. 9, the
[0042]
First, under the control of the movement control unit 59, the moving means 3 moves the photographing means 2 from the position of the
[0043]
The posture detection unit 56 calculates the posture information including the position and the inclination in the
[0044]
When the inspection using the image photographed in the first photographing
[0045]
Referring to FIG. 9, it can be seen that there are a portion where the first photographing
[0046]
That is, in the method of setting the photographing position in advance, there is a great difference in the image even in the same photographing field of
[0047]
FIG. 10 shows the first photographing
[0048]
On the other hand, according to the first embodiment, the imaging position after the second imaging
[0049]
As described above, according to the first embodiment, when the
[0050]
Furthermore, according to the first embodiment, since the second field of
[0051]
In the first embodiment, the inspection is started from the right side of the
[0052]
(Second Embodiment)
FIG. 12 is a flowchart for explaining the inspection operation of the second embodiment of the appearance inspection apparatus according to the present invention.
[0053]
The second embodiment is different in the method of determining the imaging position after the
[0054]
In the second embodiment, after the alignment process (S13) by the attitude detection unit 56 is finished, the attitude information calculated by the alignment process by the attitude detection unit 56 is output to the movement control unit 59, and the movement control unit 59 59 determines the shooting position of the (m + 1) -th shooting field of
[0055]
Next, the inspection unit 58 confirms whether or not the inspection has been completed for all the
[0056]
Next, a specific example of the inspection operation in the second embodiment will be described in detail with reference to FIG.
First, under the control of the movement control unit 59, the moving means 3 moves the photographing means 2 from the position of the
[0057]
The posture detection unit 56 calculates the posture information including the position and the inclination in the
[0058]
When the inspection using the image photographed in the first photographing
[0059]
When the examination using the image photographed in the second photographing
[0060]
As described above, according to the second embodiment, the
[0061]
(Third embodiment)
FIG. 13 is a flowchart for explaining the inspection operation of the third embodiment of the visual inspection apparatus according to the present invention.
[0062]
In the third embodiment, in the imaging after the second imaging
[0063]
In the third embodiment, after performing the alignment process of the image captured in the
[0064]
If the alignment is unsuccessful, the posture detection unit 56 determines the
[0065]
Next, a specific example of the inspection operation in the third embodiment will be described in detail with reference to FIG.
In this example, it is assumed that the alignment fails in the second imaging
[0066]
First, under the control of the movement control unit 59, the moving means 3 moves the photographing means 2 from the position of the
[0067]
The posture detection unit 56 calculates posture information including the position and inclination in the
[0068]
When the inspection using the image photographed in the first photographing
[0069]
When the posture detection unit 56 recognizes the alignment failure, the posture detection unit 56 reads the stored posture information calculated from the first imaging
[0070]
As described above, according to the third embodiment, when the alignment fails in a
[0071]
(Fourth embodiment)
FIG. 14 is a flowchart for explaining the inspection operation of the fourth embodiment of the appearance inspection apparatus according to the present invention.
[0072]
In the fourth embodiment, in the imaging after the second imaging
[0073]
In the fourth embodiment, after the alignment process (S13) by the attitude detection unit 56 ends, the attitude information calculated by the alignment process by the attitude detection unit 56 is saved (S41), and the movement control unit The movement control unit 59 determines the shooting position of the (m + 1) -th shooting field of
[0074]
Next, the inspection unit 58 confirms whether or not the inspection has been completed for all the
[0075]
Next, the posture detection unit 56 reads the stored posture information calculated in the first shooting field 81 (S42), and uses the read posture information calculated in the
[0076]
Next, a specific example of the inspection operation in the fourth embodiment will be described in detail with reference to FIG.
FIG. 15 is an explanatory diagram for explaining the inspection operation when only the characteristic field of view corresponding to the first field of view is stored in the feature region storage unit illustrated in FIG. 1.
[0077]
In this example, as shown in FIG. 15, the
[0078]
First, under the control of the movement control unit 59, the moving means 3 moves the photographing means 2 from the position of the
[0079]
The posture detection unit 56 calculates the posture information including the position and inclination in the
[0080]
When the inspection using the image photographed in the first photographing
[0081]
As described above, according to the fourth embodiment, the posture information of the
[0082]
Furthermore, according to the fourth embodiment, the inspection operation of the fourth embodiment is also applied to the
[0083]
In the fourth embodiment, the reference photographing field of the
[0084]
Further, in the fourth embodiment, the posture information of the
[0085]
(Fifth embodiment)
FIG. 16 is a flowchart for explaining the inspection operation of the fifth embodiment of the appearance inspection apparatus according to the present invention.
[0086]
In the fifth embodiment, the
[0087]
First, before performing the inspection, the photographing position for photographing in each photographing
[0088]
Next, the inspection unit 58 confirms whether or not the inspection has been completed for all the
[0089]
Next, a specific example of the inspection operation in the fifth embodiment will be described in detail with reference to FIGS.
FIG. 17 is an explanatory diagram for explaining the inspection operation of the fifth embodiment of the appearance inspection apparatus according to the present invention, and FIG. 18 shows the fifth embodiment of the appearance inspection apparatus according to the present invention. FIG. 19 is an explanatory diagram illustrating an inspection path in an inspection operation, and FIG. 19 is an explanatory diagram illustrating an inspection region in each photographing field of view in the fifth embodiment of the appearance inspection apparatus according to the present invention. It is explanatory drawing for demonstrating the calculation method of the imaging | photography visual field number in 5th Embodiment of the external appearance inspection apparatus which concerns on this invention.
[0090]
In this example, as shown in FIG. 17, the
[0091]
In the fifth embodiment, first, the
[0092]
In the fifth embodiment, the inspection is performed in order from the visual field at the right end of the
[0093]
In the fifth embodiment, it is also possible to divide the field of
[0094]
When images are taken in order from the right side of the
[0095]
In the fifth embodiment, a shooting position is determined in advance from the length of the
[0096]
Referring to FIG. 19, the field of view Nra in the fifth embodiment can be expressed by the number of fields of view Nra = Lc / (Lr− (Lp−Lc)) (rounded up). Further, when the inspection is performed with the imaging field of
[0097]
As described above, according to the fifth embodiment, since the photographing position is calculated in advance from the size of the
[0098]
Furthermore, according to the fifth embodiment, since inspection can be performed in an arbitrary field of view and in any order, when inspecting a plurality of inspection objects 1, it is compared with the inspection according to the first embodiment. Thus, the distance for moving the photographing
[0099]
(Sixth embodiment)
In the sixth embodiment, any one of the inspection operations of the first to fifth embodiments can be selected.
[0100]
Comparing the first to fourth embodiments with the fifth embodiment, the number of fields of view in the first to fourth embodiments is often smaller. When the number of fields of view is small, the time required for shooting is shortened. However, when the number of field of view of imaging in the first to fourth embodiments is the same as that of the fifth embodiment, the imaging means 2 is inspected during the inspection in the fifth embodiment. Therefore, it is not necessary to determine the shooting position, and the time required for the inspection is shortened. Therefore, when the number of field of view in the first to fourth embodiments is smaller, the first embodiment to the fourth embodiment are selected and the first embodiment is selected. In the case where the number of fields of view in the fourth to fourth embodiments is the same as that in the fifth embodiment, it is conceivable to select the fifth embodiment. In this case, the imaging field number Nrf of the first to fourth embodiments is calculated by the lateral length Lp of the
[0101]
When the processing times of the first to fourth embodiments are compared, the processing times of the first to third embodiments are the same, but the fourth embodiment is the same. Then, since the alignment process is performed only in the first field of
[0102]
In the first embodiment, the imaging position after the second imaging
[0103]
Thus, in the first embodiment to the fourth embodiment, there is no significant difference in processing time, so the number of fields of view in the first embodiment to the fourth embodiment is larger. Is less than that of the fifth embodiment, it may be configured so that the operator can select one of the first to fourth embodiments as necessary. For example, it is conceivable that the fourth embodiment is selected when importance is attached to high-speed processing, and the second embodiment or the third embodiment is selected when importance is placed on inspection accuracy. .
[0104]
As described above, according to the sixth embodiment, it is possible to select an inspection operation from a plurality of inspection methods based on processing time, inspection accuracy, and the like. Therefore, it is possible to employ the most appropriate inspection operation.
[0105]
(Seventh embodiment)
In the seventh embodiment, an image obtained by photographing a plurality of inspection objects 1 is synthesized for each field of view with respect to the
[0106]
When the seventh embodiment is applied to the first embodiment, first, the first imaging
[0107]
Next, when the seventh embodiment is applied to the fifth embodiment, first, each
[0108]
As described above, according to the seventh embodiment, the
[0109]
(Eighth embodiment)
FIG. 21 is a flowchart for explaining the inspection operation of the eighth embodiment of the visual inspection apparatus according to the present invention.
[0110]
In the eighth embodiment, in the first to fourth embodiments, when the alignment in the first imaging
[0111]
In the eighth embodiment, after the alignment process of the image captured in the
[0112]
As described above, according to the eighth embodiment, even when the alignment in the
[0113]
It should be noted that the present invention is not limited to the above-described embodiments, and it is obvious that each embodiment can be appropriately changed within the scope of the technical idea of the present invention. In addition, the number, position, shape, and the like of the constituent members are not limited to the above-described embodiment, and can be set to a suitable number, position, shape, and the like in practicing the present invention. In each figure, the same numerals are given to the same component.
[0114]
【The invention's effect】
The appearance inspection apparatus and the appearance inspection method according to the present invention provide posture information of an inspection object from an image photographed in a first photographing field of view when an inspection object accommodated in a tray pocket is divided and photographed in a plurality of photographing fields of view. And the imaging position after the second imaging visual field is determined based on the calculated posture information, so that each imaging visual field can be obtained without mechanical positioning of the inspection object stored in the pocket of the tray. Can be inspected with high accuracy, and the number of fields of view can be minimized when the object to be inspected stored in the tray pocket is divided into multiple fields of view. There is an effect that the alignment time in the field of view can be shortened.
[0115]
Furthermore, since the visual inspection apparatus and visual inspection method of the present invention can always photograph each region of the inspection object determined in each photographing visual field in each photographing visual field after the second photographing visual field. When setting the search area for the characteristic area, it is not necessary to set a wide search area after the second field of view, and the search time can be shortened.
[0116]
Further, the appearance inspection apparatus and the appearance inspection method of the present invention are configured to calculate the shooting position of the next shooting field of view from the alignment result of the image shot in the immediately preceding shooting field of view, so that the shooting position of the next shooting field of view is calculated. Errors can be reduced.
[0117]
Furthermore, the appearance inspection apparatus and the appearance inspection method of the present invention provide the posture information in the photographing field that has already been successfully aligned when the alignment fails in a certain field of view and the posture information of the inspection object cannot be obtained. By performing the inspection in the imaging visual field based on the above, there is an effect that the inspection can be continued even when posture information cannot be obtained in a certain visual field.
[0118]
Further, the appearance inspection apparatus and the appearance inspection method of the present invention are configured so that the posture information of the inspection object calculated in the first photographing visual field is used as posture information after the photographing visual field, thereby setting the characteristic region. It is possible to perform imaging and inspection even on an inspection object that is known to have a field of view in which a characteristic region cannot be set because there are multiple or similar regions. Play.
[0119]
Furthermore, the appearance inspection apparatus and the appearance inspection method of the present invention may eliminate the need for the alignment process after the second imaging field of view on the inspection object having the characteristic region that can be aligned in each field of view. And the processing time can be shortened.
[0120]
Furthermore, the appearance inspection apparatus and the appearance inspection method of the present invention may eliminate the need for the imaging position calculation process after the second imaging field of view by calculating the imaging position in advance from the size of the tray pocket and the size of the inspection object. And the processing time can be shortened.
[0121]
Furthermore, since the appearance inspection apparatus and the appearance inspection method of the present invention can perform inspections in any field of view and in any order, when inspecting a plurality of inspection objects, the distance for moving the imaging means should be shortened. And the processing time can be shortened.
[0122]
Furthermore, the appearance inspection apparatus and the appearance inspection method of the present invention are configured so that the inspection operation can be selected from a plurality of inspection methods based on the processing time, inspection accuracy, etc. There is an effect that an appropriate inspection operation can be adopted.
[0123]
Furthermore, the appearance inspection apparatus and the appearance inspection method of the present invention are configured to perform alignment processing using the captured images and collect the images while correcting the deviation, so that the inspection object is placed in the tray pocket. In the housed state, it is possible to collect temporary images that serve as inspection standards, and it is possible to efficiently generate images that serve as inspection standards.
[0124]
Furthermore, the appearance inspection apparatus and the appearance inspection method of the present invention can perform the inspection again even when the alignment information fails in the first imaging visual field and the posture information of the inspection object cannot be obtained. There is an effect that inspection efficiency can be improved.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a first embodiment of an appearance inspection apparatus according to the present invention.
2 is a perspective view showing a shape of a tray in which the inspection object shown in FIG. 1 is stored. FIG.
FIG. 3 is an explanatory diagram for explaining a correspondence relationship between a field of view taken by an imaging unit shown in FIG. 1, a pocket, and an inspection object;
4 is an explanatory diagram illustrating an example of a feature area stored in a feature area storage unit illustrated in FIG. 1;
FIG. 5 is an explanatory diagram for describing a range of a first field of view photographed by the photographing unit illustrated in FIG. 1;
6 is an explanatory diagram for explaining a range in which a feature area is set by a feature area setting unit shown in FIG. 1; FIG.
7 is an explanatory diagram for explaining a method of calculating the number of fields of view taken by a feature region setting unit shown in FIG. 1;
FIG. 8 is a flowchart for explaining an inspection operation of the first embodiment of the appearance inspection apparatus according to the present invention;
FIG. 9 is an explanatory diagram for explaining a specific inspection operation of the first embodiment of the appearance inspection apparatus according to the present invention.
FIG. 10 is an explanatory diagram illustrating an example of movement of a photographing field when a photographing field is set in advance.
FIG. 11 is an explanatory diagram showing an example of moving the imaging field of view of the first embodiment of the appearance inspection apparatus according to the present invention.
FIG. 12 is a flowchart for explaining an inspection operation of the second embodiment of the appearance inspection apparatus according to the present invention.
FIG. 13 is a flowchart for explaining an inspection operation of the third embodiment of the appearance inspection apparatus according to the present invention;
FIG. 14 is a flowchart for explaining an inspection operation of the fourth embodiment of the visual inspection apparatus according to the present invention.
15 is an explanatory diagram for explaining an inspection operation in a case where only a characteristic field corresponding to the first imaging field is stored in the feature region storage unit illustrated in FIG. 1;
FIG. 16 is a flowchart for explaining an inspection operation of the fifth embodiment of the appearance inspection apparatus according to the present invention;
FIG. 17 is an explanatory diagram for explaining the inspection operation of the fifth embodiment of the visual inspection apparatus according to the present invention;
FIG. 18 is an explanatory diagram for explaining an inspection path in the inspection operation of the fifth embodiment of the appearance inspection apparatus according to the present invention;
FIG. 19 is an explanatory diagram showing inspection areas in each field of view in the fifth embodiment of the appearance inspection apparatus according to the present invention.
FIG. 20 is an explanatory diagram for explaining a method of calculating the number of fields of view in the fifth embodiment of the appearance inspection apparatus according to the present invention.
FIG. 21 is a flowchart for explaining an inspection operation of the eighth embodiment of the visual inspection apparatus according to the present invention;
[Explanation of symbols]
1 Inspection object
2 Shooting means
3 means of transportation
4 lighting means
5 Image processing device
51 Image capture unit
52 Input section
53 Feature Area Setting Unit
54 Display
55 Feature area storage
56 Attitude detection unit
57 Image processing unit
58 Inspection Department
59 Movement control unit
7 trays
71 pockets
8 Field of view
81 First field of view
82 Second field of view
83 3rd field of view
84 Fourth field of view
9, 91, 92, 93, 94, 95, 96 Feature area
100 circuit pattern
101 Mark for alignment
102 Bump
103 Corner
Claims (27)
前記撮影視野で前記検査対象物を撮影する撮影手段と、
前記撮影視野を移動させる移動手段と、
前記検査対象物の特徴領域を記憶している特徴領域記憶手段と、
前記撮影手段によって前記撮影視野で撮影された画像から前記検査対象物の前記特徴領域を検索し、当該検索によって得られた情報を参照して前記検査対象物の姿勢情報を算出する姿勢検出手段と、
前記姿勢情報に基づいて前記移動手段による前記撮影視野の撮影位置を決定し、前記移動手段を制御する移動制御手段とを具備することを特徴とする外観検査装置。An appearance inspection apparatus that divides and images an inspection object stored in a pocket of a tray into a plurality of imaging fields of view, and performs an appearance inspection of the inspection object by an image obtained by the imaging,
Photographing means for photographing the inspection object in the photographing field;
Moving means for moving the imaging field;
Feature region storage means for storing the feature region of the inspection object;
Posture detection means for searching for the characteristic region of the inspection object from an image taken by the imaging means in the field of view and calculating posture information of the inspection object with reference to information obtained by the search; ,
An appearance inspection apparatus comprising: a movement control unit that determines a shooting position of the shooting field of view by the moving unit based on the posture information and controls the moving unit.
前記移動制御手段は、前記第1撮影視野における撮影で算出された前記姿勢情報に基づいて前記第1撮影視野に続く第2撮影視野以降の撮影位置を決定し、前記移動手段を制御することを特徴とする請求項1記載の外観検査装置。The posture detection means searches for the feature region of the inspection object from an image captured in a predetermined first field of view, and refers to information obtained by the search to determine the posture of the inspection object. Calculate information,
The movement control unit determines a shooting position after the second shooting field of view following the first shooting field of view based on the posture information calculated by shooting in the first shooting field of view, and controls the moving unit. The appearance inspection apparatus according to claim 1, characterized in that:
該画像処理手段によって抽出され傾きを補正された前記検査領域を検査する検査手段とを具備することを特徴とする請求項1又は2記載の外観検査装置。Image processing means for extracting an inspection region from an image photographed in the field of view based on the posture information and correcting the inclination of the extracted inspection region;
3. An appearance inspection apparatus according to claim 1, further comprising inspection means for inspecting the inspection area extracted by the image processing means and corrected for inclination.
前記画像処理手段は、前記第1撮影視野における撮影で算出された前記姿勢情報に基づいて前記第1撮影視野に続く第2撮影視野以降で撮影された画像から前記検査領域を抽出し、抽出した前記検査領域の傾きを補正することを特徴とする請求項3記載の外観検査装置。The posture detection means searches for the feature region of the inspection object from an image captured in a predetermined first field of view, and refers to information obtained by the search to determine the posture of the inspection object. Calculate information,
The image processing means extracts and extracts the inspection region from an image photographed after the second photographing visual field following the first photographing visual field based on the posture information calculated by photographing in the first photographing visual field. The appearance inspection apparatus according to claim 3, wherein an inclination of the inspection area is corrected.
前記撮影視野で前記検査対象物を撮影する撮影手段と、
前記撮影視野を移動させる移動手段と、
前記検査対象物の特徴領域を記憶している特徴領域記憶手段と、
前記撮影手段によって予め定められた基準撮影視野で撮影された画像から前記検査対象物の前記特徴領域を検索し、当該検索によって得られた情報を参照して前記検査対象物の基準姿勢情報を算出する姿勢検出手段と、
該姿勢検出手段によって算出された前記基準姿勢情報に基づいて前記移動手段による前記基準撮影視野を除く前記複数の撮影視野の撮影位置をそれぞれ決定し、前記移動手段を制御する移動制御手段とを具備することを特徴とする外観検査装置。An appearance inspection apparatus that divides and images an inspection object stored in a pocket of a tray into a plurality of imaging fields of view, and performs an appearance inspection of the inspection object by an image obtained by the imaging,
Photographing means for photographing the inspection object in the photographing field;
Moving means for moving the imaging field;
Feature region storage means for storing the feature region of the inspection object;
The feature area of the inspection object is searched from an image taken in a predetermined reference field of view by the imaging means, and the reference posture information of the inspection object is calculated with reference to information obtained by the search Posture detecting means for performing,
Movement control means for determining the photographing positions of the plurality of photographing fields of view excluding the reference photographing field of view by the moving means based on the reference posture information calculated by the posture detecting means, and for controlling the moving means. An appearance inspection apparatus characterized by:
該画像処理手段によって抽出され傾きを補正されたそれぞれの前記検査領域を検査する検査手段とを具備することを特徴とする請求項10記載の外観検査装置。Image processing means for extracting an inspection area from each of the images captured in the plurality of fields of view based on the reference posture information, and correcting the inclination of the extracted inspection area;
11. The appearance inspection apparatus according to claim 10, further comprising inspection means for inspecting each of the inspection regions extracted by the image processing means and corrected in inclination.
前記撮影視野で前記検査対象物を撮影する撮影手段と、
前記撮影視野を移動させる移動手段と、
前記検査対象物の特徴領域を記憶している特徴領域記憶手段と、
前記撮影手段によって前記撮影視野で撮影された画像から前記検査対象物の前記特徴領域を検索し、当該検索によって得られた情報を参照して前記検査対象物の姿勢情報を算出する姿勢検出手段と、
該姿勢検出手段によって算出された前記姿勢情報に基づいて前記移動手段による前記撮影視野の撮影位置を決定し、前記移動手段を制御する移動制御手段と、前記ポケットのサイズと前記検査対象物のサイズと前記撮影視野のサイズとから複数の前記撮影視野の撮影位置を決定する撮影位置決定手段と、
前記検査対象物の全体を撮影するために必要な前記姿勢情報に基づいて決定される撮影視野数と前記撮影位置決定手段によって決定される撮影視野数とを前記ポケットのサイズと前記検査対象物のサイズと前記撮影視野のサイズとから算出する視野数算出手段と、
該視野数算出手段によって算出された前記姿勢情報に基づいて決定される撮影視野数と前記撮影位置決定手段によって決定される撮影視野数とを比較する視野数比較手段と、
前記姿勢情報に基づいて決定される撮影視野数が前記撮影位置決定手段によって決定される撮影視野数よりも少ない場合には、前記姿勢情報に基づいた撮影位置での検査を選択し、前記姿勢情報に基づいて決定される撮影視野数と前記撮影位置決定手段によって決定される撮影視野数とが同一である場合には、前記撮影位置決定手段によって決定される撮影位置での検査を選択する選択手段とを具備することを特徴とする外観検査装置。An appearance inspection apparatus that divides and images an inspection object stored in a pocket of a tray into a plurality of imaging fields of view, and performs an appearance inspection of the inspection object by an image obtained by the imaging,
Photographing means for photographing the inspection object in the photographing field;
Moving means for moving the imaging field;
Feature region storage means for storing the feature region of the inspection object;
Posture detection means for searching for the characteristic region of the inspection object from an image taken by the imaging means in the field of view and calculating posture information of the inspection object with reference to information obtained by the search; ,
Based on the posture information calculated by the posture detection unit, a shooting position of the shooting field of view by the moving unit is determined, a movement control unit that controls the moving unit, a size of the pocket, and a size of the inspection object And a photographing position determining means for determining a plurality of photographing visual field photographing positions from the photographing visual field size,
The number of fields of view determined based on the posture information necessary for capturing the entire inspection object and the number of fields of view determined by the shooting position determination means are determined based on the size of the pocket and the inspection object. Visual field number calculating means for calculating from the size and the size of the photographing visual field;
A number-of-views comparison unit that compares the number of fields of view determined based on the posture information calculated by the number-of-views calculation unit and the number of fields of view determined by the shooting position determination unit;
If the number of field of view determined based on the posture information is less than the number of fields of view determined by the shooting position determination means, an inspection at the shooting position based on the posture information is selected, and the posture information Selection means for selecting an inspection at the photographing position determined by the photographing position determining means when the number of photographing visual fields determined based on the photographing position and the photographing visual field number determined by the photographing position determining means are the same And an appearance inspection apparatus.
前記撮影視野で前記検査対象物を撮影し、
前記検査対象物の特徴領域を記憶しておき、
前記撮影視野で撮影した画像から前記検査対象物の前記特徴領域を検索し、
該検索によって得られた情報を参照して前記検査対象物の姿勢情報を算出し、
該算出した前記姿勢情報に基づいて前記撮影視野の撮影位置を決定し、
該決定した撮影位置に前記撮影視野を移動させることを特徴とする外観検査方法。An appearance inspection method for photographing an inspection object stored in a pocket of a tray by dividing it into a plurality of photographing fields, and performing an appearance inspection of the inspection object by an image obtained by the photographing,
Photographing the inspection object in the photographing field of view,
Storing the characteristic area of the inspection object;
Search the characteristic area of the inspection object from an image taken in the field of view,
Calculate the posture information of the inspection object with reference to the information obtained by the search,
Determining a shooting position of the shooting field of view based on the calculated posture information;
An appearance inspection method characterized by moving the imaging field of view to the determined imaging position.
該検索によって得られた情報を参照して前記検査対象物の前記姿勢情報を算出し、
前記第1撮影視野において算出した前記姿勢情報に基づいて前記第1撮影視野に続く第2撮影視野以降の撮影位置を決定することを特徴とする請求項14記載の外観検査方法。Search the characteristic area of the inspection object from an image photographed in a predetermined first field of view,
Calculate the posture information of the inspection object with reference to the information obtained by the search,
Appearance inspection method according to claim 1 4, wherein determining the imaging position of the subsequent second field of view that follows the first field of view on the basis of the posture information calculated in the first field of view.
該抽出して傾きを補正した前記検査領域を検査することを特徴とする請求項14又は15記載の外観検査方法。Extracting the inspection area from the image captured in the field of view based on the posture information and correcting the extracted inclination of the inspection area,
Claims 1 to 4 or 1 5 appearance inspection method, wherein the inspecting said inspection area obtained by correcting the inclination the extracted.
該検索によって得られた情報を参照して前記検査対象物の前記姿勢情報を算出し、
前記第1撮影視野において算出した前記姿勢情報に基づいて前記第1撮影視野に続く第2撮影視野以降に撮影した画像から前記検査領域を抽出すると共に抽出した前記検査領域の傾きを補正することを特徴とする請求項16記載の外観検査方法。Search the characteristic area of the inspection object from an image photographed in a predetermined first field of view,
Calculate the posture information of the inspection object with reference to the information obtained by the search,
Extracting the inspection area from an image photographed after the second photographing visual field following the first photographing visual field and correcting the inclination of the extracted inspection area based on the posture information calculated in the first photographing visual field. The appearance inspection method according to claim 16, wherein
前記予備撮影視野で撮影した画像から前記姿勢情報を算出し、
前記予備撮影視野で算出した前記姿勢情報から前記第1撮影視野の撮影位置を決定し、
該決定した撮影位置で再度前記第1撮影視野を撮影し、
再度前記第1撮影視野で撮影した画像から前記姿勢情報を算出することを特徴とする請求項14又は15記載の外観検査方法。When the calculation of the posture information fails from an image photographed in a predetermined first photographing visual field, the inspection object is photographed in a preliminary photographing visual field different from the predetermined first photographing visual field,
Calculating the posture information from an image taken in the preliminary photographing field of view,
Determining the shooting position of the first shooting field of view from the posture information calculated in the preliminary shooting field of view;
Shoot the first field of view again at the determined shooting position,
Claims 1 to 4 or 1 5 appearance inspection method, wherein the calculating the orientation information from the photographed image again the first field of view.
前記撮影視野で前記検査対象物を撮影し、
前記検査対象物の特徴領域を記憶しておき、
予め定められた基準撮影視野で撮影した画像から前記検査対象物の前記特徴領域を検索し、
該検索によって得られた情報を参照して前記検査対象物の基準姿勢情報を算出し、
該算出した前記基準姿勢情報に基づいて前記基準撮影視野を除く前記複数の撮影視野の撮影位置をそれぞれ決定し、
該決定したそれぞれの撮影位置に前記撮影視野を移動させることを特徴とする外観検査方法。An appearance inspection method for photographing an inspection object stored in a pocket of a tray by dividing it into a plurality of photographing fields, and performing an appearance inspection of the inspection object by an image obtained by the photographing,
Photographing the inspection object in the photographing field of view,
Storing the characteristic area of the inspection object;
Search the characteristic area of the inspection object from an image photographed in a predetermined reference photographing field of view,
Calculate the reference posture information of the inspection object with reference to the information obtained by the search,
Determining the shooting positions of the plurality of shooting fields of view excluding the reference shooting field of view based on the calculated reference posture information,
An appearance inspection method, wherein the photographing field of view is moved to each determined photographing position.
該抽出して傾きを補正したそれぞれの前記検査領域を検査することを特徴とする請求項23記載の外観検査方法。Extracting the inspection area from each image captured in the plurality of fields of view based on the reference posture information, respectively, and correcting the extracted inclination of the inspection area,
Appearance inspection method according to claim 2 3, wherein the inspecting each of the inspection area obtained by correcting the inclination the extracted.
前記撮影視野で前記検査対象物を撮影する工程と、
前記撮影視野を移動させる工程と、
前記検査対象物の特徴領域を記憶しておき、
前記撮影視野で撮影された画像から前記検査対象物の前記特徴領域を検索し、該検索によって得られた情報を参照して前記検査対象物の姿勢情報を算出する工程と、
該算出した前記姿勢情報に基づいて前記撮影視野の撮影位置を決定する工程と、
前記ポケットのサイズと前記検査対象物のサイズと前記撮影視野のサイズとからなるサイズ情報に基づいて複数の前記撮影視野の撮影位置を決定し、前記撮影視野の移動を制御する工程と、
前記検査対象物の全体を撮影するために必要な前記姿勢情報に基づいて決定した撮影視野数と前記サイズ情報に基づいて決定した撮影視野数とを前記ポケットのサイズと前記検査対象物のサイズと前記撮影視野のサイズとから算出する工程と、
該算出した前記姿勢情報に基づいて決定した撮影視野数と前記サイズ情報に基づいて決定した撮影視野数とを比較する工程と、
前記姿勢情報に基づいて決定した撮影視野数が前記サイズ情報に基づいて決定した撮影視野数よりも少ない場合には、前記姿勢情報に基づいた撮影位置での検査を選択し、前記姿勢情報に基づいて決定した撮影視野数と前記サイズ情報に基づいて決定した撮影視野数とが同一である場合には、前記サイズ情報に基づいて決定した撮影視野での検査を選択する工程とを有することを特徴とする外観検査方法。An appearance inspection method for photographing an inspection object stored in a pocket of a tray by dividing it into a plurality of photographing fields, and performing an appearance inspection of the inspection object by an image obtained by the photographing,
Imaging the inspection object in the imaging field;
Moving the imaging field of view;
Storing the characteristic area of the inspection object;
Searching the characteristic region of the inspection object from an image captured in the imaging field of view, and calculating posture information of the inspection object with reference to information obtained by the search;
Determining a shooting position of the shooting field of view based on the calculated posture information;
Determining a shooting position of the plurality of shooting fields based on size information consisting of the size of the pocket, the size of the inspection object, and the size of the shooting field, and controlling the movement of the shooting field;
The number of fields of view determined based on the posture information necessary for capturing the entire inspection object and the number of fields of view determined based on the size information are the size of the pocket and the size of the object to be inspected. Calculating from the size of the field of view,
Comparing the number of field of view determined based on the calculated orientation information and the number of fields of view determined based on the size information;
When the number of field of view determined based on the posture information is less than the number of fields of view determined based on the size information, an inspection at the shooting position based on the posture information is selected, and based on the posture information The number of fields of view determined based on the size information is the same as the number of fields of view determined based on the size information. Appearance inspection method.
前記撮影視野で前記検査対象物を撮影する工程と、
前記検査対象物の特徴領域を記憶しておき、
前記撮影視野で撮影し画像から前記検査対象物の前記特徴領域を検索し、該検索によって得られた情報を参照して前記検査対象物の姿勢情報を算出する工程と、
該算出した前記姿勢情報に基づいて前記撮影視野の撮影位置を決定する工程と、
該決定した撮影位置に前記撮影視野を移動させる工程とを有する外観検査方法をコンピュータに実行させるためのプログラム。A program for causing a computer to execute an appearance inspection method in which an inspection object stored in a pocket of a tray is divided and photographed into a plurality of photographing fields, and an appearance inspection of the inspection object is performed based on an image obtained by the photographing. There,
Imaging the inspection object in the imaging field;
Storing the characteristic area of the inspection object;
A step of retrieving the feature region of the inspection object from an image captured in the imaging field of view, referring to information obtained by the search, and calculating posture information of the inspection object;
Determining a shooting position of the shooting field of view based on the calculated posture information;
A program for causing a computer to execute an appearance inspection method including the step of moving the imaging field of view to the determined imaging position.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002254679A JP4258189B2 (en) | 2002-08-30 | 2002-08-30 | Appearance inspection apparatus and appearance inspection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002254679A JP4258189B2 (en) | 2002-08-30 | 2002-08-30 | Appearance inspection apparatus and appearance inspection method |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008310693A Division JP4798210B2 (en) | 2008-12-05 | 2008-12-05 | Appearance inspection apparatus and appearance inspection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004093339A JP2004093339A (en) | 2004-03-25 |
JP4258189B2 true JP4258189B2 (en) | 2009-04-30 |
Family
ID=32060391
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002254679A Expired - Fee Related JP4258189B2 (en) | 2002-08-30 | 2002-08-30 | Appearance inspection apparatus and appearance inspection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4258189B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4954738B2 (en) * | 2007-02-02 | 2012-06-20 | 東京エレクトロン株式会社 | Electrode pad position detection method and electrode pad position detection apparatus |
JP4984332B2 (en) * | 2008-06-05 | 2012-07-25 | 株式会社高岳製作所 | IC package board inspection equipment |
JP5153488B2 (en) * | 2008-07-09 | 2013-02-27 | 富士機械製造株式会社 | Component image capturing device and component image capturing method |
KR101251372B1 (en) | 2008-10-13 | 2013-04-05 | 주식회사 고영테크놀러지 | Three dimension shape measuring method |
-
2002
- 2002-08-30 JP JP2002254679A patent/JP4258189B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2004093339A (en) | 2004-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7693348B2 (en) | Method of registering and aligning multiple images | |
KR100785594B1 (en) | Image process apparatus | |
JP5096303B2 (en) | Imaging device | |
JP5096302B2 (en) | Imaging device | |
CN102834845A (en) | Method and arrangement for multi-camera calibration | |
JPWO2014002849A1 (en) | Three-dimensional measurement method, apparatus and system, and image processing apparatus | |
CN109804730B (en) | Substrate inspection apparatus and substrate distortion compensation method using the same | |
US10986761B2 (en) | Board inspecting apparatus and board inspecting method using the same | |
JP4258189B2 (en) | Appearance inspection apparatus and appearance inspection method | |
JP4798210B2 (en) | Appearance inspection apparatus and appearance inspection method | |
JP6869880B2 (en) | Inspection image compositing device, inspection image compositing system, inspection image compositing method and program | |
JP5209099B2 (en) | Imaging device | |
KR20190108805A (en) | Vision inspection apparatus and method to inspect defect of target object | |
JP5615252B2 (en) | Appearance inspection device | |
JP4428112B2 (en) | Appearance inspection method and appearance inspection apparatus | |
JP2011259504A (en) | Imaging apparatus | |
JP4776983B2 (en) | Image composition apparatus and image composition method | |
JP4530723B2 (en) | PATTERN MATCHING METHOD, PATTERN MATCHING DEVICE, AND ELECTRONIC COMPONENT MOUNTING METHOD | |
JP5209138B2 (en) | Imaging device | |
WO2018146887A1 (en) | External-appearance examination device | |
JP2006003276A (en) | Three dimensional geometry measurement system | |
JP2019186275A (en) | Inspection equipment and inspection method | |
JP5209097B2 (en) | Imaging device | |
JP2000348175A (en) | Method and device for corresponding point detection | |
JP5438852B2 (en) | microscope |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050720 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081007 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090113 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090126 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120220 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4258189 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120220 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130220 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130220 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140220 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |