[go: up one dir, main page]

JP4258189B2 - Appearance inspection apparatus and appearance inspection method - Google Patents

Appearance inspection apparatus and appearance inspection method Download PDF

Info

Publication number
JP4258189B2
JP4258189B2 JP2002254679A JP2002254679A JP4258189B2 JP 4258189 B2 JP4258189 B2 JP 4258189B2 JP 2002254679 A JP2002254679 A JP 2002254679A JP 2002254679 A JP2002254679 A JP 2002254679A JP 4258189 B2 JP4258189 B2 JP 4258189B2
Authority
JP
Japan
Prior art keywords
field
view
inspection
photographing
inspection object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002254679A
Other languages
Japanese (ja)
Other versions
JP2004093339A (en
Inventor
義則 植野
政彦 長尾
伸一 若竹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2002254679A priority Critical patent/JP4258189B2/en
Publication of JP2004093339A publication Critical patent/JP2004093339A/en
Application granted granted Critical
Publication of JP4258189B2 publication Critical patent/JP4258189B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Testing Or Measuring Of Semiconductors Or The Like (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、検査対象物の外観検査を行う外観検査装置および外観検査方法に関し、特にトレイのポケット内に収納された検査対象物を複数の視野に分割して撮影して外観検査を行う外観検査装置および外観検査方法に関する。
【0002】
【従来の技術】
従来、トレイのポケット内に収納されたICチップをカメラ等によって撮影し、撮影された画像を画像処理部に入力してチップが良品であるか不良品であるかを判断するICチップの外観検査装置が存在する(例えば、特許文献1参照。)。
【0003】
この種のICチップの外観検査装置は、トレイのポケット内に収納されたICチップ全面を1つの撮影視野で撮影するもので、ICチップのサイズが大きいほど画像の分解能が粗くなってしまい、微少な欠陥を検出しづらくなるという欠点があった。
【0004】
そこで、トレイのポケット内に収納されたICチップの位置決め固定を行い、位置決めをしたICチップの表面全体に環状照明にて照明し、その上方より顕微鏡カメラにより撮影しながらXYθテーブルを駆動し、同一ICチップを複数の撮影視野で撮影して検査を行う外観検査装置が提案されている(例えば、特許文献2参照。)。
【0005】
【特許文献1】
特開平5−152406号公報
【特許文献2】
特開平8−145895号公報
【0006】
【発明が解決しようとする課題】
しかしながら、従来技術では、トレイに収納されたICチップを複数の撮影視野で撮影する際のICチップの位置ずれを防止するために、複雑な機構のICチップの位置決め固定手段が必要になると共に、機械的にICチップの位置決めが行われているため、各撮影視野で撮影された画像を高精度に検査することができないという問題点があった。
【0007】
本発明は斯かる問題点を鑑みてなされたものであり、その目的とするところは、トレイのポケットに収納された検査対象物を複数の撮影視野で分割撮影する際に、トレイのポケットに収納された検査対象物の機械的な位置決めをすることなく、各撮影視野で撮影された画像を高精度に検査することができる外観検査装置および外観検査方法を提供する点にある。
【0008】
さらに、本発明の目的とするところは、トレイのポケットに収納された検査対象物を複数の撮影視野で分割撮影する際の撮影視野数を最小限にすることができ、各撮影視野での位置合わせ時間を短縮することができる外観検査装置および外観検査方法を提供する点にある。
【0009】
【課題を解決するための手段】
本発明は上記課題を解決すべく、以下に掲げる構成とした。
本発明の外観検査装置は、トレイのポケットに収納された検査対象物を複数の撮影視野に分割して撮影し、当該撮影によって得られる画像によって前記検査対象物の外観検査を行う外観検査装置であって、前記撮影視野で前記検査対象物を撮影する撮影手段と、前記撮影視野を移動させる移動手段と、前記検査対象物の特徴領域を記憶している特徴領域記憶手段と、前記撮影手段によって前記撮影視野で撮影された画像から前記検査対象物の前記特徴領域を検索し、当該検索によって得られた情報を参照して前記検査対象物の姿勢情報を算出する姿勢検出手段と、前記姿勢情報に基づいて前記移動手段による前記撮影視野の撮影位置を決定する移動制御手段とを具備することを特徴とする。
さらに、本発明の外観検査装置は、前記姿勢検出手段は、予め定められた第1撮影視野で撮影された画像から前記検査対象物の前記特徴領域を検索し、当該検索によって得られた情報を参照して前記検査対象物の前記姿勢情報を算出し、前記移動制御手段は、前記第1撮影視野における撮影で算出された前記姿勢情報に基づいて前記第1撮影視野に続く第2撮影視野以降の撮影位置を決定し、前記移動手段を制御することを特徴とする。
さらに、本発明の外観検査装置は、前記姿勢情報に基づいて前記撮影視野で撮影された画像から検査領域を抽出し、抽出した検査領域の傾きを補正する画像処理手段と、該画像処理手段によって抽出され傾きを補正された前記検査領域を検査する検査手段とを具備することを特徴とする。
さらに、本発明の外観検査装置は、前記姿勢検出手段は、予め定められた第1撮影視野で撮影された画像から前記検査対象物の前記特徴領域を検索し、当該検索によって得られた情報を参照して前記検査対象物の前記姿勢情報を算出し、前記画像処理手段は、前記第1撮影視野における撮影で算出された前記姿勢情報に基づいて前記第1撮影視野に続く第2撮影視野以降で撮影された画像から前記検査領域を抽出し、抽出した前記検査領域の傾きを補正することを特徴とする。
さらに、本発明の外観検査装置は、前記移動制御手段は、前記姿勢情報に基づいて当該姿勢情報が算出された前記撮影視野の次に撮影される前記撮影視野の撮影位置を決定させることを特徴とする。
さらに、本発明の外観検査装置は、前記画像処理手段は、前記姿勢情報に基づいて当該姿勢情報が算出された前記撮影視野で撮影された画像から前記検査領域を抽出し、抽出した前記検査領域の傾きを補正することを特徴とする。
さらに、本発明の外観検査装置は、前記移動制御手段は、前記姿勢検出手段が前記撮影視野で撮影された画像から前記姿勢情報の算出に失敗した際には、前記姿勢情報の算出に失敗した前記撮影視野の次に撮影される前記撮影視野の撮影位置を前記姿勢検出手段によって既に算出されている前記姿勢情報に基づいて決定させることを特徴とする。
さらに、本発明の外観検査装置は、前記画像処理手段は、前記姿勢検出手段が前記撮影視野で撮影された画像から前記姿勢情報の算出に失敗した際には、前記姿勢検出手段によって既に算出されている前記姿勢情報に基づいて前記姿勢情報の算出に失敗した前記撮影視野で撮影された画像から前記検査領域を抽出し、抽出した前記検査領域の傾きを補正することを特徴とする。
さらに、本発明の外観検査装置は、前記姿勢検出手段が予め定められた第1撮影視野で撮影された画像から前記姿勢情報の算出に失敗した際には、前記撮影手段によって予め定められた前記第1撮影視野とは異なる予備撮影視野で前記検査対象物を撮影させ、前記姿勢検出手段によって前記予備撮影視野で撮影された画像から前記姿勢情報を算出させ、前記移動制御手段によって前記予備撮影視野で算出された前記姿勢情報から前記第1撮影視野の撮影位置を決定させ、前記姿勢検出手段によって再度前記第1撮影視野で撮影された画像から前記姿勢情報を算出させることを特徴とする。
さらに、本発明の外観検査装置は、トレイのポケットに収納された検査対象物を複数の撮影視野に分割して撮影し、当該撮影によって得られる画像によって前記検査対象物の外観検査を行う外観検査装置であって、前記撮影視野で前記検査対象物を撮影する撮影手段と、前記撮影視野を移動させる移動手段と、前記検査対象物の特徴領域を記憶している特徴領域記憶手段と、前記撮影手段によって予め定められた基準撮影視野で撮影された画像から前記検査対象物の前記特徴領域を検索し、当該検索によって得られた情報を参照して前記検査対象物の基準姿勢情報を算出する姿勢検出手段と、該姿勢検出手段によって算出された前記基準姿勢情報に基づいて前記移動手段による前記基準撮影視野を除く前記複数の撮影視野の撮影位置をそれぞれ決定し、前記移動手段を制御する移動制御手段とを具備することを特徴とする。
さらに、本発明の外観検査装置は、前記基準姿勢情報に基づいて前記複数の撮影視野で撮影されたそれぞれの画像から検査領域をそれぞれ抽出し、抽出した前記検査領域の傾きを補正する画像処理手段と、該画像処理手段によって抽出され傾きを補正されたそれぞれの前記検査領域を検査する検査手段とを具備することを特徴とする
らに、本発明の外観検査装置は、トレイのポケットに収納された検査対象物を複数の撮影視野に分割して撮影し、当該撮影によって得られる画像によって前記検査対象物の外観検査を行う外観検査装置であって、前記撮影視野で前記検査対象物を撮影する撮影手段と、前記撮影視野を移動させる移動手段と、前記検査対象物の特徴領域を記憶している特徴領域記憶手段と、前記撮影手段によって前記撮影視野で撮影された画像から前記検査対象物の前記特徴領域を検索し、当該検索によって得られた情報を参照して前記検査対象物の姿勢情報を算出する姿勢検出手段と、該姿勢検出手段によって算出された前記姿勢情報に基づいて前記移動手段による前記撮影視野の撮影位置を決定し、前記移動手段を制御する移動制御手段と、前記ポケットのサイズと前記検査対象物のサイズと前記撮影視野のサイズとから複数の前記撮影視野の撮影位置を決定する撮影位置決定手段と、前記検査対象物の全体を撮影するために必要な前記姿勢情報に基づいて決定される撮影視野数と前記撮影位置決定手段によって決定される撮影視野数とを前記ポケットのサイズと前記検査対象物のサイズと前記撮影視野のサイズとから算出する視野数算出手段と、該視野数算出手段によって算出された前記姿勢情報に基づいて決定される撮影視野数と前記撮影位置決定手段によって決定される撮影視野数とを比較する視野数比較手段と、前記姿勢情報に基づいて決定される撮影視野数が前記撮影位置決定手段によって決定される撮影視野数よりも少ない場合には、前記姿勢情報に基づいた撮影位置での検査を選択し、前記姿勢情報に基づいて決定される撮影視野数と前記撮影位置決定手段によって決定される撮影視野数とが同一である場合には、前記撮影位置決定手段によって決定される撮影位置での検査を選択する選択手段とを具備することを特徴とする。
さらに、本発明の外観検査装置は、前記検査手段は、前記検査領域を検査する際の基準となる画像として前記撮影視野で撮影された複数の画像を合成したものを使用させることを特徴とする。
本発明の外観検査方法は、トレイのポケットに収納された検査対象物を複数の撮影視野に分割して撮影し、当該撮影によって得られる画像によって前記検査対象物の外観検査を行う外観検査方法であって、前記撮影視野で前記検査対象物を撮影し、前記検査対象物の特徴領域を記憶しておき、前記撮影視野で撮影した画像から前記検査対象物の前記特徴領域を検索し、該検索によって得られた情報を参照して前記検査対象物の姿勢情報を算出し、該算出した前記姿勢情報に基づいて前記撮影視野の撮影位置を決定し、該決定した撮影位置に前記撮影視野を移動させることを特徴とする。
さらに、本発明の外観検査方法は、予め定められた第1撮影視野で撮影された画像から前記検査対象物の前記特徴領域を検索し、該検索によって得られた情報を参照して前記検査対象物の前記姿勢情報を算出し、前記第1撮影視野において算出した前記姿勢情報に基づいて前記第1撮影視野に続く第2撮影視野以降の撮影位置を決定することを特徴とする。
さらに、本発明の外観検査方法は、前記姿勢情報に基づいて前記撮影視野で撮影した画像から検査領域を抽出すると共に抽出した前記検査領域の傾きを補正し、該抽出して傾きを補正した前記検査領域を検査することを特徴とする。
さらに、本発明の外観検査方法は、予め定められた第1撮影視野で撮影した画像から前記検査対象物の前記特徴領域を検索し、該検索によって得られた情報を参照して前記検査対象物の前記姿勢情報を算出し、前記第1撮影視野において算出した前記姿勢情報に基づいて前記第1撮影視野に続く第2撮影視野以降に撮影した画像から前記検査領域を抽出すると共に抽出した前記検査領域の傾きを補正することを特徴とする。
さらに、本発明の外観検査方法は、前記姿勢情報に基づいて当該姿勢情報を算出した前記撮影視野の次に撮影する前記撮影視野の撮影位置を決定することを特徴とする。
さらに、本発明の外観検査方法は、前記姿勢情報に基づいて当該姿勢情報が算出された前記撮影視野で撮影された画像から前記検査領域を抽出すると共に抽出した前記検査領域の傾きを補正することを特徴とする。
さらに、本発明の外観検査方法は、前記撮影視野で撮影した画像から前記姿勢情報の算出に失敗した際には、前記姿勢情報の算出に失敗した前記撮影視野の次に撮影する前記撮影視野の撮影位置を既に算出している前記姿勢情報に基づいて決定することを特徴とする。
さらに、本発明の外観検査方法は、前記撮影視野で撮影した画像から前記姿勢情報の算出に失敗した際には、既に算出されている前記姿勢情報に基づいて前記姿勢情報の算出に失敗した前記撮影視野で撮影された画像から前記検査領域を抽出すると共に抽出した前記検査領域の傾きを補正することを特徴とする。
さらに、本発明の外観検査方法は、予め定められた第1撮影視野で撮影した画像から前記姿勢情報の算出に失敗した際には、予め定められた前記第1撮影視野とは異なる予備撮影視野で前記検査対象物を撮影し、前記予備撮影視野で撮影した画像から前記姿勢情報を算出し、前記予備撮影視野で算出した前記姿勢情報から前記第1撮影視野の撮影位置を決定し、該決定した撮影位置で再度前記第1撮影視野を撮影し、再度前記第1撮影視野で撮影した画像から前記姿勢情報を算出することを特徴とする。
さらに、本発明の外観検査方法は、トレイのポケットに収納された検査対象物を複数の撮影視野に分割して撮影し、当該撮影によって得られる画像によって前記検査対象物の外観検査を行う外観検査方法であって、前記撮影視野で前記検査対象物を撮影し、前記検査対象物の特徴領域を記憶しておき、予め定められた基準撮影視野で撮影した画像から前記検査対象物の前記特徴領域を検索し、該検索によって得られた情報を参照して前記検査対象物の基準姿勢情報を算出し、該算出した前記基準姿勢情報に基づいて前記基準撮影視野を除く前記複数の撮影視野の撮影位置をそれぞれ決定し、該決定したそれぞれの撮影位置に前記撮影視野を移動させることを特徴とする。
さらに、本発明の外観検査方法は、前記基準姿勢情報に基づいて前記複数の撮影視野で撮影されたそれぞれの画像から検査領域をそれぞれ抽出すると共に抽出した前記検査領域の傾きをそれぞれ補正し、該抽出して傾きを補正したそれぞれの前記検査領域を検査することを特徴とする
らに、本発明の外観検査方法は、トレイのポケットに収納された検査対象物を複数の撮影視野に分割して撮影し、当該撮影によって得られる画像によって前記検査対象物の外観検査を行う外観検査方法であって、前記撮影視野で前記検査対象物を撮影する工程と、前記撮影視野を移動させる工程と、前記検査対象物の特徴領域を記憶しておき、前記撮影視野で撮影された画像から前記検査対象物の前記特徴領域を検索し、該検索によって得られた情報を参照して前記検査対象物の姿勢情報を算出する工程と、該算出した前記姿勢情報に基づいて前記撮影視野の撮影位置を決定する工程と、前記ポケットのサイズと前記検査対象物のサイズと前記撮影視野のサイズとからなるサイズ情報に基づいて複数の前記撮影視野の撮影位置を決定し、前記撮影視野の移動を制御する工程と、前記検査対象物の全体を撮影するために必要な前記姿勢情報に基づいて決定した撮影視野数と前記サイズ情報に基づいて決定した撮影視野数とを前記ポケットのサイズと前記検査対象物のサイズと前記撮影視野のサイズとから算出する工程と、該算出した前記姿勢情報に基づいて決定した撮影視野数と前記サイズ情報に基づいて決定した撮影視野数とを比較する工程と、前記姿勢情報に基づいて決定した撮影視野数が前記サイズ情報に基づいて決定した撮影視野数よりも少ない場合には、前記姿勢情報に基づいた撮影位置での検査を選択し、前記姿勢情報に基づいて決定した撮影視野数と前記サイズ情報に基づいて決定した撮影視野数とが同一である場合には、前記サイズ情報に基づいて決定した撮影視野での検査を選択する工程とを有することを特徴とする。
さらに、本発明の外観検査方法は、前記抽出して傾きを補正した前記検査領域を検査する際の基準となる画像として前記撮影視野で撮影した複数の画像を合成したものを使用することを特徴とする。
さらに、本発明の外観検査方法をコンピュータに実行させるためのプログラムは、トレイのポケットに収納された検査対象物を複数の撮影視野に分割して撮影し、当該撮影によって得られる画像によって前記検査対象物の外観検査を行う外観検査方法をコンピュータに実行させるためのプログラムであって、前記撮影視野で前記検査対象物を撮影する工程と、前記検査対象物の特徴領域を記憶しておき、前記撮影視野で撮影し画像から前記検査対象物の前記特徴領域を検索し、該検索によって得られた情報を参照して前記検査対象物の姿勢情報を算出する工程と、該算出した前記姿勢情報に基づいて前記撮影視野の撮影位置を決定する工程と、該決定した撮影位置に前記撮影視野を移動させる工程とを有する。
【0010】
【発明の実施の形態】
以下、本発明の実施の形態を図面に基づいて詳細に説明する。
【0011】
(第1の実施の形態)
図1は、本発明に係る外観検査装置の第1の実施の形態の構成を示すブロック図であり、図2は、図1に示す検査対象物が収納されるトレイの形状を示す斜視図であり、図3は、図1に示す撮影手段による撮影視野とポケットおよび検査対象物との対応関係を説明する説明図であり、図4は、図1に示す特徴領域記憶部に記憶される特徴領域例を示す説明図であり、図5は、図1に示す撮影手段によって撮影される第1撮影視野の範囲を説明するための説明図である。
【0012】
第1の実施の形態は、図1を参照すると、撮影手段2と、撮影手段2を移動させる移動手段3と、検査対象物1に照明を照射する照明手段4と、撮影手段2によって撮影された検査対象物1の画像を取り込むと共に、移動手段3と照明手段4とを制御する画像処理装置5とからなり、図2に示すトレイ7のポケット71内に収納された検査対象物1の外観検査を行う。
【0013】
撮影手段2は、トレイ7上に配置され、トレイ7のポケット71内に収納されたICチップ等の検査対象物1を上方から撮影するための顕微鏡やCCDカメラ等からなり、移動手段3によって移動可能に構成され、トレイ7の複数のポケット71内にそれぞれ収納されている検査対象物1を順次撮影する。撮影手段2による撮影視野8は、トレイ7のポケット71よりも狭い範囲に設定され、トレイ7のポケット71内に収納された検査対象物1を分割して撮影する。具体的には、図3に示すように、ポケット71の横方向の長さをLp、検査対象物1の横方向の長さをLc、撮影視野8の横方向の長さをLrとすると、Lp>Lc>Lrの関係になり、ポケット71の縦方向の長さをMp、検査対象物1の縦方向の長さをMc、撮影視野8の縦方向の長さをMrとすると、Mc<Mp<Mrの関係になり、撮影手段2は、ポケット71の横方向に移動しながら検査対象物1を複数の撮影視野8に分割して撮影する。
【0014】
移動手段3は、少なくとも撮影手段2をトレイ7の表面と平行にX−Y方向に移動させる機能を有し、画像処理装置5の制御によって撮影手段2をトレイ7の各ポケット71上に移動させる。なお、移動手段3によってトレイ7を移動させるように構成しても良いことはいうまでもない。
【0015】
画像処理装置5は、プログラム制御によって動作する情報処理装置であり、図1を参照すると、画像取込部51と、キーボード、マウス等からなる入力部52と、特徴領域設定部53と、ディスプレイ等の表示部54と、特徴領域記憶部55と、姿勢検出部56と、画像処理部57と、検査部58と、移動制御部59とからなる。
【0016】
画像取込部51は、撮影手段2によって撮影された画像を取り込み、取り込んだ画像を姿勢検出部に出力すると共に、照明手段4を制御して撮影手段2による撮影時に光を照射する。
【0017】
特徴領域設定部53は、検査対象物1のパターンデータを特徴領域設定用データとして取り込み、取り込んだ特徴領域設定用データを表示部54に表示させると共に、表示部54に表示された特徴領域設定用データに基づくオペレータによる入力部52から入力によって指定された範囲を特徴領域9として設定し、設定した特徴領域9を特徴領域記憶部55に記憶させる。なお、特徴領域設定用データは、検査対象物1の表面全体のパターンデータであり、撮影手段2の撮影によって特徴領域設定部53に取り組まれるようにしても良く、検査対象物1のパターンデータをそのままデータとして外部から取り込むようにしても良い。特徴領域9の設定方法については後述する。
【0018】
特徴領域9は、想定される各撮影視野8毎に設定され、各撮影視野8内で該当位置を一意に定めるためのパターンを含む領域で、同一撮影視野8内で他に似たようなパターンを含む領域がなく、かつ縦横方向が特定可能であることが必要となり、オペレータによる入力部52から入力によって設定可能になっている。なお、同一撮影視野8内に設定される特徴領域9の数は、1つの特徴領域9内で検査対象物1の位置および傾きを検出できるのであれば、1つだけでも良く、同一撮影視野8内に特徴領域9を2つ以上の設定しても良い。
【0019】
ICチップ等の検査対象物1における特徴領域9の例としては、図4を参照すると、主に検査対象物1に形成された回路のパターンが利用され、特に、縦方向および横方向の直線状のパターンが含まれるように特徴領域9を設定することで、正確に検査対象物1の位置合わせを行うことができる。一例としては、回路パターン100のようなL字状のパターンが挙げられるが、T字状あるいは十字状といったパターンも考えられる。ここでは、特徴領域9に含まれるパターンの形状を限定するものではない。また、検査対象物1に予め位置合わせ用マーク101が付加されている場合は、位置合わせ用マーク101を含む領域を特徴領域9に設定することで、回路パターン100を特徴領域9として使用した場合と同様に検査対象物1の位置合わせを行うことができる。さらに、バンプ102を含む領域や検査対象物1の角部103を含む領域を特徴領域9として設定して位置合わせを行うことができる。
【0020】
特徴領域記憶部55は、ハードディスク装置等の情報記憶手段であり、各撮影視野で設定された特徴領域9を記憶する。
【0021】
姿勢検出部56は、画像取込部51に取り込まれた画像の位置合わせ処理を行う。姿勢検出部56による位置合わせ処理は、画像取込部51に取り込まれた画像に基づいて検査対象物1の位置と傾きとからなる姿勢情報を算出する処理であり、各撮影視野8に対応して特徴領域記憶部55に記憶されているそれぞれの特徴領域9を用いて行われる。
【0022】
なお、各ポケット71において最初に撮影される第1の撮影視野8(以下、第1撮影視野81と称す)は、ポケット71の端部を基準にして予め定められている。すなわち、撮影回数を少なくして処理時間を短縮するために、無駄な領域の撮影を減らす必要から、図5(a)に示すように、検査対象物1の右側から撮影を行う場合、第1撮影視野81の右端とポケット71の右端が一致するように第1撮影視野81の撮影位置が設定されており、第1撮影視野81におけるポケット71以外の領域を少なくし、第1撮影視野81で必ず撮影される検査対象物1の領域A(以下、第1領域Aと称す)を大きく取ることが可能となる。以下、第1撮影視野81によって得られた姿勢情報に応じて2番目に撮影される第2の撮影視野8(以下、第2撮影視野82と称す)、3番目に撮影される第3の撮影視野8(以下、第3撮影視野83と称す)が撮影される。なお、トレイ7に設けられたポケット71の位置の精度や撮影手段2を移動させる際の精度などを考慮して、第1撮影視野81の右端をポケット71の右端から右側に若干ずらして設定するようにしても良いが、図5(b)に示すように、第1撮影視野81の右端をポケット71の右端から大きく右側にずらして設定すると、第1撮影視野81におけるポケット71以外の領域が大きくなり、第1撮影視野81で必ず撮影される検査対象物1の領域Bが小さくなってしまい、検査対象物1の全体を撮影しようとすると、4番目に撮影される第4の撮影視野8(以下、第4撮影視野84と称す)までが必要になり、第1撮影視野81の右端とポケット71の右端が一致するようにした場合と比較して、検査対象物1を検査するために要する撮影視野8が増加する場合がある。
【0023】
画像処理部57は、姿勢検出部56によって算出された姿勢情報に基づいて画像取込部51に取り込まれた画像から検査対象物1に対応する領域を検査領域として抽出し、抽出した検査領域の傾きを補正する。なお、画像処理部57による傾きの補正は、検査部58に一定の傾きの検査領域を出力するために行われ、姿勢情報に含まれる検査対象物1の傾きに基づいて行われる。
【0024】
検査部58は、画像処理部57によって画像から抽出され傾きを補正された検査領域を検査する。検査部58による検査は、予め設定した検査の基準となる画像等からなる検査用データと比較を行う方法や、画像処理により抽出した特徴量を用いて良否の判断を行う方法等が考えられる。
【0025】
移動制御部59は、移動手段3による撮影手段2の移動を制御するもので、姿勢検出部56によって算出された姿勢情報に基づいて撮影視野8の撮影位置を決定する。
【0026】
次に、第1の実施の形態における特徴領域9の設定動作について図6および図7を参照して詳細に説明する。
図6は、図1に示す特徴領域設定部によって特徴領域を設定する範囲を説明するための説明図であり、図7は、図1に示す特徴領域設定部による撮影視野数の算出方法を説明するための説明図である。
【0027】
まず、特徴領域設定部53は、特徴領域設定用データと、ポケット71の横方向の長さLp、検査対象物1の横方向の長さLcおよび撮影視野8の横方向の長さLrからなるサイズ情報とを取り込む。サイズ情報は、入力部52から特徴領域設定部53に入力するようにしても良く、また、特徴領域設定用データから読み取るようにしても良い。
【0028】
次に、特徴領域設定部53は、取り込んだ特徴領域設定用データを表示部54に表示させ、第1撮影視野81において必ず撮影される第1領域Aへの特徴領域9の設定を受け付ける。検査対象物1の右側から順に撮影する場合、図6に示す第1領域Aは、ポケット71内の検査対象物1の位置が図6の(a)と(b)とに示すように左右に最大限ずれていても、第1撮影視野81において必ず撮影される。検査対象物1の位置は、ポケット71の横方向の長さLpと検査対象物1の横方向の長さをLcとの差だけ最大異なることになり、図7に示すように、第1撮影視野81で必ず撮影される第1領域Aの検査対象物1の右端からの長さLcf1は、Lcf1=Lr−(Lp−Lc)で表すことができる。従って、特徴領域設定部53は、サイズ情報に基づいて第1撮影視野81で必ず撮影される第1領域Aの検査対象物1の右端からの長さLcf1を算出することで、第1領域Aを特定し、少なくとも第1領域A部分の特徴領域設定用データを表示部54に表示し、第1領域Aへの特徴領域9の設定のみを受け付ける。この際、表示部54において、特徴領域設定用データの第1領域Aの部分とそれ以外の部分とを色等で区別して表示することにより、オペレータに特徴領域9を設定する第1領域Aの範囲を知らせることができる。
【0029】
次に、オペレータが表示部54に表示された特徴領域設定用データの第1領域Aを参照しながら特徴領域9の範囲を入力部52からの入力によって指定すると、特徴領域設定部53は、指定された範囲と同一のパターンが第1領域A内に存在するか否かを検索し、指定された範囲と同一のパターンが第1領域A内に存在する場合には、オペレータに対して指定された範囲を特徴領域9として設定できない旨の報知を表示部54への表示等により報知して再入力を促し、指定された範囲と同一のパターンが第1領域A内に存在しない場合には、指定された範囲を特徴領域9として設定して特徴領域記憶部55に記憶させる。なお、特徴領域記憶部55には、特徴領域9の形状を表すパターン情報と共に、検査対象物1における特徴領域9の位置情報も記憶される。
【0030】
第1領域Aにおける特徴領域9の設定が終了すると、特徴領域設定部53は、第2撮影視野82において撮影される領域B(以下、第2領域Bと称す)を表示部54に表示し、第2領域Bへの特徴領域9の設定を受け付ける。第2撮影視野82において撮影される領域Bは、図7に示すように、第1領域Aに引き続く、横方向の長さが撮影視野8の横方向の長さLrと同一の領域であり、以下、第1領域Aの場合と同様な方法で第2領域Bに特徴領域9が設定される。なお、図7には、ポケット71内の検査対象物1の傾きが考慮されていないため、第2領域Bの幅を撮影視野8の横方向の長さLrとしたが、実際の第2領域Bの幅は、ポケット71内の検査対象物1の傾きを考慮して撮影視野8の横方向の長さLrよりも若干短い長さとなる。
【0031】
領域Bにおける特徴領域9の設定が終了すると、特徴領域設定部53は、第3撮影視野83において撮影される領域Cを表示部54に表示し、領域Cへの特徴領域9の設定を受け付ける。第3撮影視野83において撮影される領域Cは、図7に示すように、領域Bに引き続く、横方向の長さが撮影視野8の横方向の長さLrよりも短い領域であり、最終の撮影視野8となる。以下、第1領域Aの場合と同様な方法で領域Cに特徴領域9が設定され、特徴領域9の設定動作を終了する。
【0032】
以上、ポケット71を第1撮影視野81〜第3撮影視野83の3つに分割して撮影する場合の特徴領域9の設定動作について説明したが、ポケット71内の検査対象物1の全体を撮影するための撮影視野数Nrfは、ポケット71の横方向の長さLpと撮影視野8の横方向の長さLrとによって決まる。すなわち、第2撮影視野82以降は、最終の撮影視野8以外の各撮影視野8で検査される領域の長さは、図7に示すように、撮影視野8の横方向の長さLrに等しくなり、最終視野では、検査対象物1の左端まで検査を行うので、検査を行う長さは最大で撮影視野8の横方向の長さLrとなり、従って、撮影視野数Nrfは、Nrf= Lp/Lr( 小数点以下切り上げ )によって算出され、撮影視野数Nrfに対応する領域毎に特徴領域9が設定される。
【0033】
次に、第1の実施の形態における検査動作について図8を参照して詳細に説明する。
図8は、本発明に係る外観検査装置の第1の実施の形態の検査動作を説明するためのフローチャートである。
【0034】
まず、移動制御部59は、移動手段3を制御して撮影手段2を第1撮影視野81で撮影する位置に移動させる(S11)。第1撮影視野81を撮影する位置への移動が完了したら、撮影手段2によって第1撮影視野81を撮影し(S12)、撮影手段2によって第1撮影視野81で撮影された画像が画像取込部51に取り込まれ、姿勢検出部56は、第1撮影視野81で撮影された画像の位置合わせ処理を行う(S13)。なお、S12における第1撮影視野81での撮影時に、撮影順番mをm=1にセットする。
【0035】
姿勢検出部56による位置合わせ処理は、画像取込部51に取り込まれた画像に基づいて検査対象物1の位置と傾きとを算出する処理であり、第1撮影視野81に対応する特徴領域記憶部55に記憶されている特徴領域9を用いて行われる。具体的には、画像取込部51に取り込まれた画像を縦横に移動あるいは回転させて、特徴領域9と最も一致している領域を探索し、発見した特徴領域9に最も一致している領域の位置から取り込まれた画像における検査対象物1の位置および傾きを算出し、算出した位置および傾きを姿勢情報する。すなわち、特徴領域9には、検査対象物1における位置情報が含まれているため、発見した特徴領域9に最も一致している領域の位置と傾きが分かれば、検査対象物1の位置および傾きを算出することができる。また、検査対象物1の位置とは、取り込まれた画像における検査対象物1の位置を座標等で表したもので、例えば検査対象物1の角部の座標が取り込まれた画像における検査対象物1の位置として算出される。なお、位置合わせ処理における特徴領域9と最も一致している領域の探索は、特徴領域9を移動および回転させる、あるいは特徴領域9を移動させて画像を回転させるというように、特徴領域9と画像との間で相対的に移動および回転させる方法であれば良い。また、特徴領域9を探索する際に、予め探索領域を設定して、設定した探索領域内でのみ探索を行うことも可能である。
【0036】
姿勢検出部56による位置合わせ処理によって算出された姿勢情報は、移動制御部59に出力され、移動制御部59は、第1撮影視野81の撮影位置と算出した姿勢情報に基づいて第2撮影視野82以降の全ての撮影視野8の撮影位置を決定する(S14)。
【0037】
また、姿勢検出部56によって算出された姿勢情報は、画像処理部57にも出力され、画像処理部57は、姿勢情報に基づいて画像から第1領域Aを検査領域として抽出し、抽出した第1領域Aの傾きを補正し、画像処理部57によって画像から抽出され傾きを補正された第1領域Aは、検査部58によって検査される(S15)。検査部58による検査は、予め設定した検査の基準となる画像等からなる検査用データと比較を行う方法や、画像処理により抽出した特徴量を用いて良否の判断を行う方法等が考えられる。なお、第1の実施の形態では、画像から第1領域Aを検査領域として抽出し、抽出した第1領域Aの傾きを補正するようにしたが、検査用データを変換するなど、撮影した画像と検査用データとのずれを補正する方式であれば良く、画像全体を補正してから検査を実施する検査領域を抽出するようにしても良い。
【0038】
次に、検査部58は、検査対象物1の全撮影視野8について検査が終了したかどうかを確認し(S16)、検査が終了していない場合は、撮影順番mをインクリメントし(S17)、移動制御部59の制御によって次の撮影視野8であるインクリメントされたm番目の撮影視野8の撮影位置に撮影手段2が移動され(S18)、撮影手段2によってm番目の撮影視野8の撮影が行われる(S19)。次に撮影手段2によってm番目の撮影視野8で撮影された画像が画像取込部51に取り込まれ、姿勢検出部56は、m番目の撮影視野8で撮影された画像の位置合わせ処理を行う(S20)。以下、m番目の撮影視野8で撮影された画像に対してS15の検査が行われ、検査対象物1の全撮影視野8について検査が終了するまで撮影と検査とが繰り返し行われる。検査部58による検査結果は、検査対象物1の全撮影視野8についての検査の終了後、表示部54に表示される。
【0039】
なお、図8に示すフローチャートでは、前の撮影視野8での検査が終了した後に次撮影視野8の撮影を行うとしたが、前の撮影視野8における撮影終了後の検査と次撮影視野8以降の撮影位置への移動および撮影を平行して実行することも可能である。また、次撮影視野8以降の撮影位置は、第1撮影視野81で撮影した画像の位置合わせ処理後に予め算出しているが、各撮影視野8の撮影位置へ移動する直前に算出するように変更することも可能である。さらに、次撮影視野8の仮の撮影位置を予め設定しておき、仮の撮影位置へ撮影手段2を移動させる処理と平行して位置合わせ処理の結果から次撮影視野8の撮影位置を算出し、仮の撮影位置へ移動した撮影手段2を、算出した次撮影視野8の撮影位置へ再度移動するということも可能である。
【0040】
次に、第1の実施の形態における検査動作の具体例について図9乃至図11を参照して詳細に説明する。
図9は、本発明に係る外観検査装置の第1の実施の形態の具体的な検査動作を説明するための説明図であり、図10は、撮影視野が予め設定されている場合の撮影視野の移動例を示す説明図であり、図11は、本発明に係る外観検査装置の第1の実施の形態の撮影視野の移動例を示す説明図である。
【0041】
本例では、図9に示すように、トレイ7のポケット71に収納された検査対象物1を第1撮影視野81、第2撮影視野82および第3撮影視野83の3つの撮影視野8に分割して撮影するもので、第1撮影視野81で撮影される第1領域Aに対応して設定された特徴領域91、92と、第2撮影視野82で撮影される第2領域Bに対応して設定された特徴領域93、94と、第3撮影視野83で撮影される第3領域Cに対応して設定された特徴領域95、96とが、それぞれ特徴領域記憶部55に記憶されているものとしている。
【0042】
まず、移動制御部59の制御によって移動手段3は、トレイ7のポケット71の位置から予め設定されている第1撮影視野81の撮影位置に撮影手段2を移動させ、撮影手段2によって第1撮影視野81を撮影する。撮影手段2によって第1撮影視野81で撮影した画像が画像取込部51に取り込まれ、姿勢検出部56は、画像取込部51に取り込まれた画像の位置合わせ処理を特徴領域91、92を用いて行う。
【0043】
姿勢検出部56は、第1撮影視野81で撮影した画像の中から特徴領域91、92を検出することにより検査対象物1のポケット71内の位置および傾きからなる姿勢情報を算出し、算出した姿勢情報を移動制御部59と画像処理部57とに出力する。移動制御部59は、算出した姿勢情報に基づき第2撮影視野82および第3撮影視野83の撮影位置を決定する。画像処理部57は、第1撮影視野81で撮影した画像から第1領域Aを姿勢情報に基づいて抽出すると共に傾きを補正し、検査部58は、第1領域Aについて検査を行う。
【0044】
第1撮影視野81で撮影した画像を用いた検査が終了したら、第2撮影視野82の撮影位置へ撮影手段2を移動させ、撮影手段2によって第2撮影視野82を撮影する。撮影手段2によって第2撮影視野82で撮影した画像は、画像取込部51に取り込まれ、姿勢検出部56は、画像取込部51に取り込まれた画像の位置合わせ処理を特徴領域93、94を用いて行う。姿勢検出部56は、第2撮影視野82で撮影した画像の中から特徴領域93、94を検出することにより第2撮影視野82で撮影した画像の位置および傾きからなる姿勢情報を算出し、算出した姿勢情報を画像処理部57に出力する。画像処理部57は、第2撮影視野82で撮影した画像から第2領域Bを第2撮影視野82で算出された姿勢情報に基づいて抽出すると共に傾きを補正し、検査部58は、第2領域Bについて検査を行う。以下、第3撮影視野83においても同様に第3領域Cについて検査を行い、検査対象物1の検査動作を終了する。
【0045】
図9を参照すると、第1撮影視野81と第2撮影視野82とが重なっている部分と、第2撮影視野82と第3撮影視野83とが重なっている部分とがあることがわかる。第1撮影視野81と第2撮影視野82とが重なっている部分は、第1撮影視野81で必ず撮影される第1領域Aに引き続く第2領域Bを撮影するための重なりであり、第2撮影視野82と第3撮影視野83とが重なっている部分は、ポケット71内の検査対象物1が傾いている場合にも、第2撮影視野82と第3撮影視野83とでそれぞれ第2領域Bと第3領域Cとを撮影するための重なりであるが、各撮影視野8の重なりを最小限に抑えることができため、撮影回数を少なくすることができる。
【0046】
すなわち、撮影位置を予め設定しておく方法では、トレイ7のポケット71内で検査対象物1がどのように置かれているのかによって、同じ撮影視野8でも画像には大きな違いが生じるため、ある撮影視野8で必ず撮影される検査対象物1の領域は、撮影した画像の限られた範囲となり、各撮影視野8を大きく重ねておく必要がある。
【0047】
図10は、撮影位置を予め設定する場合の第1撮影視野81乃至第4撮影視野84を示したものである。検査対象物1がポケット71内で右端あるいは左端に寄っている場合を考えると、必ず第1撮影視野81で撮影される検査対象物の第1領域Aは限定されるため、第1撮影視野81と第2撮影視野82とは大きく重なることがわかり、図10に示す例では、第1撮影視野81乃至第4撮影視野84の4つの撮影視野8に分割して検査を行う必要がある。なお、図10に示す各撮影視野8の大きさは若干異なっているが、これは各撮影視野8を分かりやすくするためであり、実際は全各撮影視野8の大きさは同一である。
【0048】
これに対し、第1の実施の形態によると、第1撮影視野81で撮影した画像から検査対象物1の姿勢情報を算出することで、第2撮影視野82以降の撮影位置を決定しているため、第2撮影視野82以降に関しては各撮影視野において常に検査対象物の決まった領域を撮影することができる。従って、図11に示すように、検査対象物1がポケット71内で左右いずれの端に寄っている場合でも、第1撮影視野81乃至第3撮影視野83の3つの撮影視野8に分割して検査を行えば良い。なお、図11に示す各撮影視野8の大きさは若干異なっているが、これは各撮影視野8を分かりやすくするためであり、実際は全各撮影視野8の大きさは同一である。さらに、図11では、第2撮影視野82と第3撮影視野83とが全く重なっていないが、実際には検査対象物1の傾きなどにより、第2撮影視野82以降でも隣接した撮影視野8間では若干の重なりが生じることがある。
【0049】
以上説明したように、第1の実施の形態によれば、トレイ7のポケット71に収納された検査対象物1を複数の撮影視野8で分割撮影する際に、第1撮影視野81で撮影された画像から検査対象物1の姿勢情報を算出し、算出した姿勢情報によって第2撮影視野82以降の撮影位置を決定するように構成することにより、トレイ7のポケット71に収納された検査対象物1の機械的な位置決めをすることなく、各撮影視野8で撮影された画像を高精度に検査することができ、トレイ7のポケット71に収納された検査対象物1を複数の撮影視野8で分割撮影する際の撮影視野数を最小限にすることができ、各撮影視野8での位置合わせ時間を短縮することができるという効果を奏する。
【0050】
さらに、第1の実施の形態によれば、第2撮影視野82以降は各撮影視野8において常に各撮影視野8でそれぞれ決まった検査対象物1の領域をそれぞれ撮影することができることから、各撮影視野8で特徴領域9の探索領域を設定する場合に、第2撮影視野82以降の探索領域を広範囲に設定する必要がなく、探索時間を短縮することが可能となるという効果を奏する。
【0051】
なお、第1の実施の形態では、検査対象物1の右側より検査を開始したが、他の位置を第1撮影視野81として検査を開始することも可能である。また、検査対象物1に対し2次元的に視野を分割して検査を実行することも可能であり、さらに、任意の位置を第1撮影視野81として検査を開始することも可能である。
【0052】
(第2の実施の形態)
図12は、本発明に係る外観検査装置の第2の実施の形態の検査動作を説明するためのフローチャートである。
【0053】
第2の実施の形態は、第1の実施の形態における検査対象物1の第2撮影視野82以降の撮影位置の決定方法が異なるもので、直前の撮影視野8における位置合わせ処理によって算出される姿勢情報から次撮影視野8の撮影位置を算出して決定するもので、図12に示すS11からS13までは、第1の実施の形態の検査動作と同様である。
【0054】
第2の実施の形態では、姿勢検出部56による位置合わせ処理(S13)が終了後、姿勢検出部56による位置合わせ処理によって算出された姿勢情報は、移動制御部59に出力され、移動制御部59は、姿勢情報に基づいて次撮影視野8であるm+1番目の撮影視野8の撮影位置を決定する(S21)。また、姿勢検出部56によって算出された姿勢情報は、画像処理部57にも出力され、画像処理部57は、姿勢情報に基づいて画像から第1領域Aを検査領域として抽出し、抽出した第1領域Aの傾きを補正し、画像処理部57によって画像から抽出され傾きを補正された第1領域Aは、検査部58によって検査される(S15)。
【0055】
次に、検査部58は、検査対象物1の全撮影視野8について検査が終了したかどうかを確認し(S16)、検査が終了していない場合は、撮影順番mをインクリメントし(S17)、移動制御部59の制御によって次撮影視野8であるインクリメントされたm番目の撮影視野8の撮影位置に撮影手段2が移動され(S18)、撮影手段2によってm番目の撮影視野8の撮影が行われ(S19)、撮影手段2によってm番目の撮影視野8で撮影された画像が画像取込部51に取り込まれ、姿勢検出部56は、m番目の撮影視野8で撮影された画像の位置合わせ処理を行う(S20)。以下、第1撮影視野81と同様に、S21の姿勢情報に基づく次撮影視野8であるm+1番目の撮影視野8の撮影位置の決定と、m番目の撮影視野8で撮影された画像に対するS15の検査とが行われ、検査対象物1の全撮影視野8について検査が終了するまで撮影と検査とが繰り返し行われる。
【0056】
次に、第2の実施の形態における検査動作の具体例について図9を参照して詳細に説明する。
まず、移動制御部59の制御によって移動手段3は、トレイ7のポケット71の位置から予め設定されている第1撮影視野81の撮影位置に撮影手段2を移動させ、撮影手段2によって第1撮影視野81を撮影する。撮影手段2によって第1撮影視野81で撮影した画像が画像取込部51に取り込まれ、姿勢検出部56は、画像取込部51に取り込まれた画像の位置合わせ処理を特徴領域91、92を用いて行う。
【0057】
姿勢検出部56は、第1撮影視野81で撮影した画像の中から特徴領域91、92を検出することにより検査対象物1のポケット71内の位置および傾きからなる姿勢情報を算出し、算出した姿勢情報を移動制御部59と画像処理部57とに出力する。移動制御部59は、第1撮影視野81で算出された姿勢情報に基づいて第2撮影視野82の撮影位置を決定すると共に、画像処理部57は、第1撮影視野81で撮影した画像から第1領域Aを第1撮影視野81で算出された姿勢情報に基づいて抽出すると共に傾きを補正し、検査部58は、第1領域Aについて検査を行う。
【0058】
第1撮影視野81で撮影した画像を用いた検査が終了したら、第2撮影視野82の撮影位置へ撮影手段2を移動させ、撮影手段2によって第2撮影視野82を撮影する。撮影手段2によって第2撮影視野82で撮影した画像は、画像取込部51に取り込まれ、姿勢検出部56は、画像取込部51に取り込まれた画像の位置合わせ処理を特徴領域93、94を用いて行う。姿勢検出部56は、第2撮影視野82で撮影した画像の内から特徴領域93、94を検出することにより第2撮影視野82で撮影した画像の位置および傾きからなる姿勢情報を算出し、算出した姿勢情報を移動制御部59と画像処理部57とに出力する。移動制御部59は、第2撮影視野82で算出された姿勢情報に基づいて第3撮影視野83の撮影位置を決定すると共に、画像処理部57は、第2撮影視野82で撮影した画像から第2領域Bを第2撮影視野82で算出した姿勢情報に基づいて抽出すると共に傾きを補正し、検査部58は、第2領域Bについて検査を行う。
【0059】
第2撮影視野82で撮影した画像を用いた検査が終了したら、最終の撮影視野8である第3撮影視野83の撮影位置へ撮影手段2を移動させ、撮影手段2によって第2撮影視野82を撮影する。撮影手段2によって第3撮影視野83で撮影した画像は、画像取込部51に取り込まれ、姿勢検出部56は、画像取込部51に取り込まれた画像の位置合わせ処理を特徴領域95、96を用いて行う。姿勢検出部56は、第3撮影視野83で撮影した画像の中から特徴領域95、96を検出することにより第3撮影視野83で撮影した画像の位置および傾きからなる姿勢情報を算出し、算出した姿勢情報を画像処理部57に出力する。画像処理部57は、第3撮影視野83で撮影した画像から第3領域Cを第3撮影視野83で算出された姿勢情報に基づいて抽出すると共に傾きを補正し、検査部58は、第3領域Cについて検査を行い、検査対象物1の検査動作を終了する。
【0060】
以上説明したように、第2の実施の形態によれば、直前の撮影視野8で撮影した画像の位置合わせ結果から次撮影視野8の撮影位置を算出する様に構成することにより、第1の実施の形態に比べて、次撮影視野8の撮影位置の誤差を少なくすることができる。撮影位置に誤差があると、誤差を考慮して各撮影視野を一部重ね合わせておく必要があるため、誤差を減らすことでより効率的に検査を実行することができる。
【0061】
(第3の実施の形態)
図13は、本発明に係る外観検査装置の第3の実施の形態の検査動作を説明するためのフローチャートである。
【0062】
第3の実施の形態は、第2の実施の形態における第2撮影視野82以降の撮影において、位置合わせ処理に失敗して検査対象物1の姿勢情報が得られなかった場合に、位置合わせに成功した1つあるいは複数の別撮影視野8で撮影した画像から算出された姿勢情報を用いるもので、図13に示すS11からS20までは、第2の実施の形態の検査動作と同様である。
【0063】
第3の実施の形態では、S20でm番目の撮影視野8で撮影された画像の位置合わせ処理を行った後、姿勢検出部56は、位置合わせ処理において位置合わせが成功、すなわち検査対象物1の姿勢情報を算出することができたか否かを確認し(S32)、位置合わせが成功した場合には算出された検査対象物1の姿勢情報を保存すると共に(S33)、移動制御部59に出力し、移動制御部59は、姿勢情報に基づいて次撮影視野8であるm+1番目の撮影視野8の撮影位置を決定する(S21)。また、算出された姿勢情報は、画像処理部57にも出力され、画像処理部57は、算出された姿勢情報に基づいてm番目の撮影視野8で撮影された画像から検査領域を抽出し、抽出した検査領域の傾きを補正し、画像処理部57によって画像から抽出され傾きを補正された検査領域は、検査部58によって検査される(S15)。
【0064】
位置合わせに失敗した場合には、姿勢検出部56は、それまで位置合わせに成功した別の撮影視野8での姿勢情報から現撮影視野8であるm番目の撮影視野8の検査対象物1の姿勢情報を決定し(S34)、決定した姿勢情報を移動制御部59に出力し、移動制御部59は、決定した姿勢情報に基づいて次撮影視野8であるm+1番目の撮影視野8の撮影位置を決定する(S21)。また、決定した姿勢情報は、画像処理部57にも出力され、画像処理部57は、決定した姿勢情報に基づいてm番目の撮影視野8で撮影された画像から検査領域を抽出し、抽出した検査領域の傾きを補正し、画像処理部57によって画像から抽出され傾きを補正された検査領域は、検査部58によって検査される(S15)。以下、検査対象物1の全撮影視野8について検査が終了するまで撮影と検査とが繰り返し行われる。
【0065】
次に、第3の実施の形態における検査動作の具体例について図9を参照して詳細に説明する。
なお、本例では、図9に示す第2撮影視野82では位置合わせに失敗するものとする。
【0066】
まず、移動制御部59の制御によって移動手段3は、トレイ7のポケット71の位置から予め設定されている第1撮影視野81の撮影位置に撮影手段2を移動させ、撮影手段2によって第1撮影視野81を撮影する。撮影手段2によって第1撮影視野81で撮影した画像が画像取込部51に取り込まれ、姿勢検出部56は、画像取込部51に取り込まれた画像の位置合わせ処理を特徴領域91、92を用いて行う。
【0067】
姿勢検出部56は、第1撮影視野81で撮影した画像の内から特徴領域91、92を検出することにより検査対象物1のポケット71内の位置および傾きからなる姿勢情報を算出し、算出した姿勢情報を保存すると共に、算出した姿勢情報を移動制御部59と画像処理部57とに出力する。移動制御部59は、第1撮影視野81で算出された姿勢情報に基づいて第2撮影視野82の撮影位置を決定すると共に、画像処理部57は、第1撮影視野81で撮影した画像から第1領域Aを第1撮影視野81で算出された姿勢情報に基づいて抽出すると共に傾きを補正し、検査部58は、第1領域Aについて検査を行う。
【0068】
第1撮影視野81で撮影した画像を用いた検査が終了したら、第2撮影視野82の撮影位置へ撮影手段2を移動させ、撮影手段2によって第2撮影視野82を撮影する。撮影手段2によって第2撮影視野82で撮影した画像は、画像取込部51に取り込まれ、姿勢検出部56は、画像取込部51に取り込まれた画像の位置合わせ処理を特徴領域93、94を用いて行うが位置合わせを失敗してしまう。
【0069】
姿勢検出部56は、位置合わせの失敗を認識すると、保存されている第1撮影視野81で算出された姿勢情報を読み出し、読み出した姿勢情報を移動制御部59と画像処理部57とに出力する。移動制御部59は、第1撮影視野81で算出された姿勢情報に基づいて第3撮影視野83の撮影位置を決定すると共に、画像処理部57は、第2撮影視野82で撮影した画像から第2領域Bを第1撮影視野81で算出された姿勢情報に基づいて抽出すると共に傾きを補正し、検査部58は、第2領域Bについて検査を行う。以下、第3撮影視野83においても同様に第3領域Cについて検査を行い、検査対象物1の検査動作を終了する。
【0070】
以上説明したように、第3の実施の形態によれば、ある撮影視野8で位置合わせに失敗して検査対象物1の姿勢情報が得られなかった場合に、既に位置合わせに成功した撮影視野8での姿勢情報に基づいて当該撮影視野8での検査を行うように構成することにより、ある視野で姿勢情報が得られなかった場合でも検査を継続することができるという効果を奏する。
【0071】
(第4の実施の形態)
図14は、本発明に係る外観検査装置の第4の実施の形態の検査動作を説明するためのフローチャートである。
【0072】
第4の実施の形態は、第2の実施の形態における第2撮影視野82以降の撮影において、次撮影視野以降に特徴領域9が設定できない場合、第1撮影視野81で算出された検査対象物1の姿勢情報を第2撮影視野82以降における姿勢情報として使用するもので、図14に示すS11からS13までは、第1の実施の形態の検査動作と同様である。
【0073】
第4の実施の形態では、姿勢検出部56による位置合わせ処理(S13)が終了後、姿勢検出部56による位置合わせ処理によって算出された姿勢情報は、保存されると共に(S41)、移動制御部59に出力され、移動制御部59は、姿勢情報に基づいて次撮影視野8であるm+1番目の撮影視野8の撮影位置を決定する(S21)。また、姿勢検出部56によって算出された姿勢情報は、画像処理部57にも出力され、画像処理部57は、姿勢情報に基づいて画像から第1領域Aを検査領域として抽出し、抽出した第1領域Aの傾きを補正し、画像処理部57によって画像から抽出され傾きを補正された第1領域Aは、検査部58によって検査される(S15)。
【0074】
次に、検査部58は、検査対象物1の全撮影視野8について検査が終了したかどうかを確認し(S16)、検査が終了していない場合は、撮影順番mをインクリメントし(S17)、移動制御部59の制御によって次撮影視野8のであるインクリメントされたm番目の撮影視野8の撮影位置に撮影手段2が移動され(S18)、撮影手段2によってm番目の撮影が行われ(S19)、撮影手段2によってm番目の撮影視野8で撮影された画像が画像取込部51に取り込まれる。
【0075】
次に、姿勢検出部56は、保存されている第1撮影視野81で算出された姿勢情報を読み出し(S42)、読み出した第1撮影視野81で算出された姿勢情報を移動制御部59と画像処理部57とに出力する。移動制御部59は、読み出された姿勢情報に基づいて次撮影視野8であるm+1番目の撮影視野8の撮影位置を決定する(S21)。また、読み出された姿勢情報は、画像処理部57にも出力され、画像処理部57は、読み出された姿勢情報に基づいてm番目の撮影視野8で撮影された画像から検査領域を抽出し、抽出した検査領域の傾きを補正し、画像処理部57によって画像から抽出され傾きを補正された検査領域は、検査部58によって検査される(S15)。以下、検査対象物1の全撮影視野8について検査が終了するまで撮影と検査とが繰り返し行われる。
【0076】
次に、第4の実施の形態における検査動作の具体例について図15を参照して詳細に説明する。
図15は、図1に示す特徴領域記憶部に第1撮影視野に対応する特徴的視野のみが記憶されている場合の検査動作を説明するための説明図である。
【0077】
本例では、図15に示すように、トレイ7のポケット71に収納された検査対象物1を第1撮影視野81、第2撮影視野82および第3撮影視野83の3つの撮影視野8に分割して撮影するもので、第1撮影視野81で撮影される第1領域Aに対応して設定された特徴領域91、92のみが特徴領域記憶部55に記憶され、第1撮影視野81を基準撮影視野とし、基準撮影視野である第1撮影視野81で算出された姿勢情報を基準姿勢情報とする。
【0078】
まず、移動制御部59の制御によって移動手段3は、トレイ7のポケット71の位置から予め設定されている基準撮影視野である第1撮影視野81の撮影位置に撮影手段2を移動させ、撮影手段2によって第1撮影視野81を撮影する。撮影手段2によって第1撮影視野81で撮影した画像が画像取込部51に取り込まれ、姿勢検出部56は、画像取込部51に取り込まれた画像の位置合わせ処理を特徴領域91、92を用いて行う。
【0079】
姿勢検出部56は、第1撮影視野81で撮影した画像の中から特徴領域91、92を検出することにより検査対象物1のポケット71内の位置および傾きからなる姿勢情報を基準姿勢情報として算出し、算出した基準姿勢情報を保存すると共に、算出した基準姿勢情報を移動制御部59と画像処理部57とに出力する。移動制御部59は、第1撮影視野81で算出された基準姿勢情報に基づいて第2撮影視野82の撮影位置を決定すると共に、画像処理部57は、第1撮影視野81で撮影した画像から第1領域Aを第1撮影視野81で算出された姿勢情報に基づいて抽出すると共に傾きを補正し、検査部58は、第1領域Aについて検査を行う。
【0080】
第1撮影視野81で撮影した画像を用いた検査が終了したら、第2撮影視野82の撮影位置へ撮影手段2を移動させ、撮影手段2によって第2撮影視野82を撮影する。撮影手段2によって第2撮影視野82で撮影した画像は、画像取込部51に取り込まれ、姿勢検出部56は、保存されている第1撮影視野81で算出された基準姿勢情報を読み出し、読み出した基準姿勢情報を移動制御部59と画像処理部57とに出力する。移動制御部59は、第1撮影視野81で算出された基準姿勢情報に基づいて第3撮影視野83の撮影位置を決定すると共に、画像処理部57は、第2撮影視野82で撮影した画像から第2領域Bを第1撮影視野81で算出された基準姿勢情報に基づいて抽出すると共に傾きを補正し、検査部58は、第2領域Bについて検査を行う。以下、第3撮影視野83においても同様に第3領域Cについて検査を行い、検査対象物1の検査動作を終了する。
【0081】
以上説明したように、第4の実施の形態によれば、基準撮影視野であるで算出された検査対象物1の姿勢情報を基準姿勢情報とし、第2撮影視野82以降、すなわち基準撮影視野を除く各撮影視野8における姿勢情報として使用するように構成することにより、特徴領域9が設定されていない、あるいは同じような領域が複数あるため特徴領域9を設定することができない撮影視野8が存在することがわかっている検査対象物1に対しても、撮影および検査を実行することができるという効果を奏する。
【0082】
さらに、第4の実施の形態によれば、各撮影視野8で位置合わせ可能な特徴領域9が存在する検査対象物1に対しても、第4の実施の形態の検査動作を適用することで第2撮影視野82以降の位置合わせ処理が不要となるため、処理時間を短縮することが可能になるという効果を奏する。
【0083】
なお、第4の実施の形態では、第1撮影視野81で撮影した画像を用いて算出された検査対象物1の基準撮影視野を第2撮影視野82以降の全ての撮影視野8における姿勢情報として使用するものであるが、位置合わせができない撮影視野8に関してのみ第1撮影視野81で算出された姿勢情報を使用するようにしても良く、位置合わせが可能な撮影視野8に関しては位置合わせを行って検査対象物1の姿勢情報を得ることも可能である。
【0084】
さらに、第4の実施の形態では、第1撮影視野81で算出した検査対象物1の姿勢情報を基準姿勢情報として第2撮影視野82における姿勢情報として用いたが、例えば第3撮影視野83にも位置合わせ可能な領域が存在するとした場合、第2撮影視野82の撮影より先に第3撮影視野83の撮影および位置合わせを行い、第1撮影視野81および第3撮影視野83でそれぞれ算出した検査対象物1の姿勢情報から基準姿勢情報を決定し、第2撮影視野82における姿勢情報を算出して、第2撮影視野82の撮影および検査を実行することも可能である。また、第1撮影視野81で算出した姿勢情報を用いて第2撮影視野82における撮影位置の算出を行って第2撮影視野82での撮影のみ実施しておき、第3撮影視野83の撮影および位置合わせを行った後に第1撮影視野81および第3撮影視野83で算出した検査対象物1の姿勢情報から第2撮影視野82における姿勢情報を算出して、第2撮影視野82の検査を実行することも可能である。
【0085】
(第5の実施の形態)
図16は、本発明に係る外観検査装置の第5の実施の形態の検査動作を説明するためのフローチャートである。
【0086】
第5の実施の形態は、トレイ7のポケット71内に収納された検査対象物1を複数の視野に分割して撮影することにおいて、ポケット71のサイズおよび検査対象物1のサイズから事前に各撮影視野8の撮影位置を決定するものである。
【0087】
まず検査実施前に、トレイ7のポケット71のサイズと検査対象物1のサイズとから、各撮影視野8で撮影を行う際の撮影位置を決定しておき、移動制御部59は、決定された各撮影視野8のそれぞれの撮影位置への撮影手段2の移動を制御する。まず、移動制御部59は、移動手段3を制御して撮影手段2を第1撮影視野81で撮影する位置に移動させる(S11)。第1撮影視野81を撮影する位置への移動が完了したら、撮影手段2によって第1撮影視野81を撮影し(S12)、撮影手段2によって第1撮影視野81で撮影された画像が画像取込部51に取り込まれ、姿勢検出部56は、第1撮影視野81で撮影された画像の位置合わせ処理を行う(S13)。なお、S12における第1撮影視野81での撮影時に、撮影順番mをm=1にセットする。姿勢検出部56によって算出された姿勢情報は、画像処理部57にも出力され、画像処理部57は、姿勢情報に基づいて画像から第1領域Aを検査領域として抽出し、抽出した第1領域Aの傾きを補正し、画像処理部57によって画像から抽出され傾きを補正された第1領域Aは、検査部58によって検査される(S15)。
【0088】
次に、検査部58は、検査対象物1の全撮影視野8について検査が終了したかどうかを確認し(S16)、検査が終了していない場合は、撮影順番mをインクリメントし(S17)、移動制御部59の制御によって次の撮影視野8であるインクリメントされたm番目の撮影視野8の撮影位置に撮影手段2が移動され(S18)、撮影手段2によってm番目の撮影視野8の撮影が行われる(S19)。次に撮影手段2によってm番目の撮影視野8で撮影された画像が画像取込部51に取り込まれ、姿勢検出部56は、m番目の撮影視野8で撮影された画像の位置合わせ処理を行う(S20)。以下、m番目の撮影視野8で撮影された画像に対してS15の検査が行われ、検査対象物1の全撮影視野8について検査が終了するまで撮影と検査とが繰り返し行われる。検査部58による検査結果は、検査対象物1の全撮影視野8についての検査の終了後、表示部54に表示される。
【0089】
次に、第5の実施の形態における検査動作の具体例について図17乃至図19を参照して詳細に説明する。
図17は、本発明に係る外観検査装置の第5の実施の形態の検査動作を説明するための説明図であり、図18は、本発明に係る外観検査装置の第5の実施の形態の検査動作における検査経路を説明する説明図であり、図19は、本発明に係る外観検査装置の第5の実施の形態における各撮影視野での検査領域を示す説明図であり、図20は、本発明に係る外観検査装置の第5の実施の形態における撮影視野数の算出方法を説明するための説明図である。
【0090】
本例では、図17に示すように、トレイ7のポケット71に収納された検査対象物1を第1撮影視野81、第2撮影視野82、第3撮影視野83および第4撮影視野84の4つの撮影視野8に分割して撮影する。なお、図17に示す各撮影視野8の大きさは若干異なっているが、これは各撮影視野8を分かりやすくするためであり、実際は全各撮影視野8の大きさは同一である。
【0091】
第5の実施の形態では、まず、検査前にポケット71のサイズと検査対象物1のサイズとから、第1撮影視野81、第2撮影視野82、第3撮影視野83および第4撮影視野84の撮影位置を決定する。検査を開始したら、第1撮影視野81の撮影位置に撮影手段2を移動し、第1撮影視野81を撮影する。撮影が終了したら、撮影した画像を用いて位置合わせを行い、検査対象物1の姿勢情報を算出して検査を行う。第1撮影視野81で撮影した画像による検査が終了したら、同様にして第2撮影視野82の撮影および検査を行う。第2撮影視野82の検査終了後、第3撮影視野83および第4撮影視野84に関しても同様に撮影および検査を行い、検査対象物1の検査を終了する。
【0092】
なお、第5の実施の形態では、検査対象物1の右端の視野から順に検査を行ったが、予め撮影する位置を設定しておくため、任意の視野から、かつ任意の順番で検査を実行することが可能である。従って、第1の実施の形態では、図18(a)に示すように、各ポケット71において決まった撮影視野8から検査を開始する必要があるため、各ポケット71間の撮影手段2の移動を最短距離で行うことができないが、第5の実施の形態では、図18(b)に示すように、各ポケット71間の撮影手段2の移動を最短距離で行うことができ、第5の実施の形態では、第1の実施の形態による撮影手段2の移動経路よりも短い撮影手段2の移動経路を採用することが可能である。
【0093】
また、第5の実施の形態においては、検査対象物1に対し2次元的に撮影視野8を分割して、任意の撮影視野8かつ任意の順番で検査を実行することも可能であり、さらに、ある撮影視野8での検査が終了した後に次撮影視野8の撮影を行うとしたが、ある視野における撮影終了後の検査と次視野の撮影を平行して実行することも可能である。
【0094】
検査対象物1の右側から順に撮影する場合、第5の実施の形態においても第1の実施の形態と同様に、図19に示す第1領域Aは、ポケット71内の検査対象物1の位置が図19(a)と(b)とに示すように左右に最大限ずれていても、第1撮影視野81において必ず撮影される。従って、検査対象物1の位置は、ポケット71の横方向の長さLpと検査対象物1の横方向の長さをLcとの差だけ最大異なることになり、図20に示すように、第1撮影視野81で必ず撮影される第1領域Aの検査対象物1の右端からの長さNcf1は、Ncf1=Lr−(Lp−Lc)で表すことができ、検査対象物1の姿勢情報を取得可能である場合、第1領域Aを検査領域とすることができる。なお、検査対象物1のサイズ等の外形情報を取得する方法としては、検査の基準となる画像を作成する際に、オペレータによって検査対象物1の角位置をティーチングする方法や、画像認識による検査対象物1の角の検出などが考えられる。
【0095】
第5の実施の形態では、各撮影視野8に関してポケット71の長さから撮影位置を予め決定し、第1撮影視野81での位置合わせによる検査対象物1の姿勢情報から、第2撮影視野82以降の撮影視野8における検査領域を設定して検査を行う。検査では、ある撮影視野8で必ず撮影される範囲がその撮影視野8での検査範囲になるため、ポケット71内での検査対象物1の位置によらず検査対象物1全体を検査するには、図20に示すように、隣接する撮影視野8でポケット71と検査対象物1の長さの差(Lp−Lc)だけ撮影視野8を重ねておく必要がある。図19に第1撮影視野81乃至第4撮影視野84の各撮影視野8で検査するそれぞれの検査領域を示す。図19(a)はポケット71内で検査対象物1が最も右端にある例を示し、図19(b)はポケット71内で検査対象物1が最も左端にある例を示している。この図19(a)および(b)を参照すると、第1撮影視野81で検査される第1領域A、第2撮影視野82で検査される第2領域B’、第3撮影視野83で検査される第3領域C’およびで第4撮影視野84で検査される第4領域D’がそれぞれ第1撮影視野81乃至第4撮影視野84で必ず撮影される範囲であることがわかる。
【0096】
また、図19を参照すると、第5の実施の形態における撮影視野数Nraは、撮影視野数Nra= Lc/(Lr−(Lp−Lc))( 小数点切り上げ )で表すことができる。また、2次元的に撮影視野8を分割して検査を行う場合は、縦方向および横方向について撮影視野数Nrfを算出することで全体の撮影視野数Nrfを算出することができる。
【0097】
以上説明したように、第5の実施の形態によれば、トレイ7のポケット71のサイズおよび検査対象物1のサイズから撮影位置を予め算出しておくため、第1の実施の形態で実施していた第2撮影視野82以降の撮影位置算出処理が不要となり、第1の実施の形態と撮影視野数が同一である場合には、処理時間が短くなるという効果を奏する。
【0098】
さらに、第5の実施の形態によれば、任意の撮影視野、任意の順番で検査を実行できるため、複数の検査対象物1を検査する場合に、第1の実施の形態による検査と比較して撮影手段2を移動させる距離が短くて済み、検査全体の時間を短くすることが可能であるという効果を奏する。
【0099】
(第6の実施の形態)
第6の実施の形態は、第1の実施の形態から第5の実施の形態の検査動作のいずれかを選択可能に構成したものである。
【0100】
第1の実施の形態から第4の実施の形態と、第5の実施の形態とを比較すると、第1の実施の形態から第4の実施の形態における撮影視野数の方が少ない場合が多く、撮影視野数が少ない方が撮影に要する時間が短くなる。しかし、第1の実施の形態から第4の実施の形態と、第5の実施の形態との撮影視野数が同一であった場合には、第5の実施の形態では検査中に撮影手段2の撮影位置を決定する必要がなく、検査に要する時間が短くなる。従って、第1の実施の形態から第4の実施の形態における撮影視野数の方が少ない場合には、第1の実施の形態から第4の実施の形態のいずれかを選択し、第1の実施の形態から第4の実施の形態と、第5の実施の形態との撮影視野数が同一であった場合には、第5の実施の形態を選択することが考えられる。この場合には、第1の実施の形態から第4の実施の形態の撮影視野数Nrfは、ポケット71の横方向の長さLpおよび撮影視野8の横方向の長さLrによって算出され、第5の実施の形態の撮影視野数Nraは、ポケット71の横方向の長さLp、検査対象物1の横方向の長さLcおよび撮影視野8の横方向の長さLrによって算出されるため、ポケット71、検査対象物1および撮影視野8のサイズ情報とから撮影視野数Nrfと撮影視野数Nraとを算出する手段と、算出された撮影視野数Nrfと撮影視野数Nraと比較する手段と、撮影視野数Nrfが撮影視野数Nraよりも少ない場合には、第1の実施の形態から第4の実施の形態のいずれかを選択し、撮影視野数Nrfと撮影視野数Nraとが同数である場合には、第5の実施の形態を選択する手段とを設けると好適である。
【0101】
第1の実施の形態から第4の実施の形態のそれぞれの処理時間を比較すると、第1の実施の形態から第3の実施の形態の処理時間は同一となるが、第4の実施の形態では位置合わせ処理を第1撮影視野81でのみ実施しているため、他の実施の形態と比較して位置合わせ処理が少なく、全体の処理時間が若干速くなる。
【0102】
また、第1の実施の形態では第1撮影視野81で算出した検査対象物1の姿勢情報から第2撮影視野82以降の撮影位置を算出するが、検査時間が撮影手段2の移動時間に比べて短い場合、まず第2撮影視野82の撮影位置のみを算出し、撮影手段2の移動と並列に検査および第3撮影視野83以降の撮影位置の算出を行うことで、全体の処理時間を若干短縮することができる。第2の実施の形態と第3の実施の形態は、位置合わせ失敗時の処理を除いて同一の処理であるため、位置合わせに失敗しない限り処理時間は同一である。
【0103】
このように、第1の実施の形態から第4の実施の形態おいては、処理時間に大きな差が生じないため、第1の実施の形態から第4の実施の形態における撮影視野数の方が第5の実施の形態よりも少ない場合は、必要に応じて第1の実施の形態から第4の実施の形態の内いずれかをオペレータが選択できるように構成すると良い。例えば、処理の高速性を重視する場合は第4の実施の形態を、検査精度を重視する場合は第2の実施の形態あるいは第3の実施の形態のいずれかを選択するということが考えられる。
【0104】
以上説明したように、第6の実施の形態によれば、処理時間、検査精度等を基準として複数の検査方法から検査動作を選択できるように構成することにより、検査対象物1の形態によらず最も適切な検査動作を採用することができるという効果を奏する。
【0105】
(第7の実施の形態)
第7の実施の形態は、第1の実施の形態から第6の実施の形態において、ポケット71内にある検査対象物1に対し、複数の検査対象物1を撮影した画像を視野毎に合成して、前記合成した画像を検査の基準となる画像として検査を行うようにしたものである。
【0106】
第7の実施の形態を第1の実施の形態に適用した場合、まず、検査対象物1の第1撮影視野81を撮影し、得られた画像を第1撮影視野81における検査の基準となる仮の画像とする。この画像を用いて位置合わせを行う特徴領域9を設定して全撮影視野8の撮影を行い、得られた画像を各撮影視野8の検査における検査の基準となる仮の画像とする。各撮影視野8において検査の基準となる仮の画像を設定したら、他の検査対象物1における各撮影視野8の撮影を行って、撮影した画像を用いて位置合わせ処理を行い、姿勢情報を算出する。姿勢情報を算出したら撮影した画像の変換を行い、ずれを補正する。撮影した全ての画像のずれ補正が終了したら、撮影視野8毎に画像を合成して、前記合成した画像を正式に検査の基準となる画像として設定する。
【0107】
次に、第7の実施の形態を第5の実施の形態に適用した場合、まず、検査対象物1の各撮影視野8を撮影し、得られた画像を各撮影視野8の検査における検査の基準となる仮の画像とする。各撮影視野8において前記検査の基準となる仮の画像を設定したら、他の検査対象物1における各視野の撮影を行って、撮影した画像を用いて位置合わせ処理を行い、姿勢情報を算出する。姿勢情報を算出したら撮影した画像の変換を行い、ずれを補正する。撮影した全ての画像の補正が終了したら、撮影視野8毎に画像を合成して、前記合成した画像を正式に検査の基準となる画像として設定する。また、最初に全ての検査対象物1の撮影のみを行い、合成を行う前に撮影した画像の補正をまとめて行うようにすることも可能である。
【0108】
以上説明したように、第7の実施の形態によれば、撮影した画像を用いて位置合わせ処理を行い、ずれを補正しながら画像を収集するように構成することにより、検査対象物1をトレイ7のポケット71に収納した状態で、検査の基準となる仮の画像を収集することができ、検査の基準となる画像を効率よく生成することができるという効果を奏する。
【0109】
(第8の実施の形態)
図21は、本発明に係る外観検査装置の第8の実施の形態の検査動作を説明するためのフローチャートである。
【0110】
第8の実施の形態は、第1の実施の形態から第4の実施の形態において、第1撮影視野81における位置合わせに失敗して検査対象物1の姿勢情報が得られなかった場合に、第1撮影視野81とは異なる予備の撮影視野8を予め設定しておき、当該予備の撮影視野8で撮影を行い、撮影した画像を用いた位置合わせにより得られた検査対象物1の姿勢情報から第1撮影視野81の撮影位置を決定し、再検査を行うようにしたものである。図21には、第1の実施の形態の検査動作に第8の実施の形態のS81〜S85の処理動作を追加した例を示す。
【0111】
第8の実施の形態では、S13での第1撮影視野81で撮影された画像の位置合わせ処理が終了後、第1撮影視野81の位置合わせ処理が成功したかどうかを確認し(S81)、失敗した場合は予め設定しておいた予備の撮影視野8に撮影手段2を移動する(S82)。撮影手段2の移動が終了したら撮影を行い(S83)、予備の撮影視野8で撮影された画像に対して位置合わせを行い(S84)、検査対象物1の姿勢情報を算出し、算出した検査対象物1の姿勢情報から、改めて第1撮影視野81の撮影位置を決定し(S85)、S11からの検査動作を継続する。なお、予備の撮影視野8は、1つに限らず、複数設定しても良い。
【0112】
以上説明したように、第8の実施の形態によれば、第1撮影視野81において位置合わせに失敗して検査対象物1の姿勢情報が得られなかった場合でも、改めて検査を実行することが可能になり、検査効率を向上させることができるという効果を奏する。
【0113】
なお、本発明が上記各実施の形態に限定されず、本発明の技術思想の範囲内において、各実施の形態は適宜変更され得ることは明らかである。また、上記構成部材の数、位置、形状等は上記実施の形態に限定されず、本発明を実施する上で好適な数、位置、形状等にすることができる。なお、各図において、同一構成要素には同一符号を付している。
【0114】
【発明の効果】
本発明の外観検査装置および外観検査方法は、トレイのポケットに収納された検査対象物を複数の撮影視野で分割撮影する際に、第1撮影視野で撮影された画像から検査対象物の姿勢情報を算出し、算出した姿勢情報によって第2撮影視野以降の撮影位置を決定するように構成することにより、トレイのポケットに収納された検査対象物の機械的な位置決めをすることなく、各撮影視野で撮影された画像を高精度に検査することができ、トレイのポケットに収納された検査対象物を複数の撮影視野で分割撮影する際の撮影視野数を最小限にすることができ、各撮影視野での位置合わせ時間を短縮することができるという効果を奏する。
【0115】
さらに、本発明の外観検査装置および外観検査方法は、第2撮影視野以降は各撮影視野において常に各撮影視野でそれぞれ決まった検査対象物の領域をそれぞれ撮影することができることから、各撮影視野で特徴領域の探索領域を設定する場合に、第2撮影視野以降の探索領域を広範囲に設定する必要がなく、探索時間を短縮することが可能となるという効果を奏する。
【0116】
さらに、本発明の外観検査装置および外観検査方法は、直前の撮影視野で撮影した画像の位置合わせ結果から次撮影視野の撮影位置を算出する様に構成することにより、次撮影視野の撮影位置の誤差を少なくすることができる。
【0117】
さらに、本発明の外観検査装置および外観検査方法は、ある撮影視野で位置合わせに失敗して検査対象物の姿勢情報が得られなかった場合に、既に位置合わせに成功した撮影視野での姿勢情報に基づいて当該撮影視野での検査を行うように構成することにより、ある視野で姿勢情報が得られなかった場合でも検査を継続することができるという効果を奏する。
【0118】
さらに、本発明の外観検査装置および外観検査方法は、第1撮影視野で算出された検査対象物の姿勢情報を撮影視野以降における姿勢情報として使用するように構成することにより、特徴領域が設定されていない、あるいは同じような領域が複数あるため特徴領域を設定することができない撮影視野が存在することがわかっている検査対象物に対しても、撮影および検査を実行することができるという効果を奏する。
【0119】
さらに、本発明の外観検査装置および外観検査方法は、各撮影視野で位置合わせ可能な特徴領域が存在する検査対象物に対しても、第2撮影視野以降の位置合わせ処理を不要とすることができ、処理時間を短縮することが可能になるという効果を奏する。
【0120】
さらに、本発明の外観検査装置および外観検査方法は、トレイのポケットのサイズおよび検査対象物のサイズから撮影位置を予め算出することにより、第2撮影視野以降の撮影位置算出処理を不要することができ、処理時間を短縮することが可能になるという効果を奏する。
【0121】
さらに、本発明の外観検査装置および外観検査方法は、任意の撮影視野、任意の順番で検査を実行できるため、複数の検査対象物を検査する場合に、撮影手段を移動させる距離が短くすることができ、処理時間を短縮することが可能になるという効果を奏する。
【0122】
さらに、本発明の外観検査装置および外観検査方法は、処理時間、検査精度等を基準として複数の検査方法から検査動作を選択できるように構成することにより、検査対象物1の形態によらず最も適切な検査動作を採用することができるという効果を奏する。
【0123】
さらに、本発明の外観検査装置および外観検査方法は、撮影した画像を用いて位置合わせ処理を行い、ずれを補正しながら画像を収集するように構成することにより、検査対象物をトレイのポケットに収納した状態で、検査の基準となる仮の画像を収集することができ、検査の基準となる画像を効率よく生成することができるという効果を奏する。
【0124】
さらに、本発明の外観検査装置および外観検査方法は、第1撮影視野において位置合わせに失敗して検査対象物の姿勢情報が得られなかった場合でも、改めて検査を実行することが可能になり、検査効率を向上させることができるという効果を奏する。
【図面の簡単な説明】
【図1】本発明に係る外観検査装置の第1の実施の形態の構成を示すブロック図である。
【図2】図1に示す検査対象物が収納されるトレイの形状を示す斜視図である。
【図3】図1に示す撮影手段による撮影視野とポケットおよび検査対象物との対応関係を説明する説明図である。
【図4】図1に示す特徴領域記憶部に記憶される特徴領域例を示す説明図である。
【図5】図1に示す撮影手段によって撮影される第1撮影視野の範囲を説明するための説明図である。
【図6】図1に示す特徴領域設定部によって特徴領域を設定する範囲を説明するための説明図である。
【図7】図1に示す特徴領域設定部による撮影視野数の算出方法を説明するため説明図である。
【図8】本発明に係る外観検査装置の第1の実施の形態の検査動作を説明するためのフローチャートである。
【図9】本発明に係る外観検査装置の第1の実施の形態の具体的な検査動作を説明するための説明図である。
【図10】撮影視野が予め設定されている場合の撮影視野の移動例を示す説明図である。
【図11】本発明に係る外観検査装置の第1の実施の形態の撮影視野の移動例を示す説明図である。
【図12】本発明に係る外観検査装置の第2の実施の形態の検査動作を説明するためのフローチャートである。
【図13】本発明に係る外観検査装置の第3の実施の形態の検査動作を説明するためのフローチャートである。
【図14】本発明に係る外観検査装置の第4の実施の形態の検査動作を説明するためのフローチャートである。
【図15】図1に示す特徴領域記憶部に第1撮影視野に対応する特徴的視野のみが記憶されている場合の検査動作を説明するための説明図である。
【図16】本発明に係る外観検査装置の第5の実施の形態の検査動作を説明するためのフローチャートである。
【図17】本発明に係る外観検査装置の第5の実施の形態の検査動作を説明するための説明図である。
【図18】本発明に係る外観検査装置の第5の実施の形態の検査動作における検査経路を説明する説明図である。
【図19】本発明に係る外観検査装置の第5の実施の形態における各撮影視野での検査領域を示す説明図である。
【図20】本発明に係る外観検査装置の第5の実施の形態における撮影視野数の算出方法を説明するための説明図である。
【図21】本発明に係る外観検査装置の第8の実施の形態の検査動作を説明するためのフローチャートである。
【符号の説明】
1 検査対象物
2 撮影手段
3 移動手段
4 照明手段
5 画像処理装置
51 画像取込部
52 入力部
53 特徴領域設定部
54 表示部
55 特徴領域記憶部
56 姿勢検出部
57 画像処理部
58 検査部
59 移動制御部
7 トレイ
71 ポケット
8 撮影視野
81 第1撮影視野
82 第2撮影視野
83 第3撮影視野
84 第4撮影視野
9、91、92、93、94、95、96 特徴領域
100 回路パターン
101 位置合わせ用マーク
102 バンプ
103 角部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an appearance inspection apparatus and an appearance inspection method for inspecting an appearance of an inspection object, and in particular, an appearance inspection for inspecting an appearance by dividing an inspection object stored in a tray pocket into a plurality of fields of view. The present invention relates to an apparatus and an appearance inspection method.
[0002]
[Prior art]
Conventionally, an IC chip appearance test is performed in which an IC chip stored in a tray pocket is photographed by a camera or the like, and the photographed image is input to an image processing unit to determine whether the chip is a good product or a defective product. There exists an apparatus (for example, refer to Patent Document 1).
[0003]
This type of IC chip appearance inspection apparatus photographs the entire surface of an IC chip housed in a tray pocket with a single field of view. The larger the IC chip size, the coarser the resolution of the image. There is a drawback that it is difficult to detect a certain defect.
[0004]
Therefore, the IC chip housed in the tray pocket is positioned and fixed, the entire surface of the positioned IC chip is illuminated with an annular illumination, and the XYθ table is driven while photographing with a microscope camera from above. There has been proposed an appearance inspection apparatus that performs an inspection by photographing an IC chip from a plurality of photographing fields of view (for example, see Patent Document 2).
[0005]
[Patent Document 1]
JP-A-5-152406
[Patent Document 2]
JP-A-8-145895
[0006]
[Problems to be solved by the invention]
However, in the prior art, in order to prevent the IC chip position shift when photographing the IC chip stored in the tray with a plurality of fields of view, an IC chip positioning and fixing means having a complicated mechanism is required, Since the IC chip is mechanically positioned, there has been a problem in that images taken in each field of view cannot be inspected with high accuracy.
[0007]
The present invention has been made in view of such a problem, and an object of the present invention is to store an inspection object stored in a tray pocket in a tray pocket when performing divided shooting in a plurality of fields of view. An object of the present invention is to provide an appearance inspection apparatus and an appearance inspection method capable of inspecting an image captured in each field of view with high accuracy without mechanically positioning the inspection object.
[0008]
Furthermore, an object of the present invention is to minimize the number of field of view when the object to be inspected stored in the pocket of the tray is divided and photographed in a plurality of fields of view, and the position in each field of view. An object of the present invention is to provide an appearance inspection apparatus and an appearance inspection method capable of shortening the alignment time.
[0009]
[Means for Solving the Problems]
  In order to solve the above problems, the present invention has the following configuration.
  An appearance inspection apparatus according to the present invention is an appearance inspection apparatus that divides and images an inspection object stored in a tray pocket into a plurality of imaging fields of view, and performs an appearance inspection of the inspection object by an image obtained by the imaging. The imaging means for imaging the inspection object in the imaging field of view, the moving means for moving the imaging field of view, the characteristic area storage means for storing the characteristic area of the inspection object, and the imaging means Attitude detection means for searching the characteristic area of the inspection object from an image captured in the imaging field of view and calculating attitude information of the inspection object with reference to information obtained by the search; and the attitude information And a movement control means for determining a photographing position of the photographing visual field by the moving means based on the above.
  Further, in the appearance inspection apparatus according to the present invention, the posture detection means searches the feature region of the inspection object from an image photographed in a predetermined first field of view, and obtains information obtained by the retrieval. The posture information of the object to be inspected is calculated with reference, and the movement control means is a second photographing visual field subsequent to the first photographing visual field based on the posture information calculated by photographing in the first photographing visual field. The photographing position is determined and the moving means is controlled.
  Furthermore, the appearance inspection apparatus of the present invention extracts an inspection area from an image captured in the field of view based on the posture information, and corrects the inclination of the extracted inspection area, and the image processing means. Inspection means for inspecting the inspection area extracted and corrected in inclination.
  Further, in the appearance inspection apparatus according to the present invention, the posture detection means searches the feature region of the inspection object from an image photographed in a predetermined first field of view, and obtains information obtained by the retrieval. The posture information of the object to be inspected is calculated with reference to the image processing means, and the image processing means starts the second photographing field following the first photographing field based on the posture information calculated by photographing in the first photographing field. The inspection area is extracted from the image photographed in step S1, and the inclination of the extracted inspection area is corrected.
  Furthermore, in the appearance inspection apparatus according to the present invention, the movement control unit determines a shooting position of the shooting field of view taken after the shooting field of view where the posture information is calculated based on the posture information. And
  Furthermore, in the appearance inspection apparatus of the present invention, the image processing means extracts the inspection area from an image photographed in the photographing field of view where the posture information is calculated based on the posture information, and the extracted inspection area It is characterized by correcting the inclination of the.
  Further, in the appearance inspection apparatus according to the present invention, the movement control unit fails to calculate the posture information when the posture detection unit fails to calculate the posture information from an image photographed in the photographing field of view. The photographing position of the photographing field to be photographed next to the photographing field is determined based on the posture information already calculated by the posture detecting means.
  Furthermore, in the appearance inspection apparatus of the present invention, the image processing means is already calculated by the attitude detection means when the attitude detection means fails to calculate the attitude information from an image taken in the imaging field of view. The inspection area is extracted from an image captured in the imaging field of view where the calculation of the attitude information has failed based on the attitude information, and the inclination of the extracted inspection area is corrected.
  Furthermore, in the appearance inspection apparatus according to the present invention, when the posture detection unit fails to calculate the posture information from an image photographed in a predetermined first field of view, the posture inspection unit performs the predetermined by the photographing unit. The inspection object is photographed in a preliminary photographing field different from the first photographing field, the posture information is calculated from the image photographed in the preliminary photographing field by the posture detecting means, and the preliminary photographing field is obtained by the movement control means. The photographing position of the first photographing field of view is determined from the posture information calculated in step 1, and the posture information is calculated again from the image photographed in the first photographing field of view by the posture detecting means.
  Further, the appearance inspection apparatus of the present invention divides and images the inspection object stored in the tray pocket into a plurality of imaging fields of view, and performs the appearance inspection of the inspection object by the image obtained by the imaging. An apparatus, an imaging unit that images the inspection object in the imaging field, a moving unit that moves the imaging field, a feature area storage unit that stores a feature area of the inspection object, and the imaging A posture for retrieving the characteristic region of the inspection object from an image photographed in a reference photographing field predetermined by the means, and calculating reference posture information of the inspection object with reference to information obtained by the retrieval Based on the reference posture information calculated by the detection means and the posture detection means, the shooting positions of the plurality of shooting fields of view excluding the reference shooting field of view by the moving unit are respectively determined. Determined, characterized by comprising a movement control means for controlling said moving means.
  Further, the appearance inspection apparatus according to the present invention is an image processing unit that extracts an inspection area from each of the images captured in the plurality of imaging fields based on the reference posture information, and corrects the inclination of the extracted inspection area. And inspection means for inspecting each of the inspection regions extracted by the image processing means and corrected for inclination..
TheFurthermore, the appearance inspection apparatus of the present invention divides and images the inspection object stored in the pocket of the tray into a plurality of imaging fields of view, and performs an appearance inspection of the inspection object by an image obtained by the imaging. An inspection apparatus, an imaging unit that images the inspection object in the imaging field, a moving unit that moves the imaging field, a feature region storage unit that stores a feature region of the inspection object, A posture detection unit that searches the feature region of the inspection object from an image photographed in the field of view by the photographing unit, and calculates posture information of the inspection object with reference to information obtained by the search; A movement control means for determining a photographing position of the photographing field of view by the moving means based on the posture information calculated by the posture detecting means and controlling the moving means; and the pocket In the posture information necessary for photographing the whole inspection object, photographing position determining means for determining photographing positions of the plurality of photographing fields from the size, the size of the inspection object, and the size of the photographing field. Field number calculation means for calculating the number of field of view determined based on the number of fields of view determined by the field of view and the field of view determined by the position determination means based on the size of the pocket, the size of the inspection object, and the size of the field of view of the inspection; A number-of-views comparison unit that compares the number of fields of view determined based on the posture information calculated by the number-of-views calculation unit and a number of fields of view determined by the shooting position determination unit; If the number of field of view determined is smaller than the number of fields of view determined by the shooting position determining means, the inspection at the shooting position based on the posture information is selected. When the number of field of view determined based on the posture information is the same as the number of fields of view determined by the shooting position determining unit, the inspection at the shooting position determined by the shooting position determining unit is performed. And selecting means for selecting.
  Furthermore, the appearance inspection apparatus of the present invention is characterized in that the inspection means uses a composite of a plurality of images photographed in the photographing field of view as a reference image for inspecting the inspection region. .
  The appearance inspection method of the present invention is an appearance inspection method in which an inspection object stored in a pocket of a tray is divided into a plurality of photographing fields and photographed, and an appearance inspection of the inspection object is performed by an image obtained by the photographing. The inspection object is imaged in the imaging field of view, the characteristic area of the inspection object is stored, the characteristic area of the inspection object is searched from the image captured in the imaging field of view, and the search is performed. The posture information of the inspection object is calculated with reference to the information obtained by determining the shooting position of the shooting field of view based on the calculated posture information, and the shooting field of view is moved to the determined shooting position. It is characterized by making it.
  Furthermore, in the appearance inspection method of the present invention, the feature region of the inspection object is searched from an image taken in a predetermined first field of view, and the inspection object is referred to by referring to information obtained by the search. The posture information of an object is calculated, and a shooting position after the second shooting field of view following the first shooting field of view is determined based on the posture information calculated in the first shooting field of view.
  Further, in the appearance inspection method of the present invention, the inspection area is extracted from the image captured in the imaging field of view based on the posture information, the inclination of the extracted inspection area is corrected, and the extracted and corrected inclination is corrected. An inspection area is inspected.
  Further, in the appearance inspection method of the present invention, the feature region of the inspection object is searched from an image captured in a predetermined first field of view, and the inspection object is referred to by referring to information obtained by the search. The inspection information is calculated and the inspection region is extracted and extracted from an image photographed after the second photographing visual field following the first photographing visual field based on the posture information calculated in the first photographing visual field. It is characterized by correcting the inclination of the region.
  Furthermore, the appearance inspection method of the present invention is characterized in that, based on the posture information, a shooting position of the shooting field of view to be photographed after the shooting field of view of which the posture information is calculated is determined.
  Further, the appearance inspection method of the present invention extracts the inspection area from the image captured in the imaging field of view where the attitude information is calculated based on the attitude information and corrects the inclination of the extracted inspection area. It is characterized by.
  Further, in the appearance inspection method of the present invention, when the calculation of the posture information fails from the image shot in the shooting field of view, the imaging field of view taken after the shooting field of view where the calculation of the posture information has failed. The imaging position is determined based on the posture information that has already been calculated.
  Furthermore, in the appearance inspection method of the present invention, when the calculation of the posture information has failed from the image shot in the shooting field of view, the calculation of the posture information has failed based on the posture information that has already been calculated. The inspection area is extracted from an image captured in a field of view and the inclination of the extracted inspection area is corrected.
  Furthermore, in the appearance inspection method of the present invention, when the calculation of the posture information fails from an image photographed in a predetermined first photographing visual field, a preliminary photographing visual field different from the predetermined first photographing visual field. The posture information is calculated from the image captured in the preliminary photographing field, the photographing position of the first photographing field is determined from the posture information calculated in the preliminary photographing field, and the determination is performed. The first field of view is captured again at the captured position, and the posture information is calculated from an image captured again in the first field of view.
  Furthermore, the visual inspection method of the present invention is a visual inspection in which the inspection object stored in the pocket of the tray is imaged by dividing it into a plurality of imaging fields, and the appearance inspection of the inspection object is performed by an image obtained by the imaging. A method for photographing the inspection object in the photographing field of view, storing a characteristic region of the inspection object, and storing the characteristic region of the inspection object from an image photographed in a predetermined reference photographing field of view. The reference posture information of the inspection object is calculated with reference to the information obtained by the search, and the plurality of shooting fields of view excluding the reference shooting field of view are calculated based on the calculated reference posture information. Each position is determined, and the photographing field of view is moved to each determined photographing position.
  Further, the visual inspection method of the present invention extracts an inspection area from each of the images captured in the plurality of fields of view based on the reference posture information and corrects the inclination of the extracted inspection area, Inspecting each of the inspection areas extracted and corrected for inclination.
TheFurthermore, the appearance inspection method of the present invention is an appearance in which an inspection object stored in a tray pocket is imaged by dividing it into a plurality of imaging fields of view, and an appearance inspection of the inspection object is performed by an image obtained by the imaging. An inspection method, the step of photographing the inspection object in the photographing field, the step of moving the photographing field, the feature region of the inspection object, and the image photographed in the photographing field The feature area of the inspection object is searched from, the posture information of the inspection object is calculated with reference to the information obtained by the search, and the imaging field of view is calculated based on the calculated posture information. Determining a shooting position; and determining the shooting positions of the plurality of shooting fields based on size information including the size of the pocket, the size of the inspection object, and the size of the field of view; A step of controlling the movement of the shadow field, the number of field of view determined based on the posture information necessary for capturing the entire inspection object, and the number of field of view determined based on the size information. Calculating the size of the inspection object, the size of the inspection object, and the size of the imaging field, the number of imaging fields determined based on the calculated posture information, and the number of imaging fields determined based on the size information. When the number of field of view determined based on the posture information is smaller than the number of field of view determined based on the size information, and the step of comparing, select the inspection at the shooting position based on the posture information, When the number of field of view determined based on the posture information is the same as the number of fields of view determined based on the size information, the field of view determined based on the size information Characterized by a step of selecting the test.
  Furthermore, the appearance inspection method of the present invention uses a composite of a plurality of images taken in the field of view as a reference image when inspecting the inspection area extracted and corrected in inclination. And
  Further, a program for causing a computer to execute the appearance inspection method according to the present invention is to divide and image an inspection object stored in a tray pocket into a plurality of imaging fields of view, and to obtain the inspection object by an image obtained by the imaging. A program for causing a computer to execute an appearance inspection method for performing an appearance inspection of an object, the step of photographing the inspection object in the photographing field of view, and storing a characteristic region of the inspection object, Based on the calculated posture information, a step of retrieving the characteristic region of the inspection object from an image captured in a field of view, referring to information obtained by the search, and calculating posture information of the inspection object And determining the shooting position of the shooting field of view, and moving the shooting field of view to the determined shooting position.
[0010]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0011]
(First embodiment)
FIG. 1 is a block diagram showing a configuration of a first embodiment of an appearance inspection apparatus according to the present invention, and FIG. 2 is a perspective view showing a shape of a tray in which an inspection object shown in FIG. 1 is stored. 3 is an explanatory diagram for explaining the correspondence between the field of view taken by the photographing means shown in FIG. 1, the pockets, and the inspection object, and FIG. 4 is a feature stored in the feature region storage unit shown in FIG. FIG. 5 is an explanatory diagram illustrating an example of a region, and FIG. 5 is an explanatory diagram illustrating a range of a first field of view captured by the imaging unit illustrated in FIG. 1.
[0012]
Referring to FIG. 1, the first embodiment is photographed by photographing means 2, moving means 3 for moving photographing means 2, illuminating means 4 for illuminating inspection object 1, and photographing means 2. The image processing apparatus 5 that captures the image of the inspection object 1 and controls the moving means 3 and the illumination means 4, and the appearance of the inspection object 1 stored in the pocket 71 of the tray 7 shown in FIG. Perform an inspection.
[0013]
The photographing means 2 is arranged on the tray 7 and comprises a microscope, a CCD camera or the like for photographing the inspection object 1 such as an IC chip housed in the pocket 71 of the tray 7 from above, and is moved by the moving means 3. The inspection object 1 that is configured so as to be stored in the plurality of pockets 71 of the tray 7 is sequentially photographed. The field of view 8 taken by the photographing means 2 is set to a range narrower than the pocket 71 of the tray 7, and the inspection object 1 stored in the pocket 71 of the tray 7 is divided and photographed. Specifically, as shown in FIG. 3, when the lateral length of the pocket 71 is Lp, the lateral length of the inspection object 1 is Lc, and the lateral length of the imaging field of view 8 is Lr, When the relationship of Lp> Lc> Lr is established, the length in the vertical direction of the pocket 71 is Mp, the length in the vertical direction of the inspection object 1 is Mc, and the length in the vertical direction of the field of view 8 is Mr, Mc < The relationship Mp <Mr is established, and the imaging unit 2 divides and images the inspection object 1 into a plurality of imaging fields 8 while moving in the lateral direction of the pocket 71.
[0014]
The moving means 3 has a function of moving at least the photographing means 2 in the XY direction parallel to the surface of the tray 7, and moves the photographing means 2 onto each pocket 71 of the tray 7 under the control of the image processing device 5. . Needless to say, the tray 7 may be moved by the moving means 3.
[0015]
The image processing apparatus 5 is an information processing apparatus that operates by program control. Referring to FIG. 1, an image capturing unit 51, an input unit 52 including a keyboard and a mouse, a feature area setting unit 53, a display, and the like Display section 54, feature area storage section 55, posture detection section 56, image processing section 57, inspection section 58, and movement control section 59.
[0016]
The image capturing unit 51 captures an image captured by the capturing unit 2, outputs the captured image to the posture detection unit, and controls the illumination unit 4 to emit light when capturing by the capturing unit 2.
[0017]
The feature region setting unit 53 captures the pattern data of the inspection object 1 as feature region setting data, displays the captured feature region setting data on the display unit 54, and displays the feature region setting data displayed on the display unit 54. A range designated by input from the input unit 52 by the operator based on the data is set as the feature region 9, and the set feature region 9 is stored in the feature region storage unit 55. The feature area setting data is pattern data of the entire surface of the inspection object 1 and may be worked on by the characteristic area setting unit 53 by photographing by the photographing means 2. You may make it take in from the outside as data as it is. A method for setting the feature region 9 will be described later.
[0018]
The characteristic area 9 is an area that is set for each assumed imaging field of view 8 and includes a pattern for uniquely determining the corresponding position in each imaging field of view 8, and other similar patterns in the same imaging field of view 8. It is necessary to be able to specify the vertical and horizontal directions, and it can be set by input from the input unit 52 by the operator. Note that the number of feature regions 9 set in the same field of view 8 may be only one if the position and inclination of the inspection object 1 can be detected in one feature region 9. Two or more feature regions 9 may be set in the inside.
[0019]
As an example of the characteristic region 9 in the inspection object 1 such as an IC chip, referring to FIG. 4, a circuit pattern formed mainly on the inspection object 1 is used. By setting the feature region 9 so as to include the pattern, the inspection object 1 can be accurately aligned. An example is an L-shaped pattern such as the circuit pattern 100, but a T-shaped or cross-shaped pattern is also conceivable. Here, the shape of the pattern included in the feature region 9 is not limited. When the alignment mark 101 is added to the inspection object 1 in advance, the circuit pattern 100 is used as the feature region 9 by setting the region including the alignment mark 101 as the feature region 9. Similarly, the inspection object 1 can be aligned. Further, the region including the bump 102 and the region including the corner 103 of the inspection object 1 can be set as the feature region 9 for alignment.
[0020]
The feature area storage unit 55 is information storage means such as a hard disk device, and stores the feature area 9 set in each field of view.
[0021]
The posture detection unit 56 performs alignment processing for the image captured by the image capture unit 51. The alignment process by the attitude detection unit 56 is a process of calculating attitude information including the position and inclination of the inspection object 1 based on the image captured by the image capture unit 51, and corresponds to each shooting field of view 8. This is performed using each feature region 9 stored in the feature region storage unit 55.
[0022]
The first imaging field 8 (hereinafter referred to as the first imaging field 81) that is first imaged in each pocket 71 is determined in advance with reference to the end of the pocket 71. That is, in order to reduce the number of times of photographing and shorten the processing time, it is necessary to reduce photographing of useless areas. Therefore, when photographing from the right side of the inspection object 1 as shown in FIG. The shooting position of the first shooting field 81 is set so that the right end of the shooting field 81 and the right end of the pocket 71 coincide with each other, and the area other than the pocket 71 in the first shooting field 81 is reduced. The area A (hereinafter referred to as the first area A) of the inspection object 1 to be always photographed can be made large. Hereinafter, the second imaging field 8 (hereinafter referred to as the second imaging field 82) captured second according to the posture information obtained by the first imaging field 81, and the third imaging captured third. A field of view 8 (hereinafter referred to as a third field of view 83) is photographed. In consideration of the accuracy of the position of the pocket 71 provided on the tray 7 and the accuracy when moving the imaging means 2, the right end of the first imaging field 81 is set slightly shifted from the right end of the pocket 71 to the right. However, as shown in FIG. 5B, if the right end of the first imaging field 81 is set so as to be largely shifted from the right end of the pocket 71 to the right side, an area other than the pocket 71 in the first imaging field 81 is formed. The region B of the inspection object 1 that is necessarily imaged in the first imaging field 81 becomes small, and if the entire inspection object 1 is to be imaged, the fourth imaging field 8 that is imaged fourth. (Hereinafter referred to as the fourth imaging field of view 84), and in order to inspect the inspection object 1 as compared with the case where the right end of the first imaging field of view 81 and the right end of the pocket 71 coincide with each other. Shooting required There is a case in which field 8 is increased.
[0023]
The image processing unit 57 extracts a region corresponding to the inspection object 1 as an inspection region from the image captured by the image capturing unit 51 based on the posture information calculated by the posture detection unit 56, and the extracted inspection region Correct the tilt. Note that the inclination correction by the image processing unit 57 is performed in order to output an inspection region having a certain inclination to the inspection unit 58, and is performed based on the inclination of the inspection object 1 included in the posture information.
[0024]
The inspection unit 58 inspects the inspection region whose inclination is corrected and extracted from the image by the image processing unit 57. For the inspection by the inspection unit 58, a method of comparing with inspection data including an image as a reference for inspection set in advance, a method of determining pass / fail using a feature amount extracted by image processing, and the like can be considered.
[0025]
The movement control unit 59 controls the movement of the photographing unit 2 by the moving unit 3, and determines the photographing position of the photographing visual field 8 based on the posture information calculated by the posture detecting unit 56.
[0026]
Next, the setting operation of the feature region 9 in the first embodiment will be described in detail with reference to FIGS.
6 is an explanatory diagram for explaining a range in which a feature region is set by the feature region setting unit shown in FIG. 1, and FIG. 7 is a diagram for explaining a method of calculating the number of fields of view by the feature region setting unit shown in FIG. It is explanatory drawing for doing.
[0027]
First, the feature region setting unit 53 includes feature region setting data, a lateral length Lp of the pocket 71, a lateral length Lc of the inspection object 1, and a lateral length Lr of the imaging field of view 8. Import size information. The size information may be input from the input unit 52 to the feature region setting unit 53, or may be read from the feature region setting data.
[0028]
Next, the feature region setting unit 53 displays the captured feature region setting data on the display unit 54 and accepts the setting of the feature region 9 in the first region A that is necessarily photographed in the first photographing field 81. When photographing sequentially from the right side of the inspection object 1, the first area A shown in FIG. 6 has the position of the inspection object 1 in the pocket 71 left and right as shown in FIGS. 6 (a) and 6 (b). Even if there is a maximum deviation, the first photographing field 81 is always photographed. The position of the inspection object 1 differs from the horizontal length Lp of the pocket 71 by the difference between the horizontal length of the inspection object 1 and the maximum distance Lc as shown in FIG. The length Lcf1 from the right end of the inspection object 1 in the first area A that is always photographed in the field of view 81 can be expressed as Lcf1 = Lr− (Lp−Lc). Therefore, the feature area setting unit 53 calculates the length Lcf1 from the right end of the inspection object 1 of the first area A that is necessarily imaged in the first imaging field 81 based on the size information, so that the first area A And at least the feature region setting data of the first region A is displayed on the display unit 54, and only the setting of the feature region 9 in the first region A is accepted. At this time, the display unit 54 displays the portion of the first region A of the feature region setting data separately from the other portion by color or the like, thereby displaying the first region A for setting the feature region 9 to the operator. Can tell the range.
[0029]
Next, when the operator designates the range of the feature region 9 by inputting from the input unit 52 while referring to the first region A of the feature region setting data displayed on the display unit 54, the feature region setting unit 53 If the same pattern as the specified range exists in the first area A, and if the same pattern as the specified range exists in the first area A, it is specified for the operator. If the same pattern as the specified range does not exist in the first area A, a notification that the specified range cannot be set as the feature area 9 is notified by display on the display unit 54, etc. The designated range is set as the feature region 9 and stored in the feature region storage unit 55. The feature area storage unit 55 also stores position information of the feature area 9 in the inspection object 1 together with pattern information representing the shape of the feature area 9.
[0030]
When the setting of the feature region 9 in the first region A is completed, the feature region setting unit 53 displays the region B (hereinafter referred to as the second region B) photographed in the second photographing field 82 on the display unit 54, The setting of the feature area 9 in the second area B is accepted. As shown in FIG. 7, the area B imaged in the second imaging field 82 is an area in which the lateral length following the first area A is the same as the lateral length Lr of the imaging field 8. Thereafter, the characteristic area 9 is set in the second area B in the same manner as in the first area A. In FIG. 7, since the inclination of the inspection object 1 in the pocket 71 is not taken into consideration, the width of the second area B is set to the lateral length Lr of the imaging field of view 8, but the actual second area The width B is slightly shorter than the lateral length Lr of the field of view 8 in consideration of the inclination of the inspection object 1 in the pocket 71.
[0031]
When the setting of the feature region 9 in the region B is completed, the feature region setting unit 53 displays the region C photographed in the third photographing field 83 on the display unit 54 and accepts the setting of the feature region 9 in the region C. As shown in FIG. 7, the area C imaged in the third imaging visual field 83 is an area in which the lateral length following the area B is shorter than the lateral length Lr of the imaging visual field 8. The field of view 8 is taken. Thereafter, the feature region 9 is set in the region C in the same manner as in the first region A, and the setting operation of the feature region 9 is finished.
[0032]
The setting operation of the feature region 9 in the case where the pocket 71 is divided into the first imaging visual field 81 to the third imaging visual field 83 for imaging has been described above, but the entire inspection object 1 in the pocket 71 is imaged. The number of photographic fields Nrf to be determined is determined by the lateral length Lp of the pocket 71 and the lateral length Lr of the photographic field 8. That is, after the second field of view 82, the length of the region examined in each field 8 other than the final field 8 is equal to the lateral length Lr of the field 8 as shown in FIG. In the final field of view, since the inspection is performed up to the left end of the inspection object 1, the length of the inspection is the maximum length Lr in the lateral direction of the imaging field 8, and therefore the number of imaging fields Nrf is Nrf = Lp / A feature region 9 is set for each region corresponding to the number of field of view Nrf calculated by Lr (rounded up after the decimal point).
[0033]
Next, the inspection operation in the first embodiment will be described in detail with reference to FIG.
FIG. 8 is a flowchart for explaining the inspection operation of the first embodiment of the appearance inspection apparatus according to the present invention.
[0034]
First, the movement control unit 59 controls the moving means 3 to move the photographing means 2 to a position where the first photographing visual field 81 is photographed (S11). When the movement of the first photographing field 81 to the photographing position is completed, the first photographing field 81 is photographed by the photographing unit 2 (S12), and the image photographed by the photographing unit 2 in the first photographing field 81 is captured. The posture detection unit 56 takes in the image captured in the first imaging visual field 81 and performs alignment processing (S13). Note that the shooting order m is set to m = 1 when shooting in the first shooting field 81 in S12.
[0035]
The alignment process by the posture detection unit 56 is a process of calculating the position and inclination of the inspection object 1 based on the image captured by the image capture unit 51, and a feature area storage corresponding to the first imaging field of view 81. This is performed using the feature region 9 stored in the unit 55. Specifically, the image captured by the image capturing unit 51 is moved or rotated horizontally and vertically to search for a region that most closely matches the feature region 9, and the region that most closely matches the found feature region 9 The position and inclination of the inspection object 1 in the image captured from the position are calculated, and the calculated position and inclination are used as posture information. That is, since the feature area 9 includes position information on the inspection object 1, if the position and inclination of the area that most closely matches the found characteristic area 9 are known, the position and inclination of the inspection object 1 are known. Can be calculated. Further, the position of the inspection object 1 represents the position of the inspection object 1 in the captured image by coordinates or the like. For example, the inspection object in the image in which the corner coordinates of the inspection object 1 are captured. Calculated as the position of 1. It should be noted that the search for the region that most closely matches the feature region 9 in the alignment process is performed by moving and rotating the feature region 9 or moving the feature region 9 and rotating the image. Any method may be used as long as it is relatively moved and rotated between the two. Further, when searching for the feature area 9, it is possible to set a search area in advance and perform a search only within the set search area.
[0036]
The posture information calculated by the alignment processing by the posture detection unit 56 is output to the movement control unit 59, and the movement control unit 59 uses the second photographing field of view based on the photographing position of the first photographing field 81 and the calculated posture information. The photographing positions of all the photographing fields 8 after 82 are determined (S14).
[0037]
The posture information calculated by the posture detection unit 56 is also output to the image processing unit 57, and the image processing unit 57 extracts the first region A from the image as an inspection region based on the posture information, and extracts the extracted first information. The first area A, in which the inclination of the one area A is corrected and is extracted from the image by the image processing unit 57 and the inclination is corrected, is inspected by the inspection unit 58 (S15). For the inspection by the inspection unit 58, a method of comparing with inspection data including an image as a reference for inspection set in advance, a method of determining pass / fail using a feature amount extracted by image processing, and the like can be considered. In the first embodiment, the first area A is extracted from the image as the inspection area, and the inclination of the extracted first area A is corrected. However, the captured image is converted, for example, by converting the inspection data. Any method may be used as long as it corrects the difference between the inspection data and the inspection data, and the inspection area to be inspected may be extracted after correcting the entire image.
[0038]
Next, the inspection unit 58 confirms whether or not the inspection has been completed for all the imaging fields 8 of the inspection object 1 (S16). If the inspection has not been completed, the imaging order m is incremented (S17), Under the control of the movement control unit 59, the photographing means 2 is moved to the photographing position of the incremented m-th photographing visual field 8 which is the next photographing visual field 8 (S18), and the photographing of the m-th photographing visual field 8 is performed by the photographing means 2. Performed (S19). Next, the image captured by the imaging unit 2 in the m-th field of view 8 is captured by the image capturing unit 51, and the posture detection unit 56 performs alignment processing for the image captured in the m-th field of view 8. (S20). Thereafter, the inspection in S15 is performed on the image captured in the m-th imaging visual field 8, and the imaging and the inspection are repeatedly performed until the inspection is completed for all the imaging visual fields 8 of the inspection object 1. The inspection result obtained by the inspection unit 58 is displayed on the display unit 54 after the inspection of the entire field of view 8 of the inspection object 1 is completed.
[0039]
In the flowchart shown in FIG. 8, the next photographing field 8 is photographed after the examination in the previous photographing field 8 is completed. It is also possible to execute the movement to the shooting position and the shooting in parallel. In addition, the shooting positions after the next shooting field of view 8 are calculated in advance after the alignment processing of the images shot in the first shooting field of view 81, but are changed to be calculated immediately before moving to the shooting position of each shooting field of view 8. It is also possible to do. Further, the provisional photographing position of the next photographing visual field 8 is set in advance, and the photographing position of the next photographing visual field 8 is calculated from the result of the alignment process in parallel with the process of moving the photographing means 2 to the temporary photographing position. It is also possible to move the photographing means 2 moved to the temporary photographing position again to the calculated photographing position of the next photographing visual field 8.
[0040]
Next, a specific example of the inspection operation in the first embodiment will be described in detail with reference to FIGS.
FIG. 9 is an explanatory diagram for explaining a specific inspection operation of the first embodiment of the appearance inspection apparatus according to the present invention, and FIG. 10 is a photographing field when a photographing field is preset. FIG. 11 is an explanatory diagram showing a moving example of the imaging field of view of the first embodiment of the appearance inspection apparatus according to the present invention.
[0041]
In this example, as shown in FIG. 9, the inspection object 1 stored in the pocket 71 of the tray 7 is divided into three imaging fields 8 of a first imaging field 81, a second imaging field 82, and a third imaging field 83. Corresponding to the characteristic areas 91 and 92 set corresponding to the first area A photographed in the first photographing visual field 81 and the second area B photographed in the second photographing visual field 82. The feature areas 93 and 94 set in this manner and the feature areas 95 and 96 set corresponding to the third area C imaged in the third imaging field 83 are stored in the feature area storage unit 55, respectively. It is supposed to be.
[0042]
First, under the control of the movement control unit 59, the moving means 3 moves the photographing means 2 from the position of the pocket 71 of the tray 7 to a preset photographing position of the first photographing visual field 81, and the photographing means 2 performs the first photographing. The field of view 81 is photographed. The image captured by the imaging unit 2 in the first field of view 81 is captured by the image capture unit 51, and the posture detection unit 56 performs the alignment process of the image captured by the image capture unit 51 on the feature regions 91 and 92. To do.
[0043]
The posture detection unit 56 calculates the posture information including the position and the inclination in the pocket 71 of the inspection object 1 by detecting the feature regions 91 and 92 from the image photographed in the first photographing field of view 81. Posture information is output to the movement control unit 59 and the image processing unit 57. The movement control unit 59 determines the shooting positions of the second shooting field 82 and the third shooting field 83 based on the calculated posture information. The image processing unit 57 extracts the first area A from the image photographed at the first photographing visual field 81 based on the posture information and corrects the inclination, and the inspection unit 58 inspects the first area A.
[0044]
When the inspection using the image photographed in the first photographing field 81 is completed, the photographing unit 2 is moved to the photographing position of the second photographing field 82 and the second photographing field 82 is photographed by the photographing unit 2. An image photographed by the photographing means 2 in the second field of view 82 is captured by the image capturing unit 51, and the posture detection unit 56 performs alignment processing of the image captured by the image capturing unit 51 in the feature regions 93 and 94. To do. The posture detection unit 56 calculates posture information including the position and inclination of the image shot in the second shooting field 82 by detecting the feature regions 93 and 94 from the image shot in the second shooting field 82. The posture information is output to the image processing unit 57. The image processing unit 57 extracts the second region B from the image photographed at the second photographing visual field 82 based on the posture information calculated at the second photographing visual field 82 and corrects the inclination. The area B is inspected. Thereafter, the third region C is similarly inspected in the third imaging visual field 83, and the inspection operation of the inspection object 1 is completed.
[0045]
Referring to FIG. 9, it can be seen that there are a portion where the first photographing visual field 81 and the second photographing visual field 82 overlap and a portion where the second photographing visual field 82 and the third photographing visual field 83 overlap. The portion where the first photographing visual field 81 and the second photographing visual field 82 overlap is an overlap for photographing the second region B that follows the first region A that is necessarily photographed in the first photographing visual field 81. The portions where the imaging field of view 82 and the third imaging field of view 83 overlap each other in the second area of the second imaging field 82 and the third imaging field 83 even when the inspection object 1 in the pocket 71 is inclined. Although it is an overlap for photographing the B and the third region C, the overlap of the respective fields of view 8 can be minimized, so that the number of times of photographing can be reduced.
[0046]
That is, in the method of setting the photographing position in advance, there is a great difference in the image even in the same photographing field of view 8 depending on how the inspection object 1 is placed in the pocket 71 of the tray 7. The region of the inspection object 1 that is necessarily imaged in the imaging field 8 is a limited range of the captured image, and each imaging field 8 needs to be largely overlapped.
[0047]
FIG. 10 shows the first photographing visual field 81 to the fourth photographing visual field 84 when the photographing position is set in advance. Considering the case where the inspection object 1 is close to the right end or the left end in the pocket 71, the first region A of the inspection object that is always imaged in the first imaging field 81 is limited. 10 and the second imaging visual field 82 are greatly overlapped, and in the example shown in FIG. 10, it is necessary to divide into four imaging visual fields 8 of the first imaging visual field 81 to the fourth imaging visual field 84 and perform the inspection. Note that the size of each field of view 8 shown in FIG. 10 is slightly different, but this is for easy understanding of each field of view 8, and in fact, the size of each field of view 8 is the same.
[0048]
On the other hand, according to the first embodiment, the imaging position after the second imaging visual field 82 is determined by calculating the posture information of the inspection object 1 from the image captured in the first imaging visual field 81. Therefore, with regard to the second imaging field 82 and thereafter, it is possible to always image a predetermined region of the inspection object in each imaging field. Therefore, as shown in FIG. 11, even when the inspection object 1 is close to the left or right end in the pocket 71, the inspection object 1 is divided into three photographing fields 8 of the first photographing field 81 to the third photographing field 83. An inspection may be performed. 11 is slightly different in size from each other, but this is for easy understanding of each field of view 8. In fact, all the fields of view 8 are the same. Further, in FIG. 11, the second imaging visual field 82 and the third imaging visual field 83 do not overlap at all, but actually, between the adjacent imaging visual fields 8 even after the second imaging visual field 82 due to the inclination of the inspection object 1 or the like. Then, some overlap may occur.
[0049]
As described above, according to the first embodiment, when the inspection object 1 stored in the pocket 71 of the tray 7 is divided and photographed in the plurality of photographing fields 8, the first object is photographed in the first field of view 81. By calculating the posture information of the inspection object 1 from the obtained image and determining the photographing position after the second photographing visual field 82 based on the calculated posture information, the inspection object stored in the pocket 71 of the tray 7 The image captured in each imaging field 8 can be inspected with high accuracy without mechanical positioning of 1, and the inspection object 1 housed in the pocket 71 of the tray 7 can be inspected with a plurality of imaging fields 8. It is possible to minimize the number of field of view when performing divided shooting and to shorten the alignment time in each field of view 8.
[0050]
Furthermore, according to the first embodiment, since the second field of view 82 and beyond, each region of the inspection object 1 determined in each field of view 8 can be always photographed in each field of view 8. When the search area of the feature area 9 is set in the visual field 8, there is no need to set a wide search area after the second imaging visual field 82, and the search time can be shortened.
[0051]
In the first embodiment, the inspection is started from the right side of the inspection object 1, but the inspection can be started with another position as the first imaging visual field 81. In addition, it is possible to execute the inspection by dividing the field of view into the inspection object 1 two-dimensionally, and it is also possible to start the inspection with an arbitrary position as the first imaging field 81.
[0052]
(Second Embodiment)
FIG. 12 is a flowchart for explaining the inspection operation of the second embodiment of the appearance inspection apparatus according to the present invention.
[0053]
The second embodiment is different in the method of determining the imaging position after the second imaging field 82 of the inspection object 1 in the first embodiment, and is calculated by the alignment process in the immediately preceding imaging field 8. The imaging position of the next imaging visual field 8 is calculated and determined from the posture information, and S11 to S13 shown in FIG. 12 are the same as the inspection operation of the first embodiment.
[0054]
In the second embodiment, after the alignment process (S13) by the attitude detection unit 56 is finished, the attitude information calculated by the alignment process by the attitude detection unit 56 is output to the movement control unit 59, and the movement control unit 59 59 determines the shooting position of the (m + 1) -th shooting field of view 8, which is the next shooting field of view 8, based on the posture information (S21). The posture information calculated by the posture detection unit 56 is also output to the image processing unit 57, and the image processing unit 57 extracts the first region A from the image as an inspection region based on the posture information, and extracts the extracted first information. The first area A, in which the inclination of the one area A is corrected and is extracted from the image by the image processing unit 57 and the inclination is corrected, is inspected by the inspection unit 58 (S15).
[0055]
Next, the inspection unit 58 confirms whether or not the inspection has been completed for all the imaging fields 8 of the inspection object 1 (S16). If the inspection has not been completed, the imaging order m is incremented (S17), Under the control of the movement control unit 59, the photographing means 2 is moved to the photographing position of the incremented m-th photographing visual field 8 which is the next photographing visual field 8 (S18), and the photographing of the m-th photographing visual field 8 is performed by the photographing means 2. In step S19, the image captured by the photographing unit 2 in the m-th field of view 8 is captured by the image capturing unit 51, and the posture detection unit 56 aligns the image captured in the m-th field of view 8. Processing is performed (S20). Hereinafter, similarly to the first imaging field 81, determination of the imaging position of the (m + 1) th imaging field 8, which is the next imaging field 8, based on the posture information of S21, and the image captured in the mth imaging field 8 in S15. Inspection is performed, and imaging and inspection are repeatedly performed until the inspection is completed for all the imaging fields 8 of the inspection object 1.
[0056]
Next, a specific example of the inspection operation in the second embodiment will be described in detail with reference to FIG.
First, under the control of the movement control unit 59, the moving means 3 moves the photographing means 2 from the position of the pocket 71 of the tray 7 to a preset photographing position of the first photographing visual field 81, and the photographing means 2 performs the first photographing. The field of view 81 is photographed. The image captured by the imaging unit 2 in the first field of view 81 is captured by the image capture unit 51, and the posture detection unit 56 performs the alignment process of the image captured by the image capture unit 51 on the feature regions 91 and 92. To do.
[0057]
The posture detection unit 56 calculates the posture information including the position and the inclination in the pocket 71 of the inspection object 1 by detecting the feature regions 91 and 92 from the image photographed in the first photographing field of view 81. Posture information is output to the movement control unit 59 and the image processing unit 57. The movement control unit 59 determines the shooting position of the second shooting field of view 82 based on the posture information calculated in the first shooting field of view 81, and the image processing unit 57 determines the first position from the image shot in the first shooting field of view 81. The one area A is extracted based on the posture information calculated in the first imaging visual field 81 and the inclination is corrected, and the inspection unit 58 inspects the first area A.
[0058]
When the inspection using the image photographed in the first photographing field 81 is completed, the photographing unit 2 is moved to the photographing position of the second photographing field 82 and the second photographing field 82 is photographed by the photographing unit 2. An image photographed by the photographing means 2 in the second field of view 82 is captured by the image capturing unit 51, and the posture detection unit 56 performs alignment processing of the image captured by the image capturing unit 51 in the feature regions 93 and 94. To do. The posture detection unit 56 calculates the posture information including the position and the inclination of the image shot in the second shooting visual field 82 by detecting the feature areas 93 and 94 from the image shot in the second shooting visual field 82. The posture information is output to the movement control unit 59 and the image processing unit 57. The movement control unit 59 determines the shooting position of the third shooting field of view 83 based on the posture information calculated in the second shooting field of view 82, and the image processing unit 57 uses the second shooting field of view 82 from the first image. The two regions B are extracted based on the posture information calculated from the second imaging visual field 82 and the inclination is corrected, and the inspection unit 58 inspects the second region B.
[0059]
When the examination using the image photographed in the second photographing visual field 82 is completed, the photographing means 2 is moved to the photographing position of the third photographing visual field 83 which is the final photographing visual field 8, and the second photographing visual field 82 is moved by the photographing means 2. Take a picture. An image photographed by the photographing means 2 in the third field of view 83 is captured by the image capturing unit 51, and the posture detection unit 56 performs alignment processing of the images captured by the image capturing unit 51 in the feature regions 95 and 96. To do. The posture detection unit 56 calculates the posture information including the position and the inclination of the image shot in the third shooting field 83 by detecting the feature regions 95 and 96 from the image shot in the third shooting field 83. The posture information is output to the image processing unit 57. The image processing unit 57 extracts the third region C from the image photographed at the third photographing visual field 83 based on the posture information calculated at the third photographing visual field 83 and corrects the inclination. The region C is inspected, and the inspection operation of the inspection object 1 is finished.
[0060]
As described above, according to the second embodiment, the first imaging field 8 is configured to calculate the imaging position of the next imaging field 8 based on the alignment result of the images captured in the immediately preceding imaging field 8, thereby Compared to the embodiment, an error in the shooting position of the next shooting field of view 8 can be reduced. If there is an error in the imaging position, it is necessary to partially overlap each imaging field of view in consideration of the error. Therefore, the inspection can be executed more efficiently by reducing the error.
[0061]
(Third embodiment)
FIG. 13 is a flowchart for explaining the inspection operation of the third embodiment of the visual inspection apparatus according to the present invention.
[0062]
In the third embodiment, in the imaging after the second imaging visual field 82 in the second embodiment, if the alignment process fails and the posture information of the inspection object 1 cannot be obtained, the alignment is performed. Posture information calculated from one or a plurality of successful imaging fields 8 is used, and S11 to S20 shown in FIG. 13 are the same as those in the inspection operation of the second embodiment.
[0063]
In the third embodiment, after performing the alignment process of the image captured in the mth imaging field 8 in S20, the posture detection unit 56 succeeds in the alignment in the alignment process, that is, the inspection object 1 It is confirmed whether or not the posture information can be calculated (S32). If the alignment is successful, the calculated posture information of the inspection object 1 is stored (S33), and the movement control unit 59 stores the calculated posture information. The movement control unit 59 determines the shooting position of the (m + 1) -th shooting field of view 8 that is the next shooting field of view 8 based on the posture information (S21). Further, the calculated posture information is also output to the image processing unit 57, and the image processing unit 57 extracts an examination region from an image photographed in the mth field of view 8 based on the calculated posture information, The inspection area that has been extracted from the image by the image processing unit 57 and corrected for inclination is inspected by the inspection unit 58 (S15).
[0064]
If the alignment is unsuccessful, the posture detection unit 56 determines the inspection object 1 in the m-th imaging field 8 that is the current imaging field 8 from the orientation information in another imaging field 8 that has been successfully aligned. Posture information is determined (S34), and the determined posture information is output to the movement control unit 59. The movement control unit 59 is based on the determined posture information, and the shooting position of the (m + 1) -th shooting field 8 is the next shooting field 8. Is determined (S21). Further, the determined posture information is also output to the image processing unit 57, and the image processing unit 57 extracts and extracts an examination region from an image captured in the m-th field of view 8 based on the determined posture information. The inspection area, which is corrected from the inclination of the inspection area and extracted from the image by the image processing section 57 and corrected in inclination, is inspected by the inspection section 58 (S15). Thereafter, the imaging and the inspection are repeatedly performed until the inspection is completed for the entire imaging visual field 8 of the inspection object 1.
[0065]
Next, a specific example of the inspection operation in the third embodiment will be described in detail with reference to FIG.
In this example, it is assumed that the alignment fails in the second imaging visual field 82 shown in FIG.
[0066]
First, under the control of the movement control unit 59, the moving means 3 moves the photographing means 2 from the position of the pocket 71 of the tray 7 to a preset photographing position of the first photographing visual field 81, and the photographing means 2 performs the first photographing. The field of view 81 is photographed. The image captured by the imaging unit 2 in the first field of view 81 is captured by the image capture unit 51, and the posture detection unit 56 performs the alignment process of the image captured by the image capture unit 51 on the feature regions 91 and 92. To do.
[0067]
The posture detection unit 56 calculates posture information including the position and inclination in the pocket 71 of the inspection object 1 by detecting the feature regions 91 and 92 from the image photographed in the first photographing field 81. The posture information is saved, and the calculated posture information is output to the movement control unit 59 and the image processing unit 57. The movement control unit 59 determines the shooting position of the second shooting field of view 82 based on the posture information calculated in the first shooting field of view 81, and the image processing unit 57 determines the first position from the image shot in the first shooting field of view 81. The one area A is extracted based on the posture information calculated in the first imaging visual field 81 and the inclination is corrected, and the inspection unit 58 inspects the first area A.
[0068]
When the inspection using the image photographed in the first photographing field 81 is completed, the photographing unit 2 is moved to the photographing position of the second photographing field 82 and the second photographing field 82 is photographed by the photographing unit 2. An image photographed by the photographing means 2 in the second field of view 82 is captured by the image capturing unit 51, and the posture detection unit 56 performs alignment processing of the image captured by the image capturing unit 51 in the feature regions 93 and 94. However, the alignment fails.
[0069]
When the posture detection unit 56 recognizes the alignment failure, the posture detection unit 56 reads the stored posture information calculated from the first imaging visual field 81 and outputs the read posture information to the movement control unit 59 and the image processing unit 57. . The movement control unit 59 determines the shooting position of the third shooting field of view 83 based on the posture information calculated in the first shooting field of view 81, and the image processing unit 57 starts from the image shot in the second shooting field of view 82. The two regions B are extracted based on the posture information calculated in the first imaging visual field 81 and the inclination is corrected, and the inspection unit 58 inspects the second region B. Thereafter, the third region C is similarly inspected in the third imaging visual field 83, and the inspection operation of the inspection object 1 is completed.
[0070]
As described above, according to the third embodiment, when the alignment fails in a certain imaging field 8 and the posture information of the inspection object 1 cannot be obtained, the imaging field that has already been successfully aligned is obtained. By performing the inspection in the photographing visual field 8 based on the posture information at 8, it is possible to continue the inspection even when posture information cannot be obtained in a certain visual field.
[0071]
(Fourth embodiment)
FIG. 14 is a flowchart for explaining the inspection operation of the fourth embodiment of the appearance inspection apparatus according to the present invention.
[0072]
In the fourth embodiment, in the imaging after the second imaging visual field 82 in the second embodiment, when the feature region 9 cannot be set after the next imaging visual field, the inspection object calculated in the first imaging visual field 81 is used. 1 is used as posture information after the second imaging visual field 82, and S11 to S13 shown in FIG. 14 are the same as the inspection operation of the first embodiment.
[0073]
In the fourth embodiment, after the alignment process (S13) by the attitude detection unit 56 ends, the attitude information calculated by the alignment process by the attitude detection unit 56 is saved (S41), and the movement control unit The movement control unit 59 determines the shooting position of the (m + 1) -th shooting field of view 8 that is the next shooting field of view 8 based on the posture information (S21). The posture information calculated by the posture detection unit 56 is also output to the image processing unit 57, and the image processing unit 57 extracts the first region A from the image as an inspection region based on the posture information, and extracts the extracted first information. The first area A, in which the inclination of the one area A is corrected and is extracted from the image by the image processing unit 57 and the inclination is corrected, is inspected by the inspection unit 58 (S15).
[0074]
Next, the inspection unit 58 confirms whether or not the inspection has been completed for all the imaging fields 8 of the inspection object 1 (S16). If the inspection has not been completed, the imaging order m is incremented (S17), Under the control of the movement control unit 59, the photographing means 2 is moved to the photographing position of the incremented m-th photographing visual field 8 which is the next photographing visual field 8 (S18), and the m-th photographing is performed by the photographing means 2 (S19). The image captured by the image capturing means 2 in the mth field of view 8 is captured by the image capturing unit 51.
[0075]
Next, the posture detection unit 56 reads the stored posture information calculated in the first shooting field 81 (S42), and uses the read posture information calculated in the first shooting field 81 as an image with the movement control unit 59. The data is output to the processing unit 57. The movement control unit 59 determines the shooting position of the (m + 1) -th shooting field of view 8 that is the next shooting field of view 8 based on the read posture information (S21). The read posture information is also output to the image processing unit 57, and the image processing unit 57 extracts an examination region from the image shot in the mth shooting field of view 8 based on the read posture information. Then, the inclination of the extracted inspection region is corrected, and the inspection region extracted from the image by the image processing unit 57 and corrected in inclination is inspected by the inspection unit 58 (S15). Thereafter, the imaging and the inspection are repeatedly performed until the inspection is completed for the entire imaging visual field 8 of the inspection object 1.
[0076]
Next, a specific example of the inspection operation in the fourth embodiment will be described in detail with reference to FIG.
FIG. 15 is an explanatory diagram for explaining the inspection operation when only the characteristic field of view corresponding to the first field of view is stored in the feature region storage unit illustrated in FIG. 1.
[0077]
In this example, as shown in FIG. 15, the inspection object 1 stored in the pocket 71 of the tray 7 is divided into three imaging fields 8 of a first imaging field 81, a second imaging field 82, and a third imaging field 83. Only the feature areas 91 and 92 set corresponding to the first area A imaged in the first imaging field 81 are stored in the feature area storage unit 55, and the first imaging field 81 is used as a reference. The posture information calculated from the first photographing visual field 81 that is the reference photographing visual field is used as the reference visual information.
[0078]
First, under the control of the movement control unit 59, the moving means 3 moves the photographing means 2 from the position of the pocket 71 of the tray 7 to the photographing position of the first photographing visual field 81 which is a preset standard photographing visual field. 2 shoots the first field of view 81. The image captured by the imaging unit 2 in the first field of view 81 is captured by the image capture unit 51, and the posture detection unit 56 performs the alignment process of the image captured by the image capture unit 51 on the feature regions 91 and 92. To do.
[0079]
The posture detection unit 56 calculates the posture information including the position and inclination in the pocket 71 of the inspection object 1 as the reference posture information by detecting the feature regions 91 and 92 from the image photographed in the first photographing field 81. Then, the calculated reference posture information is stored, and the calculated reference posture information is output to the movement control unit 59 and the image processing unit 57. The movement control unit 59 determines the shooting position of the second shooting field of view 82 based on the reference posture information calculated in the first shooting field of view 81, and the image processing unit 57 determines from the image shot in the first shooting field of view 81. The first area A is extracted based on the posture information calculated in the first imaging visual field 81 and the inclination is corrected, and the inspection unit 58 inspects the first area A.
[0080]
When the inspection using the image photographed in the first photographing field 81 is completed, the photographing unit 2 is moved to the photographing position of the second photographing field 82 and the second photographing field 82 is photographed by the photographing unit 2. An image photographed by the photographing means 2 in the second photographing visual field 82 is captured by the image capturing unit 51, and the posture detecting unit 56 reads and reads the reference posture information calculated in the first photographing visual field 81. The reference posture information is output to the movement control unit 59 and the image processing unit 57. The movement control unit 59 determines the shooting position of the third shooting field 83 based on the reference posture information calculated in the first shooting field 81, and the image processing unit 57 uses the image shot in the second shooting field 82. The second area B is extracted based on the reference posture information calculated in the first imaging visual field 81 and the inclination is corrected, and the inspection unit 58 inspects the second area B. Thereafter, the third region C is similarly inspected in the third imaging visual field 83, and the inspection operation of the inspection object 1 is completed.
[0081]
As described above, according to the fourth embodiment, the posture information of the inspection object 1 calculated as the reference photographing visual field is used as the reference posture information, and the second photographing visual field 82 and later, that is, the reference photographing visual field is determined. By configuring to be used as posture information in each shooting field of view 8, there is a shooting field of view 8 in which the feature region 9 is not set or the feature region 9 cannot be set because there are a plurality of similar regions. There is an effect that it is possible to perform imaging and inspection on the inspection object 1 that is known to be performed.
[0082]
Furthermore, according to the fourth embodiment, the inspection operation of the fourth embodiment is also applied to the inspection object 1 in which the characteristic region 9 that can be aligned in each imaging visual field 8 exists. Since the alignment process after the second imaging visual field 82 is not required, the processing time can be shortened.
[0083]
In the fourth embodiment, the reference photographing field of the inspection object 1 calculated using the image photographed in the first photographing field 81 is used as posture information in all the photographing fields 8 after the second photographing field 82. The posture information calculated in the first imaging field 81 may be used only for the imaging field 8 that is used but cannot be aligned. The alignment is performed for the imaging field 8 that can be aligned. It is also possible to obtain posture information of the inspection object 1.
[0084]
Further, in the fourth embodiment, the posture information of the inspection object 1 calculated in the first photographing field 81 is used as the posture information in the second photographing field 82 as the reference posture information. If there is a region that can be aligned, the third photographing field 83 is photographed and aligned before the second photographing field 82, and the first photographing field 81 and the third photographing field 83 are calculated. It is also possible to determine the reference posture information from the posture information of the inspection object 1, calculate the posture information in the second photographing visual field 82, and perform photographing and inspection of the second photographing visual field 82. In addition, by using the posture information calculated in the first photographing field 81, the photographing position in the second photographing field 82 is calculated and only the second photographing field 82 is photographed. After the alignment, the posture information in the second photographing visual field 82 is calculated from the posture information of the inspection object 1 calculated in the first photographing visual field 81 and the third photographing visual field 83, and the second photographing visual field 82 is inspected. It is also possible to do.
[0085]
(Fifth embodiment)
FIG. 16 is a flowchart for explaining the inspection operation of the fifth embodiment of the appearance inspection apparatus according to the present invention.
[0086]
In the fifth embodiment, the inspection object 1 housed in the pocket 71 of the tray 7 is divided into a plurality of fields of view, and each of the objects is determined in advance from the size of the pocket 71 and the size of the inspection object 1. The shooting position of the shooting field of view 8 is determined.
[0087]
First, before performing the inspection, the photographing position for photographing in each photographing visual field 8 is determined from the size of the pocket 71 of the tray 7 and the size of the inspection object 1, and the movement control unit 59 is determined. The movement of the photographing means 2 to each photographing position of each photographing field of view 8 is controlled. First, the movement control unit 59 controls the moving means 3 to move the photographing means 2 to a position where the first photographing visual field 81 is photographed (S11). When the movement of the first photographing field 81 to the photographing position is completed, the first photographing field 81 is photographed by the photographing unit 2 (S12), and the image photographed by the photographing unit 2 in the first photographing field 81 is captured. The posture detection unit 56 takes in the image captured in the first imaging visual field 81 and performs alignment processing (S13). Note that the shooting order m is set to m = 1 when shooting in the first shooting field 81 in S12. The posture information calculated by the posture detection unit 56 is also output to the image processing unit 57, and the image processing unit 57 extracts the first region A from the image as an inspection region based on the posture information, and extracts the extracted first region. The first area A, which is corrected from the inclination of A and extracted from the image by the image processing unit 57 and corrected in inclination, is inspected by the inspection unit 58 (S15).
[0088]
Next, the inspection unit 58 confirms whether or not the inspection has been completed for all the imaging fields 8 of the inspection object 1 (S16). If the inspection has not been completed, the imaging order m is incremented (S17), Under the control of the movement control unit 59, the photographing means 2 is moved to the photographing position of the incremented m-th photographing visual field 8 which is the next photographing visual field 8 (S18), and the photographing of the m-th photographing visual field 8 is performed by the photographing means 2. Performed (S19). Next, the image captured by the imaging unit 2 in the m-th field of view 8 is captured by the image capturing unit 51, and the posture detection unit 56 performs alignment processing for the image captured in the m-th field of view 8. (S20). Thereafter, the inspection in S15 is performed on the image captured in the m-th imaging visual field 8, and the imaging and the inspection are repeatedly performed until the inspection is completed for all the imaging visual fields 8 of the inspection object 1. The inspection result obtained by the inspection unit 58 is displayed on the display unit 54 after the inspection of the entire field of view 8 of the inspection object 1 is completed.
[0089]
Next, a specific example of the inspection operation in the fifth embodiment will be described in detail with reference to FIGS.
FIG. 17 is an explanatory diagram for explaining the inspection operation of the fifth embodiment of the appearance inspection apparatus according to the present invention, and FIG. 18 shows the fifth embodiment of the appearance inspection apparatus according to the present invention. FIG. 19 is an explanatory diagram illustrating an inspection path in an inspection operation, and FIG. 19 is an explanatory diagram illustrating an inspection region in each photographing field of view in the fifth embodiment of the appearance inspection apparatus according to the present invention. It is explanatory drawing for demonstrating the calculation method of the imaging | photography visual field number in 5th Embodiment of the external appearance inspection apparatus which concerns on this invention.
[0090]
In this example, as shown in FIG. 17, the inspection object 1 stored in the pocket 71 of the tray 7 is a first imaging field 81, a second imaging field 82, a third imaging field 83, and a fourth imaging field 84. The image is divided into two fields of view 8 for shooting. Note that although the size of each photographing field 8 shown in FIG. 17 is slightly different, this is for easy understanding of each photographing field 8, and in fact, the size of all the photographing fields 8 is the same.
[0091]
In the fifth embodiment, first, the first imaging field 81, the second imaging field 82, the third imaging field 83, and the fourth imaging field 84 are determined based on the size of the pocket 71 and the size of the inspection object 1 before the inspection. Determine the shooting position. When the inspection is started, the photographing means 2 is moved to the photographing position of the first photographing visual field 81 and the first photographing visual field 81 is photographed. When the photographing is completed, alignment is performed using the photographed image, and the posture information of the inspection object 1 is calculated and the inspection is performed. When the inspection using the image photographed in the first photographing visual field 81 is completed, the second photographing visual field 82 is photographed and examined in the same manner. After the inspection of the second imaging visual field 82, the third imaging visual field 83 and the fourth imaging visual field 84 are similarly imaged and inspected, and the inspection of the inspection object 1 is completed.
[0092]
In the fifth embodiment, the inspection is performed in order from the visual field at the right end of the inspection object 1. However, since the position to be imaged is set in advance, the inspection is performed from an arbitrary visual field and in any order. Is possible. Therefore, in the first embodiment, as shown in FIG. 18A, since it is necessary to start the inspection from the photographing field 8 determined in each pocket 71, the photographing means 2 is moved between the pockets 71. Although it cannot be performed at the shortest distance, in the fifth embodiment, as shown in FIG. 18B, the photographing means 2 can be moved between the pockets 71 at the shortest distance. In this embodiment, it is possible to adopt a moving path of the imaging unit 2 that is shorter than the moving path of the imaging unit 2 according to the first embodiment.
[0093]
In the fifth embodiment, it is also possible to divide the field of view 8 two-dimensionally with respect to the inspection object 1, and to perform inspection in any field of view 8 and in any order. Although the next field of view 8 is shot after the inspection in a certain field of view 8 is completed, the inspection after the end of shooting in a field of view and the shooting of the next field of view can be performed in parallel.
[0094]
When images are taken in order from the right side of the inspection object 1, the first area A shown in FIG. 19 is the position of the inspection object 1 in the pocket 71 also in the fifth embodiment, as in the first embodiment. However, as shown in FIGS. 19 (a) and 19 (b), even if it is shifted to the left and right as much as possible, it is always photographed in the first photographing field 81. Therefore, the position of the inspection object 1 differs from the horizontal length Lp of the pocket 71 and the horizontal length of the inspection object 1 by the difference between Lc at the maximum, as shown in FIG. The length Ncf1 from the right end of the inspection object 1 in the first region A that is always imaged in one imaging field 81 can be expressed as Ncf1 = Lr− (Lp−Lc), and the posture information of the inspection object 1 is represented by If it can be obtained, the first area A can be the inspection area. In addition, as a method of acquiring outer shape information such as the size of the inspection object 1, a method of teaching the angular position of the inspection object 1 by an operator when an image serving as a reference for inspection is created, or an inspection by image recognition Detection of the corner of the object 1 can be considered.
[0095]
In the fifth embodiment, a shooting position is determined in advance from the length of the pocket 71 for each shooting field 8, and the second shooting field 82 is determined from the posture information of the inspection object 1 by the alignment in the first shooting field 81. Subsequent inspection is performed by setting an inspection region in the imaging field 8. In the inspection, the range that is always photographed in a certain field of view 8 is the inspection range in the field of view 8. Therefore, in order to inspect the entire inspection object 1 regardless of the position of the inspection object 1 in the pocket 71. As shown in FIG. 20, it is necessary to overlap the imaging field of view 8 by the difference (Lp−Lc) in the length between the pocket 71 and the inspection object 1 in the adjacent imaging field of view 8. FIG. 19 shows the inspection areas to be inspected in each of the imaging fields 8 of the first imaging field 81 to the fourth imaging field 84. 19A shows an example in which the inspection object 1 is at the rightmost end in the pocket 71, and FIG. 19B shows an example in which the inspection object 1 is in the leftmost end in the pocket 71. Referring to FIGS. 19A and 19B, the first area A to be inspected in the first imaging field 81, the second area B ′ to be inspected in the second imaging field 82, and the third imaging field 83 are inspected. It can be seen that the third area C ′ and the fourth area D ′ inspected in the fourth imaging visual field 84 are areas that are necessarily imaged in the first imaging visual field 81 to the fourth imaging visual field 84, respectively.
[0096]
Referring to FIG. 19, the field of view Nra in the fifth embodiment can be expressed by the number of fields of view Nra = Lc / (Lr− (Lp−Lc)) (rounded up). Further, when the inspection is performed with the imaging field of view 8 divided two-dimensionally, the entire imaging field number Nrf can be calculated by calculating the imaging field number Nrf in the vertical direction and the horizontal direction.
[0097]
As described above, according to the fifth embodiment, since the photographing position is calculated in advance from the size of the pocket 71 of the tray 7 and the size of the inspection object 1, the fifth embodiment is implemented. The shooting position calculation process after the second shooting visual field 82 is no longer necessary, and if the number of shooting visual fields is the same as that of the first embodiment, the processing time is shortened.
[0098]
Furthermore, according to the fifth embodiment, since inspection can be performed in an arbitrary field of view and in any order, when inspecting a plurality of inspection objects 1, it is compared with the inspection according to the first embodiment. Thus, the distance for moving the photographing means 2 can be shortened, and the time for the entire examination can be shortened.
[0099]
(Sixth embodiment)
In the sixth embodiment, any one of the inspection operations of the first to fifth embodiments can be selected.
[0100]
Comparing the first to fourth embodiments with the fifth embodiment, the number of fields of view in the first to fourth embodiments is often smaller. When the number of fields of view is small, the time required for shooting is shortened. However, when the number of field of view of imaging in the first to fourth embodiments is the same as that of the fifth embodiment, the imaging means 2 is inspected during the inspection in the fifth embodiment. Therefore, it is not necessary to determine the shooting position, and the time required for the inspection is shortened. Therefore, when the number of field of view in the first to fourth embodiments is smaller, the first embodiment to the fourth embodiment are selected and the first embodiment is selected. In the case where the number of fields of view in the fourth to fourth embodiments is the same as that in the fifth embodiment, it is conceivable to select the fifth embodiment. In this case, the imaging field number Nrf of the first to fourth embodiments is calculated by the lateral length Lp of the pocket 71 and the lateral length Lr of the imaging field 8, The imaging field number Nra of the fifth embodiment is calculated by the lateral length Lp of the pocket 71, the lateral length Lc of the inspection object 1, and the lateral length Lr of the imaging field 8. Means for calculating the number of field of view Nrf and field of view Nra from the size information of the pocket 71, the inspection object 1 and the field of view 8, and means for comparing the calculated field of view Nrf and the number of field of view Nra. When the number of field of view Nrf is smaller than the number of field of view Nra, one of the first to fourth embodiments is selected, and the number of field of view Nrf and the number of field of view Nra are the same. In the case of the fifth It is preferable to provide a means for selecting the mode.
[0101]
When the processing times of the first to fourth embodiments are compared, the processing times of the first to third embodiments are the same, but the fourth embodiment is the same. Then, since the alignment process is performed only in the first field of view 81, the alignment process is less than in the other embodiments, and the overall processing time is slightly faster.
[0102]
In the first embodiment, the imaging position after the second imaging visual field 82 is calculated from the posture information of the inspection object 1 calculated in the first imaging visual field 81, but the inspection time is compared with the moving time of the imaging means 2. In this case, first, only the photographing position of the second photographing visual field 82 is calculated, and in parallel with the movement of the photographing means 2, the inspection and the photographing positions after the third photographing visual field 83 are calculated, so that the entire processing time is slightly increased. It can be shortened. Since the second embodiment and the third embodiment are the same process except for the process at the time of alignment failure, the processing time is the same unless the alignment fails.
[0103]
Thus, in the first embodiment to the fourth embodiment, there is no significant difference in processing time, so the number of fields of view in the first embodiment to the fourth embodiment is larger. Is less than that of the fifth embodiment, it may be configured so that the operator can select one of the first to fourth embodiments as necessary. For example, it is conceivable that the fourth embodiment is selected when importance is attached to high-speed processing, and the second embodiment or the third embodiment is selected when importance is placed on inspection accuracy. .
[0104]
As described above, according to the sixth embodiment, it is possible to select an inspection operation from a plurality of inspection methods based on processing time, inspection accuracy, and the like. Therefore, it is possible to employ the most appropriate inspection operation.
[0105]
(Seventh embodiment)
In the seventh embodiment, an image obtained by photographing a plurality of inspection objects 1 is synthesized for each field of view with respect to the inspection object 1 in the pocket 71 in the first to sixth embodiments. Thus, the combined image is inspected as an image serving as a reference for inspection.
[0106]
When the seventh embodiment is applied to the first embodiment, first, the first imaging visual field 81 of the inspection object 1 is imaged, and the obtained image becomes a reference for the inspection in the first imaging visual field 81. A temporary image is assumed. Using this image, the characteristic region 9 to be aligned is set and the entire photographing visual field 8 is photographed, and the obtained image is set as a temporary image serving as an inspection reference in the examination of each photographing visual field 8. When a provisional image serving as a reference for inspection is set in each photographing field 8, each photographing field 8 is photographed in another inspection object 1, alignment processing is performed using the photographed image, and posture information is calculated. To do. When the posture information is calculated, the photographed image is converted to correct the deviation. When the deviation correction of all the captured images is completed, the images are combined for each shooting field of view 8, and the combined image is officially set as an image serving as an inspection reference.
[0107]
Next, when the seventh embodiment is applied to the fifth embodiment, first, each imaging field 8 of the inspection object 1 is imaged, and the obtained image is used for the inspection in the inspection of each imaging field 8. A provisional image is used as a reference. When a provisional image serving as a reference for the inspection is set in each photographing field of view 8, each field of view of another inspection object 1 is photographed, alignment processing is performed using the photographed image, and posture information is calculated. . When the posture information is calculated, the photographed image is converted to correct the deviation. When all the captured images have been corrected, the images are combined for each field of view 8 and the combined image is officially set as an image serving as a reference for inspection. In addition, it is possible to first shoot only all of the inspection objects 1 and collectively correct the photographic images before combining them.
[0108]
As described above, according to the seventh embodiment, the inspection object 1 is placed on the tray by performing the alignment process using the captured image and collecting the image while correcting the deviation. In the state of being accommodated in the seven pockets 71, it is possible to collect temporary images serving as inspection standards, and it is possible to efficiently generate images serving as inspection standards.
[0109]
(Eighth embodiment)
FIG. 21 is a flowchart for explaining the inspection operation of the eighth embodiment of the visual inspection apparatus according to the present invention.
[0110]
In the eighth embodiment, in the first to fourth embodiments, when the alignment in the first imaging visual field 81 fails and the posture information of the inspection object 1 cannot be obtained, Preliminary shooting field of view 8 different from first shooting field of view 81 is set in advance, shooting is performed in the preliminary shooting field of view 8, and posture information of inspection object 1 obtained by alignment using the shot image From this, the photographing position of the first photographing visual field 81 is determined, and re-examination is performed. FIG. 21 shows an example in which the processing operations of S81 to S85 of the eighth embodiment are added to the inspection operation of the first embodiment.
[0111]
In the eighth embodiment, after the alignment process of the image captured in the first imaging field 81 in S13 is completed, it is confirmed whether or not the alignment process of the first imaging field 81 is successful (S81). If unsuccessful, the photographing means 2 is moved to the preset photographing field 8 (S82). When the movement of the photographing means 2 is completed, photographing is performed (S83), alignment is performed on the image photographed in the preliminary photographing visual field 8 (S84), posture information of the inspection object 1 is calculated, and the calculated inspection is performed. From the posture information of the object 1, the imaging position of the first imaging visual field 81 is determined again (S85), and the inspection operation from S11 is continued. Note that the number of preliminary imaging fields 8 is not limited to one, and a plurality of preliminary imaging fields 8 may be set.
[0112]
As described above, according to the eighth embodiment, even when the alignment in the first imaging field 81 fails and the posture information of the inspection object 1 cannot be obtained, the inspection can be executed again. It becomes possible, and there exists an effect that inspection efficiency can be improved.
[0113]
It should be noted that the present invention is not limited to the above-described embodiments, and it is obvious that each embodiment can be appropriately changed within the scope of the technical idea of the present invention. In addition, the number, position, shape, and the like of the constituent members are not limited to the above-described embodiment, and can be set to a suitable number, position, shape, and the like in practicing the present invention. In each figure, the same numerals are given to the same component.
[0114]
【The invention's effect】
The appearance inspection apparatus and the appearance inspection method according to the present invention provide posture information of an inspection object from an image photographed in a first photographing field of view when an inspection object accommodated in a tray pocket is divided and photographed in a plurality of photographing fields of view. And the imaging position after the second imaging visual field is determined based on the calculated posture information, so that each imaging visual field can be obtained without mechanical positioning of the inspection object stored in the pocket of the tray. Can be inspected with high accuracy, and the number of fields of view can be minimized when the object to be inspected stored in the tray pocket is divided into multiple fields of view. There is an effect that the alignment time in the field of view can be shortened.
[0115]
Furthermore, since the visual inspection apparatus and visual inspection method of the present invention can always photograph each region of the inspection object determined in each photographing visual field in each photographing visual field after the second photographing visual field. When setting the search area for the characteristic area, it is not necessary to set a wide search area after the second field of view, and the search time can be shortened.
[0116]
Further, the appearance inspection apparatus and the appearance inspection method of the present invention are configured to calculate the shooting position of the next shooting field of view from the alignment result of the image shot in the immediately preceding shooting field of view, so that the shooting position of the next shooting field of view is calculated. Errors can be reduced.
[0117]
Furthermore, the appearance inspection apparatus and the appearance inspection method of the present invention provide the posture information in the photographing field that has already been successfully aligned when the alignment fails in a certain field of view and the posture information of the inspection object cannot be obtained. By performing the inspection in the imaging visual field based on the above, there is an effect that the inspection can be continued even when posture information cannot be obtained in a certain visual field.
[0118]
Further, the appearance inspection apparatus and the appearance inspection method of the present invention are configured so that the posture information of the inspection object calculated in the first photographing visual field is used as posture information after the photographing visual field, thereby setting the characteristic region. It is possible to perform imaging and inspection even on an inspection object that is known to have a field of view in which a characteristic region cannot be set because there are multiple or similar regions. Play.
[0119]
Furthermore, the appearance inspection apparatus and the appearance inspection method of the present invention may eliminate the need for the alignment process after the second imaging field of view on the inspection object having the characteristic region that can be aligned in each field of view. And the processing time can be shortened.
[0120]
Furthermore, the appearance inspection apparatus and the appearance inspection method of the present invention may eliminate the need for the imaging position calculation process after the second imaging field of view by calculating the imaging position in advance from the size of the tray pocket and the size of the inspection object. And the processing time can be shortened.
[0121]
Furthermore, since the appearance inspection apparatus and the appearance inspection method of the present invention can perform inspections in any field of view and in any order, when inspecting a plurality of inspection objects, the distance for moving the imaging means should be shortened. And the processing time can be shortened.
[0122]
Furthermore, the appearance inspection apparatus and the appearance inspection method of the present invention are configured so that the inspection operation can be selected from a plurality of inspection methods based on the processing time, inspection accuracy, etc. There is an effect that an appropriate inspection operation can be adopted.
[0123]
Furthermore, the appearance inspection apparatus and the appearance inspection method of the present invention are configured to perform alignment processing using the captured images and collect the images while correcting the deviation, so that the inspection object is placed in the tray pocket. In the housed state, it is possible to collect temporary images that serve as inspection standards, and it is possible to efficiently generate images that serve as inspection standards.
[0124]
Furthermore, the appearance inspection apparatus and the appearance inspection method of the present invention can perform the inspection again even when the alignment information fails in the first imaging visual field and the posture information of the inspection object cannot be obtained. There is an effect that inspection efficiency can be improved.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a first embodiment of an appearance inspection apparatus according to the present invention.
2 is a perspective view showing a shape of a tray in which the inspection object shown in FIG. 1 is stored. FIG.
FIG. 3 is an explanatory diagram for explaining a correspondence relationship between a field of view taken by an imaging unit shown in FIG. 1, a pocket, and an inspection object;
4 is an explanatory diagram illustrating an example of a feature area stored in a feature area storage unit illustrated in FIG. 1;
FIG. 5 is an explanatory diagram for describing a range of a first field of view photographed by the photographing unit illustrated in FIG. 1;
6 is an explanatory diagram for explaining a range in which a feature area is set by a feature area setting unit shown in FIG. 1; FIG.
7 is an explanatory diagram for explaining a method of calculating the number of fields of view taken by a feature region setting unit shown in FIG. 1;
FIG. 8 is a flowchart for explaining an inspection operation of the first embodiment of the appearance inspection apparatus according to the present invention;
FIG. 9 is an explanatory diagram for explaining a specific inspection operation of the first embodiment of the appearance inspection apparatus according to the present invention.
FIG. 10 is an explanatory diagram illustrating an example of movement of a photographing field when a photographing field is set in advance.
FIG. 11 is an explanatory diagram showing an example of moving the imaging field of view of the first embodiment of the appearance inspection apparatus according to the present invention.
FIG. 12 is a flowchart for explaining an inspection operation of the second embodiment of the appearance inspection apparatus according to the present invention.
FIG. 13 is a flowchart for explaining an inspection operation of the third embodiment of the appearance inspection apparatus according to the present invention;
FIG. 14 is a flowchart for explaining an inspection operation of the fourth embodiment of the visual inspection apparatus according to the present invention.
15 is an explanatory diagram for explaining an inspection operation in a case where only a characteristic field corresponding to the first imaging field is stored in the feature region storage unit illustrated in FIG. 1;
FIG. 16 is a flowchart for explaining an inspection operation of the fifth embodiment of the appearance inspection apparatus according to the present invention;
FIG. 17 is an explanatory diagram for explaining the inspection operation of the fifth embodiment of the visual inspection apparatus according to the present invention;
FIG. 18 is an explanatory diagram for explaining an inspection path in the inspection operation of the fifth embodiment of the appearance inspection apparatus according to the present invention;
FIG. 19 is an explanatory diagram showing inspection areas in each field of view in the fifth embodiment of the appearance inspection apparatus according to the present invention.
FIG. 20 is an explanatory diagram for explaining a method of calculating the number of fields of view in the fifth embodiment of the appearance inspection apparatus according to the present invention.
FIG. 21 is a flowchart for explaining an inspection operation of the eighth embodiment of the visual inspection apparatus according to the present invention;
[Explanation of symbols]
1 Inspection object
2 Shooting means
3 means of transportation
4 lighting means
5 Image processing device
51 Image capture unit
52 Input section
53 Feature Area Setting Unit
54 Display
55 Feature area storage
56 Attitude detection unit
57 Image processing unit
58 Inspection Department
59 Movement control unit
7 trays
71 pockets
8 Field of view
81 First field of view
82 Second field of view
83 3rd field of view
84 Fourth field of view
9, 91, 92, 93, 94, 95, 96 Feature area
100 circuit pattern
101 Mark for alignment
102 Bump
103 Corner

Claims (27)

トレイのポケットに収納された検査対象物を複数の撮影視野に分割して撮影し、当該撮影によって得られる画像によって前記検査対象物の外観検査を行う外観検査装置であって、
前記撮影視野で前記検査対象物を撮影する撮影手段と、
前記撮影視野を移動させる移動手段と、
前記検査対象物の特徴領域を記憶している特徴領域記憶手段と、
前記撮影手段によって前記撮影視野で撮影された画像から前記検査対象物の前記特徴領域を検索し、当該検索によって得られた情報を参照して前記検査対象物の姿勢情報を算出する姿勢検出手段と、
前記姿勢情報に基づいて前記移動手段による前記撮影視野の撮影位置を決定し、前記移動手段を制御する移動制御手段とを具備することを特徴とする外観検査装置。
An appearance inspection apparatus that divides and images an inspection object stored in a pocket of a tray into a plurality of imaging fields of view, and performs an appearance inspection of the inspection object by an image obtained by the imaging,
Photographing means for photographing the inspection object in the photographing field;
Moving means for moving the imaging field;
Feature region storage means for storing the feature region of the inspection object;
Posture detection means for searching for the characteristic region of the inspection object from an image taken by the imaging means in the field of view and calculating posture information of the inspection object with reference to information obtained by the search; ,
An appearance inspection apparatus comprising: a movement control unit that determines a shooting position of the shooting field of view by the moving unit based on the posture information and controls the moving unit.
前記姿勢検出手段は、予め定められた第1撮影視野で撮影された画像から前記検査対象物の前記特徴領域を検索し、当該検索によって得られた情報を参照して前記検査対象物の前記姿勢情報を算出し、
前記移動制御手段は、前記第1撮影視野における撮影で算出された前記姿勢情報に基づいて前記第1撮影視野に続く第2撮影視野以降の撮影位置を決定し、前記移動手段を制御することを特徴とする請求項1記載の外観検査装置。
The posture detection means searches for the feature region of the inspection object from an image captured in a predetermined first field of view, and refers to information obtained by the search to determine the posture of the inspection object. Calculate information,
The movement control unit determines a shooting position after the second shooting field of view following the first shooting field of view based on the posture information calculated by shooting in the first shooting field of view, and controls the moving unit. The appearance inspection apparatus according to claim 1, characterized in that:
前記姿勢情報に基づいて前記撮影視野で撮影された画像から検査領域を抽出し、抽出した検査領域の傾きを補正する画像処理手段と、
該画像処理手段によって抽出され傾きを補正された前記検査領域を検査する検査手段とを具備することを特徴とする請求項1又は2記載の外観検査装置。
Image processing means for extracting an inspection region from an image photographed in the field of view based on the posture information and correcting the inclination of the extracted inspection region;
3. An appearance inspection apparatus according to claim 1, further comprising inspection means for inspecting the inspection area extracted by the image processing means and corrected for inclination.
前記姿勢検出手段は、予め定められた第1撮影視野で撮影された画像から前記検査対象物の前記特徴領域を検索し、当該検索によって得られた情報を参照して前記検査対象物の前記姿勢情報を算出し、
前記画像処理手段は、前記第1撮影視野における撮影で算出された前記姿勢情報に基づいて前記第1撮影視野に続く第2撮影視野以降で撮影された画像から前記検査領域を抽出し、抽出した前記検査領域の傾きを補正することを特徴とする請求項3記載の外観検査装置。
The posture detection means searches for the feature region of the inspection object from an image captured in a predetermined first field of view, and refers to information obtained by the search to determine the posture of the inspection object. Calculate information,
The image processing means extracts and extracts the inspection region from an image photographed after the second photographing visual field following the first photographing visual field based on the posture information calculated by photographing in the first photographing visual field. The appearance inspection apparatus according to claim 3, wherein an inclination of the inspection area is corrected.
前記移動制御手段は、前記姿勢情報に基づいて当該姿勢情報が算出された前記撮影視野の次に撮影される前記撮影視野の撮影位置を決定させることを特徴とする請求項1記載の外観検査装置。  2. The appearance inspection apparatus according to claim 1, wherein the movement control unit determines a photographing position of the photographing field of view that is photographed next to the photographing field of view for which the posture information is calculated based on the posture information. . 前記画像処理手段は、前記姿勢情報に基づいて当該姿勢情報が算出された前記撮影視野で撮影された画像から前記検査領域を抽出し、抽出した前記検査領域の傾きを補正することを特徴とする請求項3記載の外観検査装置。  The image processing means extracts the inspection area from an image captured in the imaging field of view where the attitude information is calculated based on the attitude information, and corrects the inclination of the extracted inspection area. The appearance inspection apparatus according to claim 3. 前記移動制御手段は、前記姿勢検出手段が前記撮影視野で撮影された画像から前記姿勢情報の算出に失敗した際には、前記姿勢情報の算出に失敗した前記撮影視野の次に撮影される前記撮影視野の撮影位置を前記姿勢検出手段によって既に算出されている前記姿勢情報に基づいて決定させることを特徴とする請求項5記載の外観検査装置。  The movement control means, when the posture detection means fails to calculate the posture information from an image taken in the photographing field of view, is photographed next to the photographing field of view where the calculation of the posture information has failed. 6. The appearance inspection apparatus according to claim 5, wherein a shooting position of a shooting field of view is determined based on the posture information already calculated by the posture detection means. 前記画像処理手段は、前記姿勢検出手段が前記撮影視野で撮影された画像から前記姿勢情報の算出に失敗した際には、前記姿勢検出手段によって既に算出されている前記姿勢情報に基づいて前記姿勢情報の算出に失敗した前記撮影視野で撮影された画像から前記検査領域を抽出し、抽出した前記検査領域の傾きを補正することを特徴とする請求項3記載の外観検査装置。  When the posture detection unit fails to calculate the posture information from an image shot in the shooting field of view, the image processing unit is configured to use the posture based on the posture information already calculated by the posture detection unit. The appearance inspection apparatus according to claim 3, wherein the inspection area is extracted from an image captured in the imaging field of view where calculation of information has failed, and the inclination of the extracted inspection area is corrected. 前記姿勢検出手段が予め定められた第1撮影視野で撮影された画像から前記姿勢情報の算出に失敗した際には、前記撮影手段によって予め定められた前記第1撮影視野とは異なる予備撮影視野で前記検査対象物を撮影させ、前記姿勢検出手段によって前記予備撮影視野で撮影された画像から前記姿勢情報を算出させ、前記移動制御手段によって前記予備撮影視野で算出された前記姿勢情報から前記第1撮影視野の撮影位置を決定させ、前記姿勢検出手段によって再度前記第1撮影視野で撮影された画像から前記姿勢情報を算出させることを特徴とする請求項1又は2記載の外観検査装置。  When the posture detection unit fails to calculate the posture information from an image shot in a predetermined first shooting field of view, a preliminary shooting field of view different from the first shooting field of view determined in advance by the shooting unit The posture detection means calculates the posture information from an image taken in the preliminary photographing visual field by the posture detection means, and the movement control means calculates the posture information from the posture information calculated in the preliminary photographing visual field. The appearance inspection apparatus according to claim 1 or 2, wherein a photographing position of one photographing field is determined, and the posture information is calculated again from an image photographed in the first photographing field by the posture detection unit. トレイのポケットに収納された検査対象物を複数の撮影視野に分割して撮影し、当該撮影によって得られる画像によって前記検査対象物の外観検査を行う外観検査装置であって、
前記撮影視野で前記検査対象物を撮影する撮影手段と、
前記撮影視野を移動させる移動手段と、
前記検査対象物の特徴領域を記憶している特徴領域記憶手段と、
前記撮影手段によって予め定められた基準撮影視野で撮影された画像から前記検査対象物の前記特徴領域を検索し、当該検索によって得られた情報を参照して前記検査対象物の基準姿勢情報を算出する姿勢検出手段と、
該姿勢検出手段によって算出された前記基準姿勢情報に基づいて前記移動手段による前記基準撮影視野を除く前記複数の撮影視野の撮影位置をそれぞれ決定し、前記移動手段を制御する移動制御手段とを具備することを特徴とする外観検査装置。
An appearance inspection apparatus that divides and images an inspection object stored in a pocket of a tray into a plurality of imaging fields of view, and performs an appearance inspection of the inspection object by an image obtained by the imaging,
Photographing means for photographing the inspection object in the photographing field;
Moving means for moving the imaging field;
Feature region storage means for storing the feature region of the inspection object;
The feature area of the inspection object is searched from an image taken in a predetermined reference field of view by the imaging means, and the reference posture information of the inspection object is calculated with reference to information obtained by the search Posture detecting means for performing,
Movement control means for determining the photographing positions of the plurality of photographing fields of view excluding the reference photographing field of view by the moving means based on the reference posture information calculated by the posture detecting means, and for controlling the moving means. An appearance inspection apparatus characterized by:
前記基準姿勢情報に基づいて前記複数の撮影視野で撮影されたそれぞれの画像から検査領域をそれぞれ抽出し、抽出した前記検査領域の傾きを補正する画像処理手段と、
該画像処理手段によって抽出され傾きを補正されたそれぞれの前記検査領域を検査する検査手段とを具備することを特徴とする請求項10記載の外観検査装置。
Image processing means for extracting an inspection area from each of the images captured in the plurality of fields of view based on the reference posture information, and correcting the inclination of the extracted inspection area;
11. The appearance inspection apparatus according to claim 10, further comprising inspection means for inspecting each of the inspection regions extracted by the image processing means and corrected in inclination.
トレイのポケットに収納された検査対象物を複数の撮影視野に分割して撮影し、当該撮影によって得られる画像によって前記検査対象物の外観検査を行う外観検査装置であって、
前記撮影視野で前記検査対象物を撮影する撮影手段と、
前記撮影視野を移動させる移動手段と、
前記検査対象物の特徴領域を記憶している特徴領域記憶手段と、
前記撮影手段によって前記撮影視野で撮影された画像から前記検査対象物の前記特徴領域を検索し、当該検索によって得られた情報を参照して前記検査対象物の姿勢情報を算出する姿勢検出手段と、
該姿勢検出手段によって算出された前記姿勢情報に基づいて前記移動手段による前記撮影視野の撮影位置を決定し、前記移動手段を制御する移動制御手段と、前記ポケットのサイズと前記検査対象物のサイズと前記撮影視野のサイズとから複数の前記撮影視野の撮影位置を決定する撮影位置決定手段と、
前記検査対象物の全体を撮影するために必要な前記姿勢情報に基づいて決定される撮影視野数と前記撮影位置決定手段によって決定される撮影視野数とを前記ポケットのサイズと前記検査対象物のサイズと前記撮影視野のサイズとから算出する視野数算出手段と、
該視野数算出手段によって算出された前記姿勢情報に基づいて決定される撮影視野数と前記撮影位置決定手段によって決定される撮影視野数とを比較する視野数比較手段と、
前記姿勢情報に基づいて決定される撮影視野数が前記撮影位置決定手段によって決定される撮影視野数よりも少ない場合には、前記姿勢情報に基づいた撮影位置での検査を選択し、前記姿勢情報に基づいて決定される撮影視野数と前記撮影位置決定手段によって決定される撮影視野数とが同一である場合には、前記撮影位置決定手段によって決定される撮影位置での検査を選択する選択手段とを具備することを特徴とする外観検査装置。
An appearance inspection apparatus that divides and images an inspection object stored in a pocket of a tray into a plurality of imaging fields of view, and performs an appearance inspection of the inspection object by an image obtained by the imaging,
Photographing means for photographing the inspection object in the photographing field;
Moving means for moving the imaging field;
Feature region storage means for storing the feature region of the inspection object;
Posture detection means for searching for the characteristic region of the inspection object from an image taken by the imaging means in the field of view and calculating posture information of the inspection object with reference to information obtained by the search; ,
Based on the posture information calculated by the posture detection unit, a shooting position of the shooting field of view by the moving unit is determined, a movement control unit that controls the moving unit, a size of the pocket, and a size of the inspection object And a photographing position determining means for determining a plurality of photographing visual field photographing positions from the photographing visual field size,
The number of fields of view determined based on the posture information necessary for capturing the entire inspection object and the number of fields of view determined by the shooting position determination means are determined based on the size of the pocket and the inspection object. Visual field number calculating means for calculating from the size and the size of the photographing visual field;
A number-of-views comparison unit that compares the number of fields of view determined based on the posture information calculated by the number-of-views calculation unit and the number of fields of view determined by the shooting position determination unit;
If the number of field of view determined based on the posture information is less than the number of fields of view determined by the shooting position determination means, an inspection at the shooting position based on the posture information is selected, and the posture information Selection means for selecting an inspection at the photographing position determined by the photographing position determining means when the number of photographing visual fields determined based on the photographing position and the photographing visual field number determined by the photographing position determining means are the same And an appearance inspection apparatus.
前記検査手段は、前記検査領域を検査する際の基準となる画像として前記撮影視野で撮影された複数の画像を合成したものを使用させることを特徴とする請求項3記載の外観検査装置。  4. The appearance inspection apparatus according to claim 3, wherein the inspection means uses a composite of a plurality of images photographed in the photographing field as an image serving as a reference when inspecting the inspection region. トレイのポケットに収納された検査対象物を複数の撮影視野に分割して撮影し、当該撮影によって得られる画像によって前記検査対象物の外観検査を行う外観検査方法であって、
前記撮影視野で前記検査対象物を撮影し、
前記検査対象物の特徴領域を記憶しておき、
前記撮影視野で撮影した画像から前記検査対象物の前記特徴領域を検索し、
該検索によって得られた情報を参照して前記検査対象物の姿勢情報を算出し、
該算出した前記姿勢情報に基づいて前記撮影視野の撮影位置を決定し、
該決定した撮影位置に前記撮影視野を移動させることを特徴とする外観検査方法。
An appearance inspection method for photographing an inspection object stored in a pocket of a tray by dividing it into a plurality of photographing fields, and performing an appearance inspection of the inspection object by an image obtained by the photographing,
Photographing the inspection object in the photographing field of view,
Storing the characteristic area of the inspection object;
Search the characteristic area of the inspection object from an image taken in the field of view,
Calculate the posture information of the inspection object with reference to the information obtained by the search,
Determining a shooting position of the shooting field of view based on the calculated posture information;
An appearance inspection method characterized by moving the imaging field of view to the determined imaging position.
予め定められた第1撮影視野で撮影された画像から前記検査対象物の前記特徴領域を検索し、
該検索によって得られた情報を参照して前記検査対象物の前記姿勢情報を算出し、
前記第1撮影視野において算出した前記姿勢情報に基づいて前記第1撮影視野に続く第2撮影視野以降の撮影位置を決定することを特徴とする請求項1記載の外観検査方法。
Search the characteristic area of the inspection object from an image photographed in a predetermined first field of view,
Calculate the posture information of the inspection object with reference to the information obtained by the search,
Appearance inspection method according to claim 1 4, wherein determining the imaging position of the subsequent second field of view that follows the first field of view on the basis of the posture information calculated in the first field of view.
前記姿勢情報に基づいて前記撮影視野で撮影した画像から検査領域を抽出すると共に抽出した前記検査領域の傾きを補正し、
該抽出して傾きを補正した前記検査領域を検査することを特徴とする請求項1又は1記載の外観検査方法。
Extracting the inspection area from the image captured in the field of view based on the posture information and correcting the extracted inclination of the inspection area,
Claims 1 to 4 or 1 5 appearance inspection method, wherein the inspecting said inspection area obtained by correcting the inclination the extracted.
予め定められた第1撮影視野で撮影した画像から前記検査対象物の前記特徴領域を検索し、
該検索によって得られた情報を参照して前記検査対象物の前記姿勢情報を算出し、
前記第1撮影視野において算出した前記姿勢情報に基づいて前記第1撮影視野に続く第2撮影視野以降に撮影した画像から前記検査領域を抽出すると共に抽出した前記検査領域の傾きを補正することを特徴とする請求項1記載の外観検査方法。
Search the characteristic area of the inspection object from an image photographed in a predetermined first field of view,
Calculate the posture information of the inspection object with reference to the information obtained by the search,
Extracting the inspection area from an image photographed after the second photographing visual field following the first photographing visual field and correcting the inclination of the extracted inspection area based on the posture information calculated in the first photographing visual field. The appearance inspection method according to claim 16, wherein
前記姿勢情報に基づいて当該姿勢情報を算出した前記撮影視野の次に撮影する前記撮影視野の撮影位置を決定することを特徴とする請求項1記載の外観検査方法。Appearance inspection method according to claim 1 4, wherein determining the photographing position of the photographing field of view for shooting the next of the imaging field of view is calculated the position information based on the attitude information. 前記姿勢情報に基づいて当該姿勢情報が算出された前記撮影視野で撮影された画像から前記検査領域を抽出すると共に抽出した前記検査領域の傾きを補正することを特徴とする請求項1記載の外観検査方法。Of claims 1 to 6, wherein the correcting the inclination of the inspection area extracted together with the orientation information to extract the examination region from the image captured by the imaging field of view calculated based on the attitude information Appearance inspection method. 前記撮影視野で撮影した画像から前記姿勢情報の算出に失敗した際には、前記姿勢情報の算出に失敗した前記撮影視野の次に撮影する前記撮影視野の撮影位置を既に算出している前記姿勢情報に基づいて決定することを特徴とする請求項1記載の外観検査方法。When the calculation of the posture information has failed from the image shot in the shooting field of view, the posture for which the shooting position of the shooting field of view to be shot next to the shooting field of view for which the calculation of the posture information has failed has already been calculated The visual inspection method according to claim 18 , wherein the visual inspection method is determined based on information. 前記撮影視野で撮影した画像から前記姿勢情報の算出に失敗した際には、既に算出されている前記姿勢情報に基づいて前記姿勢情報の算出に失敗した前記撮影視野で撮影された画像から前記検査領域を抽出すると共に抽出した前記検査領域の傾きを補正することを特徴とする請求項1記載の外観検査方法。When the calculation of the posture information fails from the image shot in the shooting field of view, the inspection is performed from the image shot in the shooting field of view that has failed to calculate the posture information based on the posture information that has already been calculated. The appearance inspection method according to claim 16 , wherein an area is extracted and an inclination of the extracted inspection area is corrected. 予め定められた第1撮影視野で撮影した画像から前記姿勢情報の算出に失敗した際には、予め定められた前記第1撮影視野とは異なる予備撮影視野で前記検査対象物を撮影し、
前記予備撮影視野で撮影した画像から前記姿勢情報を算出し、
前記予備撮影視野で算出した前記姿勢情報から前記第1撮影視野の撮影位置を決定し、
該決定した撮影位置で再度前記第1撮影視野を撮影し、
再度前記第1撮影視野で撮影した画像から前記姿勢情報を算出することを特徴とする請求項1又は1記載の外観検査方法。
When the calculation of the posture information fails from an image photographed in a predetermined first photographing visual field, the inspection object is photographed in a preliminary photographing visual field different from the predetermined first photographing visual field,
Calculating the posture information from an image taken in the preliminary photographing field of view,
Determining the shooting position of the first shooting field of view from the posture information calculated in the preliminary shooting field of view;
Shoot the first field of view again at the determined shooting position,
Claims 1 to 4 or 1 5 appearance inspection method, wherein the calculating the orientation information from the photographed image again the first field of view.
トレイのポケットに収納された検査対象物を複数の撮影視野に分割して撮影し、当該撮影によって得られる画像によって前記検査対象物の外観検査を行う外観検査方法であって、
前記撮影視野で前記検査対象物を撮影し、
前記検査対象物の特徴領域を記憶しておき、
予め定められた基準撮影視野で撮影した画像から前記検査対象物の前記特徴領域を検索し、
該検索によって得られた情報を参照して前記検査対象物の基準姿勢情報を算出し、
該算出した前記基準姿勢情報に基づいて前記基準撮影視野を除く前記複数の撮影視野の撮影位置をそれぞれ決定し、
該決定したそれぞれの撮影位置に前記撮影視野を移動させることを特徴とする外観検査方法。
An appearance inspection method for photographing an inspection object stored in a pocket of a tray by dividing it into a plurality of photographing fields, and performing an appearance inspection of the inspection object by an image obtained by the photographing,
Photographing the inspection object in the photographing field of view,
Storing the characteristic area of the inspection object;
Search the characteristic area of the inspection object from an image photographed in a predetermined reference photographing field of view,
Calculate the reference posture information of the inspection object with reference to the information obtained by the search,
Determining the shooting positions of the plurality of shooting fields of view excluding the reference shooting field of view based on the calculated reference posture information,
An appearance inspection method, wherein the photographing field of view is moved to each determined photographing position.
前記基準姿勢情報に基づいて前記複数の撮影視野で撮影されたそれぞれの画像から検査領域をそれぞれ抽出すると共に抽出した前記検査領域の傾きをそれぞれ補正し、
該抽出して傾きを補正したそれぞれの前記検査領域を検査することを特徴とする請求項2記載の外観検査方法。
Extracting the inspection area from each image captured in the plurality of fields of view based on the reference posture information, respectively, and correcting the extracted inclination of the inspection area,
Appearance inspection method according to claim 2 3, wherein the inspecting each of the inspection area obtained by correcting the inclination the extracted.
トレイのポケットに収納された検査対象物を複数の撮影視野に分割して撮影し、当該撮影によって得られる画像によって前記検査対象物の外観検査を行う外観検査方法であって、
前記撮影視野で前記検査対象物を撮影する工程と、
前記撮影視野を移動させる工程と、
前記検査対象物の特徴領域を記憶しておき、
前記撮影視野で撮影された画像から前記検査対象物の前記特徴領域を検索し、該検索によって得られた情報を参照して前記検査対象物の姿勢情報を算出する工程と、
該算出した前記姿勢情報に基づいて前記撮影視野の撮影位置を決定する工程と、
前記ポケットのサイズと前記検査対象物のサイズと前記撮影視野のサイズとからなるサイズ情報に基づいて複数の前記撮影視野の撮影位置を決定し、前記撮影視野の移動を制御する工程と、
前記検査対象物の全体を撮影するために必要な前記姿勢情報に基づいて決定した撮影視野数と前記サイズ情報に基づいて決定した撮影視野数とを前記ポケットのサイズと前記検査対象物のサイズと前記撮影視野のサイズとから算出する工程と、
該算出した前記姿勢情報に基づいて決定した撮影視野数と前記サイズ情報に基づいて決定した撮影視野数とを比較する工程と、
前記姿勢情報に基づいて決定した撮影視野数が前記サイズ情報に基づいて決定した撮影視野数よりも少ない場合には、前記姿勢情報に基づいた撮影位置での検査を選択し、前記姿勢情報に基づいて決定した撮影視野数と前記サイズ情報に基づいて決定した撮影視野数とが同一である場合には、前記サイズ情報に基づいて決定した撮影視野での検査を選択する工程とを有することを特徴とする外観検査方法。
An appearance inspection method for photographing an inspection object stored in a pocket of a tray by dividing it into a plurality of photographing fields, and performing an appearance inspection of the inspection object by an image obtained by the photographing,
Imaging the inspection object in the imaging field;
Moving the imaging field of view;
Storing the characteristic area of the inspection object;
Searching the characteristic region of the inspection object from an image captured in the imaging field of view, and calculating posture information of the inspection object with reference to information obtained by the search;
Determining a shooting position of the shooting field of view based on the calculated posture information;
Determining a shooting position of the plurality of shooting fields based on size information consisting of the size of the pocket, the size of the inspection object, and the size of the shooting field, and controlling the movement of the shooting field;
The number of fields of view determined based on the posture information necessary for capturing the entire inspection object and the number of fields of view determined based on the size information are the size of the pocket and the size of the object to be inspected. Calculating from the size of the field of view,
Comparing the number of field of view determined based on the calculated orientation information and the number of fields of view determined based on the size information;
When the number of field of view determined based on the posture information is less than the number of fields of view determined based on the size information, an inspection at the shooting position based on the posture information is selected, and based on the posture information The number of fields of view determined based on the size information is the same as the number of fields of view determined based on the size information. Appearance inspection method.
前記抽出して傾きを補正した前記検査領域を検査する際の基準となる画像として前記撮影視野で撮影した複数の画像を合成したものを使用することを特徴とする請求項1記載の外観検査方法。The appearance inspection according to claim 16 , wherein a combination of a plurality of images photographed in the photographing field of view is used as an image serving as a reference in inspecting the inspection region that has been extracted and corrected in inclination. Method. トレイのポケットに収納された検査対象物を複数の撮影視野に分割して撮影し、当該撮影によって得られる画像によって前記検査対象物の外観検査を行う外観検査方法をコンピュータに実行させるためのプログラムであって、
前記撮影視野で前記検査対象物を撮影する工程と、
前記検査対象物の特徴領域を記憶しておき、
前記撮影視野で撮影し画像から前記検査対象物の前記特徴領域を検索し、該検索によって得られた情報を参照して前記検査対象物の姿勢情報を算出する工程と、
該算出した前記姿勢情報に基づいて前記撮影視野の撮影位置を決定する工程と、
該決定した撮影位置に前記撮影視野を移動させる工程とを有する外観検査方法をコンピュータに実行させるためのプログラム。
A program for causing a computer to execute an appearance inspection method in which an inspection object stored in a pocket of a tray is divided and photographed into a plurality of photographing fields, and an appearance inspection of the inspection object is performed based on an image obtained by the photographing. There,
Imaging the inspection object in the imaging field;
Storing the characteristic area of the inspection object;
A step of retrieving the feature region of the inspection object from an image captured in the imaging field of view, referring to information obtained by the search, and calculating posture information of the inspection object;
Determining a shooting position of the shooting field of view based on the calculated posture information;
A program for causing a computer to execute an appearance inspection method including the step of moving the imaging field of view to the determined imaging position.
JP2002254679A 2002-08-30 2002-08-30 Appearance inspection apparatus and appearance inspection method Expired - Fee Related JP4258189B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002254679A JP4258189B2 (en) 2002-08-30 2002-08-30 Appearance inspection apparatus and appearance inspection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002254679A JP4258189B2 (en) 2002-08-30 2002-08-30 Appearance inspection apparatus and appearance inspection method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2008310693A Division JP4798210B2 (en) 2008-12-05 2008-12-05 Appearance inspection apparatus and appearance inspection method

Publications (2)

Publication Number Publication Date
JP2004093339A JP2004093339A (en) 2004-03-25
JP4258189B2 true JP4258189B2 (en) 2009-04-30

Family

ID=32060391

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002254679A Expired - Fee Related JP4258189B2 (en) 2002-08-30 2002-08-30 Appearance inspection apparatus and appearance inspection method

Country Status (1)

Country Link
JP (1) JP4258189B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4954738B2 (en) * 2007-02-02 2012-06-20 東京エレクトロン株式会社 Electrode pad position detection method and electrode pad position detection apparatus
JP4984332B2 (en) * 2008-06-05 2012-07-25 株式会社高岳製作所 IC package board inspection equipment
JP5153488B2 (en) * 2008-07-09 2013-02-27 富士機械製造株式会社 Component image capturing device and component image capturing method
KR101251372B1 (en) 2008-10-13 2013-04-05 주식회사 고영테크놀러지 Three dimension shape measuring method

Also Published As

Publication number Publication date
JP2004093339A (en) 2004-03-25

Similar Documents

Publication Publication Date Title
US7693348B2 (en) Method of registering and aligning multiple images
KR100785594B1 (en) Image process apparatus
JP5096303B2 (en) Imaging device
JP5096302B2 (en) Imaging device
CN102834845A (en) Method and arrangement for multi-camera calibration
JPWO2014002849A1 (en) Three-dimensional measurement method, apparatus and system, and image processing apparatus
CN109804730B (en) Substrate inspection apparatus and substrate distortion compensation method using the same
US10986761B2 (en) Board inspecting apparatus and board inspecting method using the same
JP4258189B2 (en) Appearance inspection apparatus and appearance inspection method
JP4798210B2 (en) Appearance inspection apparatus and appearance inspection method
JP6869880B2 (en) Inspection image compositing device, inspection image compositing system, inspection image compositing method and program
JP5209099B2 (en) Imaging device
KR20190108805A (en) Vision inspection apparatus and method to inspect defect of target object
JP5615252B2 (en) Appearance inspection device
JP4428112B2 (en) Appearance inspection method and appearance inspection apparatus
JP2011259504A (en) Imaging apparatus
JP4776983B2 (en) Image composition apparatus and image composition method
JP4530723B2 (en) PATTERN MATCHING METHOD, PATTERN MATCHING DEVICE, AND ELECTRONIC COMPONENT MOUNTING METHOD
JP5209138B2 (en) Imaging device
WO2018146887A1 (en) External-appearance examination device
JP2006003276A (en) Three dimensional geometry measurement system
JP2019186275A (en) Inspection equipment and inspection method
JP5209097B2 (en) Imaging device
JP2000348175A (en) Method and device for corresponding point detection
JP5438852B2 (en) microscope

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081007

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090113

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090126

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120220

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4258189

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120220

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130220

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130220

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140220

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees