JP4167482B2 - Image conversion method and image conversion apparatus - Google Patents
Image conversion method and image conversion apparatus Download PDFInfo
- Publication number
- JP4167482B2 JP4167482B2 JP2002366354A JP2002366354A JP4167482B2 JP 4167482 B2 JP4167482 B2 JP 4167482B2 JP 2002366354 A JP2002366354 A JP 2002366354A JP 2002366354 A JP2002366354 A JP 2002366354A JP 4167482 B2 JP4167482 B2 JP 4167482B2
- Authority
- JP
- Japan
- Prior art keywords
- light receiving
- image
- receiving plane
- plane
- line segment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000006243 chemical reaction Methods 0.000 title claims description 126
- 238000000034 method Methods 0.000 title claims description 95
- 238000003384 imaging method Methods 0.000 claims description 221
- 238000012360 testing method Methods 0.000 claims description 74
- 235000012431 wafers Nutrition 0.000 claims description 57
- 238000004519 manufacturing process Methods 0.000 claims description 35
- 230000008569 process Effects 0.000 claims description 26
- 239000004065 semiconductor Substances 0.000 claims description 22
- 238000012952 Resampling Methods 0.000 claims description 12
- 238000012546 transfer Methods 0.000 claims description 12
- 230000009466 transformation Effects 0.000 claims description 10
- 230000003287 optical effect Effects 0.000 claims description 9
- 238000007689 inspection Methods 0.000 claims description 7
- 238000005070 sampling Methods 0.000 claims description 6
- PCTMTFRHKVHKIS-BMFZQQSSSA-N (1s,3r,4e,6e,8e,10e,12e,14e,16e,18s,19r,20r,21s,25r,27r,30r,31r,33s,35r,37s,38r)-3-[(2r,3s,4s,5s,6r)-4-amino-3,5-dihydroxy-6-methyloxan-2-yl]oxy-19,25,27,30,31,33,35,37-octahydroxy-18,20,21-trimethyl-23-oxo-22,39-dioxabicyclo[33.3.1]nonatriaconta-4,6,8,10 Chemical compound C1C=C2C[C@@H](OS(O)(=O)=O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2.O[C@H]1[C@@H](N)[C@H](O)[C@@H](C)O[C@H]1O[C@H]1/C=C/C=C/C=C/C=C/C=C/C=C/C=C/[C@H](C)[C@@H](O)[C@@H](C)[C@H](C)OC(=O)C[C@H](O)C[C@H](O)CC[C@@H](O)[C@H](O)C[C@H](O)C[C@](O)(C[C@H](O)[C@H]2C(O)=O)O[C@H]2C1 PCTMTFRHKVHKIS-BMFZQQSSSA-N 0.000 claims description 4
- 238000012545 processing Methods 0.000 description 37
- 238000010586 diagram Methods 0.000 description 21
- 238000001514 detection method Methods 0.000 description 13
- 230000014509 gene expression Effects 0.000 description 5
- 239000013078 crystal Substances 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
Images
Landscapes
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
- Testing Or Measuring Of Semiconductors Or The Like (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
【0001】
【発明の属する技術分野】
この発明は、検査対象物等の撮像対象物を斜め方向から撮像し、撮像された画像データを撮像対象物に正対する方向から撮像された画像データに変換する方法及び装置並びにこれら方法及び装置を利用した半導体製造装置及び製造検査ラインに関する。
【0002】
【従来の技術】
航空写真から地図を作るプロセスや写真上の位置から対象物の位置を測定する場合、対象物の現実の空間座標(以後「世界座標」ということもある。)上の位置と、その対象物を撮像した写真(以後「画像」ということもある。)の画面座標上の位置との対応関係を知る必要がある。また対象物を撮像してその撮像面上に投影される対象物の画像を基にして、その画像の中から特定の形状のパターンを見つけ出す(以後「画像サーチ」ということもある。)という需要もある。この場合、撮像装置から見た対象物の方向である撮像方向といった撮像装置の外的パラメータと、撮像装置の結像系の光学的特性といった内的パラメータを考慮して、撮像されている画像の歪みを考慮して、画像サーチ等の処理を行なう必要がある。
【0003】
従来、対象物中に参照点を設けておき、この参照点の世界座標値と画面座標値との対応付けを行ない、撮像装置の外的及び内的パラメータを高精度に求めることによって撮像装置のキャリブレーションを行う方法がある(例えば、特許文献1参照)。この方法によれば、撮像の方向や対象物と撮像装置との距離の如何を問わず、撮像装置のキャリブレーションを行なっておけば、画像上で未知点を指定すると、その未知点の世界座標を得ることができる。したがって、対象物が撮像された画像を用いて対象物上の未知点の世界座標を得ることができることから、写真上の位置から対象物の位置を測定する場合に有用な技術となる。
【0004】
また、ステッパ等の半導体製造装置において、半導体ウエハのオリエンテーションフラット(以後「オリフラ」と略記する。)の検出、を行なう装置としてウエハのオリフラ検出装置がある(例えば、特許文献2及び特許文献3参照)。このウエハのオリフラ検出装置においては、オリフラを有するウエハ(撮像対象物)を撮像する撮像装置は、撮像対象物が歪められて撮像されないように、ウエハに対して正対する位置に設置されている。
【0005】
【特許文献1】
特開2001-264037号公報
【特許文献2】
特開平9-14918号公報
【特許文献3】
特開平9-14938号公報
【0006】
【発明が解決しようとする課題】
しかしながら、従来の撮像装置キャリブレーションによる方法は、撮像画像面上で未知点の指定を行なって対象未知点の世界座標を求めるものである。すなわち、あくまで従来の方法は画像に基づいて画像中での位置(画面座標)と空間中での位置(世界座標)の対応付けを行なうものであるので、対象物を斜め方向から撮像した画像から画面サーチを行なうと対象物が歪むという問題がある。つまり探索目的であるモデルパターンとしては、通常そのパターンの正対する方向、例えば、真上から見た形状が与えられるのに対して、それを元にして斜め方向から撮像された画像の中から、モデルパターンを探索することになるからである。斜め方向から撮像された画像を何らかの方法で、正対する方向から撮像される画像に変換してからでなければ、画面サーチを行なうことは難しいことを意味している。
【0007】
また、従来技術のウエハのオリフラ検出装置(例えば、特許文献2及び特許文献3参照)においては、ウエハ(撮像対象物)を撮像する撮像装置は、ウエハが歪められて撮像されないように、ウエハ上面に対して垂直の位置に設置されている。しかしながら、半導体製造装置はクリーンルームに設置されるため、その大きさをできる限り小さく作る必要があり、ウエハ上面に対して垂直の方向からウエハを撮像できるように、撮像装置を取り付けることが困難な場合がある。
【0008】
また、画面サーチの技術は、半導体製造装置のオリフラの検出以外においても、例えば複数の製造工程からなる製造ラインでの物品の監視や検査等において重要な技術である。そのため、これら製造ラインでの物品の監視や検査等においても、斜め方向から撮像された画像を正対する方向から撮像される画像に変換する技術が必要とされている。
【0009】
【課題を解決するための手段】
そこで、この発明の画像変換方法及び画像変換装置は、下記のような工程もしくは手段を有する。
【0010】
すなわち、この発明による方法及び装置は、結像光学系と受光平面とを具えて構成される撮像装置によって、撮像対象物を斜め方向から撮像して斜め受光平面(以後「第1受光平面」ともいう。)に得られる第1画像データを、該撮像装置によって、該撮像対象物を正対する方向から仮に撮像したときに正対受光平面(以後「第2受光平面」ともいう。)に得られる第2画像データに変換する画像変換方法及び装置である。
【0011】
まず、斜め受光平面上の画素位置を確定するための第1平面座標と正対受光平面上の画素位置を確定するための第2平面座標との関係を定める座標変換を行なう。次に、正対受光平面を構成する1画素の光強度を、以下に記述するように求める。正対受光平面を構成する1画素は、斜め受光平面に投影されればこの斜め受光平面を構成する複数画素にまたがって受光される。そこで、この1画素が斜め受光平面を構成するどの画素にどれだけの面積にわたって投影されるか算出して、斜め受光平面を構成する画素が受光した量に対して、複数画素のそれぞれの画素に投影された部分の面積に比例する重み付けをして加重平均として求めて、その値を正対受光平面を構成する1画素の光強度とする手法で再サンプリングを行なう。
【0012】
この発明の実施に当たり、第1平面座標と第2平面座標との関係を定める座標変換を行なうには、次のような手順によって行なうのが好適である。
(a)一直線上に3点以上が並ぶことがないように選び出した4点以上の点あるいは一直線上の3点を含みこの直線外の少なくとも2点以上の点を含むように選び出した複数の点(以後これらの点を「特徴のある複数の点」という。)上にマークを持つ撮像対象物であって、該マークが存在する平面に設けられた座標系による該マークの座標値が既知である当該撮像対象物をテストパターンとして、前記撮像装置によって当該テストパターンを撮像する。
(b)斜め方向から撮像された場合の第1受光平面に撮像される、テストパターン中の特徴のある複数の点上のマークに対する、前記第1平面座標の座標値を読み取る。
(c)テストパターン中の任意の位置を原点と定め、斜め方向から撮像されたテストパターンの第1受光平面上に撮像される画像を基にして、該テストパターンが、該原点が第2受光平面の中央部分に投影される正対する方向から撮像される場合の、該原点が投影される該第2受光平面の中央部分の位置と、斜め方向から撮像されたテストパターンの画像を幾何学的に相似変換する縮尺とを仮想的に設定する。
(d)斜め方向から撮像された特徴のある複数の点上のマークに対して、テストパターン中のそれぞれの該マークを、仮想的に設定された正対する方向から撮像される場合の第2受光平面上に投影して、前記第2平面座標での該マークの位置を算出する。
(e)斜め方向から撮像した場合の前記第1受光平面に投影されたテストパターン中の前記特徴のある複数の点上のマークそれぞれの前記第1座標と、仮想的に設定された正対する方向から撮像された場合の第2受光平面上で、算出されたテストパターン中の該特徴のある複数の点上のマークそれぞれの前記第2座標とを基にして、座標変換パラメータbi(ただし、i = 1, 2, 3, 4, 5, 6, 7, 8である。)を求める。
【0013】
前記正対方向から撮像する場合の第2平面座標系における中心位置と縮尺とを仮想的に設定するキャリブレーション工程を行なうには、次のようにするのが好適である。
(c')前記第1受光平面の中央部分の位置と仮想的に設定された前記第2受光平面の中央部分の位置における、画像の寸法が等しくなるように縮尺を定め、かつ互いの画像の中央部分の位置が一致するように該撮像対象物を正対した方向から撮像する場合の中心部分の位置を仮想的に設定する。
【0014】
また、この発明の実施に当り、再サンプリングは、第2画像データの画素[I, J]の光強度Img2(I, J)を次式(1)に従って求めることによって、行なうのが好適である。
【0015】
Img2(I, J) = Σ[W(k, m)×Img1(k, m)]/ΣW(k, m) (1)
ただし、I、J、k及びmを整数として、Img1(k, m)は、第1画像データの第k行第m列の画素[k, m]の光強度である。W(k, m)は、第1受光平面上に投影される第2画像データの第I行第J列の画素[I, J]が、第1受光平面上の画素[k, m]上に投影される面積を表す。
【0016】
また、上式(1)の右辺の和を求める範囲は、第1受光平面上に投影される第2画像データの画素[I, J]が、第1受光平面上の画素[k, m]上に一部でも投影されれば、その投影されている画素[k, m]全てにわたるものとする。
【0017】
この発明の画像変換方法あるいは画像変換装置によれば、撮像対象物を斜め方向から撮像して得られる第1画像データ(以後「斜め画像データ」ともいう。)が、この撮像対象物を真上方向から撮像して得られる第2画像データ(以後「真上画像データ」ともいう。)に変換される。真上画像データの画像は、対象物と相似形であるので、次のような各種画像処理機能を実現する既成のプログラムライブラリ等を有効に使うことができる。
【0018】
すなわち、対象物の識別、対象物の標準物との差異の検出、対象物の位置計測、対象物の形状測定等である。これら既成のプログラムライブラリ等は、対象物を真上から撮像して得られる画像に適用することを前提に作られているので、対象物を斜め上方から撮像して得られた画像データに適用するには、撮像された斜め画像データを真上画像データに変換することが必須の条件となる。
【0019】
また、画面サーチの技術は、半導体製造装置におけるオリフラの検出、複数の製造工程からなる製造ラインでの監視や検査において、この発明の画像変換方法によれば、効果的に画面サーチが行なえる。
【0020】
また、複数枚のウエハをストックするウエハカセットと、このウエハカセットからウエハを一枚ずつ取り出してステージに搬送する搬送手段とを具える半導体製造装置において、この発明の画像変換装置を具えるのが好適である。この発明の画像変換装置を具えた半導体製造装置によれば、ウエハ上面に対して斜め方向に設置された撮像装置で取得されるウエハの斜め画像が正対画像に変換されるので、正対画像を対象とした周知の画像サーチ技術を用いてオリフラ検出を行なうことができる。このため、必ずしも、撮像装置をウエハ上面に対して正対する位置に設置する必要がなくなる。
【0021】
【発明の実施の形態】
以下、図1から図18を参照して、この発明の実施の形態につき説明する。なお、各図は、この発明が理解出来る程度に各構成要素等の形状、大きさ及び配置関係を概略的に示してあるに過ぎず、この発明を図示例に限定するものではない。
【0022】
図1を参照して、撮像対象物を正対する方向、例えば、真上から撮像する場合と、斜め上方から撮影する場合について説明する。以下の説明において、正対する方向から撮像する場合とは、仮想的なモデルを想定するのみで、実際には撮像装置等が存在しているわけではない。更に、説明の便宜のために平面上の格子状パターン14を撮像対象物とするが、以下に記述する技術的内容は、この対象物を格子状パターンであるか否かにはかかわりなく成立する。
【0023】
撮像装置は、結像光学系及び受光平面を具えている。撮像装置を撮像対象物14に対して正対させて撮像する位置を正対位置Bとし、斜め方向から撮像する位置を斜め位置Aとする。この構成例の説明では、撮像装置を斜め位置Aに配置したとき、この撮像装置を第1撮像装置10とし、その結像光学系を10aとし、及びその受光平面を斜め受光平面10bとしてそれぞれ表示する。また、この斜め位置Aに配置した撮像装置と同等の装置を正対位置Bに仮想的に配置したとき、この撮像装置を第2撮像装置12とし、その結像光学系を12aとし、及びその受光平面12bとしてそれぞれ示す。
【0024】
撮像対象物を正対する方向から撮像するとは、格子状パターン14が存在する平面の法線方向に撮像装置12を設置して、撮像することをいう。したがってこの撮像装置12を構成する結像光学系12aの光軸はこの法線方向に平行であり、また受光平面はこの法線方向に垂直となっている。一方、撮像対象物14を斜め方向から撮像する場合とは、格子状パターンが存在する平面の法線方向から外れた方向に撮像装置10を設置して、撮像することをいう。
【0025】
図1に示す構成例では、正対位置Bは、撮像対象物14に対して真上方向(正対方向)の位置であり、また斜め位置Aは、撮像対象物14に対して斜め上方の位置である。説明を簡潔にするため、図1に示す行列状に規則的に設けられている格子状パターン14に対して左右に平行な方向にx’軸を、これとは垂直な方向にy’軸にとり、y’軸を中心にして右回りに回転させた方向に撮像装置10を設置した場合を説明する。
【0026】
<座標変換>
このようにして第1撮像装置10及び第2撮像装置12で格子状パターンをそれぞれ撮像するとする。図2(A)、(B)及び(C)に示すように、第1及び第2撮像装置10及び12の受光平面には、格子状パターンの画像18a及び18bがそれぞれ撮像される。図2(A)及び(B)中、細線で示した格子状パターンが第1撮像装置10の受光平面10b上に投影された画像18aを示し、及び、太線で示した格子状パターンが第2撮像装置12の受光平面12bに投影された画像18bを示し、図2(C)にそれぞれを重ねて示してある。
【0027】
受光平面には、光を受けてその光の強度に比例する電圧あるいは電流を発生する微小な受光器(以後この受光器一つ一つを「画素」と呼ぶこともある。)が一様に並べられて行列配列されている。受光平面上で順序付けられて並べられた画素一つ一つに対応した受光強度の組の集合を、以後「画像データ」と呼ぶこともある。受光平面上で順序付けて個々の画素を識別するために、受光平面に直交座標軸を設けて、この直交座標軸に沿って、起点から数えて横軸方向にi番目、縦軸にj番目の位置にある画素を画素[i 、j]と呼ぶことにする。すなわち、画素[i 、j]はi行j列の画素である。詳細は後述する。
【0028】
第1撮像装置10によって撮像された第1画像データを、第1撮像装置10と同一の構造を有する第2撮像装置12によって撮像された第2画像データに画像変換する場合には、第1画像データの画像の画質に対して第2画像データの画像の画質をできるだけ劣化させないように変換することが重要である。
【0029】
斜め画像から正対画像に画像変換するとき、画像データとして画質をできるだけ劣化させないためには、第1撮像装置10の受光平面10bの中央部分と第2撮像装置12の受光平面12bの中央部分において、画像の寸法が等しくなるように、x-y座標系からX-Y座標系への座標変換時の縮尺を確定すればよい。ここでは、撮像対象物として格子状パターンを用いて説明する。図2(A)〜(C)において、太線で示した格子状パターン18bが正対画像、細線で示した格子状パターン18aが斜め画像である。すなわち、図中、画像18b中の記号イで示す太線の直線上に並ぶ格子点の間隔が、画像18a中の記号ロで示す細線の直線上に並ぶ格子点の間隔と等しくなるように上記縮尺を確定する。
【0030】
ところで、記号イで示す太い直線は、第2撮像装置12の受光平面12b中央部分におけるy’軸方向に並ぶ格子点を連ねた直線であり、この直線と横方向(x’軸方向)の格子点を連ねた太い直線との交点が、第2撮像装置12の受光平面12bに撮像された格子点の位置である。また、記号ロで示す細い直線は、第1撮像装置10の受光平面10bの中央部分における、同じくy’軸方向に並ぶ格子を連ねた直線である。したがって、受光平面10bの中央部分における、記号イ及び記号ロで示す直線に沿って直線状に並ぶ格子点の間隔が等しくなるように、第2撮像装置12で撮像された太線で示した格子状パターンの画像18bの縮尺を確定すれば、画像変換された正対画像の画質が、画面全体に対して最小の劣化となる。
【0031】
第1撮像装置10の斜め受光平面10bと第2撮像装置12の正対受光平面12bとでの両位置関係を規定するために、両受光平面に、(x、y)及び(X、Y)座標系をそれぞれ設ける。両座標系の間には、周知の通り、次式(2) 及び (3)で与えられる関係がある。また次式(2) 及び (3)で与えられる関係から斜め受光平面10bの(x、y)座標系から正対受光平面12bの(X、Y)座標系へ変換することを、以後「座標変換」という。
【0032】
X=(b1x + b2y + b3)/(b7x +b8y + 1) (2)
Y=(b4x + b5y + b6)/(b7x +b8y + 1) (3)
ここで、bi(ただし、i = 1, 2, 3, 4, 5, 6, 7, 8である。)は上記座標変換のパラメータである。全部で8個あるので、第1撮像装置10と第2撮像装置12の受光平面10b及び12b上の対応する4点以上の関係を知れば、解析的にパラメータbi(ただし、i = 1, 2, 3, 4, 5, 6, 7, 8である。)の全てを求めることができる。
【0033】
すなわち、図2(C)において示すように、第1撮像装置10の斜め受光平面10b上の点p、 q、 r、 sに対応する点が第2撮像装置12の正対受光平面12b上の点P、Q、R、Sに対応するものとして、これら8点の座標をそれぞれ、(xp、yp)、(xq、yq)、(xr、yr)、(xs、ys)、(XP、YP)、(XQ、YQ)、(XR、YR)、(XS、YS)とする。そして(xp、yp)と(XP、YP)、(xq、yq)と(XQ、YQ)、(xr、yr)と(XR、YR)、(xs、ys)と(XS、YS)といった対応関係がそれぞれ与えられれば、解析的に周知の方法でパラメータbi(ただし、i = 1, 2, 3, 4, 5, 6, 7, 8である。)の全てを求めることができる。
【0034】
ここで、上述した斜め受光平面10bと正対受光平面12bのそれぞれの座標位置の対応関係を求める方法を説明する。この対応関係を求めるためには、撮像対象物14として格子状のテストパターンを設けておく。図1に示すように、このテストパターン中に4つの点p’, q’, r’及びs’を定めておく。このテストパターンにつき、第1撮像装置10で撮像して第1画像(第1受光平面に投影される画像)を得る。
【0035】
第2撮像装置12では、テストパターン上の点p’, q’, r’及びs’に対応する点の第2受光平面に置ける座標を、第2撮像装置12が仮想的なモデルであるとして計算によって求める。まずテストパターン上の点p’, q’, r’及びs’に対して原点を決定する。第2撮像装置12はテストパターンの面に対して法線方向に設置される。したがって、第2撮像装置12の受光平面12b上において、テストパターンの原点と点p’, q’, r’及びs’の位置関係は相似形となる。第2撮像装置12のX軸方向及びY軸方向をテストパターン上の格子のx’方向及びy’方向とそれぞれ一致させ、相似比を決めると第2受光平面上の点P、Q、R及びSの位置は確定する。すなわち、図2(C)における、点P、Q、R及びSの座標値を算出する。
【0036】
このようにして得られた第1画像中のp, q, r及びsの点の座標を、第1撮像装置10で読み取ってメモリ(記憶装置)に記憶し、第2画像(第2受光平面に投影される画像)中の算出されたP, Q, R及びSの点の座標をメモリ(記憶装置)に記憶する。既に説明したとおり、第1及び第2撮像装置10及び12は、同等のの受光平面すなわち撮像面を具えた一つの撮像装置であるので、斜め受光平面の(x, y)座標と正対受光平面の(X, Y)座標系は、同等の平面直交座標系である(すなわち相互に座標変換可能である。)。
【0037】
したがって、テストパターン中の点p’, q’, r’及びs’の各点は、この同一座標系中に二つの座標位置に撮像される。すなわち、p’はpとP, q’はqとQ, r’はrとR及びs’はsとSとの点に撮像される。これらの(p, q, r, s)と(P, Q, R, S)は同一座標系にあるので、pと P、 qとQ、 rと R 及びsと Sとのそれぞれの対応関係は上述した式 (2)及び式 (3)の8つのパラメータで規定される。
【0038】
第1画像データの画像を第2画像データの画像に変換するとき、できるだけ画質を劣化させないことが重要である。このために第1画像データのx方向の中央部分と第2画像データのX方向の中央部分とが一致するように、第2撮像装置12の位置を決め、縮尺を調整する。以下にこの縮尺の調整方法を説明する。図1で示す格子点で、新たに中央部分に3点o'、 t'及びu'を選択する。新たに選択されたこれら3点に対応する図2(C)に示す、第1及び第2画像におけるそれぞれの3点、o、 t 、u 及びO 、T、 Uがそれぞれ対応する。第1撮像装置10でテストパターンを撮像する時、o'を第1画像の中央になるように、テストパターンの位置を調整する。その後テストパターン上の7つの点o'、 p'、 q'、 r'、 s'、 t'及び u'の位置を第1撮像装置10で読み取る。読み取られた第1画像中のo点の座標に一致するように第2撮像装置12の原点を設定する(第2画像中のO点の位置を決める。)。そして第1画像中のo点とt点の間隔と第2画像中のO点とT点との間隔が同じになるように第2画像中のT点の位置を決める。このときT点のX座標は、O点と同一で、Y座標のみが変わるように設定する。このように第2画像中のT点の位置を決めると、第2画像データの縮尺が定まる。すなわち第2撮像装置12のテストパターンからの距離が定まる。第2撮像装置12はテストパターンのo'点上で正対する方向に設置されるので、テストパターン上でo'点に対する点p'、 q'、 r'、 s'、 t'及び u'の位置関係は、第2画像では、同一の相似比でO点に対する各点の位置となる。すなわち、第2画像中での点P、Q、R、S、T 及びUの座標は、O点に対して相似変換することで算出される。このようにして得られたテストパターン上の7点は、第1及び第2撮像装置の受光平面上で対応関係にあるので、式(2)及び式(3)に関係する式の数が多いので、最小二乗法を用いて式 (2)及び式 (3)の8つのパラメータを求める。
【0039】
パラメータbi(ただし、i = 1, 2, 3, 4, 5, 6, 7, 8である。)を記憶装置に記憶させておけば、第1撮像装置10の受光平面10b上の任意の点は、式 (2)及び式 (3)を用いて第2撮像装置12の受光平面12b上のどの点に対応するかが一義的に決まることになる。すなわち、中央処理装置(CPU)により、記憶装置に記憶された座標値とパラメータと上記式 (2)及び式 (3)を読み出してきて演算することにより、受光平面10b上の位置を受光平面12b上の位置へと変換して対応させることができる。
【0040】
また、上述した例では、第1撮像装置10と第2撮像装置12のそれぞれの受光平面10b及び12b上に7点ずつを選択してそれぞれの対応関係から座標変換パラメータを求めたが、必ずしも上記のような7点を選択しなければならないわけではない。
【0041】
選択した複数の点の個数は、一直線上に3点以上が並ぶことがないように選び出した場合には、最小でも4点となる。また、一直線上の3点を含みこの直線外の少なくとも2点以上の点を含むように選び出した場合には、選択した複数の点の個数は最小でも5点となる。すなわち上述した条件を満たす複数の点を選択すればよい。もちろん、選択点を多くとるほど、求められる座標変換パラメータの計算精度が高くなる。
【0042】
以上に説明した座標変換の座標変換のパラメータbi(ただし、i = 1, 2, 3, 4, 5, 6, 7, 8である。)を求める手順(工程)を図3に示したフローチャートを参照してまとめると次のようになる。
【0043】
(a)第1撮像装置10で、テストパターンを撮像するテストパターン撮像工程(ST1)
(b)テストパターン中の特徴のある複数の点が第1撮像装置10の受光平面10bに撮像された点それぞれの受光平面上での座標を読み取る座標読み取り工程(ST2)
(c)テストパターン中の任意の位置に原点を設定し、第2撮像装置12でテストパターンを撮像される画像の縮尺を設定するための、斜め方向で撮像された特徴ある複数点上のマーク位置を原点に対して幾何学的に相似変換する、第2撮像装置の中心位置と縮尺を決定するキャリブレーション工程(ST3)
(d) 上記工程(c)で設定された中心位置と縮尺とを使用して、第2撮像装置12の受光平面12bに、テストパターン中で工程(a)において選択された点それぞれの受光平面上での座標を算出する座標算出工程(ST4)
(e) 第1撮像装置10の受光平面10bに撮像されたテストパターン中の特徴ある複数の点の座標と第2撮像装置12の受光平面12b上に算出されたテストパターン中の上記複数の点の座標を基にして、座標変換パラメータbi(ただし、i= 1, 2, 3, 4, 5, 6, 7, 8である。)を連立方程式を解く方法あるいは、最小二乗法で求めるパラメータ算出工程(ST5)
【0044】
また、(a)及び(c)の工程において、以下の工程を含むのが好適である。
(a') 第1撮像装置10の受光平面10bの中央点と第2撮像装置12の受光平面12bの中央点を一致させるため、第1撮像装置10の受光平面10bの中央点に、テストパターン上に中央に位置する格子点が撮像されるようにテストパターンの設置位置を調整するテストパターンを調整する、テストパターンの位置調整工程(ST1-1)
(c')第2撮像装置12の受光平面12bの中央点を第1撮像装置10の受光平面10bの中央点として読み込まれた座標値に一致させ、第1撮像装置10の受光平面10bの中央部分と第2撮像装置12の受光平面12bの中央部分における、画像の寸法が等しくなるように、第2撮像装置の縮尺を設定するキャリブレーション工程(ST3-1)
【0045】
なお、上述した座標変換の座標変換のパラメータbi(ただし、i = 1, 2, 3, 4, 5, 6, 7, 8である。)を求める手順(工程)を実現するための装置については、後述する。
【0046】
<再サンプリング>
図4を参照して撮像装置の受光平面に設ける座標と、受光平面を構成する画素を指定するための指標について説明する。ここでは、画素は例えば行列配列されており、各画素の形状は、簡単のために、正方形であるとし、隣接する画素の境界領域は無視できる幅しかないものとする。各画素が正方形内部において受光感度を有し、隣接する画素の境界領域は無視できる幅しかないことから、受光平面のあらゆる場所において受光感度を有しているものとして説明する。
【0047】
画素の一辺の寸法をLとして、図4において画素の中心を黒丸で示し、画素の4隅の頂点を×印で示すことにする。図4に示すようにx−y座標系をとり、座標値を(x, y)のように示す。一方、一つ一つの画素を指定するための指標を[i, j] のように示す。これらi及びjはi行目及びj列目に対応している。例えば、指標[0, 0]で指定される画素の4隅の頂点の座標は、(+0.5L, -0.5L)、(+0.5L, +0.5L)、(-0.5L, +0.5L)及び(-0.5L, -0.5L)であり、画素の中心座標は(0, 0)である。一般に、指標[i, j]で指定される画素4隅の頂点の座標は、((i+0.5)L, (j-0.5)L)、((i+0.5)L, (j+0.5)L)、((i-0.5)L, (j+0.5)L)及び((i-0.5)L, (j-0.5)L)であり、画素の中心座標は(iL, jL)である。
【0048】
また、座標値を表すxあるいはy、画素を指定するための指標値i、jあるいはk、mについて、第1撮像装置10の受光平面すなわち斜め受光平面10bに関する値としては小文字を用いて表示するものとし、第2撮像装置12の受光平面すなわち正対受光平面12bに関する値としては大文字を用いて表示するものとする。すなわち、第1撮像装置10の受光平面10bの座標値は(x, y)、第1撮像装置10の受光平面10bを構成する画素を指定するための指標は[i, j]あるいは[k, m]である。
【0049】
一方、第2撮像装置12の受光平面12bの座標値は(X, Y)、第2撮像装置12の受光平面12bを構成する画素を指定するための指標は[I, J]である。なお、第2撮像装置12から得られる画像データを正対画像データといい、ここでは、正対位置は撮像対象物の真上の位置であるから、真上画像データとも言う。また、第1撮像装置10から得られる画像データを斜め画像データという。
【0050】
図5を参照して、受光平面を構成する各画素の画像データ取得方法を説明する。図5には指標[ip, jq](ここで、p=1, 2, 3, 4, 5であり、q=1, 2である。)で与えられる10個の画素を拡大して表示している。この画素上に、幅をもった黒い帯状の像が結像された場合を説明する。図5中で斜線を引いた部分が黒い像の部分である。斜線で示した黒い部分には光が到達せず、それ以外の白い部分には一様な明るさに光が到達しているものとする。また、それぞれの画素が受光する光強度は、256階調にデジタル化されて受光されるものとする。すなわち全く光が受光されない場合を0、最も明るい光を受光した場合を255としたデジタルデータとして、画素が明るさ情報を出力するように設定されているものとする。この場合、指標[ip, jq](ここで、p=1, 2, 3, 4, 5であり、q=1, 2である。)で与えられる8つの画素が画像データの一つとして取り込むデジタル値は、
[i1, j2]=0、[i2, j2]=10、[i3, j2]=40、[i4, j2]=96、[i5, j2]=128、
[i1, j1]=20、 [i2, j1]=0、 [i3, j1]=0、[i4, j1]=0、 [i5, j1]=0
であるとする。これらの値は、それぞれの画素において、明るい部分が占める面積に比例した値となっている。
【0051】
ここでは、簡単のために真っ白な部分と真っ黒な部分の2つの領域からなる画像を例に説明したが、もっと複雑な中間的な明るさの領域を含む画像の場合も同様である。画素が画像データの一つとして取り込むデジタル値は、その画素上に投影される画像の明るさと、その明るさの部分が画素上で占める面積の積に比例する値となる。
【0052】
次に図6を参照して、真上画像データを取得する画素(以後単に「真上画像用画素」ということもある。)と、斜め画像データを取得する画素(以後単に「斜め画像用画素」ということもある。)との関係を説明する。図6は、斜め画像用画素の列位置についてiからi+2の範囲に存在し、かつ、斜め画像用画素の行位置についてjからj+2の範囲に存在する画素を細い線で区切って示した。すなわち、左上の画素が指標[i, j]で与えられる画素、右下の画素が指標[i+2, j+2]で与えられる画素である。また、指標[I, J]で与えられる真上画素が、斜め画像を取得する画素上に投影された画像を太線の四角形ABCDで示した。また以下では、指標[I, J]あるいは[i, j]等で与えられる画素を、それぞれ画素[I, J]あるいは画素[i, j]等と略記する。
【0053】
斜め画像用画素上に投影される画素[I, J]の頂点A, B, C,及びDは、第1撮像装置10の受光平面10b上でそれぞれA((I-0.5)L, (J-0.5)L), B((I+0.5)L, (J-0.5)L), C((I+0.5)L, (J+0.5)L), D((I-0.5)L, (J+0.5)L)に存在した点である。画素[I, J]の4頂点の座標((I-0.5)L, (J-0.5)L)、((I+0.5)L, (J-0.5)L)、((I+0.5)L, (J+0.5)L)、及び((I-0.5)L, (J+0.5)L)は、それぞれ第2撮像装置12の受光平面12a上のA, B, C, Dで示す位置に投影される。
【0054】
次に、再サンプリングを与える次式(1)について説明する。
Img2(I, J) = Σ[W(k, m)×Img1(k, m)]/ΣW(k, m) (1)
図6に示されているように、画素[I, J]が第1撮像装置10の受光平面10bを構成している画素上に投影される場合を考える。この場合には、Σで示される和を求める範囲は、kについてはiから(i+2)の範囲、mについてはjからj+2の範囲である。
【0055】
ここで、W(k, m)の意味について説明する。W(k, m)は、第1撮像装置10の受光平面10bを構成している画素[k, m]上に投影された、画素[I, J]の面積を表す。すなわち、画素[k, m]上には、画素[I, J]の一部分が投影されるが、W(k, m)は、画素[k, m]上に画素[I, J]の画像が投影されて重なる部分の面積を表す。この重なる部分の面積のことを「部分投影面積」とも称する。図7は、W(k, m)の意味について説明するために、kについてはiから(i+2)の範囲、mについてはjからj+2の範囲にわたって、画素[k, m]上に画素[I, J]の画像が投影されて重なる部分を斜線で示し、見やすく表示した図である。それぞれ細線で示した正方形が画素[k, m]を示す。太い直線で境を画した斜線部分がW(k, m)で与えられる面積を有する多角形(画素[k, m]上に画素[I, J]の画像が投影された部分投影面積の部分)を示している。
【0056】
式 (1)は、画素[I, J]が第1撮像装置10の受光平面10bを構成している画素上で投影される画素の範囲(kについてはiから(i+2)の範囲、mについてはjからj+2の範囲)に対して、W(k, m)を重みとして加重平均した値を、第2撮像装置12の受光平面12b上の画素[I, J]の値(明るさに関するデジタル値)とすることを意味する。
【0057】
Img1(k, m)は、画素[k, m]が受光した明るさに関するデジタル値(画素[k, m]の値)であり、及びW(k, m)は、画素[k, m]上での画素[I, J]の画像部分投影面積であるから、W(k, m)×Img1(k, m)は、画素[k, m]の値にW(k, m)だけの重みを加味した値となる。Σ[W(k, m)×Img1(k, m)]は、kについてはiから(i+2)の範囲、mについてはjからj+2の範囲にわたって求めた和である。また、ΣW(k, m)は、第1撮像装置10の受光平面10bに投影される、画素[I, J]の画像の総投影面積を表している。したがって、式 (1)の右辺は、画素[I, J]が第1撮像装置の受光平面を構成している画素上で投影される画素の範囲(kについてはiから(i+2)の範囲、mについてはjからj+2の範囲)に対して、W(k, m)を重みとして加重平均した値を与えている。
【0058】
次に、W(k, m)をどのようにして求めるかについて、その手順を説明する。図8は、W(k, m)の求め方の手順の説明に供する図であり、画素[i, j]についてその周辺部分を拡大した図である。画素[I, J]の4頂点が第1撮像装置10の受光平面10b上に投影される位置をA, B, C, Dとする。また、受光平面10b上での画素[i, j]の4頂点をA’, B’, C’, D’とする。既に説明したように、これら8個の点は、同一の(x, y)座標系にある。
【0059】
W(k, m)は以下に示す手順(工程)で求められる。
(a)四辺形A’B’C’D’の内部にA, B, C, Dの各点が含まれるか否かを調べる。
Aが含まれるのでAをピックアップする。
(b)四辺形A B C D の内部にA’, B’, C’, D’の各点が含まれるか否かを調べる。
C’が含まれるのでC’をピックアップする。
(c-1)線分A’B’と線分A B 、線分B C、線分C D、線分D A の交点を調べる。
交点はない。
(c-2)線分B’C’と線分A B 、線分B C、線分C D、線分D A の交点を調べる。
aが交点であるので(線分B’C’と線分A Bの交点とし て存在する。)aをピックアップする。
(c-3)線分C’D’と線分A B 、線分B C、線分C D、線分D A の交点を調べる。
bが交点であるので(線分C’D’と線分D Aの交点とし て存在する。)bをピックアップする。
(c-4)線分D’A’と線分A B 、線分B C、線分C D、線分D A の交点を調べる。交点はない。
(d)ピックアップされた点(この実施の形態では4点でA、C’、a、bの順にリストに登録される。)に対して一番左上の点を求める。具体的には、図9に示すようにX軸に対して45度の傾きの直線が各点を通るように一本一本それぞれ引き、Y軸とこの45度の傾きの直線との交点のY座標のうち最小のものを選び出す。
Y座標のうち最小のものを選び出す理由は、受光平面上に設定する座標を、左手系座標系としたためである。このようにして第1点目の点を求める。ここでは、A点となる。
(e-1)A点を通る45度の傾きの直線を基準として、A点を中心にしてこの直線を時計回りに回転させて、最初に接する点を求め、これを第2点目の点とする。この場合、第2点目の点として、a点が求まる。
(e-2)次に、直線A aをa点を中心にして時計回りに回転させて、最初に接する点を求め、これを第3点目の点とする。この場合、第3点目の点として、C’点が求まる。
(e-3)次に、直線a C’をC’点を中心にして時計回りに回転させて、最初に接する点を求め、これを第4点目の点とする。この場合、第4点目の点として、b点が求まる。
(e-4)ピックアップされた点に対して順次以上の工程を実行する。この工程によって、ピックアップされた点が一番左上から順に時計回りに並べられる。
(f)ピックアップされた点が一番左上から順に時計回りに並べられれば、四辺形の4つの頂点の座標が判明したことになるので、この4つの頂点の座標から、四辺形A a C’bの面積、すなわちW(k, m)は周知の方法で求めることができる。
【0060】
次に、工程(a)及び(b)において行なわれる、着目する点が四辺形の内部に含まれるか否かを調べる方法を、図10を参照して説明する。図10(A)は、O点が四辺形EFGHの内部にある場合を示す図であり、図10(B)は、O点が四辺形EFGHの外部にある場合を示す図である。四辺形EFGHのE点を出発して辺上をE点、F点、G点、H点の順に通るように動く点があるものとする。このときE点からF点に進む間に張る角度θ1をE点からF点へ向かう方向を正の方向にとって計る。同様にF点からG点に進む間に張る角度をθ2、G点からH点に進む間に張る角度をθ3、H点からE点に進む間に張る角度をθ4として、それぞれ起点から到着点に向かう方向を正の方向にとって計るものとする。
【0061】
図10(A)に示すO点が四辺形EFGHの内部にある場合は、θ1+θ2+θ3+θ4は2πとなる。一方、図10(B)に示すO点が四辺形EFGHの外部にある場合は、θ1+θ2+θ3+θ4は0となる。また図示してないが、O点が四辺形EFGHの辺上にある場合は、θ1+θ2+θ3+θ4はπとなる。以上説明したように、θ1+θ2+θ3+θ4を求めて、その値が、2πか、0か、あるいはπのいずれであるかを知れば、着目する点Oが四辺形EFGHの内部に含まれるか否かを調べることができる。
【0062】
なお、上述したW(k, m)を求める工程の中で、工程(a)及び工程(b)においては、ピックアップすべき点が四辺形の辺上にある場合も四辺形の内部にあるものとして扱った。
【0063】
次に、図11及び図12を参照して、上述した工程(c-1)、(c-2)、(c-3)及び(c-4)において行われる、線分と線分の交点を求める場合の規約を説明する。図11には、線分同士が重ならない場合を図示してあり、図12には線分同士が重なる場合を図示してある。図11(A)に示すように線分の延長上において交点が存在する場合は、交点が存在しないものとして扱う。交点が存在すると判断するのは、図11(B)に示すように、線分の存在する範囲内で交点が存在する場合である。図11(C)で示すように、線分の端点が交点である場合も交点が存在すると判定するものとする。図12に示す場合のように細い線分1と太い線分2とが重なる場合は、交点として2点をピックアップするものとする。
更に、派生的な工程として以下の処理を行なう。
【0064】
(A)上述した工程(a)において、四辺形A’B’C’D’の内部にA, B, C, Dの各点が全て含まれない場合には、W(k, m)=0として、終了する。
(B)上述した工程(b)において、四辺形A B C D の内部にA’, B’, C’, D’の各点がすべて含まれない場合には、W(k, m)=0として、終了する。
(C)上述した工程(c-1)から(c-4)までを終了すると、ピックアップされる点の数は、1個乃至2個または3個乃至8個である。
【0065】
そこで、
(C1)ピックアップされる点の数が0個乃至2個の場合は、W(k, m)=0として終了する。
(C2)ピックアップされる点の数が3個乃至8個の場合には工程(f)まで処理してW(k, m)を求める。
【0066】
図6において、真上画像用画素と斜め画像用画素との関係を図示したが、これは、四辺形(真上画像用画素の形状)と正方形(斜め画像用画素の形状)の関係を示すものである。このような関係においては、四辺形と正方形の関係が図13で示す関係になったときにピックアップされる点数は8点となり最大個数となる。図13は、真上画像用画素(太線で示された四辺形)と斜め画像用画素(細線で示された正方形)との関係を示す。このことから、ピックアップされる点の数の最大は、8個であることになる。
【0067】
以上説明したW(k, m)を求める手順は、一例に過ぎず、ここに記述した方法以外にも好適な手順はあり得る。しかし、いかなる手順でW(k, m)を求めるにしても、この発明に係る画像変換方法あるいは画像変換装置に適用できることは明らかである。
【0068】
上述したW(k, m)を求める手順を、図14に示したフローチャートを参照してまとめると次のようになる。
【0069】
第2受光平面を構成する画素[I, J]の4頂点が第1撮像装置の受光平面に投影される位置をA, B, C, Dとし、また、第1受光平面を構成する画素[i, j]の4頂点をA’, B’, C’, D’として、
(d)四辺形A’B’C’D’の内部にA, B, C, Dの 各点が含まれるか否かを調べる(工程S1)。いずれも含まれない場合(N)には、W(k, m)をW(k, m)=0にし(工程S2)、この手順を終了する。一方、いずれかの点が含まれている場合(Y)には含まれている点をピックアップする(工程S3)。
(e)四辺形A B C D の内部にA’, B’, C’, D’の各点が含まれるか否かを調べる(工程S4)。いずれも含まれない場合(N)には、W(k, m)をW(k, m)=0にし(工程S5)、この手順を終了する。一方、いずれかの点が含まれている場合(Y)には含まれている点をピックアップする(工程S6)。
(f)次に、線分A’B’と線分A B 、線分B C、線分C D、線分D A の交点、
線分B’C’と線分A B 、線分B C、線分C D、線分D A の交点、
線分C’D’と線分A B 、線分B C、線分C D、線分D A の交点、及び
線分D’A’と線分A B 、線分B C、線分C D、線分D A の交点をそれぞれ調べピックアップする(工程S7)。
(g)上記工程S3、工程S6及び工程S7の工程においてピックアップされた全ての点の座標から、W(k, m)を求める(工程S8)。
【0070】
<画像変換装置の説明>
次に、上述した画像変換方法を実現するための装置について図15及び図16を参照して説明する。図15は、この発明の画像変換装置32の構成の説明に供する図である。画像変換装置32は、図1を参照して説明した撮像装置10を具えている。
画像変換装置32は、第1画像データ取得部36、画像変換処理部38、記憶装置40及び第2画像データ出力部42を具えている。画像変換処理部38は、後述するようにCPUを具えて構成されている。第1画像データ取得部36は、第1撮像装置10で撮像された画像が送り込まれ、この画像を第1画像データとして画像変換処理部38に送る。記憶装置40は、座標変換パラメータや再サンプリングを与える式(1)に関連する全てのパラメータを格納する。また、画像変換工程において、再サンプリングを与える式(1)に関連する全てのパラメータを呼び出し、画像変換処理部38に転送して、第2画像データに変換するときに使う。ここで、再サンプリングを与える式(1)に関連する全てのパラメータとは、画素[I, J]に対するk及びmの範囲と、各画素[k, m]に対するW(k, m) を意味し、画素[I, J]としては第2画像データの全範囲となる。画像変換処理部38において変換された第2画像データは、必要に応じて、第2画像データ出力部を介して外部に出力される。
記憶装置40に対する情報の書き込み及び呼び出し自体に関する処理は、コンピュータを利用した制御装置では周知事項であるので、詳細な説明を省略する。
【0071】
まず、搬送アーム26にテストパターン14を置き、このテストパターン14に対して、上述したように、撮像装置の位置をキャリブレーションするための作業を行なう。最初に、位置Aにおいて第1撮像装置10でテストパターン14を撮像する。この工程は、図3のフローチャートで示す工程ST1に相当する。画像変換された正対画像データの画質を斜め画像データの画質に比べてできるだけ劣化させないために、第1撮像装置10の受光平面10bの中央点に、テストパターン上の中央に位置する格子点が撮像されるように、テストパターンの設置位置を調整する。この工程が、図3のフローチャートで示す工程ST1-1に相当する。次に第1撮像装置10の受光平面10bの中央部分と第2撮像装置12の受光平面12bの中央部分における、画像の寸法が等しくなるように、第2撮像装置の縮尺を設定する。第2撮像装置は仮想的なモデルであるので、この設定は容易に行なえる。この工程が図3のフローチャートで示す工程ST3-1である。
【0072】
第1撮像装置10の受光平面に(x,y)座標系を設けて、テストパターンの第1画像データを画像変換装置32に具えられた第1画像データ取得部36に取り込む。画像変換装置32に具えられた第1画像データ取得部36に取り込まれた第1画像データは、画像変換処理部38に送られ、座標変換パラメータを算出する時に使用される。一方、第2撮像装置12は実際には存在しない仮想的なものである。このため第2撮像装置12の受光平面12bに設けられる座標系(X,Y)は画像変換処理部38の内部メモリ54上にのみ存在する(後述する図16参照)。第2撮像装置12の中心位置と縮尺とが設定された後、テストパターン上の選択された格子点の座標値を画像変換装置32に入力する。選択された格子点の座標値が画像変換処理部38に入力されると、選択されたテストパターン上のそれぞれの格子点に対して、第2撮像装置12の受光平面上でのその座標値が、画像変換処理部38の内部メモリ上54(後述する図16参照)に作成される。このようにして、座標変換パラメータを求めるデータが整えられる。これらのデータが整えられると、これらデータ画像変換処理部38において演算され、座標変換パラメータbi(ただし、i= 1, 2, 3, 4, 5, 6, 7, 8である。)及び、再サンプリングにおいて使用される関係式
Img2(I, J) = Σ[W(k, m)×Img1(k, m)]/ΣW(k, m) (1)
が決定される。上述の座標変換パラメータと再サンプリング関係式は、記憶装置40に送られ記憶される。
【0073】
以上で、実際の撮像対象物を撮像する撮像装置10の設置と、画像変換に必要なパラメータの画像変換装置の記憶装置への設定が完了する。撮像対象物を撮像装置10で撮像すれば、その撮像結果は、第1画像取得部36に送られ、更に画像変換処理部38に送られる。画像変換処理部38では、上述した座標変換パラメータ及び再サンプリング関係式が記憶装置40から引き出されて、これらパラメータを用いて正対画像データへの変換が画像変換が行なわれ、その結果は、画像変換処理部38の内部メモリ上に作成され、更に画像処理を引き続き実施できる。あるいは場合によっては、変換した結果得られた正対画像データは、第2画像データ出力部42から外部に出力され、外部において更に画像処理等が行なわれる。
【0074】
図16を参照して、画像変換装置32に具えられた画像変換処理部38の構成を説明する。画像変換処理部38は、制御部46、座標変換部48及び再サンプリング部50及び内部メモリ54を具えている。内部メモリ54には、画像変換処理を高速に実施するために、W(k, m)及び画像変換してえられれた正対画像データが一時的に格納される。また、再サンプリング部50は、W(k, m)算出部51及びImg2(I, J)算出部52を具えている。
【0075】
制御部46は、座標変換部48、及び再サンプリング部50の制御及び、記憶装置40等とのデータのやり取りや動作のタイミング等に関する制御を行なう。更に、この制御部46で、図15で説明した第1画像データ取得部36や第2画像データ出力部42の動作の制御を行なうことができる。なお、制御部46の第1画像データ取得部36と第2画像データ出力部42を制御する部分を画像変換処理部38の外部に別のCPUの一部分として構成してもよい。制御部46をどのように構成するかは単なる設計事項である。
【0076】
座標変換部48は、テストパターン中の特徴のある複数の点が、斜め方向から撮像した場合の受光平面に撮像される第1受光平面の標座標を読み取る。この工程が図3で示したフローチャートの工程ST2である。また、第2受光平面12bの中心位置と縮尺とを設定する。この工程が図3で示したフローチャートの工程ST3である。また、第1撮像装置による斜め方向から撮像したテストパターン中の選択された特徴のある複数の点上の格子点の第2受光平面12bにおける座標値が算出される。この工程が図3で示したフローチャートの工程ST4である。またこの工程の後、テストパターン上の上記の対応する特徴ある複数の点上の格子点の座標値とを基にして、座標変換のパラメータbi(ただし、i = 1, 2, 3, 4, 5, 6, 7, 8である。)を算出する。この工程が図3で示したフローチャートの工程ST5である。
【0077】
再サンプリング部50は、撮像対象物を撮像して得られた斜め画像データである第1画像データから正対画像データである第2画像データに変換する処理を行なう。W(k, m)算出部51は、図14に示した工程S1〜工程S8に相当する手順で処理を行い、第1受光平面上に投影される第2画像データの第I行第J列の画素[I, J]が、第1受光平面上の画素[k, m]上に投影される面積を表すW(k, m)を算出しその結果を記憶装置40に格納する。Img2(I, J)算出部52は、第1画像取得部から送られてくる第1画像データの第k行第m列の画素[k, m]の光強度Img1(k, m)の値を、記憶装置40に格納されているW(k, m)を含む次式(1)
Img2(I, J) = Σ[W(k, m)×Img1(k, m)]/ΣW(k, m) (1)
にしたがって第2画像データの画素[I, J]の光強度Img2(I, J)を算出する。
【0078】
以上説明した装置によれば、撮像対象物を第1撮像装置で撮像して得られた斜め画像データの要素Img1(k, m)が、全斜め受光平面にわたって与えられれば、これを撮像対象物を第2撮像装置で撮像すれば得られるはずである、正対画像データImg2(I, J)が全正対受光平面にわたって算出されるので、所望の画像変換が実施される。
【0079】
<画像変換方法で変換処理した例>
図17を参照して、撮像対象物である格子を斜め方向から撮像した斜め画像データから、真上画像データに画像変換して得られた画像の例を説明する。図17(A)に斜め上方から撮像された画像を示す。この画像では、右側に行くほど格子間隔(黒線の交差点の間隔)が狭くなっていることが分かる。また、格子画像を形成している黒線の太さも右側に行くにしたがって細くなっていることも分かる。
【0080】
この図17(A)に示した格子画像を、真上から撮像されたならば得られるであろう画像に画像変換したのが、図17(B)に示す画像である。この画像変換においては、画像の倍率を確定するのに、図中に矢印16で示す格子画像を形成している画像中央部分の代表的黒線上の格子間隔pが変換画像においても、対応する黒線上の格子間隔p’に等しくなるという条件を課した。図17(B)に示す画像変換された画像は、格子点(黒線の交点)が正方形状に配列されており、黒線も均一な太さになっている。すなわち、真上から撮像された格子画像と等価になっていることが分かる。
【0081】
なお、図17(B)中矢印17及び矢印18で示す黒い三角形部分は、図17(A)の画像には映し出されていない部分である。すなわち、この黒い三角形部分は、図17(A)に示す画像を構成する斜め画像データ内には対応する画像データが存在しない部分である。
【0082】
<画像変換方法を実現する装置を搭載した半導体製造装置の例>
図18を参照して、この発明に係る画像変換方法を実施する機構を具えた半導体製造装置の例を説明する。この半導体製造装置は、複数枚のウエハ(単結晶薄板)が水平方向に重ねてストックされているウエハカセット22から搬送アーム26によってウエハ24を一枚ずつ取り出して、ステージ28に搬送する機能を有するものである。ステージ28に搬送されたウエハ24は、そのウエハ24に付されているオリフラに従って、定められた位置及び方向に設置されなければならない。
【0083】
オリフラとはウエハ24を構成する単結晶の結晶軸方向が、視覚的あるいは機械的に判読できるようにウエハ24の周辺の一部分を直線状にカット加工された部分をいう。結晶軸方向を判読できるようにするという同様の目的のためには、オリフラを用いるほか、ノッチといわれる、ウエハの周辺の一部分に切り欠きを入れる加工を施される場合もある。
【0084】
ウエハカセット22にウエハ24がセットされている時点では、オリフラは一定の方向に揃えられてはいない。そのため、搬送アーム26でウエハカセット22から取り出されて、ステージ28に設置されるまでの間に、何らかの方法でウエハ24のオリフラを検出し、定められた方向にオリフラが向くようにウエハ24を移送しなければならない。そこで、オリフラ検出用カメラ20によって、ウエハカセット22から取り出されたウエハ24を撮像対象とする。ここでは、撮像装置20で搬送中の状態にある搬送アーム26上のウエハ24をオリフラ検出用カメラ20で撮像して、この画像を元にオリフラを検出して、ウエハの必要回転量を求めて搬送アーム26にこの情報与え、搬送アーム26はこの情報を元に必要量だけウエハ24を回転させて、ステージ28に設置するという手順をふむ。
【0085】
半導体製造装置に具えられる撮像装置は、ウエハ等の対象物を撮像し、画像サーチ等の技術を用いたオリフラやノッチの検出等様々の目的に使われる画像を取得するために取り付けられる。そのためこの撮像装置は、ウエハをウエハ上面に対して垂直の方向に撮像できるように設置するのが、撮像される画像の歪みがないので好ましい。なぜならば、一般に画像サーチ等の機能を実現するためのプログラム等は、撮像された画像に、斜め方向から撮像された等の外的画像歪み等は存在しないことをその前提として作られているからである。
【0086】
しかしながら、半導体製造装置はクリーンルームに設置されるため、その大きさをできる限り小さく作ることが要請されている。半導体製造装置等装置全体としての大きさを小さくするためには、この撮像装置を、ウエハ面に対して垂直の方向からウエハを撮像できるように、取り付けることができない場合がある。そこで、いかなる場所に設置された撮像装置で撮像された画像であっても、その画像を変換して、本来の所望の位置に撮像装置を設定して撮像すれば得られるはずである画像に変換できれば、この問題は解決する。
【0087】
この発明に係る画像変換方法は、上述した目的を達成するのに好適な画像変換方法である。図14、図15及び図17を参照して、この発明に係る画像変換方法を実施する機構を具えた半導体製造装置の構成とその取り扱いについて説明する。以下の記述において括弧内に示す工程名は図3及び図14のフローチャートに示したそれぞれの工程名に対応する。
【0088】
斜め方向位置に設置された撮像装置20によって、搬送アーム26上のテストパターンを斜め方向から撮像する(工程ST1)。テストパターン上面に設定した特徴ある複数の点が、斜め方向から撮像した場合の受光平面に撮像される第1受光平面の座標値を読み取る(工程ST2)。これは図15に示す画像変換装置32に具えられている第1画像取得部36で行なわれる。そしてこれらの座標値(x, y)は、画像変換処理部38に送られる。仮想的な第2撮像装置12の中心位置と縮尺を決定する(工程ST3)。また、第1撮像装置による斜め方向から撮像したテストパターン上面に設定した特徴ある複数の点の第2受光平面12bにおける座標値(X,Y)が算出される(工程ST4)。またこの工程の後、テストパターン上面に設定した特徴ある複数の点に対応する第1平面座標値(x, y)と第2平面座標値(X,Y)とを基にして、座標変換のパラメータbi(ただし、i = 1, 2, 3, 4, 5, 6, 7, 8である。)を連立方程式を解く方法あるいは最小二乗法で算出する(工程ST5)。このパラメータの算出は、図15及び図16に示す画像変換処理部38内の、座標変換部48において行なわれる。
【0089】
引き続いて、第2撮像装置12の受光平面を構成している第2画像データの画素[I, J]の光強度Img2(I, J)と、第1撮像装置10の受光平面を構成している第1画像データの第k行第m列の画素[k, m]の光強度Img1(k, m)との関係を与える次式(1)を求める(工程S1〜工程S8)。
【0090】
Img2(I, J) = Σ[W(k, m)×Img1(k, m)]/ΣW(k, m) (1)
この処理も図16に示す画像変換処理部38内のW(k, m)算出部51及びImg2(I, J)算出部52において行なわれる。
【0091】
上述した座標変換のパラメータbi(ただし、i = 1, 2, 3, 4, 5, 6, 7, 8である。)及び、Img2(I, J)とImg1(k, m)との関係を与える上記式(1)に関連する全てのパラメータを記憶装置40に格納する。ここで、Img2(I, J)とImg1(k, m)との関係を与える上記式(1)に関連する全てのパラメータとは、画素[I, J]に対するk及びmの範囲と、各画素[k, m]に対するW(k, m)を意味し、画素[I, J]としては第2画像データの全範囲となる。
【0092】
以上説明したように、第1撮像装置10が半導体製造装置に設定されていれば、ウエハカセット22から取り出されるたびに、搬送アーム26上のウエハ24を、第1撮像装置10で撮像された第1画像データが第2画像データに変換されて、外部に出力される。すなわち、第1画像取得部36で斜め画像データを取得して画像変換処理部38に送れば、記憶装置40から、再サンプリングのための条件式(1)に関連した全てのパラメータを呼び出し、画像変換処理部38の内部メモリ45に転送し、第1画像データが、第2撮像装置によって得られるはずの正対画像データに変換される。そしてその結果が、第2画像データ出力部42から外部に出力される。すなわち、この半導体製造装置では、通常の使用において、ウエハに対する正対撮像位置である第2撮像装置を設置しておく必要はなく、第1撮像装置20が第2撮像装置に代替される。引き続く画像処理を高速に処理するためには、第2画像データは、画像変換処理部38の内部メモリ54に保持されて、次の画像処理が実施される。
【0093】
上述したように第2画像データが第2画像データ出力部42から出力されれば、周知の画像サーチプログラム等を用いてオリフラが検出でき、この結果から周知のオリフラを所定の方向に向けて、ステージ上にウエハを設定することができる。もちろんオリフラに限らず、ノッチ等であっても、この発明の方法によれば、上述同様にウエハを所定方向に向けてステージ上に設定できることは明らかである。
【0094】
また、複数箇所でウエハ等の撮像対象物を監視する必要がある大規模な製造装置にあっては、複数箇所から撮像された画像が、全て撮像装置がウエハに対してその距離はもちろん撮像方向も同一という条件で撮像されるのが好ましい。上述した複数箇所でウエハ等の撮像対象物を監視する必要がある大規模な製造装置としては、製造ラインあるいは製造プラントであっても良い。この場合においても、上述した半導体製造装置の例と同様に、必ずしも撮像装置を撮像対象物に対して同一の条件を満たす位置に設定することができない場合が多い。
【0095】
このような複数箇所で対象物を監視する必要がある大規模な製造装置においても、この発明の画像変換方法及び画像変換装置によれば、以下に述べるような利点が生み出される。大規模製造装置に設置された複数の撮像装置で取得された画像データを、この発明の画像変換方法で画像変換処理を行なえば、対象物に対して全て等距離でかつ垂直方向から撮像した画像データにそれぞれ変換できる。
【0096】
このように、対象物に対して全て等距離でかつ垂直方向から撮像した画像データに変換されれば、この変換された画像を基にして、各撮像位置における撮像対象物の位置検出や形状欠陥等の判定に用いる画像処理プログラムを効率よく利用できる。すなわち、撮像条件等の相違に基づく画像の歪み等を含む画像を上述の画像処理プログラムで処理するためには、その歪みを考慮して撮像装置毎に対応させて、上述の画像処理プログラムのパラメータ等の変更を行なう必要がある。しかし、この発明の画像変換方法を実施すれば、このようなパラメータ等の変更を行なう工程を省くことができる。
【0097】
【発明の効果】
以上説明したように、この発明の画像変換方法及び画像変換装置によれば、撮像対象物を斜め方向から撮像して得られる斜め画像データが、この撮像対象物を正対する方向から撮像して得られる正対画像データに変換される。正対画像データでは、撮像対象物と相似形であるので、撮像対象物の識別、撮像対象物の標準物との差異の検出、撮像対象物の位置計測、撮像対象物の形状測定等の各種画像処理機能を実現する既成のプログラムライブラリ等を有効に使うことができる。また、効果的に画面サーチが行なえるので、半導体製造装置のオリフラの検出、複数の製造工程からなる製造ラインでの監視や検査において、この発明の画像変換方法は有効な技術となる。
【図面の簡単な説明】
【図1】格子パターンを真上及び斜め上方向から撮像する様子の説明に供する図である。
【図2】(A)、(B)及び(C)は真上及び斜め上方向から撮像された格子パターンの画像を示す図である。
【図3】座標変換のパラメータを求めるフローチャートである。
【図4】受光平面の座標と画素を指定するための指標についての説明に供する図である。
【図5】受光平面を構成する画素の画像データ取得方法の説明に供する図である。
【図6】真上画像用画素と、斜め画像用画素との関係の説明に供する図である。
【図7】W(k, m)の説明に供する図である。
【図8】W(k, m)の求め方の説明に供する図である。
【図9】W(k, m)を求めるためにピックアップされた点の説明に供する図である。
【図10】(A)及び(B)は、それぞれ点Oと四辺形EFGHとの関係の説明に供する図である。
【図11】(A)、(B)及び(C)は、それぞれ線分と線分との交点の有り無しの判定の説明に供する図である。
【図12】線分と線分とが重なる場合の説明に供する図である。
【図13】真上画像用画素と斜め画像用画素の関係の説明に供する図である。
【図14】W(k, m) を求めるフローチャートである。
【図15】画像変換装置の構成の説明に供する図である。
【図16】画像変換処理部の構成の説明に供する図である。
【図17】(A)及び(B)は、それぞれ格子像の変換例を示す図である。
【図18】オリフラを検出する機構を具えた半導体製造装置の概略図である。
【符号の説明】
10:第1撮像装置
12:第2撮像装置
14:格子状パターン
20:アライメント用カメラ
22:ウエハカセット
24:ウエハ
26:搬送アーム
28:ステージ
32:画像変換装置
50:再サンプリング部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a method and apparatus for imaging an imaging object such as an inspection object from an oblique direction, and converting the captured image data into image data captured from a direction facing the imaging object, and these method and apparatus. The present invention relates to a used semiconductor manufacturing apparatus and manufacturing inspection line.
[0002]
[Prior art]
When measuring the position of an object from the process of making a map from an aerial photograph or the position on the photograph, the position on the object in real space coordinates (hereinafter sometimes referred to as “world coordinates”) and the object It is necessary to know the correspondence between the photographed image (hereinafter also referred to as “image”) and the position on the screen coordinates. In addition, there is a demand for finding a pattern having a specific shape from the image of the target object and projecting the target image on the imaging surface (hereinafter also referred to as “image search”). There is also. In this case, the image of the image being captured is taken into account by taking into account the external parameters of the imaging device such as the imaging direction that is the direction of the object viewed from the imaging device and the internal parameters such as the optical characteristics of the imaging system of the imaging device. It is necessary to perform processing such as image search in consideration of distortion.
[0003]
Conventionally, a reference point is provided in an object, the world coordinate value of this reference point is associated with a screen coordinate value, and external and internal parameters of the image pickup device are obtained with high accuracy. There is a method for performing calibration (see, for example, Patent Document 1). According to this method, if the imaging device is calibrated regardless of the direction of imaging or the distance between the object and the imaging device, specifying an unknown point on the image allows the world coordinates of the unknown point to be specified. Can be obtained. Therefore, since the world coordinates of the unknown point on the object can be obtained using the image obtained by imaging the object, this is a useful technique for measuring the position of the object from the position on the photograph.
[0004]
In addition, in a semiconductor manufacturing apparatus such as a stepper, there is a wafer orientation flat detection apparatus that detects an orientation flat (hereinafter, abbreviated as “orientation flat”) of a semiconductor wafer (see, for example,
[0005]
[Patent Document 1]
JP 2001-264037
[Patent Document 2]
JP-A-9-14918
[Patent Document 3]
JP-A-9-14938
[0006]
[Problems to be solved by the invention]
However, the conventional method using the imaging device calibration is to specify the unknown point on the captured image plane and obtain the world coordinates of the target unknown point. That is, since the conventional method only associates the position in the image (screen coordinates) and the position in space (world coordinates) based on the image, the image is obtained from an image obtained by imaging the object from an oblique direction. When a screen search is performed, there is a problem that an object is distorted. That is, as a model pattern that is a search purpose, a normal direction of the pattern, for example, a shape viewed from directly above is given, but from an image captured from an oblique direction based on it, This is because the model pattern is searched. This means that it is difficult to perform a screen search unless an image captured from an oblique direction is converted into an image captured from a facing direction by some method.
[0007]
In addition, in the prior art wafer orientation flat detection device (for example, see
[0008]
Further, the screen search technique is an important technique in addition to the detection of the orientation flat of the semiconductor manufacturing apparatus, for example, in the monitoring or inspection of articles in a manufacturing line including a plurality of manufacturing processes. Therefore, a technique for converting an image captured from an oblique direction into an image captured from a facing direction is also required in monitoring and inspection of articles on these production lines.
[0009]
[Means for Solving the Problems]
Therefore, the image conversion method and the image conversion apparatus of the present invention have the following steps or means.
[0010]
That is, the method and apparatus according to the present invention captures an imaging object from an oblique direction by an imaging device including an imaging optical system and a light receiving plane, and also defines an oblique light receiving plane (hereinafter referred to as “first light receiving plane”). The first image data obtained in (1)) is obtained on a directly-facing light receiving plane (hereinafter also referred to as a “second light receiving plane”) when the imaging apparatus temporarily captures an image of the object to be imaged. An image conversion method and apparatus for converting to second image data.
[0011]
First, coordinate conversion is performed to determine the relationship between the first plane coordinate for determining the pixel position on the oblique light receiving plane and the second plane coordinate for determining the pixel position on the opposite light receiving plane. Next, the light intensity of one pixel constituting the directly-facing light receiving plane is obtained as described below. One pixel constituting the directly-facing light receiving plane is received across a plurality of pixels constituting the oblique light receiving plane when projected onto the oblique light receiving plane. Therefore, by calculating how much area this one pixel is projected to which pixel constituting the oblique light receiving plane, the amount of light received by the pixels constituting the oblique light receiving plane is calculated for each of the plurality of pixels. Weighting in proportion to the area of the projected portion is performed to obtain a weighted average, and this value is used as the light intensity of one pixel constituting the directly-facing light receiving plane, and re-sampling is performed.
[0012]
In carrying out the present invention, it is preferable to perform the following procedure in order to perform coordinate conversion for determining the relationship between the first plane coordinates and the second plane coordinates.
(A) Multiple points selected to include at least 4 points selected so that 3 or more points do not line up on a straight line, or at least 2 points outside this line, including 3 points on a straight line (These points are hereinafter referred to as “a plurality of characteristic points”.) An imaging object having a mark thereon, and the coordinate value of the mark is known by a coordinate system provided on the plane where the mark exists. Using the imaging object as a test pattern, the imaging device captures the test pattern.
(B) The coordinate values of the first plane coordinates are read for marks on a plurality of characteristic points in the test pattern that are imaged on the first light receiving plane when imaged from an oblique direction.
(C) An arbitrary position in the test pattern is defined as the origin, and based on the image captured on the first light receiving plane of the test pattern captured from an oblique direction, the test pattern has the origin at the second light reception. When the image is taken from the opposite direction projected on the central portion of the plane, the position of the central portion of the second light receiving plane on which the origin is projected and the test pattern image taken from the oblique direction are geometrically The scale for similarity transformation is virtually set.
(D) Second light reception when each mark in the test pattern is imaged from a virtually opposite direction with respect to marks on a plurality of characteristic points imaged from an oblique direction Projecting on a plane, the position of the mark in the second plane coordinates is calculated.
(E) the first coordinate of each of the marks on the plurality of characteristic points in the test pattern projected onto the first light receiving plane when imaged from an oblique direction, and a virtually opposite direction set Based on the second coordinates of the marks on the plurality of characteristic points in the calculated test pattern on the second light receiving plane when imaged from the coordinate conversion parameter bi(Where i = 1, 2, 3, 4, 5, 6, 7, 8).
[0013]
In order to perform the calibration step of virtually setting the center position and scale in the second plane coordinate system when imaging from the directly facing direction, it is preferable to perform the following.
(C ′) The scale is determined so that the image dimensions are equal at the position of the central portion of the second light receiving plane that is virtually set to the position of the central portion of the first light receiving plane, and The position of the central portion is virtually set when the imaging object is imaged from the facing direction so that the positions of the central portions coincide.
[0014]
In implementing the present invention, the resampling is performed by calculating the light intensity Img2 (I, J) of the pixel [I, J] of the second image data by the following formula.(1)It is preferable to carry out by calculating according to
[0015]
Img2 (I, J) = Σ [W (k, m) x Img1 (k, m)] / ΣW (k, m)(1)
However, Img1 (k, m) is the light intensity of the pixel [k, m] in the k-th row and the m-th column of the first image data, where I, J, k, and m are integers. W (k, m) indicates that the pixel [I, J] in the I-th row and the J-th column of the second image data projected onto the first light receiving plane is the first light receivingflatIt represents the area projected on the pixel [k, m] on the surface.
[0016]
Also, the above formula(1)The range for obtaining the sum of the right sides of the second image data pixels [I, J] projected on the first light receiving plane is the first light receivingflatIf even a part of the image is projected onto the pixel [k, m] on the surface, it is assumed to cover all the projected pixels [k, m].
[0017]
According to the image conversion method or the image conversion apparatus of the present invention, the first image data (hereinafter also referred to as “oblique image data”) obtained by imaging the imaging object from the oblique direction is directly above the imaging object. It is converted into second image data (hereinafter also referred to as “directly-up image data”) obtained by imaging from the direction. Since the image of the image data directly above is similar to the object, an existing program library or the like that realizes the following various image processing functions can be used effectively.
[0018]
That is, identification of an object, detection of a difference from an object standard, position measurement of the object, shape measurement of the object, and the like. These pre-built program libraries are created on the premise that they are applied to an image obtained by imaging an object from directly above, so that they are applied to image data obtained by imaging the object from obliquely above. In this case, it is indispensable to convert the captured oblique image data into the directly above image data.
[0019]
Further, the screen search technique can effectively perform a screen search according to the image conversion method of the present invention in the detection of orientation flat in a semiconductor manufacturing apparatus and in the monitoring and inspection in a manufacturing line composed of a plurality of manufacturing processes.
[0020]
A semiconductor manufacturing apparatus comprising a wafer cassette for stocking a plurality of wafers and a transfer means for taking out the wafers one by one from the wafer cassette and transporting them to a stage, comprising the image conversion apparatus of the present invention. Is preferred. According to the semiconductor manufacturing apparatus provided with the image conversion apparatus of the present invention, since the oblique image of the wafer acquired by the imaging device installed in the oblique direction with respect to the upper surface of the wafer is converted into the facing image, the facing image The orientation flat detection can be performed using a well-known image search technique for the target. For this reason, it is not always necessary to install the imaging device at a position facing the wafer upper surface.
[0021]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to FIGS. Each drawing merely schematically shows the shape, size, and arrangement relationship of each component to the extent that the present invention can be understood, and the present invention is not limited to the illustrated examples.
[0022]
With reference to FIG. 1, a description will be given of a direction in which an object to be imaged is directly facing, for example, when imaging is performed from directly above and when imaging is performed from obliquely above. In the following description, the case of imaging from the facing direction only assumes a virtual model, and does not actually include an imaging device or the like. Furthermore, for convenience of explanation, a
[0023]
The imaging device includes an imaging optical system and a light receiving plane. A position where the imaging device is directly opposed to the
[0024]
Taking an image of the object to be imaged from the direction facing directly means that the
[0025]
In the configuration example shown in FIG. 1, the directly-facing position B is a position directly above the imaging object 14 (facing direction), and the oblique position A is obliquely above the
[0026]
<Coordinate transformation>
In this way, it is assumed that the first
[0027]
On the light receiving plane, there are uniformly minute light receivers (hereinafter, each light receiver may be referred to as a “pixel”) that receives light and generates a voltage or current proportional to the intensity of the light. They are arranged in a matrix. A set of sets of received light intensity corresponding to each pixel arranged in order on the light receiving plane may be hereinafter referred to as “image data”. In order to identify individual pixels in order on the light receiving plane, an orthogonal coordinate axis is provided on the light receiving plane, and along this orthogonal coordinate axis, the position is i-th in the horizontal axis direction and the j-th position in the vertical axis. A pixel is referred to as a pixel [i, j]. That is, the pixel [i, j] is a pixel of i rows and j columns. Details will be described later.
[0028]
When the first image data captured by the first
[0029]
In order to prevent image quality deterioration as much as possible when image conversion is performed from an oblique image to a face-to-face image, in the central portion of the
[0030]
By the way, the thick straight line indicated by the symbol a is a straight line connecting lattice points arranged in the y′-axis direction in the central portion of the
[0031]
In order to define the positional relationship between the oblique
[0032]
X = (b1x + b2y + b3) / (b7x + b8y + 1) (2)
Y = (b4x + b5y + b6) / (b7x + b8y + 1) (Three)
Here, bi (where i = 1, 2, 3, 4, 5, 6, 7, 8) is a parameter for the coordinate transformation. Since there are a total of eight, if the relationship between the corresponding four or more points on the
[0033]
That is, as shown in FIG. 2C, points corresponding to points p, q, r, and s on the oblique
[0034]
Here, a method for obtaining the correspondence between the coordinate positions of the oblique
[0035]
In the
[0036]
The coordinates of the points p, q, r, and s in the first image thus obtained are read by the
[0037]
Therefore, the points p ′, q ′, r ′ and s ′ in the test pattern are imaged at two coordinate positions in the same coordinate system. That is, p 'is imaged at points p and P, q' is q and Q, r 'is r and R, and s' is imaged at points s and S. Since these (p, q, r, s) and (P, Q, R, S) are in the same coordinate system, the correspondence between p and P, q and Q, r and R, and s and S, respectively. Was mentioned aboveformula (2)as well asformula (3)It is defined by 8 parameters.
[0038]
When converting the image of the first image data into the image of the second image data, it is important that the image quality is not degraded as much as possible. For this purpose, the position of the
[0039]
If the parameter bi (where i = 1, 2, 3, 4, 5, 6, 7, 8) is stored in the storage device, an arbitrary point on the
[0040]
In the above-described example, seven points are selected on each of the light receiving planes 10b and 12b of the
[0041]
When the number of selected points is selected so that three or more points do not line up on a straight line, the number is a minimum of four points. In addition, when selecting so as to include three points on a straight line and to include at least two or more points outside the straight line, the number of selected points is at least five. That is, a plurality of points that satisfy the above-described conditions may be selected. Of course, the more selection points, the higher the calculation accuracy of the required coordinate conversion parameters.
[0042]
Coordinate transformation parameter b for the coordinate transformation described abovei(However, i = 1, 2, 3, 4, 5, 6, 7, 8) The procedure (step) for obtaining is summarized as follows with reference to the flowchart shown in FIG.
[0043]
(a) Test pattern imaging process (ST1) for imaging a test pattern with the
(b) A coordinate reading step (ST2) for reading the coordinates on the light receiving plane of each point where a plurality of characteristic points in the test pattern are imaged on the
(c) A mark on a plurality of characteristic points imaged in an oblique direction to set the origin at an arbitrary position in the test pattern and to set the scale of the image captured by the second imaging device 12 A calibration process (ST3) that determines the center position and scale of the second imager that geometrically transforms the position relative to the origin
(d) the above process (c) Is used to calculate the coordinates on the light receiving plane of each point selected in step (a) in the test pattern on the
(e) The coordinates of a plurality of characteristic points in the test pattern imaged on the light-receiving
[0044]
Moreover, it is preferable that the following steps are included in the steps (a) and (c).
(a ′) In order to make the center point of the
(c ′) The center point of the
[0045]
Note that the coordinate conversion parameter b of the coordinate conversion described above is used.iAn apparatus for realizing the procedure (process) for obtaining (where i = 1, 2, 3, 4, 5, 6, 7, 8) will be described later.
[0046]
<Resampling>
With reference to FIG. 4, the coordinates provided on the light receiving plane of the imaging apparatus and the index for designating the pixels constituting the light receiving plane will be described. Here, the pixels are arranged in a matrix, for example, and the shape of each pixel is assumed to be a square for the sake of simplicity, and the boundary area between adjacent pixels has only a negligible width. Since each pixel has light receiving sensitivity inside the square and the boundary area between adjacent pixels has only a negligible width, it will be described as having light receiving sensitivity everywhere on the light receiving plane.
[0047]
The dimension of one side of the pixel is L, and the center of the pixel is indicated by a black circle in FIG. 4 and the vertices at the four corners of the pixel are indicated by x. As shown in FIG. 4, an xy coordinate system is taken, and coordinate values are shown as (x, y). On the other hand, an index for designating each pixel is shown as [i, j]. These i and j correspond to the i-th row and the j-th column. For example, the coordinates of the vertexes of the four corners of the pixel specified by the index [0, 0] are (+ 0.5L, -0.5L), (+ 0.5L, + 0.5L), (-0.5L, + 0.5L). ) And (−0.5L, −0.5L), and the center coordinates of the pixel are (0, 0). In general, the coordinates of the vertices at the four corners of the pixel specified by the index [i, j] are ((i + 0.5) L, (j-0.5) L), ((i + 0.5) L, (j + 0.5) L), ((i-0.5) L, (j + 0.5) L) and ((i-0.5) L, (j-0.5) L), and the center coordinates of the pixel are (iL, jL).
[0048]
Further, x or y representing coordinate values and index values i, j or k, m for designating pixels are displayed using lower case letters as values relating to the light receiving plane of the
[0049]
On the other hand, the coordinate value of the
[0050]
With reference to FIG. 5, a method of acquiring image data of each pixel constituting the light receiving plane will be described. Figure 5 shows the indicator [ip, jq] (Where p = 1, 2, 3, 4, 5 and q = 1, 2). A case where a black belt-like image having a width is formed on this pixel will be described. The shaded area in FIG. 5 is the black image. It is assumed that light does not reach the black portion indicated by the oblique lines, and light reaches a uniform brightness in the other white portions. In addition, the light intensity received by each pixel is digitized into 256 gradations and received. That is, it is assumed that the pixel is set to output brightness information as digital data with 0 when no light is received and 255 when the brightest light is received. In this case, the indicator [ip, jq] (Where p = 1, 2, 3, 4, 5 and q = 1, 2), the digital values captured as one of the image data by the eight pixels given by
[i1, j2] = 0, [i2, j2] = 10, [iThree, j2] = 40, [iFour, j2] = 96, [iFive, j2] = 128,
[i1, j1] = 20, [i2, j1] = 0, [iThree, j1] = 0, [iFour, j1] = 0, [iFive, j1] = 0
Suppose that These values are proportional to the area occupied by the bright part in each pixel.
[0051]
Here, for the sake of simplicity, an example of an image composed of two areas of a white part and a black part has been described as an example, but the same applies to an image including a more complex intermediate brightness area. The digital value that the pixel captures as one of the image data is a value that is proportional to the product of the brightness of the image projected onto the pixel and the area that the brightness portion occupies on the pixel.
[0052]
Next, referring to FIG. 6, a pixel for acquiring the upper image data (hereinafter, simply referred to as “directly upper image pixel”) and a pixel for acquiring the oblique image data (hereinafter simply referred to as “oblique image pixel”). ”).) Is explained. FIG. 6 is a diagram in which pixels existing in the range from i to i + 2 with respect to the column positions of the diagonal image pixels and pixels existing in the range from j to j + 2 with respect to the row positions of the diagonal image pixels are separated by thin lines. Indicated. That is, the upper left pixel is a pixel given by the index [i, j], and the lower right pixel is a pixel given by the index [i + 2, j + 2]. In addition, the pixel directly above given by the index [I, J] is an image projected on the pixel from which the oblique image is acquired, and is indicated by a bold rectangle ABCD. In the following, pixels given by the index [I, J] or [i, j] are abbreviated as pixels [I, J] or pixels [i, j], respectively.
[0053]
The vertices A, B, C, and D of the pixel [I, J] projected onto the oblique image pixel are respectively A ((I-0.5) L, (J -0.5) L), B ((I + 0.5) L, (J-0.5) L), C ((I + 0.5) L, (J + 0.5) L), D ((I-0.5) L, ( J + 0.5) is a point existing in L). The coordinates of the four vertices of the pixel [I, J] ((I-0.5) L, (J-0.5) L), ((I + 0.5) L, (J-0.5) L), ((I + 0.5) L , (J + 0.5) L) and ((I-0.5) L, (J + 0.5) L) are at positions indicated by A, B, C, D on the
[0054]
Next, the following equation (1) that gives resampling will be described.
Img2 (I, J) = Σ [W (k, m) x Img1 (k, m)] / ΣW (k, m) (1)
As shown in FIG. 6, consider a case where a pixel [I, J] is projected onto a pixel constituting the
[0055]
Here, the meaning of W (k, m) will be described. W (k, m) represents the area of the pixel [I, J] projected onto the pixel [k, m] constituting the
[0056]
formula (1)Is the range of pixels projected from the pixel [I, J] on the pixels constituting the
[0057]
Img1 (k, m) is a digital value related to the brightness received by the pixel [k, m] (value of the pixel [k, m]), and W (k, m) is the pixel [k, m]. Since it is the image partial projection area of the pixel [I, J] above, W (k, m) × Img1 (k, m) is the value of the pixel [k, m] only W (k, m) The value takes into account the weight. Σ [W (k, m) × Img1 (k, m)] is the sum obtained over the range from i to (i + 2) for k and from j to j + 2 for m. Further, ΣW (k, m) represents the total projected area of the image of the pixel [I, J] projected onto the
[0058]
Next, the procedure for determining W (k, m) will be described. FIG. 8 is a diagram for explaining the procedure for obtaining W (k, m), and is an enlarged view of the peripheral portion of pixel [i, j]. The positions at which the four vertices of the pixel [I, J] are projected onto the
[0059]
W (k, m) is obtained by the following procedure (process).
(A) It is examined whether or not each point of A, B, C, and D is included in the quadrilateral A'B'C'D '.
Since A is included, pick up A.
(B) It is examined whether or not each point of A ′, B ′, C ′, D ′ is included in the quadrilateral A B C D.
Since C 'is included, C' is picked up.
(C-1) The intersection of the line segment A′B ′ and the line segment A B, line segment B C, line segment CD, and line segment D A is examined.
There is no intersection.
(C-2) The intersection of the line segment B′C ′ and the line segment A B, the line segment B C, the line segment CD, and the line segment D A is examined.
Since a is an intersection (exists as an intersection of line segment B'C 'and line segment AB), a is picked up.
(C-3) The intersection of the line segment C′D ′ and the line segment A B, line segment B C, line segment CD, and line segment D A is examined.
Since b is an intersection (exists as an intersection of line segment C'D 'and line segment DA), b is picked up.
(C-4) The intersection of the line segment D′ A ′ and the line segment A B, line segment B C, line segment CD, and line segment D A is examined. There is no intersection.
(D) The upper left point is obtained for the picked up points (in this embodiment, four points are registered in the list in the order of A, C ′, a, and b). Specifically, as shown in FIG. 9, a straight line having a 45 degree inclination with respect to the X axis is drawn one by one so that each point passes through each point, and the intersection of the Y axis and this 45 degree straight line is drawn. Select the smallest Y coordinate.
The reason why the smallest Y coordinate is selected is that the coordinate set on the light receiving plane is the left-handed coordinate system. In this way, the first point is obtained. Here, it is point A.
(E-1) Using a straight line with a 45 degree slope passing through point A as a reference, rotate this line clockwise around point A to find the first contact point, which is the second point And In this case, point a is obtained as the second point.
(E-2) Next, the straight line Aa is rotated clockwise around the point a to obtain the first contact point, which is set as the third point. In this case, the C ′ point is obtained as the third point.
(E-3) Next, the straight line a C ′ is rotated clockwise around the C ′ point to obtain the first contact point, which is set as the fourth point. In this case, point b is obtained as the fourth point.
(E-4) The above steps are sequentially performed on the picked up points. By this process, the picked-up points are arranged clockwise from the top left.
(F) If the picked-up points are arranged clockwise from the top left, the coordinates of the four vertices of the quadrilateral have been found, so the quadrilateral A a C ′ The area of b, that is, W (k, m) can be obtained by a known method.
[0060]
Next, a method for examining whether or not the point of interest is included in the inside of the quadrilateral performed in steps (a) and (b) will be described with reference to FIG. FIG. 10A is a diagram showing a case where the O point is inside the quadrilateral EFGH, and FIG. 10B is a diagram showing a case where the O point is outside the quadrilateral EFGH. It is assumed that there is a point that moves from the point E of the quadrilateral EFGH so as to pass on the side in the order of point E, point F, point G, and point H. At this time, the angle θ stretched from point E to point F1The direction from point E to point F is taken as the positive direction. Similarly, the angle stretched from point F to point G is θ2, the angle stretched from point G to point H is θ3, and the angle stretched from point H to point E is θ4. The direction toward is taken as the positive direction.
[0061]
When the point O shown in FIG. 10A is inside the quadrilateral EFGH, θ1+ θ2+ θThree+ θFourBecomes 2π. On the other hand, when the point O shown in FIG. 10B is outside the quadrilateral EFGH, θ1+ θ2+ θThree+ θFourBecomes 0. Although not shown, when the point O is on the side of the quadrilateral EFGH,1+ θ2+ θThree+ θFourBecomes π. As explained above, θ1+ θ2+ θThree+ θFourIf the value is 2π, 0, or π, it can be determined whether or not the point of interest O is included in the quadrilateral EFGH.
[0062]
Of the steps for obtaining W (k, m) described above, in step (a) and step (b), the point to be picked up is inside the quadrilateral even when it is on the side of the quadrilateral. Treated as.
[0063]
Next, referring to FIG. 11 and FIG. 12, the intersection of the line segment and the line segment performed in the steps (c-1), (c-2), (c-3) and (c-4) described above Explain the rules for requesting. FIG. 11 illustrates a case where the line segments do not overlap each other, and FIG. 12 illustrates a case where the line segments overlap each other. As shown in FIG. 11 (A), when an intersection exists on the extension of the line segment, it is treated as no intersection. It is determined that the intersection exists as shown in FIG. 11B when the intersection exists within the range where the line segment exists. As shown in FIG. 11C, it is determined that there is an intersection even when the end point of the line segment is an intersection. When the
Further, the following processing is performed as a derivative process.
[0064]
(A) In the above-described step (a), when all points A, B, C, and D are not included in the quadrilateral A′B′C′D ′, W (k, m) = Set to 0 to finish.
(B) In the above-described step (b), when all points A ′, B ′, C ′, D ′ are not included in the quadrilateral ABCD, W (k, m) = 0 finish.
(C) When the above steps (c-1) to (c-4) are completed, the number of points to be picked up is 1 to 2, or 3 to 8.
[0065]
Therefore,
(C1) When the number of points to be picked up is 0 or 2, the process ends with W (k, m) = 0.
(C2) When the number of points to be picked up is 3 to 8, the process goes to step (f) to obtain W (k, m).
[0066]
In FIG. 6, the relationship between the pixel for the upper image and the pixel for the oblique image is illustrated. This indicates the relationship between the quadrilateral (the shape of the pixel for the upper image) and the square (the shape of the pixel for the oblique image). Is. In such a relationship, when the relationship between the quadrilateral and the square becomes the relationship shown in FIG. 13, the number of points picked up is 8, which is the maximum number. FIG. 13 shows the relationship between the image pixel directly above (a quadrilateral indicated by a thick line) and the diagonal image pixel (a square indicated by a thin line). For this reason, the maximum number of points picked up is eight.
[0067]
The procedure for obtaining W (k, m) described above is merely an example, and there may be a suitable procedure other than the method described here. However, it is obvious that whatever procedure is used to obtain W (k, m), the present invention can be applied to the image conversion method or the image conversion apparatus according to the present invention.
[0068]
The procedure for obtaining W (k, m) described above is summarized as follows with reference to the flowchart shown in FIG.
[0069]
The positions at which the four vertices of the pixels [I, J] constituting the second light receiving plane are projected onto the light receiving plane of the first imaging device are A, B, C, D, and the pixels [1] constituting the first light receiving plane [ The four vertices of i, j] are A ', B', C ', D'
(D) It is checked whether or not points A, B, C, and D are included in the quadrilateral A'B'C'D '(step S1). When neither is included (N), W (k, m) is set to W (k, m) = 0 (step S2), and this procedure is terminated. On the other hand, if any point is included (Y), the included point is picked up (step S3).
(E) It is checked whether or not the points A ′, B ′, C ′, and D ′ are included in the quadrilateral A B C D (step S4). If neither is included (N), W (k, m) is set to W (k, m) = 0 (step S5), and this procedure is terminated. On the other hand, if any point is included (Y), the included point is picked up (step S6).
(F) Next, the intersection of line segment A′B ′ and line segment A B, line segment B C, line segment C D, line segment D A,
Intersection of line segment B’C ′ and line segment A B, line segment B C, line segment C D, line segment D A,
The intersection of line segment C’D ′ with line segment A B, line segment B C, line segment C D, line segment D A, and
The intersections of the line segment D'A 'and the line segment A B, line segment B C, line segment CD and line segment D A are examined and picked up (step S7).
(G) W (k, m) is obtained from the coordinates of all the points picked up in the steps S3, S6 and S7 (step S8).
[0070]
<Description of Image Conversion Device>
Next, an apparatus for realizing the above-described image conversion method will be described with reference to FIGS. FIG. 15 is a diagram for explaining the configuration of the
The
Since processing related to writing and calling information to the
[0071]
First, the
[0072]
An (x, y) coordinate system is provided on the light receiving plane of the
Img2 (I, J) = Σ [W (k, m) x Img1 (k, m)] / ΣW (k, m)(1)
Is determined. The coordinate transformation parameter and the resampling relational expression described above are sent to and stored in the
[0073]
Thus, the installation of the
[0074]
The configuration of the image
[0075]
The
[0076]
The coordinate
[0077]
The
Img2 (I, J) = Σ [W (k, m) x Img1 (k, m)] / ΣW (k, m)(1)
Accordingly, the light intensity Img2 (I, J) of the pixel [I, J] of the second image data is calculated.
[0078]
According to the apparatus described above, if the element Img1 (k, m) of the oblique image data obtained by imaging the imaging object with the first imaging apparatus is given over the entire oblique light receiving plane, this is taken as the imaging object. Since the directly-facing image data Img2 (I, J), which should be obtained by imaging with the second imaging device, is calculated over all the directly-facing light receiving planes, desired image conversion is performed.
[0079]
<Example of conversion processing by image conversion method>
With reference to FIG. 17, an example of an image obtained by performing image conversion from diagonal image data obtained by imaging a grid, which is an imaging object, from an oblique direction to directly above image data will be described. FIG. 17A shows an image captured from obliquely above. In this image, it can be seen that the grid interval (interval of the intersections of the black lines) becomes narrower toward the right side. It can also be seen that the thickness of the black lines forming the grid image becomes thinner toward the right side.
[0080]
The image shown in FIG. 17B is obtained by converting the lattice image shown in FIG. 17A into an image that would be obtained if it was captured from directly above. In this image conversion, in order to determine the magnification of the image, the lattice spacing p on the representative black line in the central portion of the image forming the lattice image indicated by the
[0081]
Note that black triangular portions indicated by
[0082]
<Example of a semiconductor manufacturing apparatus equipped with an apparatus for realizing an image conversion method>
With reference to FIG. 18, an example of a semiconductor manufacturing apparatus having a mechanism for carrying out the image conversion method according to the present invention will be described. This semiconductor manufacturing apparatus has a function of taking out
[0083]
The orientation flat refers to a portion in which a portion of the periphery of the
[0084]
At the time when the
[0085]
An imaging device provided in a semiconductor manufacturing apparatus is attached to capture an object such as a wafer and acquire images used for various purposes such as orientation flat and notch detection using a technique such as image search. Therefore, it is preferable to install the imaging apparatus so that the wafer can be imaged in a direction perpendicular to the upper surface of the wafer because there is no distortion of the image to be captured. This is because, in general, a program or the like for realizing a function such as an image search is made on the premise that there is no external image distortion such as that captured from an oblique direction in the captured image. It is.
[0086]
However, since the semiconductor manufacturing apparatus is installed in a clean room, it is required to make the size as small as possible. In order to reduce the size of the entire apparatus such as a semiconductor manufacturing apparatus, the imaging apparatus may not be attached so that the wafer can be imaged from a direction perpendicular to the wafer surface. Therefore, even if an image is captured by an imaging device installed at any location, the image is converted into an image that should be obtained by setting the imaging device to the original desired position and capturing the image. If possible, this problem will be solved.
[0087]
The image conversion method according to the present invention is an image conversion method suitable for achieving the above-described object. With reference to FIG. 14, FIG. 15 and FIG. 17, the configuration and handling of a semiconductor manufacturing apparatus having a mechanism for carrying out the image conversion method according to the present invention will be described. In the following description, process names shown in parentheses correspond to the process names shown in the flowcharts of FIGS.
[0088]
The test pattern on the
[0089]
Subsequently, the light intensity Img2 (I, J) of the pixel [I, J] of the second image data constituting the light receiving plane of the
[0090]
Img2 (I, J) = Σ [W (k, m) x Img1 (k, m)] / ΣW (k, m) (1)
This process is also performed in the W (k, m) calculation unit 51 and the Img2 (I, J)
[0091]
Parameter b for coordinate transformation described abovei(Where i = 1, 2, 3, 4, 5, 6, 7, 8) and the above formula (1) that gives the relationship between Img2 (I, J) and Img1 (k, m) All relevant parameters are stored in the
[0092]
As described above, if the
[0093]
If the second image data is output from the second image
[0094]
In a large-scale manufacturing apparatus that needs to monitor imaging objects such as wafers at a plurality of locations, all images captured from the plurality of locations are captured in the imaging direction as well as the distance between the imaging device and the wafer. Are preferably imaged under the same condition. The large-scale manufacturing apparatus that needs to monitor imaging objects such as wafers at a plurality of locations described above may be a manufacturing line or a manufacturing plant. Even in this case, as in the example of the semiconductor manufacturing apparatus described above, there are many cases where the imaging apparatus cannot always be set to a position that satisfies the same condition with respect to the imaging target.
[0095]
Even in such a large-scale manufacturing apparatus that needs to monitor an object at a plurality of locations, the image conversion method and the image conversion apparatus of the present invention can produce the following advantages. If image data acquired by a plurality of imaging devices installed in a large-scale manufacturing apparatus is subjected to image conversion processing by the image conversion method of the present invention, all images taken at an equal distance from the vertical direction with respect to the object Each can be converted into data.
[0096]
In this way, if all of the objects are converted into image data that is equidistant and imaged from the vertical direction, based on the converted image, the position detection and shape defect of the imaging object at each imaging position are performed. It is possible to efficiently use an image processing program used for such determination. That is, in order to process an image including image distortion or the like based on a difference in imaging conditions or the like with the above-described image processing program, the parameters of the above-described image processing program are associated with each imaging device in consideration of the distortion. Etc. need to be changed. However, if the image conversion method of the present invention is implemented, the step of changing such parameters and the like can be omitted.
[0097]
【The invention's effect】
As described above, according to the image conversion method and the image conversion apparatus of the present invention, the oblique image data obtained by imaging the imaging object from the oblique direction is obtained by imaging from the direction facing the imaging object. Converted to the directly-facing image data. Since the facing image data is similar to the object to be imaged, various types such as identification of the object to be imaged, detection of a difference from the standard object of the object to be imaged, position measurement of the object to be imaged, shape measurement of the object to be imaged, etc. An existing program library that realizes an image processing function can be used effectively. In addition, since the screen search can be performed effectively, the image conversion method of the present invention is an effective technique in the detection of orientation flats in a semiconductor manufacturing apparatus and in monitoring and inspection in a manufacturing line composed of a plurality of manufacturing processes.
[Brief description of the drawings]
FIG. 1 is a diagram for explaining a state in which a lattice pattern is imaged from directly above and obliquely upward.
FIGS. 2A, 2B, and 2C are diagrams showing lattice pattern images captured from directly above and obliquely upward. FIG.
FIG. 3 is a flowchart for obtaining parameters for coordinate transformation.
FIG. 4 is a diagram for explaining an index for designating coordinates and pixels of a light receiving plane.
FIG. 5 is a diagram for explaining an image data acquisition method for pixels constituting a light receiving plane;
FIG. 6 is a diagram for explaining a relationship between an upper image pixel and an oblique image pixel;
FIG. 7 is a diagram for explaining W (k, m).
FIG. 8 is a diagram for explaining how to obtain W (k, m).
FIG. 9 is a diagram for explaining points picked up to obtain W (k, m).
FIGS. 10A and 10B are diagrams for explaining the relationship between a point O and a quadrilateral EFGH, respectively.
FIGS. 11A, 11B, and 11C are diagrams for explaining the determination of whether or not there is an intersection between a line segment and line segment, respectively.
FIG. 12 is a diagram for explaining a case where line segments overlap with each other.
FIG. 13 is a diagram for explaining a relationship between an upper image pixel and an oblique image pixel;
FIG. 14 is a flowchart for obtaining W (k, m).
FIG. 15 is a diagram for explaining a configuration of an image conversion apparatus;
FIG. 16 is a diagram for explaining the configuration of an image conversion processing unit;
FIGS. 17A and 17B are diagrams showing examples of lattice image conversion, respectively. FIGS.
FIG. 18 is a schematic view of a semiconductor manufacturing apparatus having a mechanism for detecting orientation flats.
[Explanation of symbols]
10: First imaging device
12: Second imaging device
14: Lattice pattern
20: Alignment camera
22: Wafer cassette
24: Wafer
26: Transfer arm
28: Stage
32: Image conversion device
50: Resampling unit
Claims (12)
前記斜め受光平面上の画素位置を確定するための第1平面座標と前記正対受光平面上の画素位置を確定するための第2平面座標との関係を定める座標変換工程と、
第2画像データの画素[I, J]の光強度Img2(I, J)を次式(1)に従って求める再サンプリング工程とを含むことを特徴とする画像変換方法。
Img2(I, J) = Σ[W(k, m)×Img1(k, m)]/ΣW(k, m) (1)
ただし、I、J、k及びmを整数として、
Img1(k, m)は、第1画像データの第k行第m列の画素[k, m]の光強度である。
W(k, m)は、第1受光平面上に投影される第2画像データの第I行第J列の画素[I, J]が、第1受光平面上の画素[k, m]上に投影される面積を表す。
また、式 (1)の右辺の和を求める範囲は、第1受光平面上に投影される第2画像データの画素[I, J]が、第1受光平面上の画素[k, m]上に一部でも投影されれば、その投影されている画素[k, m]全てにわたるものとする。First image data obtained on an oblique light receiving plane (hereinafter referred to as “first light receiving plane”) by imaging an imaging object from an oblique direction by an imaging device including an imaging optical system and a light receiving plane. In the image conversion method for converting to the second image data obtained in the directly-facing light receiving plane (hereinafter referred to as “second light receiving plane”) when the imaging object is temporarily imaged from the facing direction by the imaging device,
A coordinate conversion step for determining a relationship between a first plane coordinate for determining a pixel position on the oblique light receiving plane and a second plane coordinate for determining a pixel position on the directly-facing light receiving plane;
A re-sampling step of obtaining the light intensity Img2 (I, J) of the pixel [I, J] of the second image data according to the following equation (1):
Img2 (I, J) = Σ [W (k, m) x Img1 (k, m)] / ΣW (k, m) (1)
Where I, J, k, and m are integers.
Img1 (k, m) is the light intensity of the pixel [k, m] in the k-th row and the m-th column of the first image data.
W (k, m) is the I row and J columns of pixels [I, J] of the second image data to be projected onto the first light receiving plane, the pixels on the first light receiving flat surface [k, m] Represents the area projected above.
Moreover, the range of the sum on the right hand side of equation (1), the pixel [I, J] of the second image data to be projected onto the first light receiving plane, the pixels on the first light receiving flat surface [k, m] If even a part is projected on the top, it will cover all the projected pixels [k, m].
(a)一直線上に3点以上が並ぶことがないように選び出した4点以上の点あるいは一直線上の3点を含みこの直線外の少なくとも2点以上の点を含むように選び出した複数の点(以後これらの点を「特徴のある複数の点」という。)上にマークを持つ撮像対象物であって、該マークが存在する平面に設けられた座標系による該マークの座標値が既知である当該撮像対象物をテストパターンとして、前記撮像装置によって当該テストパターンを撮像する、撮像工程、
(b)斜め方向から撮像された場合の第1受光平面に撮像される、テストパターン中の特徴ある複数の点上のマークに対する、前記第1平面座標の座標値を読み取る、座標読み取り工程、
(c)テストパターン中の任意の位置を原点と定め、斜め方向から撮像されたテストパターンの第1受光平面上に撮像される画像を基にして、該テストパターンが、該原点が第2受光平面の中央部分に投影される正対する方向から撮像される場合の、該原点が投影される該第2受光平面の中央部分の位置と、斜め方向から撮像されたテストパターンの画像を幾何学的に相似変換する縮尺とを仮想的に設定する、キャリブレーション工程、
(d)斜め方向から撮像された特徴のある複数の点上のマークに対して、テストパターン中のそれぞれの該マークを、仮想的に設定された正対する方向から撮像される場合の第2受光平面上に投影して、前記第2平面座標での該マークの位置を算出する、位置算出工程、
(e)斜め方向から撮像した場合の前記第1受光平面に投影されたテストパターン中の前記特徴のある複数の点上のマークそれぞれの前記第1座標と、仮想的に設定された正対する方向から撮像された場合の第2受光平面上で、算出されたテストパターン中の該特徴のある複数の点上のマークそれぞれの前記第2座標とを基にして、座標変換パラメータbi(ただし、i = 1, 2, 3, 4, 5, 6, 7, 8である。)を求める、パラメータ算出工程、
とを含むことを特徴とする画像変換方法。The image conversion method according to claim 1, wherein the coordinate conversion step includes:
(A) Multiple points selected to include at least 4 points selected so that 3 or more points do not line up on a straight line, or at least 2 points outside this line, including 3 points on a straight line (These points are hereinafter referred to as “a plurality of characteristic points”.) An imaging object having a mark thereon, and the coordinate value of the mark is known by a coordinate system provided on the plane where the mark exists. An imaging step of imaging the test pattern with the imaging device using the imaging object as a test pattern,
(B) A coordinate reading step for reading the coordinate values of the first plane coordinates for marks on a plurality of characteristic points in the test pattern that are imaged on the first light receiving plane when imaged from an oblique direction;
(C) An arbitrary position in the test pattern is defined as the origin, and based on the image captured on the first light receiving plane of the test pattern captured from an oblique direction, the test pattern has the origin at the second light reception. When the image is taken from the opposite direction projected on the central portion of the plane, the position of the central portion of the second light receiving plane on which the origin is projected and the test pattern image taken from the oblique direction are geometrically A calibration process for virtually setting a scale for similarity conversion to
(D) Second light reception when each mark in the test pattern is imaged from a virtually opposite direction with respect to marks on a plurality of characteristic points imaged from an oblique direction A position calculating step of projecting on a plane and calculating the position of the mark in the second plane coordinates;
(E) the first coordinate of each of the marks on the plurality of characteristic points in the test pattern projected onto the first light receiving plane when imaged from an oblique direction, and a virtually opposite direction set On the second light receiving plane when imaged from the above, based on the second coordinates of the marks on the plurality of characteristic points in the calculated test pattern, coordinate conversion parameters b i (where i = 1, 2, 3, 4, 5, 6, 7, 8).
An image conversion method comprising:
(c')前記第1受光平面の中央部分の位置と仮想的に設定された前記第2受光平面の中央部分の位置における、画像の寸法が等しくなるように縮尺を定め、かつ互いの画像の中央部分の位置が一致するように該撮像対象物を正対した方向から撮像する場合の中心部分の位置を仮想的に設定する、キャリブレーション工程を含むことを特徴とする画像変換方法。In the image conversion method according to claim 2, a calibration step of virtually setting a center position and a scale in the second plane coordinates when imaging from the directly facing direction,
(C ′) The scale is determined so that the image dimensions are equal at the position of the central portion of the second light receiving plane that is virtually set to the position of the central portion of the first light receiving plane, and An image conversion method comprising a calibration step of virtually setting a position of a central portion when imaging the imaging object from a direction facing the central portion so that the positions of the central portion coincide with each other.
(b') テストパターン中の特徴のある複数の点を選択して、それぞれの選択点に対する第1平面座標値(X, Y)を読み取る座標読み取り工程、
(d')(b')で選択されたそれぞれの選択点に対して第2平面座標でのマーク位置(x, y)を算出する、位置算出工程、
(e') 該第1平面座標値(X, Y)と該第2平面座標値(x, y)とから下記の式(2)及び式(3)で定義される8個の座標変換パラメータbi(ただし、i = 1, 2, 3, 4, 5, 6, 7, 8である。)を、連立方程式を解く方法あるいは最小二乗法で求める、パラメータ算出工程を含むことを特徴とする画像変換方法。
X=(b1x + b2y + b3)/(b7x +b8y + 1) (2)
Y=(b4x + b5y + b6)/(b7x +b8y + 1) (3)4. The image conversion method according to claim 2, wherein the coordinate reading step, the step of calculating the mark position in the second plane coordinate, and the parameter calculation step are (b ′) a plurality of characteristic features in the test pattern. A coordinate reading step of selecting points and reading the first plane coordinate values (X, Y) for each selected point;
(D ′) a position calculating step for calculating a mark position (x, y) in the second plane coordinates for each selected point selected in (b ′);
(E ′) Eight coordinate conversion parameters defined by the following equations (2) and (3) from the first plane coordinate values (X, Y) and the second plane coordinate values (x, y) b i (where i = 1, 2, 3, 4, 5, 6, 7, 8), including a parameter calculation step for obtaining simultaneous equations or a method of least squares Image conversion method.
X = (b 1 x + b 2 y + b 3 ) / (b 7 x + b 8 y + 1) (2)
Y = (b 4 x + b 5 y + b 6 ) / (b 7 x + b 8 y + 1) (3)
第2受光平面を構成する画素[I, J]の4頂点が第1撮像装置の受光平面に投影される位置をA, B, C, Dとし、また、第1受光平面を構成する画素[i, j]の4頂点をA’, B’, C’, D’として、
(d)四辺形A’B’C’D’の内部にA, B, C, Dの各点が含まれるか否かを調べピックアップする工程、
(e)四辺形A B C D の内部にA’, B’, C’, D’の各点が含まれるか否かを調べピックアップする工程、
(f-1)線分A’B’と線分A B 、線分B C、線分C D、線分D A の交点を調べピックアップする工程、
(f-2)線分B’C’と線分A B 、線分B C、線分C D、線分D A の交点を調べピックアップする工程、
(f-3)線分C’D’と線分A B 、線分B C、線分C D、線分D A の交点を調べピックアップする工程、
(f-4)線分D’A’と線分A B 、線分B C、線分C D、線分D A の交点を調べピックアップする工程、
(g)該(d)乃至該(f-4)までの工程においてピックアップされた全ての点の座標から、W(k, m)を求める工程。2. The image conversion method according to claim 1, wherein a pixel [I, J] of the second image data projected onto the first light receiving plane is projected onto a pixel [k, m] on the first light receiving surface. An image conversion method characterized in that the step of obtaining W (k, m) representing a specific area includes the following steps.
The positions at which the four vertices of the pixels [I, J] constituting the second light receiving plane are projected onto the light receiving plane of the first imaging device are A, B, C, D, and the pixels [1] constituting the first light receiving plane [ The four vertices of i, j] are A ', B', C ', D'
(D) A process of checking whether or not each point of A, B, C, D is included in the quadrilateral A'B'C'D '
(E) A process of checking and picking up whether each point of A ′, B ′, C ′, D ′ is included in the quadrilateral ABCD,
(F-1) The process of picking up the intersection of line segment A'B 'and line segment AB, line segment BC, line segment CD, line segment DA;
(F-2) The process of checking and picking up the intersection of line segment B'C 'and line segment AB, line segment BC, line segment CD, line segment DA,
(F-3) Checking and picking up the intersection of line segment C'D 'and line segment AB, line segment BC, line segment CD, line segment DA;
(F-4) A process of examining and picking up the intersection of line segment D'A 'and line segment AB, line segment BC, line segment CD, line segment DA,
(G) A step of obtaining W (k, m) from the coordinates of all points picked up in the steps (d) to (f-4).
前記斜め受光平面上の画素位置を確定するための第1平面座標と前記正対受光平面上の画素位置を確定するための第2平面座標との関係を定める座標変換手段と、
第2画像データの画素[I, J]の光強度Img2(I, J)を次式(1)に従って求める再サンプリング手段とを具えることを特徴とする画像変換装置。
Img2(I, J) = Σ[W(k, m)×Img1(k, m)]/ΣW(k, m) (1)
ただし、I、J、k及びmを整数として、
Img1(k, m)は、第1画像データの第k行第m列の画素[k, m]の光強度である。
W(k, m)は、第1受光平面上に投影される第2画像データの第I行第J列の画素[I, J]が、第1受光平面上の画素[k, m]上に投影される面積を表す。
また、式 (1)の右辺の和を求める範囲は、第1受光平面上に投影される第2画像データの画素[I, J]が、第1受光平面上の画素[k, m]上に一部でも投影されれば、その投影されている画素[k, m]全てにわたるものとする。First image data obtained on an oblique light receiving plane (hereinafter referred to as “first light receiving plane”) by imaging an imaging object from an oblique direction by an imaging device including an imaging optical system and a light receiving plane. In the image conversion device for converting into second image data obtained in the directly-facing light receiving plane (hereinafter referred to as “second light receiving plane”) when the imaging object is temporarily imaged from the direction facing the imaging object,
Coordinate conversion means for determining a relationship between a first plane coordinate for determining a pixel position on the oblique light receiving plane and a second plane coordinate for determining a pixel position on the directly-facing light receiving plane;
An image conversion apparatus comprising: a resampling unit that obtains the light intensity Img2 (I, J) of the pixel [I, J] of the second image data according to the following equation (1).
Img2 (I, J) = Σ [W (k, m) x Img1 (k, m)] / ΣW (k, m) (1)
Where I, J, k, and m are integers.
Img1 (k, m) is the light intensity of the pixel [k, m] in the k-th row and the m-th column of the first image data.
W (k, m) is the I row and J columns of pixels [I, J] of the second image data to be projected onto the first light receiving plane, the pixels on the first light receiving flat surface [k, m] Represents the area projected above.
Moreover, the range of the sum on the right hand side of equation (1), the pixel [I, J] of the second image data to be projected onto the first light receiving plane, the pixels on the first light receiving flat surface [k, m] If even a part is projected on the top, it will cover all the projected pixels [k, m].
一直線上に3点以上が並ぶことがないように選び出した4点以上の点あるいは一直線上の3点を含みこの直線外の少なくとも2点以上の点を含むように選び出した複数の点(以後これらの点を「特徴のある複数の点」という。)上にマークを持つ撮像対象物であって、該マークが存在する平面に設けられた座標系による該マークの座標値が既知である当該撮像対象物をテストパターンとして、前記撮像装置によって当該テストパターンを撮像する、撮像手段と、
斜め方向から撮像された場合の第1受光平面に撮像される、テストパターン中の特徴のある複数の点上のマークに対する、前記第1平面座標の座標値を読み取る、座標読み取り手段と、
テストパターン中の任意の位置を原点と定め、斜め方向から撮像されたテストパターンの第1受光平面上に撮像される画像を基にして、該テストパターンが、該原点が第2受光平面の中央部分に投影される正対する方向から撮像される場合の、該原点が投影される該第2受光平面の中央部分の位置と、斜め方向から撮像されたテストパターンの画像を幾何学的に相似変換する縮尺とを仮想的に設定する、キャリブレーション手段と、
斜め方向から撮像された特徴のある複数の点上のマークに対して、テストパターン中のそれぞれの該マークを、仮想的に設定された正対する方向から撮像される場合の第2受光平面上に投影して、前記第2平面座標での該マークの位置を算出する、位置算出手段と、
斜め方向から撮像した場合の前記第1受光平面に投影されたテストパターン中の前記特徴のある複数の点上のマークそれぞれの前記第1座標と、仮想的に設定された正対する方向から撮像された場合の第2受光平面上で、算出されたテストパターン中の該特徴のある複数の点上のマークそれぞれの前記第2座標とを基にして、座標変換パラメータbi(ただし、i = 1, 2, 3, 4, 5, 6, 7, 8である。)を求める、パラメータ算出手段とを具えることを特徴とする画像変換装置。The image conversion apparatus according to claim 6, wherein the coordinate conversion unit includes:
Multiple points selected to include at least two points outside the straight line, including four or more points selected so that three or more points are not aligned on a straight line, or three points on a straight line This point is referred to as “a plurality of characteristic points.”) An imaging object having a mark on the image, and the coordinate value of the mark is known by a coordinate system provided on a plane where the mark exists Imaging means for imaging the test pattern by the imaging device using the object as a test pattern;
Coordinate reading means for reading the coordinate values of the first plane coordinates for marks on a plurality of characteristic points in the test pattern imaged on the first light receiving plane when imaged from an oblique direction;
An arbitrary position in the test pattern is defined as the origin, and based on the image captured on the first light receiving plane of the test pattern captured from an oblique direction, the test pattern is centered on the second light receiving plane. Geometric similarity conversion between the position of the central part of the second light receiving plane where the origin is projected and the test pattern image taken from an oblique direction when the image is taken from the opposite direction projected onto the part Calibration means for virtually setting the scale to be
With respect to marks on a plurality of characteristic points imaged from an oblique direction, each mark in the test pattern is placed on the second light receiving plane when imaged from a virtually opposite direction. Projecting and calculating a position of the mark in the second plane coordinates;
Images are taken from the first coordinate of each of the marks on the plurality of characteristic points in the test pattern projected onto the first light receiving plane when imaged from an oblique direction, and from a virtually set opposite direction. Coordinate conversion parameter b i (where i = 1) based on the second coordinates of the marks on the plurality of characteristic points in the calculated test pattern on the second light receiving plane , 2, 3, 4, 5, 6, 7, and 8).
前記第1受光平面の中央部分の位置と仮想的に設定された前記第2受光平面の中央部分の位置における、画像の寸法が等しくなるように縮尺を定め、かつ互いの画像の中央部分の位置が一致するように該撮像対象物を正対した方向から撮像する場合の中心部分の位置を仮想的に設定する、キャリブレーション手段を具えることを特徴とする画像変換装置。The image conversion apparatus according to claim 7, wherein calibration means for virtually setting a center position and a scale in the second plane coordinates when imaging from the facing direction,
The scale is determined so that the image dimensions are equal at the position of the central portion of the second light receiving plane that is virtually set to the position of the central portion of the first light receiving plane, and the positions of the central portions of the images of each other An image conversion apparatus comprising calibration means for virtually setting the position of the central portion when the imaging object is imaged from the facing direction so as to match.
テストパターン中の特徴のある複数の点を選択して、それぞれの選択点に対する第1平面座標値(X, Y)を読み取る座標読み取り手段と、
該座標読み取り手段で選択されたそれぞれの選択点に対して第2平面座標でのマーク位置(x, y)を算出する、位置算出手段と、
該第1平面座標値(X, Y)と該第2平面座標値(x, y)とから下記の式(2)及び式(3)で定義される8個の座標変換パラメータbi(ただし、i = 1, 2, 3, 4, 5, 6, 7, 8である。)を、連立方程式を解く方法あるいは最小二乗法で求める、パラメータ算出手段とを具えることを特徴とする画像変換装置。
X=(b1x + b2y + b3)/(b7x +b8y + 1) (2)
Y=(b4x + b5y + b6)/(b7x +b8y + 1) (3)In the image conversion apparatus according to claim 7 or 8, the coordinate reading means, the means for calculating the mark position in the second plane coordinates, and the parameter calculation means,
Coordinate reading means for selecting a plurality of characteristic points in the test pattern and reading the first plane coordinate value (X, Y) for each selected point;
Position calculating means for calculating the mark position (x, y) in the second plane coordinates for each selected point selected by the coordinate reading means;
From the first plane coordinate value (X, Y) and the second plane coordinate value (x, y), eight coordinate transformation parameters b i defined by the following equations (2) and (3) (where , I = 1, 2, 3, 4, 5, 6, 7, and 8)), a parameter calculation means for solving the simultaneous equations or a least squares method. apparatus.
X = (b 1 x + b 2 y + b 3 ) / (b 7 x + b 8 y + 1) (2)
Y = (b 4 x + b 5 y + b 6 ) / (b 7 x + b 8 y + 1) (3)
第2受光平面を構成する画素[I, J]の4頂点が第1撮像装置の受光平面に投影される位置をA, B, C, Dとし、また、第1受光平面を構成する画素[i, j]の4頂点をA’, B’, C’, D’として、
四辺形A’B’C’D’の内部にA, B, C, Dの各点が含まれるか否かを調べピックアップする手段1と、
四辺形A B C D の内部にA’, B’, C’, D’の各点が含まれるか否かを調べピックアップする手段2と、
線分A’B’と線分A B 、線分B C、線分C D、線分D A の交点を調べピックアップする手段3と、
線分B’C’と線分A B 、線分B C、線分C D、線分D A の交点を調べピックアップする手段4と、
線分C’D’と線分A B 、線分B C、線分C D、線分D A の交点を調べピックアップする手段5と、
線分D’A’と線分A B 、線分B C、線分C D、線分D A の交点を調べピックアップする手段6と、
該手段1乃至手段6によってピックアップされた全ての点の座標から、W(k, m)を求める手段7。7. The image conversion apparatus according to claim 6, wherein the pixel [I, J] of the second image data projected onto the first light receiving plane is projected onto the pixel [k, m] on the first light receiving surface. An image conversion apparatus characterized in that means for obtaining W (k, m) representing an area to be obtained includes the following means.
The positions at which the four vertices of the pixels [I, J] constituting the second light receiving plane are projected onto the light receiving plane of the first imaging device are A, B, C, D, and the pixels [1] constituting the first light receiving plane [ The four vertices of i, j] are A ', B', C ', D'
Means 1 for checking whether or not each point of A, B, C, D is included in quadrilateral A'B'C'D ';
Means 2 for checking whether or not each point of A ′, B ′, C ′, D ′ is included in the quadrilateral ABCD;
Means 3 for checking and picking up the intersection of line segment A'B 'and line segment AB, line segment BC, line segment CD, line segment DA;
Means 4 for examining and picking up the intersection of line segment B'C 'and line segment AB, line segment BC, line segment CD, line segment DA;
Means 5 for examining and picking up the intersection of line C'D 'and line AB, line BC, line CD, line DA;
Means 6 for examining and picking up the intersection of line segment D'A 'and line segment AB, line segment BC, line segment CD, line segment DA;
Means 7 for obtaining W (k, m) from the coordinates of all points picked up by means 1 to means 6;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002366354A JP4167482B2 (en) | 2002-12-18 | 2002-12-18 | Image conversion method and image conversion apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002366354A JP4167482B2 (en) | 2002-12-18 | 2002-12-18 | Image conversion method and image conversion apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004199331A JP2004199331A (en) | 2004-07-15 |
JP4167482B2 true JP4167482B2 (en) | 2008-10-15 |
Family
ID=32763582
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002366354A Expired - Fee Related JP4167482B2 (en) | 2002-12-18 | 2002-12-18 | Image conversion method and image conversion apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4167482B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4955242B2 (en) * | 2005-09-14 | 2012-06-20 | 株式会社日立ハイテクノロジーズ | Charged particle beam equipment |
KR101191034B1 (en) * | 2009-08-19 | 2012-10-12 | 세메스 주식회사 | Monitoring system and method |
CN115507778B (en) * | 2022-09-27 | 2025-05-27 | 重庆市天实汽车电子有限公司 | A method for calculating and testing the rotation angle of a camera module with a rotating shaft |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4453119B2 (en) * | 1999-06-08 | 2010-04-21 | ソニー株式会社 | Camera calibration apparatus and method, image processing apparatus and method, program providing medium, and camera |
JP2001245277A (en) * | 2000-03-02 | 2001-09-07 | Mitsubishi Electric Corp | Image converter |
JP2001283196A (en) * | 2000-03-30 | 2001-10-12 | Nikon Corp | Device and method for inspecting defect |
-
2002
- 2002-12-18 JP JP2002366354A patent/JP4167482B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2004199331A (en) | 2004-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8855399B2 (en) | System, a method and a computer program product for CAD-based registration | |
KR101298444B1 (en) | An inspection system and method for inspecting line width and/or positional errors of a pattern | |
TWI661495B (en) | Work piece processing device, work piece conveying system | |
US9599575B2 (en) | System, a method and a computer program product for CAD-based registration | |
CN111707187B (en) | Method and system for measuring large parts | |
JP2015195328A (en) | Workpiece processing apparatus and workpiece transfer system | |
KR101545186B1 (en) | method of correction of defect location using predetermined wafer image targets | |
CN109804462A (en) | The system and method automatically corrected for the drift between the inspection and design of a large amount of pattern searches | |
JP5178781B2 (en) | Sensor output data correction device and sensor output data correction method | |
JP2012189551A (en) | Perimeter field for calibration of multi-camera | |
JPH09229635A (en) | Measuring method of real space length by imaging means, calibration method of optical system, and reference gauge used for calibration of optical system | |
JP7089906B2 (en) | Board inspection equipment, board processing equipment and board inspection method | |
JPWO2018062169A1 (en) | Measuring device | |
JP5917492B2 (en) | Appearance inspection method and apparatus | |
JP3915033B2 (en) | Measuring method and measuring apparatus using stereo optical system | |
EP1104915B1 (en) | Defect detection using gray level signatures | |
JP4167482B2 (en) | Image conversion method and image conversion apparatus | |
CN102856214A (en) | Circuit board placement method | |
TWI695441B (en) | Workpiece processing device, workpiece conveying system | |
CN107833841A (en) | Defect inspection method | |
JP2004069645A (en) | Visual inspection method, visual inspection device | |
JP4097255B2 (en) | Pattern matching apparatus, pattern matching method and program | |
JP2004220371A (en) | Image processing method, image processor, image processing program, and recording medium recorded with image processing program | |
CN113345024B (en) | How to judge the assembly quality of camera modules | |
JPH10300682A (en) | Image-comparing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20041022 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070820 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071212 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080715 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080801 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4167482 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110808 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110808 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110808 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110808 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120808 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120808 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120808 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130808 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130808 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R255 | Notification that request for automated payment was rejected |
Free format text: JAPANESE INTERMEDIATE CODE: R2525 |
|
LAPS | Cancellation because of no payment of annual fees |