[go: up one dir, main page]

JP2005352543A - Template matching device - Google Patents

Template matching device Download PDF

Info

Publication number
JP2005352543A
JP2005352543A JP2004169520A JP2004169520A JP2005352543A JP 2005352543 A JP2005352543 A JP 2005352543A JP 2004169520 A JP2004169520 A JP 2004169520A JP 2004169520 A JP2004169520 A JP 2004169520A JP 2005352543 A JP2005352543 A JP 2005352543A
Authority
JP
Japan
Prior art keywords
image
template
density
partial
partial image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004169520A
Other languages
Japanese (ja)
Inventor
Hiroyuki Abe
啓之 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2004169520A priority Critical patent/JP2005352543A/en
Priority to PCT/JP2005/009749 priority patent/WO2005116577A1/en
Priority to TW094117746A priority patent/TW200609483A/en
Publication of JP2005352543A publication Critical patent/JP2005352543A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a template matching device capable of accurately specifying a coinciding position even when an input image is rotated and changed. <P>SOLUTION: This device comprises a means for preparing a concentration histogram of a known circular template image 22, a means for extracting a circular partial operation image 25 from a plurality of different positions (X<SB>2</SB>, Y<SB>2</SB>) in the input image 21, a means for preparing a concentration histogram of the extracted partial image, a means for finding the similarity between the template image and the partial image on the basis of the histogram of the template image and that of the partial image, and a means for specifying a coinciding position (X<SB>1</SB>, Y<SB>1</SB>) with the template image in the input image by comparing the similarity found at each position (X<SB>2</SB>, Y<SB>2</SB>) of the input image. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、入力画像に対してテンプレートマッチングを行うテンプレートマッチング装置に関する。   The present invention relates to a template matching apparatus that performs template matching on an input image.

テンプレートマッチングは、入力画像の中から既知のテンプレート画像に合致する部分画像(ターゲット)を探索して、ターゲットの位置(合致位置)を特定する処理である。この処理では、矩形状のテンプレート画像を用いるのが一般的であり、入力画像の中から矩形状の部分画像をマッチング演算用に抽出すると共に、この部分画像の抽出位置を少しずつ移動させながら、部分画像とテンプレート画像とのマッチング演算を繰り返し行っている。そして、入力画像の中の各位置でのマッチング演算の結果を大小比較することで、合致位置が特定される。   Template matching is a process of searching for a partial image (target) that matches a known template image from an input image and specifying the position of the target (matching position). In this process, a rectangular template image is generally used, and a rectangular partial image is extracted from the input image for matching calculation, and the extraction position of the partial image is moved little by little. The matching operation between the partial image and the template image is repeated. Then, the matching position is specified by comparing the size of the matching calculation result at each position in the input image.

また、マッチング演算には、周知の相互相関法や残差逐次検定法などが用いられる(例えば特許献1を参照)。これらの方法は、演算用の部分画像とテンプレート画像との対応画素どうしで濃度の演算を行い、その結果を画像全体で集計するものである。
特開平5−81433号公報
For the matching operation, a well-known cross-correlation method or a residual sequential test method is used (see, for example, Patent Document 1). In these methods, the density is calculated between corresponding pixels of the partial image for calculation and the template image, and the results are totaled over the entire image.
JP-A-5-81433

しかしながら、矩形状のテンプレート画像を用い、矩形状の部分画像との対応画素どうしで濃度の演算を行う場合、入力画像に回転変化があると(図12参照)、その入力画像から抽出される部分画像にも回転変化が現れるため、合致位置の特定を正確に行えるとは限らず、疑似マッチングやマッチング不可能になることがあった。
本発明の目的は、入力画像に回転変化があっても正確に合致位置を特定できるテンプレートマッチング装置を提供することにある。
However, when a density is calculated between pixels corresponding to a rectangular partial image using a rectangular template image, if there is a rotational change in the input image (see FIG. 12), the portion extracted from the input image Since a rotational change also appears in the image, it is not always possible to specify the matching position accurately, and pseudo matching or matching may not be possible.
An object of the present invention is to provide a template matching apparatus that can accurately specify a matching position even if there is a rotational change in an input image.

請求項1に記載のテンプレートマッチング装置は、円形状の既知のテンプレート画像の濃度のヒストグラムを作成する第1の作成手段と、入力画像の中の異なる複数の位置から円形状の演算用の部分画像を抽出する抽出手段と、前記抽出手段により抽出された前記部分画像の濃度のヒストグラムを作成する第2の作成手段と、前記テンプレート画像の前記ヒストグラムと前記部分画像の前記ヒストグラムとに基づいて、前記テンプレート画像と前記部分画像との類似度を求める演算手段と、前記入力画像の各位置で求められた前記類似度を大小比較することにより、前記入力画像の中の前記テンプレート画像との合致位置を特定する特定手段とを備えたものである。   The template matching apparatus according to claim 1, a first creation unit that creates a density histogram of a known circular template image, and a partial image for calculating a circle from a plurality of different positions in the input image Based on the extraction means for extracting the image, the second creation means for creating a histogram of the density of the partial image extracted by the extraction means, the histogram of the template image and the histogram of the partial image, By calculating the similarity between the template image and the partial image and the similarity obtained at each position of the input image, the matching position with the template image in the input image is determined. And specifying means for specifying.

請求項2に記載のテンプレートマッチング装置は、円形状の既知のテンプレート画像の濃度の慣性モーメントを算出する第1の算出手段と、入力画像の中の異なる複数の位置から円形状の演算用の部分画像を抽出する抽出手段と、前記抽出手段により抽出された前記部分画像の濃度の慣性モーメントを算出する第2の算出手段と、前記テンプレート画像の前記慣性モーメントと前記部分画像の前記慣性モーメントとに基づいて、前記テンプレート画像と前記部分画像との類似度を求める演算手段と、前記入力画像の各位置で求められた前記類似度を大小比較することにより、前記入力画像の中の前記テンプレート画像との合致位置を特定する特定手段とを備えたものである。   The template matching apparatus according to claim 2, a first calculation unit that calculates a moment of inertia of the density of a known circular template image, and a circular calculation part from a plurality of different positions in the input image An extracting means for extracting an image; a second calculating means for calculating a moment of inertia of the density of the partial image extracted by the extracting means; and the inertia moment of the template image and the inertia moment of the partial image. Based on the calculation means for obtaining the similarity between the template image and the partial image, and by comparing the similarity obtained at each position of the input image with the template image in the input image And a specifying means for specifying the matching position.

請求項3に記載のテンプレートマッチング装置は、円形状の既知のテンプレート画像の予め定めた第1範囲と第2範囲との各々における平均濃度の差を算出する第1の算出手段と、入力画像の中の異なる複数の位置から円形状の演算用の部分画像を抽出する抽出手段と、前記抽出手段により抽出された前記部分画像の前記第1範囲と前記第2範囲との各々における平均濃度の差を算出する第2の算出手段と、前記テンプレート画像の前記平均濃度の差と前記部分画像の前記平均濃度の差とに基づいて、前記テンプレート画像と前記部分画像との類似度を求める演算手段と、前記入力画像の各位置で求められた前記類似度を大小比較することにより、前記入力画像の中の前記テンプレート画像との合致位置を特定する特定手段とを備えたものである。   The template matching apparatus according to claim 3, a first calculation unit that calculates a difference in average density in each of a predetermined first range and a second range of a circular known template image; Extraction means for extracting circular partial images for calculation from a plurality of different positions, and difference in average density in each of the first range and the second range of the partial images extracted by the extraction means Second calculating means for calculating the difference between the template image and the partial image based on the average density difference of the template image and the average density difference of the partial image; And a specifying means for specifying a matching position with the template image in the input image by comparing the similarity obtained at each position of the input image. That.

請求項4に記載の発明は、請求項1に記載のテンプレートマッチング装置において、前記テンプレート画像と前記入力画像と前記部分画像とは、複数の色成分を含み、前記第1の作成手段は、前記テンプレート画像の前記ヒストグラムを各色成分ごとに作成し、前記第2の作成手段は、前記部分画像の前記ヒストグラムを各色成分ごとに作成し、前記演算手段は、前記テンプレート画像の各色成分の前記ヒストグラムと前記部分画像の各色成分の前記ヒストグラムとに基づいて、同じ色成分どうしを比較することにより、前記類似度を求めるものである。   According to a fourth aspect of the present invention, in the template matching apparatus according to the first aspect, the template image, the input image, and the partial image include a plurality of color components, and the first creating means The histogram of the template image is created for each color component, the second creating means creates the histogram of the partial image for each color component, and the computing means includes the histogram of each color component of the template image. Based on the histogram of each color component of the partial image, the similarity is obtained by comparing the same color components.

請求項5に記載の発明は、請求項2に記載のテンプレートマッチング装置において、前記テンプレート画像と前記入力画像と前記部分画像とは、複数の色成分を含み、前記第1の算出手段は、前記テンプレート画像の前記慣性モーメントを各色成分ごとに算出し、前記第2の算出手段は、前記部分画像の前記慣性モーメントを各色成分ごとに算出し、前記演算手段は、前記テンプレート画像の各色成分の前記慣性モーメントと前記部分画像の各色成分の前記慣性モーメントとに基づいて、同じ色成分どうしを比較することにより、前記類似度を求めるものである。   According to a fifth aspect of the present invention, in the template matching apparatus according to the second aspect, the template image, the input image, and the partial image include a plurality of color components, and the first calculation unit includes the first calculation unit, The moment of inertia of the template image is calculated for each color component, the second calculation means calculates the moment of inertia of the partial image for each color component, and the calculation means calculates the color component of each color component of the template image. The similarity is obtained by comparing the same color components based on the moment of inertia and the moment of inertia of each color component of the partial image.

請求項6に記載の発明は、請求項3に記載のテンプレートマッチング装置において、前記テンプレート画像と前記入力画像と前記部分画像とは、複数の色成分を含み、前記第1の算出手段は、前記テンプレート画像の前記平均濃度の差を各色成分ごとに算出し、前記第2の算出手段は、前記部分画像の前記平均濃度の差を各色成分ごとに算出し、前記演算手段は、前記テンプレート画像の各色成分の前記平均濃度の差と前記部分画像の各色成分の前記平均濃度の差とに基づいて、同じ色成分どうしを比較することにより、前記類似度を求めるものである。   According to a sixth aspect of the present invention, in the template matching apparatus according to the third aspect, the template image, the input image, and the partial image include a plurality of color components, and the first calculation unit includes the first calculation unit, The average density difference of the template image is calculated for each color component, the second calculation unit calculates the average density difference of the partial image for each color component, and the calculation unit calculates the template image The similarity is obtained by comparing the same color components based on the difference in average density of each color component and the difference in average density of each color component of the partial image.

本発明のテンプレートマッチング装置によれば、入力画像に回転変化があっても正確に合致位置を特定することができる。   According to the template matching apparatus of the present invention, it is possible to accurately specify the matching position even if the input image has a rotational change.

以下、図面を用いて本発明の実施形態を詳細に説明する。
(第1実施形態)
ここでは、第1実施形態のテンプレートマッチング装置について、図1に示す観察装置10を例に説明する。観察装置10には、ステージ11と光学系12とカメラ13と画像処理部14とが設けられる。ステージ11は、試料10Aを支持する。光学系12は、試料10Aの局所領域の光像を形成する。カメラ13は、不図示の撮像素子により試料10Aの光像を撮像し、撮像信号を画像処理部14に出力する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(First embodiment)
Here, the template matching apparatus according to the first embodiment will be described using the observation apparatus 10 shown in FIG. 1 as an example. The observation apparatus 10 includes a stage 11, an optical system 12, a camera 13, and an image processing unit 14. The stage 11 supports the sample 10A. The optical system 12 forms an optical image of a local region of the sample 10A. The camera 13 captures an optical image of the sample 10 </ b> A with an image sensor (not shown), and outputs an imaging signal to the image processing unit 14.

画像処理部14は、カメラ13から撮像信号を取り込むと、これを所定ビット(例えば8ビット)のディジタル画像に変換し、入力画像21(図2)として不図示のメモリに記憶させる。そして、入力画像21に対して後述のテンプレートマッチングを行う。画像処理部14が第1実施形態のテンプレートマッチング装置に対応する。観察装置10を用いて、試料10Aの観察や検査や位置合わせなどが行われる。試料10Aは、例えば、半導体ウエハや液晶基板、プリント基板、生物標本(例えば細胞)などである。   When the image processing unit 14 captures an imaging signal from the camera 13, the image processing unit 14 converts the imaged signal into a digital image of a predetermined bit (for example, 8 bits), and stores it in a memory (not shown) as an input image 21 (FIG. 2). Then, template matching described later is performed on the input image 21. The image processing unit 14 corresponds to the template matching device of the first embodiment. Using the observation apparatus 10, observation, inspection, alignment, and the like of the sample 10A are performed. The sample 10A is, for example, a semiconductor wafer, a liquid crystal substrate, a printed board, a biological specimen (for example, a cell), or the like.

次に、画像処理部14におけるテンプレートマッチングについて説明する。このテンプレートマッチングは、図2に示す円形状の既知のテンプレート画像22を用い、図3に示すフローチャートの手順(ステップS1〜S11)にしたがって行われる。図3の処理では、入力画像21とテンプレート画像22が、各々、3つの色成分(つまり加色の三原色または光の三原色と呼ばれるRGB成分)を含むとする。RGB成分を含む画像(21,22)はカラー画像である。   Next, template matching in the image processing unit 14 will be described. This template matching is performed according to the procedure of the flowchart shown in FIG. 3 (steps S1 to S11) using the circular known template image 22 shown in FIG. In the process of FIG. 3, it is assumed that the input image 21 and the template image 22 each include three color components (that is, RGB components called additive primary colors or light primary colors). The images (21, 22) including the RGB components are color images.

図3のステップS1において、画像処理部14は、テンプレート画像22の全体からRGB成分の濃度ヒストグラムH22を各色成分ごとに作成する(図4(a)参照)。濃度ヒストグラムH22の作成は、テンプレート画像22の全画素の濃度値を調べ、各濃度値ごとに画素数を計数することにより行われる。テンプレート画像22が8ビットの場合、画素の濃度値は256段階(0〜255)となる。濃度ヒストグラムH22は、テンプレート画像22の中に各濃度値の画素が現れる頻度(画素数)を表した濃度のヒストグラム(度数分布)であり、画素の位置に依存しない特徴量である。濃度ヒストグラムH22の横軸は濃度値、縦軸は画素数である。 In step S1 of FIG. 3, the image processing unit 14, a density histogram H 22 of the RGB components is created for each color component from the entire template image 22 (see Figure 4 (a)). The density histogram H 22 is created by examining the density values of all the pixels of the template image 22 and counting the number of pixels for each density value. When the template image 22 is 8 bits, the density value of the pixel is 256 steps (0 to 255). The density histogram H 22 is a density histogram (frequency distribution) representing the frequency (number of pixels) in which the pixels of each density value appear in the template image 22 and is a feature quantity independent of the pixel position. The horizontal axis density value of the density histogram H 22, the vertical axis is the number of pixels.

次に(ステップS2)、画像処理部14は、入力画像21の中から円形状の部分画像25(図2)をマッチング演算用に抽出する。この抽出処理は、例えば2段階で行われ、入力画像21の中から矩形状の部分画像24を抽出した後、部分画像24の四隅付近にマスクを掛け、部分画像24に内接する円形状の部分画像25をマッチング演算用として抽出するものである。円形状の部分画像25は、テンプレート画像22と同じ大きさ(画素数)である。部分画像25とテンプレート画像22は、共に、入力画像21より小さい(画素数が少ない)。また、演算用の部分画像25も、入力画像21と同じ色成分(つまりRGB成分)を含むカラー画像である。   Next (step S <b> 2), the image processing unit 14 extracts a circular partial image 25 (FIG. 2) from the input image 21 for matching calculation. This extraction process is performed, for example, in two stages. After extracting a rectangular partial image 24 from the input image 21, a mask is applied to the vicinity of the four corners of the partial image 24, and a circular portion that is inscribed in the partial image 24. The image 25 is extracted for matching calculation. The circular partial image 25 has the same size (number of pixels) as the template image 22. Both the partial image 25 and the template image 22 are smaller than the input image 21 (the number of pixels is small). In addition, the calculation partial image 25 is also a color image including the same color components (that is, RGB components) as the input image 21.

次に(ステップS3)、画像処理部14は、ステップS2で抽出した演算用の部分画像25の全体からRGB成分の濃度ヒストグラムH25を各色成分ごとに作成する(図4(b)参照)。この濃度ヒストグラムH25の作成も、上記したテンプレート画像22の濃度ヒストグラムH22と同様にして行われる。濃度ヒストグラムH25も、画素の位置に依存しない特徴量であり、横軸は濃度値、縦軸は画素数である。 Next (step S3), the image processing unit 14 creates a density histogram H 25 of RGB components for each color component from the entire partial image 25 for calculation extracted in step S2 (see FIG. 4B). The density histogram H 25 is generated in the same manner as the density histogram H 22 of the template image 22 described above. The density histogram H 25 is also a feature quantity that does not depend on the position of the pixel, the horizontal axis is the density value, and the vertical axis is the number of pixels.

ここで、演算用の部分画像25の濃度ヒストグラムH25と、入力画像21の回転変化との関係について説明する。図5から分かるように、入力画像21に回転変化があると、入力画像21から抽出される矩形状の部分画像24には同様の回転変化が現れ、その四隅付近の濃度情報が変化してしまう。しかし、矩形状の部分画像24から抽出される円形状の部分画像25には回転変化が現れず、その濃度情報が変化することはない。このため、円形状の部分画像25から作成した濃度ヒストグラムH25(図4(b))は、入力画像21の回転変化に対して不変な特徴量と考えられる。 Here, the relationship between the density histogram H 25 of the partial image 25 for calculation and the rotation change of the input image 21 will be described. As can be seen from FIG. 5, when the input image 21 has a rotational change, a similar rotational change appears in the rectangular partial image 24 extracted from the input image 21, and the density information in the vicinity of the four corners changes. . However, a rotational change does not appear in the circular partial image 25 extracted from the rectangular partial image 24, and its density information does not change. Therefore, the density histogram H 25 (FIG. 4B) created from the circular partial image 25 is considered to be a feature quantity that is invariant with respect to the rotational change of the input image 21.

画像処理部14は、図3のステップS1〜S3を経て、テンプレート画像22の濃度ヒストグラムH22(図4(a))と、部分画像25の濃度ヒストグラムH25(図4(b))とを作成し終えると、2つの濃度ヒストグラムH22,H25に基づいて、部分画像25とテンプレート画像22とのマッチング演算(S4〜S7)を行う。マッチング演算(S4〜S7)は、部分画像25とテンプレート画像22との類似度を求める演算である。 The image processing unit 14 obtains the density histogram H 22 (FIG. 4A) of the template image 22 and the density histogram H 25 (FIG. 4B) of the partial image 25 through steps S1 to S3 of FIG. When the creation is completed, matching calculation (S4 to S7) between the partial image 25 and the template image 22 is performed based on the two density histograms H 22 and H 25 . The matching calculation (S4 to S7) is a calculation for obtaining the similarity between the partial image 25 and the template image 22.

まず(ステップS4)、画像処理部14は、部分画像25のR成分の濃度ヒストグラムH25と、テンプレート画像22のR成分の濃度ヒストグラムH22とを比較し、2つのR成分の濃度ヒストグラムH25,H22の重なり部分(図6の斜線部分)の画素数を集計する。この重なり部分(図6の斜線部分)の総画素数KRは、R成分の濃度ヒストグラムH25,H22の類似性に関する指標である。重なり部分(図6の斜線部分)とは、濃度ヒストグラムH25,H22の同じ濃度値どうしで画素数を比較したときの小さい方の画素数に相当する。 First (step S4), and the image processing unit 14 includes a concentration histogram H 25 of the R component of the partial image 25 is compared with the density histogram H 22 of the R component of the template image 22, two density histogram H 25 R component , counts the number of pixels overlapping portion of the H 22 (hatched portion in FIG. 6). The total number of pixels K R of the overlapping portion (shaded portion in FIG. 6) is an index relating to the similarity between the density histograms H 25 and H 22 of the R component. The overlapping portion (shaded portion in FIG. 6) corresponds to the smaller number of pixels when the number of pixels is compared between the same density values of the density histograms H 25 and H 22 .

同様に、ステップS5では、部分画像25のG成分の濃度ヒストグラムH25と、テンプレート画像22のG成分の濃度ヒストグラムH22とを比較し、2つのG成分の濃度ヒストグラムH25,H22の重なり部分の画素数を集計する(総画素数KG)。さらに、ステップS6では、部分画像25のB成分の濃度ヒストグラムH25と、テンプレート画像22のB成分の濃度ヒストグラムH22とを比較し、2つのB成分の濃度ヒストグラムH25,H22の重なり部分の画素数を集計する(総画素数KB)。 Similarly, in step S5, a density histogram H 25 of the G component of the partial image 25 is compared with the density histogram H 22 of the G component of the template image 22, the overlapping of the two density histogram H 25 G component, H 22 The number of pixels in the portion is totaled (total number of pixels K G ). In step S6, the B component density histogram H 25 of the partial image 25 is compared with the B component density histogram H 22 of the template image 22, and the two B component density histograms H 25 and H 22 are overlapped. Are totaled (total number of pixels K B ).

上記した通り、演算用の部分画像25は円形状であり、この部分画像25から作成した濃度ヒストグラムH25(図4(b))は、RGB成分の何れも、入力画像21の回転変化に対して不変な特徴量である。したがって、上記ステップS4の集計結果(R成分の重なり部分の総画素数KR)と、ステップS5の集計結果(G成分の重なり部分の総画素数KG)と、ステップS6の集計結果(B成分の重なり部分の総画素数KB)は、各々、入力画像21の回転変化に対して不変な特徴量と考えられる。 As described above, the calculation partial image 25 has a circular shape, and the density histogram H 25 (FIG. 4B) created from this partial image 25 is free from any rotational change of the input image 21. Is an invariant feature quantity. Therefore, the summation result of step S4 (total number of pixels K R of overlapping portions of R components), the summation result of step S5 (total number of pixels K G of overlapping portions of G components), and the summation results of step S6 (B The total pixel count K B ) of the overlapping parts of the components is considered to be a feature quantity that is invariant to the rotational change of the input image 21.

次に(ステップS7)、画像処理部14は、上記ステップS4〜S6の各々の集計結果(RGB成分の重なり部分の総画素数KR,KG,KB)の和を求め、その値を「部分画像25とテンプレート画像22との類似度」とする。この類似度(=KR+KG+KB)は、部分画像25とテンプレート画像22との「類似性に関する指標」であり、入力画像21の回転変化に対して不変な特徴量と考えられる。 Next (step S7), the image processing unit 14 obtains the sum of the total results (total number of pixels K R , K G , K B of the overlapping portions of the RGB components) of the above steps S4 to S6, and calculates the value. “Similarity between partial image 25 and template image 22”. This degree of similarity (= K R + K G + K B ) is an “index for similarity” between the partial image 25 and the template image 22, and is considered to be a feature quantity that is invariable with respect to the rotational change of the input image 21.

ステップS7で求めた類似度(=KR+KG+KB)は、傾向として、その値が大きいほど、部分画像25とテンプレート画像22との類似性が高いことを表している。また、テンプレート画像22との類似性が高いとは、図2に示す部分画像25の抽出位置(X2,Y2)がテンプレート画像22に合致する部分画像(ターゲット23)の位置(以下「合致位置(X1,Y1)」という)に近いことを表す。 The degree of similarity (= K R + K G + K B ) obtained in step S7 indicates that, as the value increases, the similarity between the partial image 25 and the template image 22 increases. Further, high similarity to the template image 22 means that the extraction position (X 2 , Y 2 ) of the partial image 25 shown in FIG. 2 matches the position of the partial image (target 23) (hereinafter referred to as “match”). It represents that the position is close to (position (X 1 , Y 1 ) ”).

上記のマッチング演算(S4〜S7)が終了すると、画像処理部14は、次のステップS8において、マッチング演算の結果である類似度(=KR+KG+KB)を、部分画像25の抽出位置(X2,Y2)と対応づけてメモリに保存する。これらのステップS2〜S8の処理を経て、入力画像21の中の1つの抽出位置(X2,Y2)に対する処理が終わる。そして、演算用の部分画像25の抽出位置(X2,Y2)を次の位置へ移動させる場合には(ステップS9がYes)、ステップS10の処理に進む。 When the matching calculation (S4 to S7) is completed, the image processing unit 14 uses the similarity (= K R + K G + K B ) as a result of the matching calculation to extract the position of the partial image 25 in the next step S8. Corresponding to (X 2 , Y 2 ) and storing in memory. After the processing of these steps S2 to S8, processing is completed for one extraction position in the input image 21 (X 2, Y 2) . When the extraction position (X 2 , Y 2 ) of the partial image 25 for calculation is moved to the next position (Yes in step S9), the process proceeds to step S10.

ステップS10の処理は、演算用の部分画像25の抽出位置(X2,Y2)の移動処理である。画像処理部14は、部分画像25の抽出位置(X2,Y2)を現在の位置から次の位置へ移動させる。その後、ステップS2の処理に戻り、新たな抽出位置(X2,Y2)において、演算用の部分画像25の抽出(S2)→RGB成分の濃度ヒストグラムの作成(S3)→マッチング演算(S4〜S7)→結果保存(S8)を繰り返す。 The process of step S10 is a process of moving the extraction position (X 2 , Y 2 ) of the partial image 25 for calculation. The image processing unit 14 moves the extraction position (X 2 , Y 2 ) of the partial image 25 from the current position to the next position. Thereafter, the processing returns to step S2, and at the new extraction position (X 2 , Y 2 ), extraction of the partial image 25 for calculation (S2) → creation of density histogram of RGB components (S3) → matching calculation (S4˜) S7) → Save result (S8) is repeated.

このようにして、ステップS2→…→S10→S2…の処理を繰り返すことにより、演算用の部分画像25の抽出位置(X2,Y2)を少しずつ移動させながら、各々の位置で部分画像25を順に抽出し、部分画像25を抽出する毎に、RGB成分の濃度ヒストグラムH25,H22に基づいてマッチング演算(S4〜S7)を繰り返し行うことになる。
そして、演算用の部分画像25の抽出位置(X2,Y2)が終点に到達し、そこでのステップS2〜S8の処理が終了すると、画像処理部14は、次の位置への移動を行わずに(S9がNo)、ステップS11の処理に進む。ステップS11では、入力画像21の中の異なる複数の位置で求められた類似度(=KR+KG+KB)を大小比較することにより、その値が最も大きく、テンプレート画像22との類似性が最も高い部分画像25の抽出位置(X2,Y2)を合致位置(X1,Y1)と特定する。以上で入力画像21に対するテンプレートマッチングの処理は終了となる。
In this way, by repeating the process of steps S2 →... → S10 → S2..., The partial image at each position is moved while the extraction position (X 2 , Y 2 ) of the partial image 25 for calculation is moved little by little. Each time 25 is extracted in order and the partial image 25 is extracted, the matching calculation (S4 to S7) is repeated based on the density histograms H 25 and H 22 of the RGB components.
Then, when the extraction position (X 2 , Y 2 ) of the partial image 25 for calculation reaches the end point and the processing in steps S2 to S8 is completed, the image processing unit 14 moves to the next position. Without (S9 is No), it progresses to the process of step S11. In step S11, the similarity (= K R + K G + K B ) obtained at a plurality of different positions in the input image 21 is compared in magnitude, and the value is the largest, and the similarity with the template image 22 is the same. The extraction position (X 2 , Y 2 ) of the highest partial image 25 is specified as the matching position (X 1 , Y 1 ). The template matching process for the input image 21 is thus completed.

上記のように、第1実施形態のテンプレートマッチングでは、マッチング演算(S4〜S7)の結果である類似度(=KR+KG+KB)が、図5に示すような入力画像21の回転変化に対して不変な特徴量として求められ、この類似度(=KR+KG+KB)を大小比較する。このため、入力画像21に回転変化があっても正確に合致位置(X1,Y1)を特定することができる。 As described above, in the template matching according to the first embodiment, the similarity (= K R + K G + K B ), which is the result of the matching calculation (S4 to S7), is the rotational change of the input image 21 as shown in FIG. The similarity (= K R + K G + K B ) is compared in magnitude. For this reason, even if there is a rotational change in the input image 21, the matching position (X 1 , Y 1 ) can be accurately specified.

また、演算用の部分画像25の濃度範囲とテンプレート画像22の濃度範囲とを一致させることにより(正規化処理)、入力画像21のコントラストの変化やノイズにも対応でき、正確に合致位置(X1,Y1)を特定することができる。
さらに、第1実施形態のテンプレートマッチングでは、各々の画像(21,25,22)に含まれる全ての色成分(つまりRGB成分)の濃度ヒストグラムH25,H22に基づいて、同じ色成分どうしを比較することにより、マッチング演算(S4〜S7)を行う。このため、多くの情報量を確保でき、より正確に合致位置(X1,Y1)を特定できる。
Further, by matching the density range of the partial image 25 for calculation with the density range of the template image 22 (normalization processing), it is possible to cope with the contrast change and noise of the input image 21 and accurately match the matching position (X 1 , Y 1 ) can be specified.
Furthermore, in the template matching of the first embodiment, the same color components are calculated based on the density histograms H 25 and H 22 of all color components (that is, RGB components) included in each image (21, 25 , 22 ). By performing the comparison, a matching calculation (S4 to S7) is performed. For this reason, a large amount of information can be secured, and the matching position (X 1 , Y 1 ) can be specified more accurately.

なお、上記した第1実施形態では、図3のステップS7において、ステップS4〜S6の集計結果の和(=KR+KG+KB)を求め、その値を「部分画像25とテンプレート画像22との類似度」としたが、本発明はこれに限定されない。ステップS4〜S6の集計結果の平均値(=[KR+KG+KB]/3)を求め、その値を「部分画像25とテンプレート画像22との類似度」としてもよい。平均値(=[KR+KG+KB]/3)の場合でも、その値が大きいほど、部分画像25とテンプレート画像22との類似性が高く、部分画像25の抽出位置(X2,Y2)が合致位置(X1,Y1)に近いことを表す。 In the first embodiment described above, in step S7 of FIG. 3, the sum (= K R + K G + K B ) of the summation results of steps S4 to S6 is obtained, and the value is expressed as “partial image 25 and template image 22”. However, the present invention is not limited to this. An average value (= [K R + K G + K B ] / 3) of the aggregation results in steps S4 to S6 may be obtained, and the value may be set as “similarity between the partial image 25 and the template image 22”. Even in the case of the average value (= [K R + K G + K B ] / 3), the larger the value, the higher the similarity between the partial image 25 and the template image 22, and the extraction position (X 2 , Y of the partial image 25). 2 ) represents that it is close to the matching position (X 1 , Y 1 ).

また、上記した第1実施形態では、図3のステップS4〜S6において、図6に示すような濃度ヒストグラムH25,H22の重なり部分(斜線部分)の画素数を集計したが、本発明はこれに限定されない。その他、濃度ヒストグラムH25,H22の差分の絶対値(図7の斜線部分)の画素数を集計してもよい。この場合、ステップS4〜S6のRGB成分の集計結果(濃度ヒストグラムH25,H22の差分の絶対値の総画素数KR’,KG’,KB’)の和または平均値は、部分画像25とテンプレート画像22との類似度に相当し、その値が小さいほど、部分画像25とテンプレート画像22との類似性が高く、抽出位置(X2,Y2)が合致位置(X1,Y1)に近いことを表す。
(第2実施形態)
ここでは、演算用の部分画像25とテンプレート画像22とのマッチング演算を、後述の濃度慣性モーメントに基づいて行う場合を説明する。第2実施形態のテンプレートマッチングは、図3のステップS1,S3において“濃度ヒストグラム”の代わりに“濃度慣性モーメント”を算出し、図3のステップS4〜S7に代えて図8のステップS21〜S24の処理を実行するものである。第2実施形態でも、RGB成分を含む画像(21,25,22)を例に説明する。
In the first embodiment described above, in steps S4 to S6 in FIG. 3, the number of pixels in the overlapping portion (hatched portion) of the density histograms H 25 and H 22 as shown in FIG. 6 is tabulated. It is not limited to this. In addition, the absolute value of the difference between the density histograms H 25 and H 22 (shaded area in FIG. 7) may be totaled. In this case, the sum or average value of the RGB component summation results (total pixel counts K R ', K G ', K B 'of the differences between the density histograms H 25 , H 22) in steps S4 to S6 is a partial This corresponds to the degree of similarity between the image 25 and the template image 22, and the smaller the value, the higher the similarity between the partial image 25 and the template image 22, and the extraction position (X 2 , Y 2 ) matches the matching position (X 1 , Y 1 ).
(Second Embodiment)
Here, a case will be described in which the matching calculation between the calculation partial image 25 and the template image 22 is performed based on a density inertia moment described later. In the template matching of the second embodiment, “density inertia moment” is calculated instead of “density histogram” in steps S1 and S3 of FIG. 3, and steps S21 to S24 of FIG. 8 are substituted for steps S4 to S7 of FIG. The process is executed. Also in the second embodiment, an image (21, 25, 22) including RGB components will be described as an example.

まず(図3のS1のタイミングで)、画像処理部14は、テンプレート画像22の全体からRGB成分の濃度慣性モーメントM22を各色成分ごとに算出する。例えば、R成分の濃度慣性モーメントM22は、テンプレート画像22のR成分(図9)の位置(x,y)における濃度値Aiを用い、次の式(1)により算出される。濃度値Aiの“i”は、テンプレート画像22の中での画素番号である。 First (at the timing of S1 in FIG. 3), the image processing unit 14 calculates the concentration of inertia moment M 22 of the RGB components for each color component from the entire template image 22. For example, the density inertia moment M 22 of the R component is calculated by the following equation (1) using the density value A i at the position (x, y) of the R component (FIG. 9) of the template image 22. “I” of the density value A i is a pixel number in the template image 22.

22 = Σ(xi 2+yi 2)Ai …(1)
式(1)の濃度慣性モーメントM22は、原点(画像中心)まわりの濃度の慣性モーメントであり、X軸まわりの濃度の慣性モーメント(MX=Σxi 2i)と、Y軸まわりの濃度の慣性モーメント(MY=Σyi 2i)との和に相当する。R成分の他、G成分,B成分の濃度慣性モーメントM22は、各々、テンプレート画像22のG成分,B成分の全体から、上記の式(1)と同様の式により算出される。RGB成分の濃度慣性モーメントM22は、画素の位置に依存しない特徴量である。
M 22 = Σ (x i 2 + y i 2 ) A i (1)
The density inertia moment M 22 in the equation (1) is the inertia moment of density around the origin (image center), and the inertia moment of density around the X axis (M X = Σx i 2 A i ) This corresponds to the sum of the concentration moment of inertia (M Y = Σy i 2 A i ). In addition to the R component, the density inertia moments M 22 of the G component and the B component are calculated from the entire G component and B component of the template image 22 by the same formula as the above formula (1), respectively. Concentration inertia moment M 22 of the RGB components is a characteristic quantity that is independent of the position of the pixel.

また、画像処理部14は、入力画像21の中から円形状の部分画像25をマッチング演算用に抽出すると、図3のS3のタイミングで、部分画像25の全体からRGB成分の濃度慣性モーメントM25を各色成分ごとに算出する。例えば、R成分の濃度慣性モーメントM25の算出は、部分画像25のR成分の全体から上記した式(1)と同様の式により行われる。G成分,B成分も同様である。RGB成分の濃度慣性モーメントM25は、画素の位置に依存しない特徴量である。 In addition, when the image processing unit 14 extracts the circular partial image 25 from the input image 21 for matching calculation, the density inertia moment M 25 of the RGB component from the entire partial image 25 at the timing of S3 in FIG. Is calculated for each color component. For example, the calculation of the concentration inertia moment M 25 of the R component is performed from the entire R component of the partial image 25 by the same equation as the above equation (1). The same applies to the G component and the B component. The density inertia moment M 25 of the RGB component is a feature amount that does not depend on the position of the pixel.

ここで、演算用の部分画像25の濃度慣性モーメントM25と、入力画像21の回転変化との関係について説明する。既に説明した通り、入力画像21に回転変化(図5参照)があると、矩形状の部分画像24の濃度情報は四隅付近で変化するが、円形状の部分画像25の濃度情報は変化しない。このため、円形状の部分画像25から算出した濃度慣性モーメントM25は、入力画像21の回転変化に対して不変な特徴量と考えられる。 Here, the concentration of inertia moment M 25 of the partial image 25 for computation, the relationship between the rotation change of the input image 21 will be described. As described above, when the input image 21 has a rotational change (see FIG. 5), the density information of the rectangular partial image 24 changes near the four corners, but the density information of the circular partial image 25 does not change. For this reason, the density inertia moment M 25 calculated from the circular partial image 25 is considered to be a feature quantity that is invariant to the rotational change of the input image 21.

画像処理部14は、上記のようにして、テンプレート画像22の濃度慣性モーメントM22と、部分画像25の濃度慣性モーメントM25とを算出し終えると、2つの濃度慣性モーメントM22,M25に基づいて、部分画像25とテンプレート画像22とのマッチング演算(図8)を行う。マッチング演算(図8)は、部分画像25とテンプレート画像22との類似度を求める演算である。 The image processing unit 14, as described above, the concentration of inertia moment M 22 of the template image 22, after finishing calculating the concentration inertia M 25 of the partial image 25, the two concentrations inertia M 22, M 25 Based on this, a matching operation (FIG. 8) between the partial image 25 and the template image 22 is performed. The matching operation (FIG. 8) is an operation for obtaining the similarity between the partial image 25 and the template image 22.

まず(図8のステップS21)、画像処理部14は、部分画像25のR成分の濃度慣性モーメントM25と、テンプレート画像22のR成分の濃度慣性モーメントM22とを比較し、2つのR成分の濃度慣性モーメントM25,M22の差分の絶対値を出力する。この場合の出力値ORは、R成分の濃度慣性モーメントM25,M22の類似性に関する指標である。
同様に、ステップS22では、部分画像25のG成分の濃度慣性モーメントM25と、テンプレート画像22のG成分の濃度慣性モーメントM22とを比較し、2つのG成分の濃度慣性モーメントM25,M22の差分の絶対値を出力する(出力値OG)。さらに、ステップS23では、部分画像25のB成分の濃度慣性モーメントM25と、テンプレート画像22のB成分の濃度慣性モーメントM22とを比較し、2つのB成分の濃度慣性モーメントM25,M22の差分の絶対値を出力する(出力値OB)。
First (step S21 in FIG. 8), the image processing unit 14 compares the concentration of inertia moment M 25 of the R component of the partial image 25, and a concentration of inertia moment M 22 of the R component of the template image 22, the two R components The absolute value of the difference between the concentration inertia moments M 25 and M 22 is output. The output value O R in this case is an index relating to the similarity between the concentration inertia moments M 25 and M 22 of the R component.
Similarly, in step S22, the concentration of inertia moment M 25 of the G component of the partial image 25 is compared with the concentration of inertia moment M 22 of the G component of the template image 22, density moment of inertia of the two G components M 25, M The absolute value of the difference of 22 is output (output value O G ). Further, in step S23, the B component concentration inertia moment M 25 of the partial image 25 is compared with the B component concentration inertia moment M 22 of the template image 22, and the two B component concentration inertia moments M 25 and M 22 are compared. The absolute value of the difference is output (output value O B ).

上記した通り、演算用の部分画像25は円形状であり、この部分画像25から算出した濃度慣性モーメントM25は、RGB成分の何れも、入力画像21の回転変化に対して不変な特徴量である。したがって、上記したステップS21のR成分の出力値ORと、ステップS22のG成分の出力値OGと、ステップS23のB成分の出力値OBは、各々、入力画像21の回転変化に対して不変な特徴量と考えられる。 As described above, the calculation partial image 25 has a circular shape, and the density moment of inertia M 25 calculated from the partial image 25 is a feature amount that is invariant to the rotational change of the input image 21. is there. Accordingly, the output value O R of the R component in step S21 described above, the output value O G of the G component in step S22, the output value O B of the B component in step S23, respectively, with respect to the rotation change of the input image 21 Is considered to be an invariant feature.

次に(ステップS24)、画像処理部14は、上記したステップS21〜S23の各々の出力値OR,OG,OBの和を求め、その値を「部分画像25とテンプレート画像22との類似度」とする。この類似度(=OR+OG+OB)は、部分画像25とテンプレート画像22との「類似性に関する指標」であり、入力画像21の回転変化に対して不変な特徴量と考えられる。また、類似度(=OR+OG+OB)の傾向は、その値が小さいほど、部分画像25とテンプレート画像22との類似性が高く、部分画像25の抽出位置(X2,Y2)が合致位置(X1,Y1)に近いことを表す。 Then (step S24), and the image processing unit 14 obtains the sum of the above-described respective output values O R of Step S21 to S23, O G, O B, the value of the "partial image 25 and the template image 22 "Similarity". This degree of similarity (= O R + O G + O B ) is an “index for similarity” between the partial image 25 and the template image 22, and is considered to be a feature quantity that is invariant with respect to the rotational change of the input image 21. The tendency of the similarity (= O R + O G + O B ) is higher as the value is smaller, and the similarity between the partial image 25 and the template image 22 is higher, and the extraction position (X 2 , Y 2 ) of the partial image 25 Is close to the matching position (X 1 , Y 1 ).

第2実施形態のテンプレートマッチングでは、演算用の部分画像25の抽出位置(X2,Y2)を少しずつ移動させながら、各々の位置で部分画像25を順に抽出し、部分画像25を抽出する毎に、RGB成分の濃度慣性モーメントM25,M22に基づいてマッチング演算(S21〜S24)を繰り返し行う。そして、入力画像21の中の異なる複数の位置で求められた類似度(=OR+OG+OB)を大小比較することにより、その値が最も小さく、テンプレート画像22との類似性が最も高い部分画像25の抽出位置(X2,Y2)を合致位置(X1,Y1)と特定する。 In the template matching of the second embodiment, the partial image 25 is sequentially extracted at each position while the extraction position (X 2 , Y 2 ) of the partial image 25 for calculation is moved little by little, and the partial image 25 is extracted. Each time, the matching calculation (S21 to S24) is repeatedly performed based on the density inertia moments M 25 and M 22 of the RGB components. Then, the similarities (= O R + O G + O B ) obtained at a plurality of different positions in the input image 21 are compared in magnitude, so that the value is the smallest and the similarity to the template image 22 is the highest. The extraction position (X 2 , Y 2 ) of the partial image 25 is specified as the matching position (X 1 , Y 1 ).

上記のように、第2実施形態のテンプレートマッチングでは、マッチング演算(S21〜S24)の結果である類似度(=OR+OG+OB)が、図5に示すような入力画像21の回転変化に対して不変な特徴量として求められ、この類似度(=OR+OG+OB)を大小比較する。このため、入力画像21に回転変化があっても正確に合致位置(X1,Y1)を特定することができる。 As described above, in the template matching of the second embodiment, the similarity (= O R + O G + O B ), which is the result of the matching calculation (S21 to S24), is the rotational change of the input image 21 as shown in FIG. The similarity (= O R + O G + O B ) is compared in magnitude. For this reason, even if there is a rotational change in the input image 21, the matching position (X 1 , Y 1 ) can be accurately specified.

さらに、第2実施形態のテンプレートマッチングでは、各々の画像(21,25,22)に含まれる全ての色成分(つまりRGB成分)の濃度慣性モーメントM25,M22に基づいて、同じ色成分どうしを比較することにより、マッチング演算(S21〜S24)を行う。このため、多くの情報量を確保でき、より正確に合致位置(X1,Y1)を特定できる。
(第3実施形態)
ここでは、演算用の部分画像25とテンプレート画像22とのマッチング演算を、後述の領域濃度差に基づいて行う場合を説明する。第3実施形態のテンプレートマッチングは、図3のステップS1,S3において“濃度ヒストグラム”の代わりに“領域濃度差”を算出し、図8のステップS21〜S24において“濃度慣性モーメント”の代わりに“領域濃度差”を用いるものである。第3実施形態でも、RGB成分を含む画像(21,25,22)を例に説明する。
Furthermore, in the template matching of the second embodiment, the same color components are based on the density inertia moments M 25 and M 22 of all color components (that is, RGB components) included in each image (21, 25 , 22 ). Are compared to perform a matching operation (S21 to S24). For this reason, a large amount of information can be secured, and the matching position (X 1 , Y 1 ) can be specified more accurately.
(Third embodiment)
Here, a case will be described in which the matching calculation between the calculation partial image 25 and the template image 22 is performed based on a region density difference described later. In the template matching of the third embodiment, “region density difference” is calculated instead of “density histogram” in steps S1 and S3 of FIG. 3, and “density moment of inertia” is substituted for “density inertia moment” in steps S21 to S24 of FIG. The “region density difference” is used. In the third embodiment, an image (21, 25, 22) including RGB components will be described as an example.

まず(図3のS1のタイミングで)、画像処理部14は、テンプレート画像22の全体からRGB成分の領域濃度差D22を各色成分ごとに算出する。例えば、R成分の領域濃度差D22は、テンプレート画像22のR成分(図10)の予め定めた中央領域2Aと周辺領域2Bとの各々における平均濃度の差により算出される(式(2))。なお、中央領域2Aと周辺領域2Bは、請求項の「第1範囲」と「第2範囲」に対応する。 First (at the timing of S1 in FIG. 3), the image processing unit 14 calculates an area density difference D 22 of the RGB components for each color component from the entire template image 22. For example, the R component region density difference D 22 is calculated by the difference in average density between the predetermined central region 2A and the peripheral region 2B of the R component (FIG. 10) of the template image 22 (formula (2)). ). The central region 2A and the peripheral region 2B correspond to “first range” and “second range” in the claims.

22 = (中央領域2Aの平均濃度)−(周辺領域2Bの平均濃度) …(2)
式(2)の領域濃度差D22は、周辺領域2Bに対する中央領域2Aの平均的な濃度差を表している。このため、例えば図11(a)に示すように、テンプレート画像22のR成分が、暗い背景(濃度値が最小)の中央に明るい点(濃度値が最大)を含むような場合、濃度値を256段階(0〜255)とすると、中央領域2Aは大きな平均濃度(例えば205)、周辺領域2Bは小さな平均濃度(例えば21)となり、式(2)の領域濃度差D22は大きなプラスの値(例えば184)となる。逆に中央領域2Aが暗く周辺領域2Bが明るい場合、領域濃度差D22はマイナスの値になる。
D 22 = (average density of central area 2A) − (average density of peripheral area 2B) (2)
The area density difference D 22 in the expression (2) represents an average density difference of the central area 2A with respect to the peripheral area 2B. Therefore, for example, as shown in FIG. 11A, when the R component of the template image 22 includes a bright point (density value is maximum) in the center of a dark background (density value is minimum), the density value is changed. When 256 (0 to 255), large average concentration (e.g. 205) is the central area 2A, the peripheral region 2B is small average concentration (e.g. 21), and the area density difference D 22 is large positive value of the expression (2) (For example, 184). If conversely the central area 2A is dark peripheral region 2B is bright, the area density difference D 22 becomes a negative value.

また、例えば図11(b)に示すように、テンプレート画像22のR成分が、暗い背景(濃度値が最小)の中に分散して多数の明るい点(濃度値が最大)を含むような場合、中央領域2Aは中間的な平均濃度(例えば123)、周辺領域2Bも中間的な平均濃度(例えば108)となり、式(2)の領域濃度差D22は小さな値(例えば15)となる。上記したRGB成分の領域濃度差D22は、画素の位置に依存しない特徴量である。 Further, for example, as shown in FIG. 11B, the R component of the template image 22 includes many bright spots (maximum density value) dispersed in a dark background (density value is minimum). the central region 2A is an intermediate average concentration (e.g. 123), the peripheral region 2B also intermediate average density (e.g. 108), and the area density difference D 22 of the formula (2) is a small value (e.g., 15). The above-described RGB component region density difference D 22 is a feature quantity independent of the pixel position.

また、画像処理部14は、入力画像21の中から円形状の部分画像25をマッチング演算用に抽出すると、図3のS3のタイミングで、部分画像25の全体からRGB成分の領域濃度差D25を各色成分ごとに算出する。例えば、R成分の領域濃度差D25の算出は、部分画像25のR成分の全体から、テンプレート画像22と同じ中央領域2A,周辺領域2B(図10)を用い、上記した式(2)と同様の式により行われる。G成分,B成分も同様である。RGB成分の領域濃度差D25は、画素の位置に依存しない特徴量である。 When the image processing unit 14 extracts the circular partial image 25 from the input image 21 for matching calculation, the RGB component region density difference D 25 is extracted from the entire partial image 25 at the timing of S3 in FIG. Is calculated for each color component. For example, the calculation of the R component region density difference D 25 uses the same central region 2A and peripheral region 2B (FIG. 10) as the template image 22 from the entire R component of the partial image 25, and the above equation (2) and The same formula is used. The same applies to the G component and the B component. The RGB component region density difference D 25 is a feature quantity independent of the pixel position.

ここで、演算用の部分画像25の領域濃度差D25と、入力画像21の回転変化との関係について説明する。既に説明した通り、入力画像21に回転変化(図5参照)があると、矩形状の部分画像24の濃度情報は四隅付近で変化するが、円形状の部分画像25の濃度情報は変化しない。このため、円形状の部分画像25から算出した領域濃度差D25は、入力画像21の回転変化に対して不変な特徴量と考えられる。 Here, the area density difference D 25 of the partial image 25 for computation, the relationship between the rotation change of the input image 21 will be described. As described above, when the input image 21 has a rotational change (see FIG. 5), the density information of the rectangular partial image 24 changes near the four corners, but the density information of the circular partial image 25 does not change. For this reason, the area density difference D 25 calculated from the circular partial image 25 is considered to be a feature quantity that is invariant to the rotational change of the input image 21.

画像処理部14は、上記のようにして、テンプレート画像22の領域濃度差D22と、部分画像25の領域濃度差D25とを算出し終えると、2つの領域濃度差D22,D25に基づいて、部分画像25とテンプレート画像22とのマッチング演算を行う。
まず(図8のステップS21のタイミングで)、画像処理部14は、部分画像25のR成分の領域濃度差D25と、テンプレート画像22のR成分の領域濃度差D22(図11(a)の場合は184)(図11(b)の場合は15)とを比較し、2つのR成分の領域濃度差D25,D22の差分の絶対値を出力する。この出力値PRは、R成分の領域濃度差D25,D22の類似性に関する指標である。
The image processing unit 14, as described above, the area density difference D 22 of the template image 22, after finishing calculating an area density difference D 25 of the partial image 25, into two regions density difference D 22, D 25 Based on this, a matching operation between the partial image 25 and the template image 22 is performed.
First (at the timing of step S21 in FIG. 8), the image processing unit 14 determines the R component area density difference D 25 of the partial image 25 and the R component area density difference D 22 of the template image 22 (FIG. 11A). 184) (15 in the case of FIG. 11B) and the absolute value of the difference between the two R component area density differences D 25 and D 22 is output. The output value P R is a measure of the similarity in the region of the R component concentration difference D 25, D 22.

同様に(図8のステップS22のタイミングで)、部分画像25のG成分の領域濃度差D25と、テンプレート画像22のG成分の領域濃度差D22とを比較し、2つのG成分の領域濃度差D25,D22の差分の絶対値を出力する(出力値PG)。さらに(ステップS23のタイミングで)、部分画像25のB成分の領域濃度差D25と、テンプレート画像22のB成分の領域濃度差D22とを比較し、2つのB成分の領域濃度差D25,D22の差分の絶対値を出力する(出力値PB)。 Similarly (at the timing of step S22 in FIG. 8), the G component region density difference D 25 of the partial image 25 is compared with the G component region density difference D 22 of the template image 22, and two G component regions are compared. The absolute value of the difference between the density differences D 25 and D 22 is output (output value P G ). Further (at the timing of step S23), the B component area density difference D 25 of the partial image 25 is compared with the B component area density difference D 22 of the template image 22, and the two B component area density differences D 25 are compared. , D 22 is output as an absolute value (output value P B ).

上記した通り、演算用の部分画像25は円形状であり、この部分画像25から算出した領域濃度差D25は、RGB成分の何れも、入力画像21の回転変化に対して不変な特徴量である。したがって、上記したR成分の出力値PRと、G成分の出力値PGと、B成分の出力値PBは、各々、入力画像21の回転変化に対して不変な特徴量と考えられる。
次に(ステップS24のタイミングで)、画像処理部14は、上記したRGB成分の出力値PR,PG,PBの和を求め、その値を「部分画像25とテンプレート画像22との類似度」とする。この類似度(=PR+PG+PB)は、部分画像25とテンプレート画像22との「類似性に関する指標」であり、入力画像21の回転変化に対して不変な特徴量と考えられる。また、類似度(=PR+PG+PB)の傾向は、その値が大きいほど、部分画像25とテンプレート画像22との類似性が高く、部分画像25の抽出位置(X2,Y2)が合致位置(X1,Y1)に近いことを表す。
As described above, the partial image 25 for calculation has a circular shape, and the region density difference D 25 calculated from the partial image 25 is a feature amount that is invariant to the rotational change of the input image 21. is there. Accordingly, the output value PR of the R component, the output value P G of the G component, and the output value P B of the B component are each considered to be a feature amount that is invariant to the rotational change of the input image 21.
Next (at the timing of step S24), the image processing unit 14 obtains the sum of the output values P R , P G , and P B of the RGB components described above, and determines the value as “similarity between the partial image 25 and the template image 22”. "Degree". This degree of similarity (= P R + P G + P B ) is an “index for similarity” between the partial image 25 and the template image 22, and is considered to be a feature quantity that is invariant to the rotational change of the input image 21. Further, the tendency of the similarity (= P R + P G + P B ) is higher as the value is larger, and the similarity between the partial image 25 and the template image 22 is higher, and the extraction position (X 2 , Y 2 ) of the partial image 25 is higher. Is close to the matching position (X 1 , Y 1 ).

第3実施形態のテンプレートマッチングでは、演算用の部分画像25の抽出位置(X2,Y2)を少しずつ移動させながら、各々の位置で部分画像25を順に抽出し、部分画像25を抽出する毎に、RGB成分の領域濃度差D25,D22に基づいてマッチング演算を繰り返し行う。そして、入力画像21の中の異なる複数の位置で求められた類似度(=PR+PG+PB)を大小比較することにより、その値が最も大きく、テンプレート画像22との類似性が最も高い部分画像25の抽出位置(X2,Y2)を合致位置(X1,Y1)と特定する。 In the template matching of the third embodiment, the partial image 25 is extracted in order at each position while the extraction position (X 2 , Y 2 ) of the partial image 25 for calculation is moved little by little, and the partial image 25 is extracted. Each time, the matching calculation is repeated based on the RGB component area density differences D 25 and D 22 . Then, by comparing the similarities (= P R + P G + P B ) obtained at a plurality of different positions in the input image 21, the value is the largest and the similarity to the template image 22 is the highest. The extraction position (X 2 , Y 2 ) of the partial image 25 is specified as the matching position (X 1 , Y 1 ).

上記のように、第3実施形態のテンプレートマッチングでは、マッチング演算(S21〜S24参照)の結果である類似度(=PR+PG+PB)が、図5に示すような入力画像21の回転変化に対して不変な特徴量として求められ、この類似度(=PR+PG+PB)を大小比較する。このため、入力画像21に回転変化があっても正確に合致位置(X1,Y1)を特定することができる。 As described above, in the template matching according to the third embodiment, the similarity (= P R + P G + P B ) as a result of the matching calculation (see S21 to S24) is the rotation of the input image 21 as shown in FIG. It is obtained as a feature quantity that is invariant to changes, and this similarity (= P R + P G + P B ) is compared in magnitude. For this reason, even if there is a rotational change in the input image 21, the matching position (X 1 , Y 1 ) can be accurately specified.

また、演算用の部分画像25の濃度範囲とテンプレート画像22の濃度範囲とを一致させることにより(正規化処理)、入力画像21のコントラストの変化やノイズにも対応でき、正確に合致位置(X1,Y1)を特定することができる。
さらに、第3実施形態のテンプレートマッチングでは、各々の画像(21,25,22)に含まれる全ての色成分(つまりRGB成分)の領域濃度差D25,D22に基づいて、同じ色成分どうしを比較することにより、マッチング演算(S21〜S24参照)を行う。このため、多くの情報量を確保でき、より正確に合致位置(X1,Y1)を特定できる。
(変形例)
なお、上記した実施形態では、濃度ヒストグラムH25,H22に基づくマッチング演算の例と、濃度慣性モーメントM25,M22に基づくマッチング演算の例と、領域濃度差D25,D22に基づくマッチング演算の例をそれぞれ説明したが、本発明はこれに限定されない。任意の2種類を組み合わせてマッチング演算を行う場合にも、本発明を適用できる。あるいは相互相関や最小残差と濃度ヒストグラムなどを組み合わせてもよい。
Further, by matching the density range of the partial image 25 for calculation with the density range of the template image 22 (normalization processing), it is possible to cope with the contrast change and noise of the input image 21 and accurately match the matching position (X 1 , Y 1 ) can be specified.
Furthermore, in the template matching of the third embodiment, the same color components are based on the area density differences D 25 and D 22 of all the color components (that is, RGB components) included in each image (21, 25 , 22 ). Are compared to perform a matching operation (see S21 to S24). For this reason, a large amount of information can be secured, and the matching position (X 1 , Y 1 ) can be specified more accurately.
(Modification)
In the embodiment described above, an example of the matching calculation based on the density histograms H 25 and H 22 , an example of the matching calculation based on the density inertia moments M 25 and M 22, and the matching based on the area density differences D 25 and D 22 Although the example of each calculation was demonstrated, this invention is not limited to this. The present invention can also be applied to a case where a matching operation is performed by combining two arbitrary types. Alternatively, cross-correlation, minimum residual and density histogram may be combined.

また、上記した実施形態では、3つの色成分(つまりRGB成分)を含む画像(21,25,22)の例で説明したが、本発明はこれに限定されない。色成分の数が2つであっても4つ以上であっても本発明を適用できる。つまり複数の色成分を含む場合に本発明を適用できる。さらに、画像(21,25,22)が複数の色成分を含まない場合、つまり単色の濃淡画像である場合にも、本発明を適用できる。   In the above-described embodiment, the example of the image (21, 25, 22) including three color components (that is, RGB components) has been described, but the present invention is not limited to this. The present invention can be applied regardless of whether the number of color components is two or four or more. That is, the present invention can be applied to a case where a plurality of color components are included. Furthermore, the present invention can also be applied to a case where the image (21, 25, 22) does not include a plurality of color components, that is, a single-color gray image.

また、上記した実施形態では、入力画像21の中から円形状の部分画像25を抽出する処理を2段階で行う例(図2参照)を説明したが、本発明はこれに限定されない。入力画像21の中から直接(1回の処理で)円形状の部分画像25を抽出しても構わない。
さらに、上記した実施形態では、図1の観察装置10のような光学顕微鏡装置を例にテンプレートマッチングの説明を行ったが、本発明はこれに限定されない。その他、試料の局所領域を電子線で走査して画像を取り込む電子顕微鏡装置にも、本発明を適用できる。試料の局所領域の画像に限らず、試料の全面の画像を一括で取り込む装置にも、本発明を適用できる。観察装置10などに接続された外部のコンピュータを用いた場合でも、同様の効果を得ることができる。
In the above-described embodiment, an example (see FIG. 2) in which the process of extracting the circular partial image 25 from the input image 21 is described in two stages has been described, but the present invention is not limited to this. A circular partial image 25 may be directly extracted from the input image 21 (by one process).
Furthermore, in the above-described embodiment, the template matching has been described by taking an optical microscope apparatus such as the observation apparatus 10 in FIG. 1 as an example, but the present invention is not limited to this. In addition, the present invention can also be applied to an electron microscope apparatus that scans a local region of a sample with an electron beam and captures an image. The present invention can be applied not only to an image of a local region of a sample but also to an apparatus that captures an image of the entire surface of the sample at once. Even when an external computer connected to the observation apparatus 10 or the like is used, the same effect can be obtained.

観察装置10の概略図である。1 is a schematic view of an observation apparatus 10. FIG. 入力画像21,テンプレート画像22,ターゲット23,演算用の部分画像25などを説明する図である。It is a figure explaining the input image 21, the template image 22, the target 23, the partial image 25 for a calculation, etc. 第1実施形態のテンプレートマッチングの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the template matching of 1st Embodiment. テンプレート画像22のRGB成分の濃度ヒストグラムH22と部分画像25のRGB成分の濃度ヒストグラムH25とを説明する図である。It is a diagram for explaining a density histogram H 25 of the RGB components of the density histogram H 22 and the partial image 25 of the RGB components of the template image 22. 円形状の演算用の部分画像25における濃度情報と、入力画像21の回転変化との関係を説明する図である。It is a figure explaining the relationship between the density information in the partial image 25 for circular calculation, and the rotation change of the input image. RGB成分の濃度ヒストグラムH25,H22の重なり部分に基づくマッチング演算について説明する図である。Is a diagram for matching operation will be described based on the overlapping portion of the RGB components of the density histogram H 25, H 22. RGB成分の濃度ヒストグラムH25,H22の差分に基づくマッチング演算について説明する図である。It is a figure explaining the matching calculation based on the difference of density histograms H 25 and H 22 of RGB components. 第2実施形態のテンプレートマッチングにおける処理手順の一部を示すフローチャートである。It is a flowchart which shows a part of process procedure in the template matching of 2nd Embodiment. R成分の濃度慣性モーメントM22について説明する図である。Is a diagram illustrating the concentration of inertia moment M 22 of the R component. 第3実施形態において領域濃度差D25,D22を算出するための領域について説明する図である。It is a diagram illustrating a region for calculating the area density difference D 25, D 22 in the third embodiment. テンプレート画像22のR成分の一例について説明する図である。It is a figure explaining an example of R component of template image. 矩形状の演算用の部分画像における濃度情報と、入力画像の回転変化との関係を説明する図である。It is a figure explaining the relationship between the density information in the partial image for a rectangular calculation, and the rotation change of an input image.

符号の説明Explanation of symbols

10 観察装置
11 ステージ
12 光学系
13 カメラ
14 画像処理部
21 入力画像
22 テンプレート画像
23 ターゲット
25 演算用の部分画像
DESCRIPTION OF SYMBOLS 10 Observation apparatus 11 Stage 12 Optical system 13 Camera 14 Image processing part 21 Input image 22 Template image 23 Target 25 Partial image for calculation

Claims (6)

円形状の既知のテンプレート画像の濃度のヒストグラムを作成する第1の作成手段と、
入力画像の中の異なる複数の位置から円形状の演算用の部分画像を抽出する抽出手段と、
前記抽出手段により抽出された前記部分画像の濃度のヒストグラムを作成する第2の作成手段と、
前記テンプレート画像の前記ヒストグラムと前記部分画像の前記ヒストグラムとに基づいて、前記テンプレート画像と前記部分画像との類似度を求める演算手段と、
前記入力画像の各位置で求められた前記類似度を大小比較することにより、前記入力画像の中の前記テンプレート画像との合致位置を特定する特定手段とを備えた
ことを特徴とするテンプレートマッチング装置。
First creation means for creating a histogram of the density of a known circular template image;
Extraction means for extracting partial images for circular calculation from a plurality of different positions in the input image;
Second creation means for creating a density histogram of the partial image extracted by the extraction means;
An arithmetic means for obtaining a similarity between the template image and the partial image based on the histogram of the template image and the histogram of the partial image;
A template matching device comprising: specifying means for specifying a matching position with the template image in the input image by comparing the similarity obtained at each position of the input image. .
円形状の既知のテンプレート画像の濃度の慣性モーメントを算出する第1の算出手段と、
入力画像の中の異なる複数の位置から円形状の演算用の部分画像を抽出する抽出手段と、
前記抽出手段により抽出された前記部分画像の濃度の慣性モーメントを算出する第2の算出手段と、
前記テンプレート画像の前記慣性モーメントと前記部分画像の前記慣性モーメントとに基づいて、前記テンプレート画像と前記部分画像との類似度を求める演算手段と、
前記入力画像の各位置で求められた前記類似度を大小比較することにより、前記入力画像の中の前記テンプレート画像との合致位置を特定する特定手段とを備えた
ことを特徴とするテンプレートマッチング装置。
First calculating means for calculating a moment of inertia of the density of a known circular template image;
Extraction means for extracting partial images for circular calculation from a plurality of different positions in the input image;
Second calculating means for calculating the moment of inertia of the density of the partial image extracted by the extracting means;
An arithmetic means for obtaining a similarity between the template image and the partial image based on the inertia moment of the template image and the inertia moment of the partial image;
A template matching device comprising: specifying means for specifying a matching position with the template image in the input image by comparing the similarity obtained at each position of the input image. .
円形状の既知のテンプレート画像の予め定めた第1範囲と第2範囲との各々における平均濃度の差を算出する第1の算出手段と、
入力画像の中の異なる複数の位置から円形状の演算用の部分画像を抽出する抽出手段と、
前記抽出手段により抽出された前記部分画像の前記第1範囲と前記第2範囲との各々における平均濃度の差を算出する第2の算出手段と、
前記テンプレート画像の前記平均濃度の差と前記部分画像の前記平均濃度の差とに基づいて、前記テンプレート画像と前記部分画像との類似度を求める演算手段と、
前記入力画像の各位置で求められた前記類似度を大小比較することにより、前記入力画像の中の前記テンプレート画像との合致位置を特定する特定手段とを備えた
ことを特徴とするテンプレートマッチング装置。
First calculating means for calculating a difference in average density in each of a predetermined first range and a second range of a known template image having a circular shape;
Extraction means for extracting partial images for circular calculation from a plurality of different positions in the input image;
Second calculating means for calculating a difference in average density in each of the first range and the second range of the partial image extracted by the extracting means;
An arithmetic means for obtaining a similarity between the template image and the partial image based on the difference in average density of the template image and the difference in average density of the partial image;
A template matching device comprising: specifying means for specifying a matching position with the template image in the input image by comparing the similarity obtained at each position of the input image. .
請求項1に記載のテンプレートマッチング装置において、
前記テンプレート画像と前記入力画像と前記部分画像とは、複数の色成分を含み、
前記第1の作成手段は、前記テンプレート画像の前記ヒストグラムを各色成分ごとに作成し、
前記第2の作成手段は、前記部分画像の前記ヒストグラムを各色成分ごとに作成し、
前記演算手段は、前記テンプレート画像の各色成分の前記ヒストグラムと前記部分画像の各色成分の前記ヒストグラムとに基づいて、同じ色成分どうしを比較することにより、前記類似度を求める
ことを特徴とするテンプレートマッチング装置。
The template matching apparatus according to claim 1,
The template image, the input image, and the partial image include a plurality of color components,
The first creation means creates the histogram of the template image for each color component,
The second creation means creates the histogram of the partial image for each color component,
The computing means obtains the similarity by comparing the same color components based on the histogram of each color component of the template image and the histogram of each color component of the partial image. Matching device.
請求項2に記載のテンプレートマッチング装置において、
前記テンプレート画像と前記入力画像と前記部分画像とは、複数の色成分を含み、
前記第1の算出手段は、前記テンプレート画像の前記慣性モーメントを各色成分ごとに算出し、
前記第2の算出手段は、前記部分画像の前記慣性モーメントを各色成分ごとに算出し、
前記演算手段は、前記テンプレート画像の各色成分の前記慣性モーメントと前記部分画像の各色成分の前記慣性モーメントとに基づいて、同じ色成分どうしを比較することにより、前記類似度を求める
ことを特徴とするテンプレートマッチング装置。
The template matching device according to claim 2,
The template image, the input image, and the partial image include a plurality of color components,
The first calculating means calculates the moment of inertia of the template image for each color component,
The second calculating means calculates the moment of inertia of the partial image for each color component,
The calculation means obtains the similarity by comparing the same color components based on the moment of inertia of each color component of the template image and the moment of inertia of each color component of the partial image. Template matching device.
請求項3に記載のテンプレートマッチング装置において、
前記テンプレート画像と前記入力画像と前記部分画像とは、複数の色成分を含み、
前記第1の算出手段は、前記テンプレート画像の前記平均濃度の差を各色成分ごとに算出し、
前記第2の算出手段は、前記部分画像の前記平均濃度の差を各色成分ごとに算出し、
前記演算手段は、前記テンプレート画像の各色成分の前記平均濃度の差と前記部分画像の各色成分の前記平均濃度の差とに基づいて、同じ色成分どうしを比較することにより、前記類似度を求める
ことを特徴とするテンプレートマッチング装置。
The template matching apparatus according to claim 3,
The template image, the input image, and the partial image include a plurality of color components,
The first calculation means calculates a difference in the average density of the template image for each color component,
The second calculation means calculates a difference in the average density of the partial images for each color component,
The calculation means obtains the similarity by comparing the same color components based on the difference between the average densities of the color components of the template image and the difference of the average densities of the color components of the partial image. A template matching apparatus characterized by that.
JP2004169520A 2004-05-28 2004-06-08 Template matching device Pending JP2005352543A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2004169520A JP2005352543A (en) 2004-06-08 2004-06-08 Template matching device
PCT/JP2005/009749 WO2005116577A1 (en) 2004-05-28 2005-05-27 Method of adjusting imaging optical system, imaging device, positional deviation detecting device, mark identifying device and edge position detectinc device
TW094117746A TW200609483A (en) 2004-05-28 2005-05-30 Method of adjusting optical imaging system, imaging device, positional deviation detecting device, mark identifying device and edge position detecting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004169520A JP2005352543A (en) 2004-06-08 2004-06-08 Template matching device

Publications (1)

Publication Number Publication Date
JP2005352543A true JP2005352543A (en) 2005-12-22

Family

ID=35587006

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004169520A Pending JP2005352543A (en) 2004-05-28 2004-06-08 Template matching device

Country Status (1)

Country Link
JP (1) JP2005352543A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007233721A (en) * 2006-03-01 2007-09-13 Toshiba Corp Segment identification method
JP2007241418A (en) * 2006-03-06 2007-09-20 Nikon Corp Template matching device
WO2008111290A1 (en) * 2007-03-13 2008-09-18 Nikon Corporation Template matching device, camera with template matching device, and program for allowing computer to carry out template matching
JP2008225636A (en) * 2007-03-09 2008-09-25 Nikon Corp Template matching device, camera equipped with template matching device, and program for making computer perform template matching
JP2009169925A (en) * 2008-01-14 2009-07-30 Sharp Corp Image retrieval device and image retrieval method
JP2009199176A (en) * 2008-02-19 2009-09-03 Dainippon Printing Co Ltd Object detection system
JP2009199250A (en) * 2008-02-20 2009-09-03 Dainippon Printing Co Ltd Object detection system
JP2009205421A (en) * 2008-02-27 2009-09-10 Dainippon Printing Co Ltd Object detection system
JP2009205638A (en) * 2008-02-29 2009-09-10 Dainippon Printing Co Ltd Object detection system
JP2009211657A (en) * 2008-03-06 2009-09-17 Dainippon Printing Co Ltd Object detection system

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06268859A (en) * 1993-01-18 1994-09-22 Sharp Corp Picture processing unit
JPH08138028A (en) * 1994-11-11 1996-05-31 Tec Corp Article recognition device
JPH09259273A (en) * 1996-03-19 1997-10-03 Kawasaki Steel Corp Image similarity determination device
JPH11110562A (en) * 1997-08-04 1999-04-23 Ricoh Co Ltd Method, device for pattern recognition, and record medium
JPH11126259A (en) * 1997-06-02 1999-05-11 Matsushita Electric Ind Co Ltd Image detection method, image detection device, image processing method, image processing device, and medium
JP2002074326A (en) * 2000-09-04 2002-03-15 Fuji Photo Film Co Ltd System for detecting abnormal shadow candidate
JP2003233851A (en) * 2002-02-13 2003-08-22 Glory Ltd Method for judging authenticity/soundness of coin from picture and its device
JP2004094379A (en) * 2002-08-29 2004-03-25 Ntt Comware Corp Similar image search device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06268859A (en) * 1993-01-18 1994-09-22 Sharp Corp Picture processing unit
JPH08138028A (en) * 1994-11-11 1996-05-31 Tec Corp Article recognition device
JPH09259273A (en) * 1996-03-19 1997-10-03 Kawasaki Steel Corp Image similarity determination device
JPH11126259A (en) * 1997-06-02 1999-05-11 Matsushita Electric Ind Co Ltd Image detection method, image detection device, image processing method, image processing device, and medium
JPH11110562A (en) * 1997-08-04 1999-04-23 Ricoh Co Ltd Method, device for pattern recognition, and record medium
JP2002074326A (en) * 2000-09-04 2002-03-15 Fuji Photo Film Co Ltd System for detecting abnormal shadow candidate
JP2003233851A (en) * 2002-02-13 2003-08-22 Glory Ltd Method for judging authenticity/soundness of coin from picture and its device
JP2004094379A (en) * 2002-08-29 2004-03-25 Ntt Comware Corp Similar image search device

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007233721A (en) * 2006-03-01 2007-09-13 Toshiba Corp Segment identification method
JP2007241418A (en) * 2006-03-06 2007-09-20 Nikon Corp Template matching device
JP2008225636A (en) * 2007-03-09 2008-09-25 Nikon Corp Template matching device, camera equipped with template matching device, and program for making computer perform template matching
WO2008111290A1 (en) * 2007-03-13 2008-09-18 Nikon Corporation Template matching device, camera with template matching device, and program for allowing computer to carry out template matching
US8260058B2 (en) 2007-03-13 2012-09-04 Nikon Corporation Template matching device, camera with template matching device, and program for allowing computer to carry out template matching
JP2009169925A (en) * 2008-01-14 2009-07-30 Sharp Corp Image retrieval device and image retrieval method
JP2009199176A (en) * 2008-02-19 2009-09-03 Dainippon Printing Co Ltd Object detection system
JP2009199250A (en) * 2008-02-20 2009-09-03 Dainippon Printing Co Ltd Object detection system
JP2009205421A (en) * 2008-02-27 2009-09-10 Dainippon Printing Co Ltd Object detection system
JP2009205638A (en) * 2008-02-29 2009-09-10 Dainippon Printing Co Ltd Object detection system
JP2009211657A (en) * 2008-03-06 2009-09-17 Dainippon Printing Co Ltd Object detection system

Similar Documents

Publication Publication Date Title
US11244432B2 (en) Image filtering based on image gradients
Abdelhamed et al. A high-quality denoising dataset for smartphone cameras
JP4154374B2 (en) Pattern matching device and scanning electron microscope using the same
CN111507055B (en) Registering method and registering system for circuit design layout and electron microscope scanning image, circuit design layout and imaging error calculating method thereof
CN108229490A (en) Critical point detection method, neural network training method, device and electronic equipment
IL310722B1 (en) Sem image enhancement methods and systems
JP2002328015A (en) Semiconductor inspection system
CN117173225B (en) High-precision registration method for complex PCB
JP2005352543A (en) Template matching device
KR20240032832A (en) Anomaly-based defect inspection method and system
JP2005293334A (en) Template matching device
JP5099120B2 (en) Template matching device, camera equipped with template matching device, computer matching program for computer
JP4801697B2 (en) Image forming method, image forming apparatus, and computer program
CN100410626C (en) Pattern evaluation method, pattern alignment method, and computer-readable medium
US8971627B2 (en) Template matching processing device and template matching processing program
JP4709762B2 (en) Image processing apparatus and method
JP2006275952A (en) Pattern evaluation method, pattern alignment method, and program
JP5076567B2 (en) Template matching device, camera equipped with template matching device, computer matching program for computer
JP2007241418A (en) Template matching device
CN113705430B (en) Form detection method, device, equipment and storage medium based on detection model
CN118887428B (en) Image alignment method, device, storage medium and electronic equipment
US20250014169A1 (en) Method of inspecting defects
JP2014021684A (en) Template preparation device of measurement device
JP2011124955A (en) Method for processing image and image processing apparatus
CN117576609A (en) Automatic labeling method, system, equipment and medium for experimental equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100330

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100727