JPH09245166A - Pattern matching device - Google Patents
Pattern matching deviceInfo
- Publication number
- JPH09245166A JPH09245166A JP8047846A JP4784696A JPH09245166A JP H09245166 A JPH09245166 A JP H09245166A JP 8047846 A JP8047846 A JP 8047846A JP 4784696 A JP4784696 A JP 4784696A JP H09245166 A JPH09245166 A JP H09245166A
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- pixels
- feature amount
- maximum
- pattern matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
(57)【要約】
【課題】検査対象画像上の各走査位置ごとに基準パター
ンの各画素と検査対象画像の対応する画素を用いる相関
演算を行い、検査対象画像上の基準パターンと同一のパ
ターンの存在する位置を検出するパターンマッチングの
処理時間を短縮する。
【解決手段】基準パターンを持つ入力画像の基準パター
ン領域11の各画素につき、その8方向の隣接画素との
濃度の差分の最大値である方向性最大エッジ特徴量を検
出し、所定値以上の方向性最大エッジ特徴量を持つ画素
を抽出し、ノイズ成分4A,基準パターン成分1Aを持
つ画像401を得る。さらに成分1A,4A中の画素の
うち、方向性最大エッジ特徴量の方向が連続する連結画
素で、所定画素数以上の画素群に属するものを抽出して
ノイズ成分4Aを取除き、マッチング用の基準画素とす
る。
(57) Abstract: The same pattern as the reference pattern on the inspection target image is calculated by performing a correlation calculation using each pixel of the reference pattern and the corresponding pixel of the inspection target image for each scanning position on the inspection target image. The processing time of pattern matching for detecting the position where is present is shortened. SOLUTION: For each pixel of a reference pattern area 11 of an input image having a reference pattern, a directional maximum edge feature amount, which is a maximum value of a difference in density between adjacent pixels in the eight directions, is detected, and the detected maximum directional edge feature amount is equal to or more than a predetermined value. A pixel having a maximum directional edge feature amount is extracted to obtain an image 401 having a noise component 4A and a reference pattern component 1A. Further, among the pixels in the components 1A and 4A, connected pixels in which the direction of the directional maximum edge feature amount is continuous and belonging to a pixel group of a predetermined number of pixels or more are extracted to remove the noise component 4A, and a matching pixel for matching is extracted. Use as a reference pixel.
Description
【発明の属する技術分野】本発明は予め登録されている
基準となる画像(基準パターンともいう)と、検査対象
物を撮像して得られた濃淡画像との合致の有無、合致の
位置などを、いわゆるパターンマッチングの手法によっ
て判別するパターンマッチング装置であって、特にその
演算量を削減し得るようにしたパターンマッチング装置
に関する。なお以下各図等において同一の符号は同一も
しくは相当部分を示す。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention determines whether or not there is a match between a reference image (also referred to as a reference pattern) registered in advance and a grayscale image obtained by capturing an image of an inspection object, the position of the match, and the like. More specifically, the present invention relates to a pattern matching device that discriminates by a so-called pattern matching method, and particularly to a pattern matching device that can reduce the amount of calculation. In the following figures, the same reference numerals indicate the same or corresponding parts.
【従来の技術】パターンマッチングを行う装置では、検
査対象物の濃淡画像(検査対象画像という)と基準画像
との一致度を計る尺度として、相関係数(正規化相関値
などとも呼ばれる)が一般的に用いられている。図9は
相関係数の演算によって画像の一致度合を調べ、検査対
象物の位置を判定する際のパターンマッチング法の説明
図である。同図において、11は基準パターンを含む予
め用意された矩形状の画像領域としての基準パターン領
域、1はこの基準パターン領域11内の真のマッチング
対象のパターンとしての基準パターン、2は対象物の撮
像に基づいて得られた濃淡の入力画像としての検査対象
画像である。この例では基準パターン1の位置(基準パ
ターン領域11の左上隅の座標で代表される)を、検査
対象画像2上の左上隅の座標から始まる各座標点(走査
位置という)Qjに順次1点ずつ移動(走査)させなが
ら、そのつど基準パターン領域11上の全画素を対象画
素として、この各対象画素の濃度と、この各対象画素に
夫々対応する位置にある検査対象画像2上の画素の濃度
とから、検査対象画像2上の基準パターン領域11と重
なる部分の画像との相関係数を求め、この相関係数が所
定のしきい値以上で、且つ最大となる走査位置Qjとし
て、検査対象画像2上の基準パターン1と同じ画像パタ
ーンが存在する位置を検出する。ここで基準パターン領
域11の検査対象画像2上のj番目の走査位置としての
Qjの座標を(Xj,Yj)、基準パターン領域11に
おけるi番目の画素の濃度をFi、検査対象画像2の対
応する画素をGi、基準パターン領域11の構成画素数
をNとすると、走査位置Qjにおける相関係数Rj=R
(Xj,Yj)は次の式(1)で与えられる。2. Description of the Related Art In an apparatus for pattern matching, a correlation coefficient (also called a normalized correlation value) is generally used as a measure for measuring the degree of coincidence between a grayscale image of an inspection object (referred to as an inspection object image) and a reference image. It is used for. FIG. 9 is an explanatory diagram of a pattern matching method when determining the position of the inspection object by checking the degree of coincidence of images by calculating the correlation coefficient. In the figure, 11 is a reference pattern area as a rectangular image area prepared in advance including a reference pattern, 1 is a reference pattern as a true matching target pattern in the reference pattern area 11, and 2 is an object. It is an inspection target image as a grayscale input image obtained based on imaging. In this example, the position of the reference pattern 1 (represented by the coordinates of the upper left corner of the reference pattern region 11) is sequentially set at each coordinate point (referred to as a scanning position) Qj starting from the coordinates of the upper left corner on the inspection target image 2. While moving (scanning) each pixel, all the pixels on the reference pattern area 11 are set as the target pixel, and the density of each target pixel and the pixel on the inspection target image 2 at the position corresponding to each target pixel are set. From the density, the correlation coefficient with the image of the portion overlapping the reference pattern area 11 on the inspection target image 2 is obtained, and the inspection is performed as the scanning position Qj at which the correlation coefficient is equal to or larger than a predetermined threshold value and is maximum. The position where the same image pattern as the reference pattern 1 on the target image 2 exists is detected. Here, the coordinates of Qj as the j-th scanning position on the inspection target image 2 in the reference pattern area 11 are (Xj, Yj), the density of the i-th pixel in the reference pattern area 11 is Fi, and the inspection target image 2 corresponds to Let Gi be the pixel to be defined and N be the number of pixels constituting the reference pattern region 11, then the correlation coefficient Rj = R at the scanning position Qj.
(Xj, Yj) is given by the following equation (1).
【数1】 Rj=R(Xj,Yj) =[N・ NΣi=0 (Fi・Gi)−( NΣi=0 Fi)・( NΣi=0 Gi)] /[{N・ NΣi=0 Fi2 −( NΣi=0 Fi)2 } ×{N・ NΣi=0 Gi2 −( NΣi=0 Gi)2 }]1/2 ・・・(1) この(1)式からも判るように、或る走査位置Qjの1
点での相関係数を求めるためにも、積算や累積加算を大
量に行う必要がある。そこで従来は、この演算量を削減
するために基準画像から細線化画像やエッジ画像などの
特徴部を抽出し、その特徴的な画素のみを基準画像とす
ることで演算量を削減する方法や、エッジ特徴を求めた
後に一定の間引きを施すことで、さらに演算量を削減す
る方法等が用いられている。[Number 1] Rj = R (Xj, Yj) = [N · N Σ i = 0 (Fi · Gi) - (N Σ i = 0 Fi) · (N Σ i = 0 Gi)] / [{N · N Σ i = 0 Fi 2 − ( N Σ i = 0 Fi) 2 } × {N · N Σ i = 0 Gi 2 − ( N Σ i = 0 Gi) 2 }] 1/2 ... (1) As can be seen from the equation (1), 1 at a certain scanning position Qj
In order to obtain the correlation coefficient at a point, it is necessary to perform a large amount of integration and cumulative addition. Therefore, conventionally, in order to reduce the amount of calculation, a method of reducing the amount of calculation by extracting a characteristic portion such as a thinned image or an edge image from the reference image and using only the characteristic pixels as the reference image, For example, a method is used in which the amount of calculation is further reduced by performing a certain thinning after obtaining the edge feature.
【発明が解決しようする課題】しかしながら上述した従
来のパターンマッチング方法には次のような問題があ
る。 (1)エッジ特徴による基準画像の作成では、背景など
に含まれるノイズ成分からもエッジ特徴が抽出され基準
画像に含まれてしまう。 (2)エッジ特徴により選別した画素をさらに間引く場
合、単純な間引きではパターンによっては特徴の高い画
素、即ち、より特徴を表している画素をも間引いてしま
う。 (3)検査対象画像上の基準パターンと同じパターンが
無い部分でのパターンマッチング処理でも基準画像の最
後の画素まで演算しなければならない。 そこで本発明はこのような問題を解消できるパターンマ
ッチング装置を提供することを課題とする。However, the above-mentioned conventional pattern matching method has the following problems. (1) In creating a reference image based on edge features, edge features are also extracted from noise components included in the background and included in the reference image. (2) When further thinning out the pixels selected by the edge feature, the simple thinning out also thins out pixels having high features, that is, pixels representing more features depending on the pattern. (3) Even in the pattern matching processing in a portion where the same pattern as the reference pattern on the inspection target image does not exist, it is necessary to calculate up to the last pixel of the reference image. Therefore, an object of the present invention is to provide a pattern matching device capable of solving such a problem.
【課題を解決するための手段】前記の課題を解決するた
めに請求項1のパターンマッチング装置は、登録された
基準画像(基準パターン1)と検査対象の濃淡画像との
パターンマッチングを行う装置において、予め基準画像
を含む所定の画像領域(基準パターン領域11)を構成
する各画素について、当該画素と当該画素を中心とする
8方向の隣接画素との各方向別の濃度差の絶対値のうち
の最大の値(E(X,Y),以下方向性最大エッジ特徴
量という)を求め、この方向性最大エッジ特徴量が所定
のしきい値(TH1)以上であるような画素をパターン
マッチングの対象画素として抽出する手段(方向成分・
エッジ特徴量抽出部108)を備えたものとする。また
請求項2のパターンマッチング装置は、請求項1に記載
の装置において、前記抽出された対象画素からさらに、
所定の画素数(ノイズレベル画素数のしきい値TH2)
以上の連結画素からなり、隣接画素同士の方向性最大エ
ッジ特徴量の方向が一致もしくは隣接する関係にあるよ
うな連結画素群に属する画素のみを有効な対象画素とし
て抽出する手段(方向成分・エッジ特徴量抽出部10
8)を備えたものとする。また請求項3のパターンマッ
チング装置は、請求項1又は2に記載の装置において、
最終的に抽出された対象画素からさらに、この対象画素
の総個数に対する所定の割合(しきい値TH4)の個数
の画素を方向性最大エッジ特徴量の大きいものから順に
(基準画素データ601の形で)有効な対象画素として
選択する基準画素選択手段(ヒストグラム作成部11
8)を備えたものとする。また請求項4のパターンマッ
チング装置は、請求項3に記載の装置において、前記基
準画素選択手段を介して選択された対象画素から、この
対象画素の総個数に対する所定の割合(しきい値TH
5)の個数の、方向性最大エッジ特徴量の大きいものか
ら順に選択された対象画素を用いて得た相関係数(R
j)が所定値(しきい値TH6)以下のときは、その走
査位置でのパターンマッチングの処理を打切る手段(相
関演算部115)を備えたものとする。本発明の作用は
次の如くである。即ち基準となる画像を登録しておき、
検査対象の濃淡画像に対してパターンマッチングを行う
装置において、 1)請求項1に関わる発明においては、基準画像(基準
パターン1)を含む画像領域(基準パターン領域11)
からパターンマッチングに用いる対象画素を限定抽出し
演算量を削減するが、この画素の抽出方法として、基準
パターン領域11の各画素ごとに8方向のエッジ特徴量
(画素濃度の差分)を求め、この方向別のエッジ特徴量
の中での最大のエッジ特徴量(方向性最大エッジ特徴
量)が或るしきい値以上である画素のみを抽出し、パタ
ーンマッチングの対象画素の候補とする。 2)請求項2に関わる発明においては、さらにこの抽出
された画素からノイズ成分を排除するため、抽出された
画素で、方向性最大エッジ特徴量の方向が互いに同一も
しくは近い方向を持って隣接している画素同士をグルー
プ化し、この各グループ内の画素数が所定値以上である
もののみを抽出し、これらの抽出された画素をパターン
マッチング用の対象画素とする。 3)請求項3に関わる発明においては、前記1)または
2)項のように抽出された画素群の方向性最大エッジ特
徴量の大きさごとの画素数を求め、方向性最大エッジ特
徴量の大きさの順に画素数を配列したヒストグラムを作
ると共に、抽出された総画素数に対する所定のしきい値
を定め、このヒストグラム中の方向性最大エッジ特徴量
の大きい画素から順にしきい値までの画素を抽出し、こ
れらの抽出画素を新たな対象画素(基準画素ともいう)
としてパターンマッチングを行う。 4)請求項4に関わる発明においては、前記3)項のよ
うに抽出された画素群を新たな基準画素としてパターン
マッチングを行う際、新たな基準画素のエッジ特徴量の
最も高い画素から順に画素を1つずつ、この抽出全画素
数に対する所定割合の画素数まで追加して、この追加の
つど一致度(相関係数)を求める(従って相関係数を算
出する際の基準画素の個数は順次1つずつ増加する)。 この所定割合の画素数までの一致度が所定のしきい値よ
りも小さい時はパターンマッチングの処理をその時点で
打切り、次の走査位置Qjでのパターンマッチングを開
始する。According to a first aspect of the present invention, there is provided a pattern matching device for performing pattern matching between a registered reference image (reference pattern 1) and a grayscale image to be inspected. Of the absolute value of the density difference in each direction between each pixel forming a predetermined image area (reference pattern area 11) including the reference image in advance and the adjacent pixel in eight directions centering on the pixel, The maximum value (E (X, Y), hereinafter referred to as the maximum directional edge feature amount) of the pixel, and the pixel whose pattern maximum directional edge feature amount is equal to or greater than a predetermined threshold value (TH1) is subjected to pattern matching. Means to extract as target pixel (direction component
The edge feature quantity extraction unit 108) is provided. A pattern matching device according to claim 2 is the device according to claim 1, further comprising: from the extracted target pixel,
Predetermined number of pixels (threshold value TH2 of noise level pixel number)
Means for extracting as effective target pixels only pixels that belong to the connected pixel group and that are composed of the above connected pixels and in which the directions of the maximum directional edge features of adjacent pixels match or are adjacent to each other (direction component / edge Feature quantity extraction unit 10
8). A pattern matching device according to claim 3 is the device according to claim 1 or 2, wherein
From the finally extracted target pixel, a predetermined number of pixels (threshold value TH4) with respect to the total number of target pixels are arranged in order from the one having the largest directional maximum edge feature amount (the shape of the reference pixel data 601). Reference pixel selecting means (histogram creating section 11) for selecting an effective target pixel
8). A pattern matching device according to a fourth aspect is the device according to the third aspect, in which a predetermined ratio (threshold value TH from the target pixels selected through the reference pixel selection means to the total number of the target pixels is used).
5) the correlation coefficient (R) obtained by using the target pixels selected in order from the largest directional maximum edge feature amount
When j) is equal to or smaller than a predetermined value (threshold value TH6), a unit (correlation calculation unit 115) that terminates the pattern matching process at the scanning position is provided. The operation of the present invention is as follows. That is, the reference image is registered,
An apparatus for performing pattern matching on a grayscale image to be inspected, 1) In the invention according to claim 1, an image region (reference pattern region 11) including a reference image (reference pattern 1)
The target pixel used for the pattern matching is extracted from a limited amount to reduce the calculation amount. As an extraction method of this pixel, an edge feature amount (difference in pixel density) in eight directions is obtained for each pixel of the reference pattern region 11, and Among the edge feature amounts for each direction, only pixels whose maximum edge feature amount (directional maximum edge feature amount) is equal to or greater than a certain threshold value are extracted and set as candidates for a pixel to be subjected to pattern matching. 2) In the invention according to claim 2, in order to further eliminate noise components from the extracted pixels, the extracted pixels are adjacent to each other with the directions of the maximum directional edge features being the same or close to each other. Pixels that are present are grouped, only those in which the number of pixels in each group is equal to or greater than a predetermined value are extracted, and these extracted pixels are set as target pixels for pattern matching. 3) In the invention according to claim 3, the number of pixels for each size of the directional maximum edge feature amount of the pixel group extracted as in the above 1) or 2) is calculated, and the directional maximum edge feature amount of In addition to creating a histogram in which the number of pixels is arranged in order of size, a predetermined threshold value for the total number of extracted pixels is set, and pixels from this pixel with the largest directional maximum edge feature amount to the threshold value And extract these extracted pixels as new target pixels (also called reference pixels)
As pattern matching. 4) In the invention according to claim 4, when pattern matching is performed using the pixel group extracted as in 3) above as a new reference pixel, the pixels are sequentially arranged from the pixel having the highest edge feature amount of the new reference pixel. One by one up to the number of pixels of a predetermined ratio to the total number of extracted pixels, and each time the degree of coincidence (correlation coefficient) is obtained (therefore, the number of reference pixels when calculating the correlation coefficient is Increase by one). When the degree of matching up to the predetermined number of pixels is smaller than the predetermined threshold value, the pattern matching process is terminated at that point, and the pattern matching at the next scanning position Qj is started.
(実施例1)先ず請求項1及び2に関わる発明の実施例
を説明する。図1は全請求項に関わる発明の一実施例と
してのパターンマッチング装置の構成を示すブロック
図、図2は基準パターンを含む入力画像図である。次に
図1のこの実施例に関わる構成と動作を図2〜図7を参
照しつつ説明する。図2に示す基準パターン1を含む画
像201を画像入力部101で入力し、入力されたアナ
ログ画像信号をA/D変換部102によりディジタルの
濃淡画像に変換する。変換されたディジタル画像はワー
ク用フレームメモリ103及び表示専用の表示メモリ1
11に格納される。またこの画像は、D/A変換部10
4を介しモニタ105にも表示され、表示メモリ111
上の画像もモニタ105に表示可能である。モニタ10
5上には入力画像201が表示され、マウスなどの設定
手段106によって基準パターン1の領域11が指定さ
れる。これによりCPU107は、指定された基準パタ
ーン領域11と、予め指定されているエッジ特徴量(即
ち後述のように着目画素と、この着目画素を中心とする
8方向(図5(B)参照)の隣接画素との濃度値の差
分)のしきい値TH1とノイズレベル画素数TH2を、
方向成分・エッジ特徴量抽出部108に指示する。CP
U107はまた主記憶メモリ119を有する。方向成分
・エッジ特徴量抽出部108は指示された基準パターン
領域11内の各画素に関して、次式(2)で表されるオ
ペレータを施す。(Embodiment 1) First, an embodiment of the invention relating to claims 1 and 2 will be described. FIG. 1 is a block diagram showing a configuration of a pattern matching device as an embodiment of the invention relating to all claims, and FIG. 2 is an input image diagram including a reference pattern. Next, the configuration and operation of this embodiment shown in FIG. 1 will be described with reference to FIGS. An image 201 including the reference pattern 1 shown in FIG. 2 is input by the image input unit 101, and the input analog image signal is converted by the A / D conversion unit 102 into a digital grayscale image. The converted digital image is used as a work frame memory 103 and a display-only display memory 1
11 is stored. In addition, this image is displayed on the D / A conversion unit 10.
4 is also displayed on the monitor 105 via the display memory 111.
The above image can also be displayed on the monitor 105. Monitor 10
An input image 201 is displayed on the screen 5, and the area 11 of the reference pattern 1 is designated by the setting means 106 such as a mouse. As a result, the CPU 107 sets the designated reference pattern region 11 and the designated edge feature amount (that is, the target pixel as described later and the eight directions centering on the target pixel (see FIG. 5B)). The threshold value TH1 of the difference in density value between adjacent pixels) and the noise level pixel number TH2 are
The direction component / edge feature amount extraction unit 108 is instructed. CP
U107 also has a main memory 119. The direction component / edge feature amount extraction unit 108 applies an operator represented by the following equation (2) to each pixel in the designated reference pattern area 11.
【数2】 max(|P0−P1|,|P0−P2|,・・・,|P0−P8|) ・・・(2) ここで、図3に示すようにP0は着目画素の濃度値、P
1〜P8は着目画素を中心とする8つの各方向別の隣接
画素の濃度値である。従って式(2)の中の|P0−P
1|から|P0−P8|までの8つの絶対値は着目画素
P0に対する各方向別の濃度値の差分の絶対値(つまり
エッジ特徴量)であり、式(2)はこの8つの差分絶対
値のうちの最大のもの(方向性最大エッジ特徴量とい
う)を求めることを意味する。このようにして方向成分
・エッジ特徴量抽出部108は指示された基準パターン
領域11の各画素(座標を(X,Y)とする)毎の方向
性最大エッジ特徴量(E(X,Y)で表す)と、その方
向を示す値(方向成分といいθ(X,Y)で表す)を求
める。なお8つの各方向別の方向成分θの値は図5
(B)のように定義されるものとする。さらに方向成分
・エッジ特徴量抽出部108はこのように求めた各画素
毎の方向性最大エッジ特徴量E(X,Y)の中から、前
記の設定されたエッジ特徴量のしきい値TH1を用い、
次の式(3)を満たす画素のみを抽出し、ワークメモリ
109に格納する。## EQU00002 ## max (| P0-P1 |, | P0-P2 |, ..., | P0-P8 |) (2) Here, P0 is the density value of the pixel of interest, as shown in FIG. , P
1 to P8 are density values of eight adjacent pixels centered on the pixel of interest in each direction. Therefore, | P0-P in equation (2)
Eight absolute values from 1 | to | P0-P8 | are absolute values of differences in density values for each direction with respect to the pixel of interest P0 (that is, edge feature amounts), and equation (2) is the eight absolute difference values. It means to find the largest one of them (referred to as the directional maximum edge feature amount). In this way, the direction component / edge feature quantity extraction unit 108 determines the maximum directional edge feature quantity (E (X, Y)) for each pixel (coordinates are (X, Y)) of the designated reference pattern area 11. And a value indicating the direction (referred to as a direction component and represented by θ (X, Y)). The value of the direction component θ for each of the eight directions is shown in FIG.
It shall be defined as in (B). Further, the direction component / edge feature amount extraction unit 108 selects the set threshold value TH1 of the edge feature amount from the directionality maximum edge feature amount E (X, Y) for each pixel thus obtained. Used,
Only pixels satisfying the following expression (3) are extracted and stored in the work memory 109.
【数3】 E(X,Y) ≧ TH1 ・・・(3) 図4の401は式(3)で抽出された画素のみからなる
(入力画像201に対応する)画像である。この画像4
01には同図のように基準パターン成分1Aとノイズ成
分4Aが含まれている。また方向成分・エッジ特徴量抽
出部108は図4の画像401に対し、抽出された各画
素別の方向成分θ(X,Y)を基にしたラベリング処理
を行う。図5(A)はこの抽出された画素別の方向成分
θ(X,Y)の例を示す。正方形で示す各画素内の数値
は、夫々当該画素についての(同図(B)のように8つ
の方向別に定義された)方向成分の値を示す。ラベリン
グを行うには図5(A)のように方向性最大エッジ特徴
量で抽出された画素群中の互いに隣接した3画素同士に
おいて、抽出画素群501のように方向成分が同一もし
くは近い(隣接の関係にある)方向であれば同一のグル
ープとしてラベリングする。但し画素群502のように
隣接していても方向が不一致であれば同一のグループに
はしない。このようにグループ化された画素群の内で、
ノイズレベル画素数のしきい値TH2以上のグループの
みを抽出する。これにより図4の画像401の(基準パ
タ−ン領域11の)ノイズ成分4Aは取除かれる。この
実施例では、方向成分の連続性の検出範囲を3画素とし
たが、設定により変更可能である。この画素数を増やせ
ば、より大きなノイズ成分を除去することが可能とな
る。方向成分・エッジ特徴量抽出部108は以上の処理
の結果として得られた各画素(基準画素という)につい
てのX,Yの座標値と、原入力画像201におけるその
画素の濃度値Dとの図6に示すようなリスト形式のデー
タ(基準画素データという)601をメモリ110内に
作成する。なお図6では基準画素の座標値を一般的に
(Xmi,Ymi)とし、同じく濃度値をDiとして示
す。但しiはn個の基準画素の番号を示す添字である。
この図6の基準画素データ601はCPU107により
補助記憶部112に保存される。この図6の基準画素デ
ータ601の各基準画素を用いる検査対象画像の検査・
計測の実行が、モニタ105及び設定手段106を用い
て指示されると、CPU107は補助記憶部112に保
存しておいた基準画素データ601を相関演算用の基準
画素メモリ113に転送し、一方、検査対象となる画像
を画像入力部101,A/D変換部102,ワーク用フ
レームメモリ103を経て相関演算用の検査画像メモリ
114に転送する。そこで相関演算部115は基準画素
メモリ113内の基準画素データ601の各基準画素を
対象画素として検査画像メモリ114の画像に対し、前
述のような相関演算を行い、検査対象画像の各走査位置
Qj(座標を(Xj,Yj)とする)毎に得られた相関
係数(一致度)Rj=R(Xj,Yj)を実数データの
格納が可能な相関係数メモリ116に格納する。なおj
は走査位置の番号を示す添字である。この相関係数メモ
リ116内で相関係数が最大で、且つしきい値TH3以
上の一致度を示す検査対象画像内の走査位置Qjが基準
パターン1と同一パターンが検出された位置となり、そ
のときの一致度が得られる。相関演算部115は、モニ
タ105および設定手段106を用いて指示された検査
対象画像の検査領域内(指定がなければ全領域)におい
て、指定された相関係数しきい値TH3以上の全ての走
査位置Qjに関して、その座標値(Xj,Yj)と相関
係数Rjとを図7の走査位置別相関係数701のように
出力する。CPU107は、この情報をもとに検査・計
測結果をモニタ105に表示、あるいはI/O入出力部
117から出力し、外部に通知することも可能である。
また前記で、方向性最大エッジ特徴量E(X,Y)とそ
の方向成分θ(X,Y)を検出演算したあとに、エッジ
特徴のかすれ等を補正するために、膨張・収縮などの処
理を施してもよい。 (実施例2)次に請求項3に関わる発明の実施例を説明
する。本発明では実施例1で述べた図1の装置にヒスト
グラム作成部118を設ける。このヒストグラム作成部
118は、方向成分・エッジ特徴量抽出部108により
作成されたメモリ110内の基準画素データ601に対
して、図8のように方向性最大エッジ特徴量E(Xm
i,Ymi)の大きさの順に、その大きさに該当する画
素数N1〜Nnを対比して並べてなるヒストグラム80
1を作成する。なおこのとき同時にヒストグラム801
の各大きさ順の方向性最大エッジ特徴量E(Xmi,Y
mi)に対応する各基準画素の座標(Xmi,Ymi)
及び濃度値Diも登録される。またCPU107がヒス
トグラム作成部118に対して方向性最大エッジ特徴量
のしきい値TH4を設定しておくと、ヒストグラム作成
部118は作成したヒストグラム801について、この
しきい値TH4以上の画素のみを抽出し、基準画素デー
タ601を方向性最大エッジ特徴量Eの高いものから順
に並べて更新する。このしきい値TH4は方向性最大エ
ッジ特徴量を指定するだけでなく、基準画素データ60
1全体の画素数の例えば10%の画素を有効な基準画素
とするというように、パーセンテージを指定するように
してもよい。この場合には、しきい値TH4を方向性最
大エッジ特徴量とするか、全画素数に対するパーセンテ
ージとするかを選択する選択フラグを設け、これをパー
センテージ指定の設定にしておくようにする。さらには
上記の方向性最大エッジ特徴量のしきい値及び上記のパ
ーセンテージのしきい値を同時に独立に設け、この2つ
のしきい値を共に満たす基準画素のみを選択して基準画
素データ601を方向性最大エッジ特徴量の大きいもの
から順に並べて更新するようにしてもよい。ヒストグラ
ム作成部118は内部にヒストグラム801を保持して
いるので、一度、ヒストグラム801を作成すれば、し
きい値TH4を変更すると自動的に基準画素データ60
1を瞬時に更新することができる。この機能は設定段階
でのテスト的な検査や計測を行う場合に用いられる。C
PU107によって基準画素データ601が補助記憶部
112へ保存されると同時にヒストグラム作成部118
の内部に保持されたヒストグラム801も補助記憶部1
12へ保存される。以降のパターンマッチング処理は実
施例1と同様である。 (実施例3)次に請求項4に関わる発明の実施例を説明
する。前記実施例1,2で述べた相関演算部115は、
検査対象画像の各走査位置Qj毎に基準画素データ60
1で指定された基準画素の全点を用いて得られた相関係
数Rjを相関係数メモリ116に格納するが、本実施例
ではこの相関演算部115に中断処理機能を持たせる。
即ち本実施例では相関演算部115は実施例2で述べた
ように方向性最大エッジ特徴量の高い順に基準画素を並
べて作成された基準画素データ601の画素をエッジ特
徴量の大きい方から数えて、その個数の基準画素データ
601の全画素数に対する割合が、しきい値TH5
〔%〕となるまでの基準画素群ごとに、この基準画素群
を用いて得た相関係数Rjを相関係数メモリ116に出
力し、その時点での相関係数Rjとしきい値TH6を比
較する。基準画素データ601は方向性最大エッジ特徴
量Eの高い順に並んでおり、この時点で相関係数Rjが
しきい値TH6に満たなければ、その位置には基準パタ
ーン1と同一のパターンは存在しないと判定できる。こ
こでさらに、保留状態を規定するしきい値TH7を用い
れば、相関係数Rj=R(Xj,Yj)が次式(4)を
満たす範囲にあれば、さらに基準画素データ601内の
全画素数に対する割合がしきい値TH5〔%〕(従って
この時点でパターンマッチングに用いる基準画素の画素
数としては全体の(TH5×2)〔%〕分となる)の数
の基準画素を用いるパターンマッチングを行って同様の
処理を行う。これにより検出漏れを防止することも可能
である。## EQU00003 ## E (X, Y) .gtoreq.TH1 (3) 401 in FIG. 4 is an image (corresponding to the input image 201) consisting of only the pixels extracted by the equation (3). This image 4
01 includes a reference pattern component 1A and a noise component 4A as shown in FIG. Further, the direction component / edge feature amount extraction unit 108 performs labeling processing on the image 401 of FIG. 4 based on the extracted direction component θ (X, Y) of each pixel. FIG. 5A shows an example of the extracted direction component θ (X, Y) for each pixel. The numerical value in each pixel indicated by a square represents the value of the direction component (defined for each of the eight directions as shown in FIG. 7B) for the pixel. In order to perform the labeling, as shown in FIG. 5A, in the three pixels adjacent to each other in the pixel group extracted by the directional maximum edge feature amount, the direction components are the same or close (adjacent to each other) as in the extracted pixel group 501. If they are in the same direction, they are labeled as the same group. However, even if they are adjacent to each other like the pixel group 502, if the directions do not match, they are not included in the same group. Of the pixel groups grouped in this way,
Only the groups having the noise level pixel number threshold value TH2 or more are extracted. As a result, the noise component 4A (of the reference pattern area 11) of the image 401 of FIG. 4 is removed. In this embodiment, the directional component continuity detection range is three pixels, but it can be changed by setting. By increasing the number of pixels, it becomes possible to remove a larger noise component. The direction component / edge feature amount extraction unit 108 is a diagram of the X and Y coordinate values of each pixel (referred to as a reference pixel) obtained as a result of the above processing and the density value D of that pixel in the original input image 201. List-format data 601 (referred to as reference pixel data) 601 is created in the memory 110. In FIG. 6, the coordinate value of the reference pixel is generally represented by (Xmi, Ymi), and the density value is represented by Di. However, i is a subscript indicating the number of n reference pixels.
The reference pixel data 601 of FIG. 6 is stored in the auxiliary storage unit 112 by the CPU 107. Inspection of an inspection target image using each reference pixel of the reference pixel data 601 of FIG.
When execution of measurement is instructed using the monitor 105 and the setting means 106, the CPU 107 transfers the reference pixel data 601 stored in the auxiliary storage unit 112 to the reference pixel memory 113 for correlation calculation, while The image to be inspected is transferred to the inspection image memory 114 for correlation calculation via the image input unit 101, the A / D conversion unit 102, and the work frame memory 103. Therefore, the correlation calculator 115 performs the above-described correlation calculation on the image in the inspection image memory 114 by using each reference pixel of the reference pixel data 601 in the reference pixel memory 113 as a target pixel, and each scanning position Qj of the inspection target image. The correlation coefficient (coincidence) Rj = R (Xj, Yj) obtained for each (coordinates are (Xj, Yj)) is stored in the correlation coefficient memory 116 capable of storing real number data. Note that j
Is a subscript indicating the number of the scanning position. In this correlation coefficient memory 116, the scanning position Qj in the inspection target image having the maximum correlation coefficient and the degree of coincidence equal to or greater than the threshold value TH3 is the position where the same pattern as the reference pattern 1 is detected. Is obtained. The correlation calculation unit 115 scans all of the specified correlation coefficient thresholds TH3 or more in the inspection region of the inspection target image instructed using the monitor 105 and the setting unit 106 (all regions unless otherwise specified). With respect to the position Qj, the coordinate value (Xj, Yj) and the correlation coefficient Rj are output as the scanning position-based correlation coefficient 701 in FIG. Based on this information, the CPU 107 can display the inspection / measurement result on the monitor 105 or output it from the I / O input / output unit 117 to notify the outside.
Further, in the above, after detecting and calculating the directional maximum edge feature amount E (X, Y) and its direction component θ (X, Y), processing such as expansion / contraction is performed in order to correct blurring of the edge feature. May be given. (Embodiment 2) Next, an embodiment of the invention according to claim 3 will be described. In the present invention, the histogram creation unit 118 is provided in the apparatus of FIG. 1 described in the first embodiment. As shown in FIG. 8, the histogram creation unit 118 uses the maximum directional edge feature amount E (Xm for the reference pixel data 601 in the memory 110 created by the direction component / edge feature amount extraction unit 108 as shown in FIG.
i, Ymi) in order of size, a histogram 80 in which the numbers of pixels N1 to Nn corresponding to the size are compared and arranged.
Create 1. At the same time, the histogram 801
Direction maximum edge feature amount E (Xmi, Y
coordinates (Xmi, Ymi) of each reference pixel corresponding to (mi)
And the density value Di are also registered. Further, when the CPU 107 sets the threshold value TH4 of the maximum directional edge feature amount in the histogram creation unit 118, the histogram creation unit 118 extracts only the pixels having the threshold value TH4 or more from the created histogram 801. Then, the reference pixel data 601 is arranged and updated in order from the highest directional maximum edge feature amount E. This threshold value TH4 not only specifies the maximum directional edge feature amount, but also the reference pixel data 60.
The percentage may be designated such that, for example, 10% of the total number of pixels is a valid reference pixel. In this case, a selection flag for selecting whether the threshold TH4 is the directional maximum edge feature amount or a percentage with respect to the total number of pixels is provided, and this is set as a percentage designation. Further, the threshold value of the directional maximum edge feature amount and the threshold value of the above percentage are provided independently at the same time, and only the reference pixels satisfying both of these two threshold values are selected to direct the reference pixel data 601. It may be arranged and updated in descending order of the maximum feature edge feature amount. Since the histogram creation unit 118 holds the histogram 801 inside, once the histogram 801 is created, if the threshold TH4 is changed, the reference pixel data 60 is automatically created.
1 can be updated instantly. This function is used when performing test inspections and measurements at the setting stage. C
The PU 107 stores the reference pixel data 601 in the auxiliary storage unit 112, and at the same time, the histogram creation unit 118.
The histogram 801 stored inside the
Saved to 12. The subsequent pattern matching processing is the same as in the first embodiment. (Embodiment 3) Next, an embodiment of the invention according to claim 4 will be described. The correlation calculator 115 described in the first and second embodiments is
Reference pixel data 60 for each scanning position Qj of the inspection target image
The correlation coefficient Rj obtained by using all the points of the reference pixel designated by 1 is stored in the correlation coefficient memory 116. In the present embodiment, the correlation calculation unit 115 has an interruption processing function.
That is, in the present embodiment, the correlation calculation unit 115 counts the pixels of the reference pixel data 601 created by arranging the reference pixels in the descending order of the maximum directional maximum edge feature amount as described in the second embodiment, from the one with the largest edge feature amount. , The ratio of that number to the total number of pixels of the reference pixel data 601 is the threshold value TH5.
For each reference pixel group up to [%], the correlation coefficient Rj obtained using this reference pixel group is output to the correlation coefficient memory 116, and the correlation coefficient Rj at that time and the threshold value TH6 are compared. To do. The reference pixel data 601 are arranged in descending order of the maximum directional edge feature amount E, and if the correlation coefficient Rj does not reach the threshold value TH6 at this point, there is no pattern identical to the reference pattern 1 at that position. Can be determined. Further, if the threshold value TH7 that defines the hold state is used, if all the correlation pixels Rj = R (Xj, Yj) are in a range that satisfies the following expression (4), all the pixels in the reference pixel data 601 are further calculated. The pattern matching using the threshold value TH5 [%] (therefore, the total number of the reference pixels used for the pattern matching at this point is (TH5 × 2) [%]). Then, the same processing is performed. This makes it possible to prevent detection omission.
【数4】 TH6 > R(Xj,Yj) ≧ TH7 ・・・(4) ここで相関係数Rjがしきい値TH6(しきい値TH7
が設定されている場合にはTH7)未満か、もしくは基
準画素の全画素数の50%を越えた基準画素を用いても
相関係数Rjがしきい値TH6未満であった場合には、
その走査位置Qjでのパターンマッチング処理を強制的
に打切り、指示された検査対象画像の検査領域内の次の
走査位置Qjへ移行し、同様のパターンマッチング処理
を実行する。この際、パターンマッチング処理を打切っ
た走査位置Qjにおける相関係数メモリ116の値とし
ては ”−1.0” が格納され、後にどの点で打切処
理が実施されたかを検索することが可能である。検査領
域内の全走査位置でパターンマッチング処理が終了する
と、実施例1と同様に得られた相関係数の大きさと相互
の比較によって基準パターンと同一のパターンの存在す
る位置を求める処理を行う。TH6> R (Xj, Yj) ≧ TH7 (4) where the correlation coefficient Rj is the threshold value TH6 (threshold value TH7
Is less than TH7), or if the correlation coefficient Rj is less than the threshold value TH6 even when using reference pixels exceeding 50% of the total number of reference pixels,
The pattern matching process at the scanning position Qj is forcibly stopped, the process moves to the next scanning position Qj in the inspection region of the inspected image to be inspected, and the same pattern matching process is executed. At this time, "-1.0" is stored as the value of the correlation coefficient memory 116 at the scanning position Qj in which the pattern matching process is terminated, and it is possible to retrieve at which point the abort process was performed later. is there. When the pattern matching processing is completed at all the scanning positions within the inspection area, the processing for obtaining the position where the same pattern as the reference pattern is present is performed by mutual comparison with the magnitude of the correlation coefficient obtained as in the first embodiment.
1)請求項1,2に関わる発明によれば、基準パターン
領域の全画素についての8つの方向別の濃度差分の最大
値で、且つ所定値以上の方向性最大エッジ特徴量とその
方向成分を検出し、方向成分の連続する連結画素群のう
ちの所定画素数以上のものを取出すことにより、ノイズ
成分を取除いた基準パターンのエッジ部分に位置する基
準画素を抽出し、この基準画素を用いて検査対象画像と
のパターンマッチングを行うようにしたので、相関演算
の処理時間を短縮し、基準パターンの誤検出を防止する
ことができる。 2)請求項3に関わる発明によれば、前記1)項のよう
に抽出された各基準画素の方向性最大エッジ特徴量の大
きさ順に、夫々の大きさ別の画素数を配列したヒストグ
ラムを作り、方向性最大エッジ特徴量の大きさ又は全画
素数に占める割合等の所定のしきい値を用いて、このヒ
ストグラム上で方向性最大エッジ特徴量の大きい側にあ
る基準画素の群を有効な基準画素とし、この有効な基準
画素を対象画素としてパターンマッチング処理を行うよ
うにしたので、検出精度を劣化させずに基準画素の数を
削減し、処理時間を短縮することが可能となる。さらに
ヒストグラムを内部に保持しておくことで、しきい値
(設定値)の変更による基準画素の更新も瞬時に行うこ
とが可能となる。 3)請求項4に関わる発明によれば、前記2)項で有効
として抽出された基準画素の全個数に対する所定の割合
の個数の、方向性最大エッジ特徴量の大きい方から選択
された基準画素を用いたパターンマッチング処理に基づ
く相関係数が所定値以下であれば、その走査位置でのパ
ターンマッチング処理を打切るようにしたので、基準パ
ターンと同一のパターンが存在しない、圧倒的に多い走
査位置でのパターンマッチングに要する処理を大幅に省
略でき、処理時間を大幅に短縮することが可能となる。1) According to the inventions according to claims 1 and 2, the maximum value of the density difference in each of the eight directions for all the pixels of the reference pattern area, and the directional maximum edge feature amount equal to or more than a predetermined value and the direction component thereof are set. A reference pixel located at the edge portion of the reference pattern from which the noise component has been removed is extracted by detecting and extracting more than a predetermined number of pixels from the connected pixel group in which the direction component is continuous, and this reference pixel is used. Since the pattern matching with the image to be inspected is performed, the processing time of the correlation calculation can be shortened and the erroneous detection of the reference pattern can be prevented. 2) According to the invention according to claim 3, a histogram in which the number of pixels for each size is arranged in order of the size of the directional maximum edge feature amount of each reference pixel extracted as in the above 1) By using a predetermined threshold value such as the size of the maximum directional edge feature amount or the ratio to the total number of pixels, the group of reference pixels on the side with the maximum directional maximum edge feature amount is effective on this histogram. Since the effective reference pixel is used as the target pixel and the pattern matching process is performed with the effective reference pixel as the target pixel, it is possible to reduce the number of reference pixels and reduce the processing time without degrading the detection accuracy. Further, by holding the histogram inside, it becomes possible to instantly update the reference pixel by changing the threshold value (setting value). 3) According to the invention according to claim 4, a reference pixel selected from the one having a larger directional maximum edge feature amount in a predetermined ratio to the total number of reference pixels extracted as effective in 2) above. If the correlation coefficient based on the pattern matching process using is equal to or less than a predetermined value, the pattern matching process at the scanning position is terminated, so that the same pattern as the reference pattern does not exist, and overwhelmingly many scans are performed. The processing required for pattern matching at the position can be largely omitted, and the processing time can be greatly shortened.
【図1】本発明の一実施例としてのパターンマッチング
装置の構成を示すブロック図FIG. 1 is a block diagram showing the configuration of a pattern matching device as an embodiment of the present invention.
【図2】基準パターンを含む入力画像の例を示す図FIG. 2 is a diagram showing an example of an input image including a reference pattern.
【図3】本発明に基づき着目画素の方向性最大エッジ特
徴量を求める際の対象画素領域の説明図FIG. 3 is an explanatory diagram of a target pixel area when obtaining the directional maximum edge feature amount of a pixel of interest based on the present invention.
【図4】本発明に基づき図2の入力画像に対し方向性最
大エッジ特徴量による画素抽出を行った後の画像を示す
図FIG. 4 is a diagram showing an image after performing pixel extraction by the maximum directional edge feature amount on the input image of FIG. 2 according to the present invention.
【図5】本発明に基づく連結画素の方向データの連続性
の説明図FIG. 5 is an explanatory diagram of continuity of direction data of connected pixels according to the present invention.
【図6】本発明に基づく基準画素データを示す図FIG. 6 is a diagram showing reference pixel data according to the present invention.
【図7】本発明に基づく走査位置別の相関演算の説明図FIG. 7 is an explanatory diagram of a correlation calculation for each scanning position based on the present invention.
【図8】本発明に基づく方向性最大エッジ特徴量別のヒ
ストグラムの説明図FIG. 8 is an explanatory diagram of a histogram for each directional maximum edge feature amount based on the present invention.
【図9】従来のパターンマッチングの説明図FIG. 9 is an explanatory diagram of conventional pattern matching.
1 基準パターン 1A 基準パターン成分 2 検査対象画像 4 ノイズ 4A ノイズ成分 11 基準パターン領域 101 画像入力部 102 A/D変換部 103 ワーク用フレームメモリ 104 D/A変換部 105 モニタ 106 設定手段 107 CPU 108 方向成分・エッジ特徴量抽出部 109 ワークメモリ 110 メモリ 111 表示メモリ 112 補助記憶部 113 基準画像メモリ 114 検査画像メモリ 115 相関演算部 116 相関係数メモリ 117 I/O入出力部 118 ヒストグラム作成部 119 主記憶メモリ 201 入力画像 P0 着目画素,その濃度値 P1〜P8 方向1〜8別の隣接画素,その濃度値 401 方向性最大エッジ特徴量による抽出画素から
なる画像 501,502 方向性最大エッジ特徴量による抽出画
素群 601 基準画素データ 701 走査位置別相関係数 Qj,Q(Xj,Yj) 走査位置 (Xj,Yj) 走査位置の座標値 Rj,R(Xj,Yj) 相関係数 (Xmi,Ymi) 基準画素の座標値 Di,D(X,Y) 濃度値 E(X,Y),E(Xmi,Ymi) 方向性最大エッ
ジ特徴量 TH1 エッジ特徴量のしきい値 TH2 ノイズレベル画素数のしきい値 TH3 相関係数のしきい値 TH4 方向性最大エッジ特徴量のしきい値,全基準
画素数に対する%のしきい値 TH5 全基準画素数に対する%のしきい値 TH6,TH7 相関係数のしきい値1 Reference Pattern 1A Reference Pattern Component 2 Inspection Image 4 Noise 4A Noise Component 11 Reference Pattern Area 101 Image Input Unit 102 A / D Converter 103 Work Frame Memory 104 D / A Converter 105 Monitor 106 Setting Means 107 CPU 108 Direction Component / edge feature amount extraction unit 109 work memory 110 memory 111 display memory 112 auxiliary storage unit 113 reference image memory 114 inspection image memory 115 correlation calculation unit 116 correlation coefficient memory 117 I / O input / output unit 118 histogram creation unit 119 main storage Memory 201 Input image P0 Pixel of interest, its density value P1 to P8 Adjacent pixels in directions 1 to 8 and its density value 401 Image composed of pixels extracted by directional maximum edge feature amount 501,502 Extraction by directional maximum edge feature amount Picture Group 601 Reference pixel data 701 Scan position correlation coefficient Qj, Q (Xj, Yj) Scan position (Xj, Yj) Scan position coordinate value Rj, R (Xj, Yj) Correlation coefficient (Xmi, Ymi) Reference pixel Coordinate value Di, D (X, Y) density value E (X, Y), E (Xmi, Ymi) directional maximum edge feature amount TH1 edge feature amount threshold TH2 noise level pixel number threshold TH3 Threshold of correlation coefficient TH4 Threshold of directional maximum edge feature amount, threshold of% to all reference pixels TH5 Threshold of% to all reference pixels TH6, TH7 Threshold of correlation coefficient
Claims (4)
とのパターンマッチングを行う装置において、 予め基準画像を含む所定の画像領域を構成する各画素に
ついて、当該画素と当該画素を中心とする8方向の隣接
画素との各方向別の濃度差の絶対値のうちの最大の値
(以下方向性最大エッジ特徴量という)を求め、この方
向性最大エッジ特徴量が所定のしきい値以上であるよう
な画素をパターンマッチングの対象画素として抽出する
手段を備えたことを特徴とするパターンマッチング装
置。1. A device for performing pattern matching between a registered reference image and a grayscale image to be inspected, with respect to each pixel forming a predetermined image area including the reference image, the pixel and the pixel are centered. The maximum value (hereinafter referred to as the directional maximum edge feature amount) of the absolute value of the density difference for each direction with the adjacent pixels in the eight directions is obtained, and if this maximum directional edge feature amount is greater than or equal to a predetermined threshold value. A pattern matching apparatus comprising means for extracting a certain pixel as a target pixel for pattern matching.
の連結画素からなり、隣接画素同士の方向性最大エッジ
特徴量の方向が一致もしくは隣接する関係にあるような
連結画素群に属する画素のみを有効な対象画素として抽
出する手段を備えたことを特徴とするパターンマッチン
グ装置。2. The apparatus according to claim 1, wherein the extracted target pixel is further composed of connected pixels of a predetermined number or more, and the directions of the maximum directional edge features of adjacent pixels are the same or adjacent to each other. A pattern matching device comprising means for extracting only pixels belonging to a connected pixel group having such a relationship as valid target pixels.
の総個数に対する所定の割合の個数の画素を方向性最大
エッジ特徴量の大きいものから順に有効な対象画素とし
て選択する基準画素選択手段を備えたことを特徴とする
パターンマッチング装置。3. The apparatus according to claim 1 or 2, wherein a number of pixels of a predetermined ratio to the total number of target pixels finally extracted are larger in directional maximum edge feature amount. A pattern matching device comprising a reference pixel selection means for selecting valid target pixels in order from the one.
ら、この対象画素の総個数に対する所定の割合の個数
の、方向性最大エッジ特徴量の大きいものから順に選択
された対象画素を用いて得た相関係数が所定値以下のと
きは、その走査位置でのパターンマッチングの処理を打
切る手段を備えたことを特徴とするパターンマッチング
装置。4. The apparatus according to claim 3, wherein the maximum number of directional edge features of the target pixels selected through the reference pixel selection unit is a predetermined ratio to the total number of target pixels. A pattern matching apparatus comprising means for terminating pattern matching processing at a scanning position when a correlation coefficient obtained by using target pixels selected in order from the largest one is less than a predetermined value.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8047846A JPH09245166A (en) | 1996-03-06 | 1996-03-06 | Pattern matching device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8047846A JPH09245166A (en) | 1996-03-06 | 1996-03-06 | Pattern matching device |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH09245166A true JPH09245166A (en) | 1997-09-19 |
Family
ID=12786741
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP8047846A Pending JPH09245166A (en) | 1996-03-06 | 1996-03-06 | Pattern matching device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH09245166A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2328355A (en) * | 1997-08-05 | 1999-02-17 | Canon Kk | Edge detection in image processing |
US6647146B1 (en) | 1997-08-05 | 2003-11-11 | Canon Kabushiki Kaisha | Image processing apparatus |
KR100505377B1 (en) * | 1996-12-25 | 2005-11-22 | 가부시끼가이샤 히다치 세이사꾸쇼 | Image processor, image processing apparatus and image processing method |
US9830530B2 (en) | 2014-07-31 | 2017-11-28 | International Business Machines Corporation | High speed searching method for large-scale image databases |
-
1996
- 1996-03-06 JP JP8047846A patent/JPH09245166A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100505377B1 (en) * | 1996-12-25 | 2005-11-22 | 가부시끼가이샤 히다치 세이사꾸쇼 | Image processor, image processing apparatus and image processing method |
GB2328355A (en) * | 1997-08-05 | 1999-02-17 | Canon Kk | Edge detection in image processing |
GB2328355B (en) * | 1997-08-05 | 2002-04-17 | Canon Kk | Image processing apparatus |
US6647146B1 (en) | 1997-08-05 | 2003-11-11 | Canon Kabushiki Kaisha | Image processing apparatus |
US9830530B2 (en) | 2014-07-31 | 2017-11-28 | International Business Machines Corporation | High speed searching method for large-scale image databases |
US9836666B2 (en) | 2014-07-31 | 2017-12-05 | International Business Machines Corporation | High speed searching for large-scale image databases |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN100582663C (en) | Image processing method, three-dimensional position measuring method and image processing apparatus | |
CN106920245B (en) | Boundary detection method and device | |
CN113167742A (en) | Auxiliary device for inspection of concrete structures, auxiliary method for inspection, and auxiliary program for inspection | |
Huang et al. | Adaptive automatic segmentation of HEp-2 cells in indirect immunofluorescence images | |
CN111539939A (en) | Defect detection method and device based on machine vision | |
EP1679655A1 (en) | Face image candidate area search method, face image candidate area search system, and face image candidate area search program | |
JP5264457B2 (en) | Object detection device | |
Salotti et al. | Evaluation of edge detectors: Critics and proposal | |
JPH09245166A (en) | Pattern matching device | |
JPH01182714A (en) | Automatic measuring apparatus of crack | |
CN110298797B (en) | Millimeter wave image processing method based on convolutional neural network | |
JP3223384B2 (en) | Pattern matching device for grayscale images | |
JP2981382B2 (en) | Pattern matching method | |
JP3627249B2 (en) | Image processing device | |
US20060010582A1 (en) | Chin detecting method, chin detecting system and chin detecting program for a chin of a human face | |
JPH0962838A (en) | High speed pattern matching method | |
JPH0718812B2 (en) | Foreign object detection method | |
JP4406978B2 (en) | Template matching method | |
JP2018092507A (en) | Image processing apparatus, image processing method, and program | |
CN109427039B (en) | Image processing device, setting assistance method, and computer-readable recording medium | |
JP2020095017A (en) | Information processing device, control method thereof, program, and storage medium | |
JP2006047252A (en) | Image processing device | |
CN116630256B (en) | Ultrasonic contrast image identification method, system, electronic equipment and storage medium | |
JPH064665A (en) | Boundary extraction method and apparatus | |
JP2846319B2 (en) | Image processing method |