JPH10334237A - Fingerprint collation device - Google Patents
Fingerprint collation deviceInfo
- Publication number
- JPH10334237A JPH10334237A JP9146758A JP14675897A JPH10334237A JP H10334237 A JPH10334237 A JP H10334237A JP 9146758 A JP9146758 A JP 9146758A JP 14675897 A JP14675897 A JP 14675897A JP H10334237 A JPH10334237 A JP H10334237A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- fingerprint
- processing unit
- image
- ridge direction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 claims abstract description 240
- 238000004364 calculation method Methods 0.000 claims abstract description 86
- 238000003702 image correction Methods 0.000 claims abstract description 46
- 238000000034 method Methods 0.000 claims description 108
- 238000000605 extraction Methods 0.000 claims description 39
- 238000001514 detection method Methods 0.000 claims description 37
- 238000006073 displacement reaction Methods 0.000 claims description 23
- 238000012795 verification Methods 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims 2
- 238000010586 diagram Methods 0.000 description 24
- 230000000694 effects Effects 0.000 description 6
- 238000000926 separation method Methods 0.000 description 4
- 230000037303 wrinkles Effects 0.000 description 4
- 230000002411 adverse Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000005562 fading Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1365—Matching; Classification
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Collating Specific Patterns (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】この発明は、個人識別のため
の指紋照合装置に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a fingerprint matching device for personal identification.
【0002】[0002]
【従来の技術】従来、この種の技術として例えば電子情
報通信学会技術研究報告PRU87−52、1987、
pp49−57で発表された「指紋による高精度個人照
合装置」がある。2. Description of the Related Art Conventionally, as this kind of technology, for example, IEICE Technical Report PRU87-52, 1987,
There is a “high-precision personal identification device using fingerprints” published on pp. 49-57.
【0003】図17はこの従来例による指紋照合装置を
示す構成図である。図において、1は画像入力手段、2
は指置き判定手段、3は特徴抽出手段、4は照合手段で
ある。画像入力手段1は、図18に示すように、プリズ
ム1aと、光源1bと、カメラ1cで構成され、それぞ
れの位置関係は同図に示すようになっている。指が置か
れていない状態では、光源1bから照射された光が全て
プリズム面1aで全反射する。一方プリズム面1aに指
が置かれた場合には、光源1bから照射された光が指紋
の谷線部(プリズムに密着していない部分)では全反射
し、指紋の隆線部(プリズムに密着している部分)では乱
反射する。これらプリズム面1aでの反射光をカメラ1
cで受光することで、指が置かれていない状態では画像
全面が輝度の高い画像になり、指が置かれている場合に
は指紋の谷部部で輝度が高く、隆線部で輝度の低い濃淡
指紋画像が得られる。このカメラ1cの映像をA/D変
換し処理部に取り込む。FIG. 17 is a block diagram showing a fingerprint collating apparatus according to this conventional example. In the figure, 1 is an image input means, 2
Denotes a finger placement determination unit, 3 denotes a feature extraction unit, and 4 denotes a collation unit. As shown in FIG. 18, the image input means 1 is composed of a prism 1a, a light source 1b, and a camera 1c, and their positional relationship is as shown in FIG. When the finger is not placed, all the light emitted from the light source 1b is totally reflected by the prism surface 1a. On the other hand, when a finger is placed on the prism surface 1a, the light emitted from the light source 1b is totally reflected at the valley portion of the fingerprint (portion not in close contact with the prism), and the ridge portion of the fingerprint (contact with the prism). Scattered light). The light reflected by the prism surface 1a is transmitted to the camera 1
By receiving light at c, the entire image becomes a high-luminance image when the finger is not placed, and when the finger is placed, the luminance is high at the valley portion of the fingerprint and the luminance is high at the ridge portion. A low density fingerprint image is obtained. The image of the camera 1c is A / D converted and taken into the processing unit.
【0004】また、特徴抽出手段3は、二値化処理、隆
線方向検出処理を行うもので、隆線方向検出処理にはブ
ロック分割処理、マスクパターン走査処理、および隆線
方向計算処理が含まれる。また、特徴抽出手段3は、濃
淡画像修正処理、再二値化処理、細線化処理、および特
徴点検出処理を行うものである。更に、照合手段4は、
隆線方向一致度計算処理、特徴点一致度計算処理、およ
び本人かどうかの判定処理を行うものである。The feature extracting means 3 performs a binarizing process and a ridge direction detecting process. The ridge direction detecting process includes a block dividing process, a mask pattern scanning process, and a ridge direction calculating process. It is. The feature extracting means 3 performs a grayscale image correction process, a re-binarization process, a thinning process, and a feature point detection process. Further, the matching means 4
The ridge direction matching degree calculation processing, the feature point matching degree calculation processing, and the processing for determining whether or not the user is the principal are performed.
【0005】次に、動作について、図19〜図24を参
照しながら説明する。まず、ステップS1において、画
像入力手段1により画像が取り込まれ、ステップS2に
おいて、指置き判定手段2により入力されたデジタル映
像を画像処理して指が置かれているか否かを判定する。
そして、指が置かれていないときにはステップS1に戻
って再度画像入力手段1によって画像を取り込み、指が
置かれているときには、ステップS3に進み、特徴抽出
手段3による処理を実行する。Next, the operation will be described with reference to FIGS. First, in step S1, an image is captured by the image input unit 1, and in step S2, the digital video input by the finger placement determination unit 2 is subjected to image processing to determine whether or not a finger is placed.
When the finger is not placed, the process returns to step S1 to capture the image again by the image input unit 1. When the finger is placed, the process proceeds to step S3, and the process by the feature extracting unit 3 is executed.
【0006】なお、指置き判定手段2の具体的な処理内
容は例えば特公平7−7447号公報に示されている。
即ち、画像入力手段1によって入力された濃淡指紋画像
から幾つかのN×N画素小領域を切り出し、各小領域の
濃度ヒストグラムを作成する。各小領域において作成さ
れた濃度ヒストグラム全体の平均値μを閾値として図2
0のように黒クラスと白クラスに分割し、両クラスの平
均値μ1、μ2を計算する。計算された両クラスの平均
値を下記の式(1)に代入して分離度Rを計算する。分
離度Rが予め設定された判別閾値より大きいときにはそ
の小領域には指が置かれていると判断する。切り出した
全ての小領域に指が置かれていると判断されたときには
指置き判定手段2の処理を終了し、次段の特徴抽出手段
3における処理を実行する。一方、全ての小領域の内一
つでも指が置かれていないと判断されたときには、指置
き判定手段2を終了し、再度画像入力手段1に戻る。The specific processing contents of the finger placement determining means 2 are disclosed, for example, in Japanese Patent Publication No. 7-74747.
That is, some N × N pixel small areas are cut out from the gray-scale fingerprint image input by the image input unit 1, and a density histogram of each small area is created. FIG. 2 uses the average value μ of the entire density histogram created in each small area as a threshold value.
It is divided into a black class and a white class like 0, and the average values μ1 and μ2 of both classes are calculated. The calculated average value of both classes is substituted into the following equation (1) to calculate the degree of separation R. If the degree of separation R is larger than a predetermined threshold value, it is determined that the finger is placed in the small area. When it is determined that the finger is placed on all of the cut out small areas, the processing of the finger placement determining means 2 is terminated, and the processing of the next-stage feature extracting means 3 is executed. On the other hand, when it is determined that the finger is not placed even in one of all the small areas, the finger placement determining means 2 ends, and the process returns to the image input means 1 again.
【0007】 R=(μ2−μ1)÷ μ2 (1)R = (μ2-μ1) ÷ μ2 (1)
【0008】次に、特徴抽出手段3では、まず、ステッ
プS3において、二値化処理を行い、濃淡指紋画像を二
値化する。これは、濃淡指紋画像を16×16画素のブ
ロックに分割し、各ブロックの平均濃度を求めた後、こ
の平均濃度を閾値としてそれより濃度が大きい画素には
「1」を与え、そうでない画素には「0」を与える。次
いで、二値画像を16×16画素のブロックに分割し
(ステップS4)、それぞれのブロックで図21のよう
な0度、45度、90度、135度の4方向に相当する
3×3画素のマスクパターンを走査する(ステップS
5)。マスクパターンを走査することで各マスクパター
ンと一致する画素の頻度(方向別ヒストグラム)がわか
るので、その各マスクパターンの頻度を用いてそれぞれ
のブロック内の隆線方向を0から180度の範囲で求め
る(ステップS6)。このステップS4〜S6が隆線方
向検出処理である。Next, in the feature extracting means 3, first, in step S3, a binarization process is performed to binarize the gray-scale fingerprint image. This is because the gray-scale fingerprint image is divided into 16 × 16 pixel blocks, the average density of each block is obtained, and the average density is set as a threshold, and “1” is given to a pixel having a higher density than the average density. Is given "0". Next, the binary image is divided into blocks of 16 × 16 pixels (step S4), and each block has 3 × 3 pixels corresponding to four directions of 0 °, 45 °, 90 °, and 135 ° as shown in FIG. (Step S)
5). By scanning the mask pattern, the frequency of the pixels that match each mask pattern (histogram for each direction) can be determined, and the ridge direction in each block can be set in the range of 0 to 180 degrees using the frequency of each mask pattern. It is determined (step S6). Steps S4 to S6 are ridge direction detection processing.
【0009】次に、ステップS7において、濃淡画像修
正処理を行い、隆線の途切れや癒着を修正する。これ
は、まず前記ブロック毎の隆線方向を図22に示したよ
うな8方向に量子化し(結果は例えば図23のようにな
る)、この8方向に量子化された隆線方向に沿ったK×
1画素の平均値フィルタを原画像に施すことで実現され
る。次に、ステップS8において、濃淡画像修正結果を
ステップS3の二値化処理と同じ方法で再度二値化し、
そして、ステップS9において、この二値化結果を細線
化し線幅1画素の線図形を得る。そして、ステップS1
0において、特徴点検出処理を行い、この細線化画像上
に3×3画素のマスクパターンを走査させ、注目点が値
「1」であり、かつ周辺8画素の内1画素のみ値「1」
を持つような注目点の座標を端点として抽出し、注目点
が値「1」であり、かつ周辺8画素の内3画素のみ値
「1」を持つような注目点の座標を分岐点として抽出す
る。同時に特徴点から伸びる隆線を線追跡して特徴点の
ベクトル角(図24のθ)を算出しておく。Next, in step S7, a gradation image correction process is performed to correct breaks or adhesion of ridges. First, the ridge direction of each block is quantized in eight directions as shown in FIG. 22 (results are, for example, as shown in FIG. 23), and the ridge directions quantized in these eight directions are along the ridge directions. K ×
This is realized by applying an average filter of one pixel to the original image. Next, in step S8, the grayscale image correction result is binarized again by the same method as the binarization processing in step S3.
Then, in step S9, the binarization result is thinned to obtain a line figure having a line width of one pixel. Then, step S1
At 0, a feature point detection process is performed, and a mask pattern of 3 × 3 pixels is scanned over this thinned image, and the point of interest is a value “1” and only one of the eight peripheral pixels has a value “1”.
Is extracted as the end point, and the coordinates of the point of interest such that the point of interest has the value “1” and only three of the eight surrounding pixels have the value “1” are extracted as the branch points. I do. At the same time, the ridge line extending from the feature point is traced to calculate the vector angle of the feature point (θ in FIG. 24).
【0010】このようにして、ステップS3〜S10に
おける特徴抽出手段3の処理が終わると、次に、次段の
照合手段4では、まず、ステップS11において、隆線
方向一致度計算を行い、隆線の全体的な流れ方向がどの
程度一致しているかを計算する。これは、前記ステップ
S4〜S6における隆線方向検出処理によって検出され
たブロック毎の隆線方向Vd(Bx、By)と、本人が
事前に登録しておいたブロック毎の隆線方向Ed(B
x、By)を、水平方向に−Pxから+Pxの範囲およ
び垂直方向に−Pyから+Pyの範囲で平行移動しなが
ら重ねあわせ、隆線方向が全体的に最も良く一致する位
置を探し、その時の一致度合いを算出するものである。
具体的には、あるずらし量(px、py)のときの一致
度合いSd(px、py)は下記の式(2)で計算され
る。After the processing of the feature extraction means 3 in steps S3 to S10 is completed in this way, the collation means 4 in the next stage first calculates the ridge direction coincidence in step S11, Calculate how well the overall flow directions of the lines match. This is because the ridge direction Vd (Bx, By) of each block detected by the ridge direction detection processing in steps S4 to S6 and the ridge direction Ed (Bx) of each block registered in advance by the subject.
x, By) are overlapped while translating in the horizontal direction in the range from -Px to + Px and in the vertical direction in the range from -Py to + Py, and searching for a position where the ridge direction is the best overall, The degree of coincidence is calculated.
Specifically, the matching degree Sd (px, py) at a certain shift amount (px, py) is calculated by the following equation (2).
【0011】 Sd(px、py)=(1/Bn)× ΣΣ{Vd(Bx+px、By+py) −Ed(Bx、By)}2 ByBx (2)Sd (px, py) = (1 / Bn) × {Vd (Bx + px, By + py) −Ed (Bx, By)} 2 ByBx (2)
【0012】ここで、Bnは重なっているブロック数を
表す。そして、最も小さい一致度Sdmin(px、p
y)は後述のステップS13におけるの判定処理で本人
か他人かの判定に用いられる。Here, Bn represents the number of overlapping blocks. Then, the smallest coincidence Sdmin (px, p
y) is used in the determination process in step S13 to be described later to determine whether the user is a person or another person.
【0013】次に、ステップS12において、特徴点一
致度計算を行い、前記ステップS10における特徴点検
出処理で検出された端点および分岐点といった特徴点の
座標やそのベクトル角が、あらかじめ登録されている本
人の特徴点の座標やベクトル角とどの程度一致している
かを計算する。これは登録指紋から検出され、予め登録
されたある特徴点座標と、照合指紋から検出されたある
特徴点座標の距離が近く、かつそれら特徴点のベクトル
角の差が小さいときにこれらの特徴点をペアと考え、下
記の式(3)によって全体の特徴点数に対してペアの特
徴点数がどれくらいあるかを計算し、これを特徴点の一
致度とする。Next, at step S12, a feature point coincidence calculation is performed, and the coordinates of the feature points such as the end points and the branch points detected by the feature point detection processing at step S10 and the vector angles thereof are registered in advance. Calculate the degree of coincidence with the coordinates and vector angles of the person's feature points. This is because when the distance between certain feature point coordinates detected in advance from the registered fingerprint and certain feature point coordinates detected from the collation fingerprint is short and the difference between the vector angles of these feature points is small, these feature points Is considered as a pair, the number of feature points of the pair is calculated with respect to the total number of feature points by the following equation (3), and this is defined as the degree of coincidence of feature points.
【0014】 Sm=(2×Cp)/(Cv+Ce) (3)Sm = (2 × Cp) / (Cv + Ce) (3)
【0015】ここで、Cvは照合指紋から検出された特
徴点数、Ceは登録指紋から検出された特徴点数、Cp
は登録指紋と照合指紋の間でペアと判断された特徴点数
である。最後にステップS13における判定処理では、
上記隆線方向一致度Sdmin(px、py)が予め設定
された閾値αより小さく、かつ特徴点一致度Smが予め
設定された別の閾値βより大きい場合に本人と判定し、
それ以外は他人と判定する。Here, Cv is the number of feature points detected from the collation fingerprint, Ce is the number of feature points detected from the registered fingerprint, Cp
Is the number of feature points determined as a pair between the registered fingerprint and the verification fingerprint. Finally, in the determination processing in step S13,
If the ridge direction coincidence Sdmin (px, py) is smaller than a preset threshold α and the feature point coincidence Sm is larger than another preset threshold β, it is determined that the person is the subject,
Otherwise, it is determined to be another person.
【0016】[0016]
【発明が解決しようとする課題】ところで、従来の指紋
照合装置は、上記のように小領域の濃度ヒストグラムに
よって指が置かれたか否かを判定していたので、例えば
指の乾燥などによってかすれた濃淡指紋画像しか得られ
ない場合、上記式(1)に示した分離度Rが非常に小さ
くなる。一方、光源に明るさのムラがある場合、指が置
かれていない場合でも小領域の濃度ヒストグラムはそれ
なりの広がりを持つため、分離度Rはそれなりに大きく
なる。その結果、指置き判定を行うための判定閾値によ
ってはかすれた指が置かれたことを検出できなかった
り、指が置かれていないにも関わらず光源のムラによっ
て指が置かれていると誤判定することがあるという問題
点があった。In the conventional fingerprint collating apparatus, whether or not a finger is placed is determined based on the density histogram of a small area as described above. When only the light and dark fingerprint images are obtained, the degree of separation R shown in the above equation (1) becomes very small. On the other hand, when the light source has uneven brightness, even when the finger is not placed, the density histogram of the small area has a certain spread, so that the degree of separation R is relatively large. As a result, depending on the determination threshold for performing the finger placement determination, it is not possible to detect that a blurred finger is placed, or it is erroneously determined that the finger is placed due to unevenness of the light source even though the finger is not placed. There was a problem that judgment was sometimes made.
【0017】また、従来の指紋照合装置は、登録時に指
を置いた位置と照合時に置いた位置がずれていてもその
まま照合するため、ペアになる特徴点が減少し、結果と
して特徴点一致度合いが小さくなり、本人であるにも関
わらず他人と誤って判定してしまうという問題点があっ
た。Further, in the conventional fingerprint collation device, even if the position where the finger is placed at the time of registration and the position where the finger is collated are shifted, the collation is performed as it is. Has been reduced, and the user is erroneously determined to be another person in spite of his / her own identity.
【0018】また、従来の指紋照合装置は、指の弓状紋
か否か、あるいは指先のみが置かれているかの判定を行
っていなかった。指の弓状紋や指先のみの場合には、隆
線方向一致度合を計算する際に正しい位置ずれ量で得ら
れる一致度合いと、正しい位置ずれ量から隆線に直交す
る方向へ外れた時の一致度合いに大きな差がない。その
ため、何らかのノイズによって誤った位置ずれ量を算出
してしまい、これが本人同士の場合でも一致度合いを悪
くし、他人と誤判別してしまうという問題点があった。Further, the conventional fingerprint collating apparatus does not judge whether or not a finger is a bow-shaped pattern or whether only a fingertip is placed. In the case of only a bow-shaped crest or a fingertip of a finger, the degree of coincidence obtained with a correct positional deviation amount when calculating the ridge direction coincidence degree and the degree of coincidence deviating from the correct positional deviation amount in a direction orthogonal to the ridge line There is no significant difference in the degree of coincidence. For this reason, there has been a problem that an erroneous displacement amount is calculated due to some kind of noise, and the degree of coincidence is deteriorated even in the case of the persons themselves, and the person is erroneously determined to be another person.
【0019】更に、従来の指紋照合装置は、特徴点の一
致度合いを計算する際に、すべての特徴点ペアを同じ重
みで扱っていたため、例えば傷やしわ、かすれ等によっ
て生じた擬似特徴点が悪影響をおよぼし、本人と他人の
判別を誤らせてしまうという問題点があった。Further, the conventional fingerprint matching apparatus treats all feature point pairs with the same weight when calculating the degree of coincidence of feature points, so that pseudo feature points generated by, for example, scratches, wrinkles, fading, etc. There is a problem in that it has an adverse effect and causes the person to be incorrectly distinguished from another person.
【0020】この発明は、上述のような問題点を解決す
るためになされたもので、かすれた指が置かれた場合で
も、これを確実に検出することができ、また、指が置か
れていないにも関わらず光源のムラによって指が置かれ
ていると誤判定することを防止することができる指紋照
合装置を提供することを目的とする。また、登録時に指
を置いた位置と照合時に置いた位置がずれていた場合の
誤判別を防止でき、また、何らかのノイズによって誤っ
た位置ずれがあった場合でも、確実に検出でき、しか
も、例えば傷やしわ、かすれ等によって生じた擬似特徴
点の悪影響を受けることなく、確実な判別を行うことが
できる指紋照合装置を提供することを目的とする。SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problems. Even when a blurred finger is placed, it can be reliably detected and the finger is placed. It is an object of the present invention to provide a fingerprint matching device that can prevent erroneous determination that a finger is placed due to unevenness of a light source in spite of absence. In addition, it is possible to prevent erroneous determination when the position where the finger is placed at the time of registration and the position at the time of collation are misaligned, and even if there is an erroneous misalignment due to some noise, it can be reliably detected. It is an object of the present invention to provide a fingerprint collation device capable of performing reliable discrimination without being adversely affected by pseudo feature points generated by scratches, wrinkles, fading, and the like.
【0021】[0021]
【課題を解決するための手段】請求項1の発明に係る指
紋照合装置は、センサによって得られた指紋画像を処理
して特徴データを抽出し、予め登録されている利用者固
有の特徴データと比較することで、利用者が本人か否か
を判定する指紋照合装置において、指紋画像を二値化す
る二値化処理部、該二値化処理部で二値化された指紋画
像を複数のブロックに分割するブロック分割処理部、該
ブロック分割処理部で分割された各ブロック内で所定の
各角度に相当するマスクパターンを走査して方向別のヒ
ストグラムを作成するマスクパターン走査処理部、該マ
スクパターン走査処理部の出力に基づいて各ブロックの
上記方向別ヒストグラムから各ブロックの方向角の安定
性を判定する安定性判定処理部を含む指置き判定手段を
備え、該指置き判定手段が指の置かれている状態を検知
したときのみ特徴抽出および登録データとの照合を行う
ものである。According to a first aspect of the present invention, there is provided a fingerprint matching apparatus which processes a fingerprint image obtained by a sensor to extract feature data, and stores feature data unique to a user registered in advance. In the fingerprint matching device that determines whether or not the user is the user by comparing, a binarization processing unit that binarizes the fingerprint image, a plurality of fingerprint images binarized by the binarization processing unit A block division processing unit for dividing into blocks, a mask pattern scanning processing unit for creating a histogram for each direction by scanning a mask pattern corresponding to a predetermined angle in each block divided by the block division processing unit, and the mask A finger placement determination unit including a stability determination processing unit that determines the stability of the directional angle of each block from the directional histogram of each block based on the output of the pattern scanning processing unit; Means in which performs collation with the observed feature extraction and registration data upon detecting a state of being placed with the finger.
【0022】請求項2の発明に係る指紋照合装置は、請
求項1の発明において、指置き判定手段に接続され、該
指置き判定手段の安定性判定処理部の判定結果に基づい
て各ブロック内の指紋の隆線方向を算出する隆線方向計
算処理部、該隆線方向計算処理部で算出された指紋の隆
線方向に沿って濃淡画像を修正する濃淡画像修正処理
部、該濃淡画像修正処理部における濃淡画像修正結果を
再度二値化する再二値化処理部、該再二値化処理部で再
度二値化された結果を細線化する細線化部、該細線化部
で細線化された画像を走査して該画像の特徴点を検出す
る特徴点検出部を含む特徴抽出手段を備えたものであ
る。According to a second aspect of the present invention, in the first aspect of the present invention, the fingerprint collating device is connected to the finger placing judging means, and based on the judgment result of the stability judging processing section of the finger placing judging means, each of the blocks is stored in each block. A ridge direction calculation processing unit that calculates the ridge direction of the fingerprint of the fingerprint, a gray image correction processing unit that corrects the gray image along the ridge direction of the fingerprint calculated by the ridge direction calculation processing unit, and the gray image correction A re-binarization processing section for re-binarizing the grayscale image correction result in the processing section, a thinning section for thinning the result binarized again in the re-binarization processing section, and a thinning in the thinning section And a feature extracting unit including a feature point detecting unit that scans the obtained image and detects feature points of the image.
【0023】請求項3の発明に係る指紋照合装置は、セ
ンサによって得られた指紋画像を処理して特徴データを
抽出し、予め登録されている利用者固有の特徴データと
比較することで、利用者が本人か否かを判定する指紋照
合装置において、指紋画像を二値化する二値化処理部、
該二値化処理部で二値化された指紋画像を複数のブロッ
クに分割するブロック分割部、該ブロック分割部で分割
された各ブロック内の指紋の隆線方向を算出する隆線方
向計算処理部、微小時間前に入力された上記隆線方向計
算処理部による算出結果を記憶する隆線方向記憶部、現
時刻に入力された画像から上記隆線方向計算処理部で算
出されたブロック毎の指紋の隆線方向と上記隆線方向記
憶部に記憶されている微小時間前のブロック毎の指紋の
隆線方向とを比較してその変化を検出する隆線方向変化
検出処理部、該隆線方向変化検出処理部で変化なしと判
断されたブロックに関して同じ方向角を持ち且つ互いに
隣接しているブロック群を検出しそのかたまり具合を判
定する空間的安定性判定処理部を含む指置き判定手段を
備え、該指置き判定手段が指の置かれている状態を検知
したときのみ特徴抽出および登録データとの照合を行う
ものである。The fingerprint matching device according to the third aspect of the present invention processes the fingerprint image obtained by the sensor to extract characteristic data, and compares the extracted characteristic data with user-registered characteristic data registered in advance. In a fingerprint matching device that determines whether or not the person is the person, a binarization processing unit that binarizes the fingerprint image,
A block division unit for dividing the fingerprint image binarized by the binarization processing unit into a plurality of blocks, and a ridge direction calculation process for calculating a ridge direction of a fingerprint in each block divided by the block division unit Unit, a ridge direction storage unit that stores a calculation result obtained by the ridge direction calculation processing unit input a minute time ago, and a block-by-block calculation unit that calculates the ridge direction calculation processing unit from an image input at the current time. A ridge direction change detection processing unit that compares the ridge direction of the fingerprint with the ridge direction of the fingerprint for each block before the short time stored in the ridge direction storage unit and detects a change in the ridge direction; A finger placement determination unit including a spatial stability determination processing unit that detects a group of blocks having the same direction angle and that are adjacent to each other with respect to the blocks determined to have no change in the direction change detection processing unit and determines the degree of clumping; Equipped, said finger rest Means in which performs collation with the observed feature extraction and registration data upon detecting a state of being placed with the finger.
【0024】請求項4の発明に係る指紋照合装置は、請
求項3の発明において、指置き判定手段に接続され、該
指置き判定手段の空間的安定性判定処理部の判定結果に
基づいて指紋の隆線方向に沿って濃淡画像を修正する濃
淡画像修正処理部、該濃淡画像修正処理部における濃淡
画像修正結果を再度二値化する再二値化処理部、該再二
値化処理部で再度二値化された結果を細線化する細線化
部、該細線化部で細線化された画像を走査して該画像の
特徴点を検出する特徴点検出部を含むものである。According to a fourth aspect of the present invention, in the third aspect of the present invention, the fingerprint collating device is connected to the finger placement judging means, and outputs the fingerprint based on the judgment result of the spatial stability judgment processing section of the finger placing judging means. A gray-scale image correction processing unit that corrects a gray-scale image along the ridge direction, a re-binarization processing unit that binarizes the gray-scale image correction result in the gray-scale image correction processing unit again, and the re-binarization processing unit. It includes a thinning unit for thinning the result of binarization again, and a feature point detecting unit for scanning an image thinned by the thinning unit and detecting a feature point of the image.
【0025】請求項5の発明に係る指紋照合装置は、セ
ンサによって得られた指紋画像を処理して特徴データを
抽出し、予め登録されている利用者固有の特徴データと
比較することで、利用者が本人か否かを判定する指紋照
合装置において、指紋画像を二値化する二値化処理部、
該二値化処理部で二値化された画像を複数のブロックに
分割するブロック分割処理部、該ブロック分割処理部で
分割された各ブロック内を所定の各角度に相当するマス
クパターンを走査して、方向別のヒストグラムを作成す
るマスクパターン走査処理部、該マスクパターン走査処
理部の出力に基づいて各ブロック内の指紋の隆線方向を
算出する隆線方向計算処理部含む第1の特徴抽出手段
と、該第1の特徴抽出手段の出力に基づいて、登録時と
照合時の指の位置ずれ量を計算する位置ずれ量計算部、
該位置ずれ量計算部で算出された位置ずれ量を表示する
位置ずれ量提示部、上記位置ずれ量計算部の出力に基づ
いて位置ずれ量が予め設定された規定範囲以内か否かを
判定する位置ずれ量判定部を含む位置ずれ量検出手段と
を備え、位置ずれ量が予め設定された規定範囲を越えて
いる時には利用者に指の置き直しを指示し、規定範囲内
の場合のみ、予め登録された特徴データとの照合を行い
本人か否かを判定するものである。The fingerprint matching device according to the fifth aspect of the present invention processes the fingerprint image obtained by the sensor to extract characteristic data, and compares the extracted characteristic data with user-registered characteristic data registered in advance. In a fingerprint matching device that determines whether or not the person is the person, a binarization processing unit that binarizes the fingerprint image,
A block division processing unit that divides the image binarized by the binarization processing unit into a plurality of blocks, and scans each of the blocks divided by the block division processing unit with a mask pattern corresponding to a predetermined angle. A first feature extraction including a mask pattern scanning processing unit for creating a histogram for each direction, and a ridge direction calculation processing unit for calculating a ridge direction of a fingerprint in each block based on an output of the mask pattern scanning processing unit Means, and a position shift amount calculation unit for calculating a position shift amount of the finger at the time of registration and at the time of collation based on the output of the first feature extracting means,
A displacement presenter that displays the displacement calculated by the displacement calculator, and determines whether the displacement is within a predetermined range based on the output of the displacement calculator. A position shift amount detection unit including a position shift amount determination unit, and instructs the user to re-place a finger when the position shift amount exceeds a predetermined range. The collation with the registered feature data is performed to determine whether or not the user is the principal.
【0026】請求項6の発明に係る指紋照合装置は、請
求項5の発明において、位置ずれ量検出手段に接続さ
れ、該位置ずれ量検出手段の位置ずれ量判定部の判定結
果に基づいて指紋の隆線方向に沿って濃淡画像を修正す
る濃淡画像修正処理部、該濃淡画像修正処理部における
濃淡画像修正結果を再度二値化する再二値化処理部、該
再二値化処理部で再度二値化された結果を細線化する細
線化部、該細線化部で細線化された画像を走査して該画
像の特徴点を検出する特徴点検出部を含む第2の特徴抽
出手段を備えたものである。According to a sixth aspect of the present invention, in the fingerprint matching device of the fifth aspect, the fingerprint matching device is connected to the displacement amount detecting means, and the fingerprint collating device determines the fingerprint based on the result of the decision by the displacement amount determining section of the displacement amount detecting means. A gray-scale image correction processing unit that corrects a gray-scale image along the ridge direction, a re-binarization processing unit that binarizes the gray-scale image correction result in the gray-scale image correction processing unit again, and the re-binarization processing unit. A second feature extracting unit including a thinning unit for thinning the result of the binarization again, and a feature point detecting unit for scanning an image thinned by the thinning unit and detecting a feature point of the image; It is provided.
【0027】請求項7の発明に係る指紋照合装置は、セ
ンサによって得られた指紋画像を処理して特徴データを
抽出し、予め登録されている利用者固有の特徴データと
比較することで、利用者が本人か否かを判定する指紋照
合装置において、指紋画像を二値化する二値化処理部、
該二値化処理部で二値化された画像を複数のブロックに
分割するブロック分割処理部、該ブロック分割処理部で
分割された各ブロック内を所定の各角度に相当するマス
クパターンを走査して、方向別のヒストグラムを作成す
るマスクパターン走査処理部、該マスクパターン走査処
理部の出力に基づいて各ブロック内の指紋の隆線方向を
算出する隆線方向計算処理部を含む第1の特徴抽出手段
と、該第1の特徴抽出手段の出力に基づいて、複数のブ
ロックに分割された指紋画像の同一の画像から得られた
ブロック別の指紋の隆線方向値を互いに位置をずらしな
がらブロック毎の指紋の隆線方向値の差を計算して自己
相関マップを生成する自己相関演算部、該自己相関演算
部で得られた自己相関マップを処理して指先が置かれた
かまたは弓状紋の指が置かれたかを判定する指先・弓状
紋判定部、該指先・弓状紋判定部で指先または弓状紋の
指と判定されたときに、この結果を表示して、そのまま
登録処理を続行するか、一旦中断して指の置き直しまた
は指の変更を行った後再度登録処理を行うかの判断を外
部即ち利用者または管理者に求める指先・弓状紋提示部
を含む指先・弓状紋検出手段とを備え、登録モードにお
いては指先・弓状紋と判定されなかった場合と、外部即
ち利用者または管理者から登録続行の指示があった場合
のみ特徴データを登録し、照合モードにおいては指先か
否かの判定のみを行って外部の利用者または管理者に指
の置き直しを求めるものである。According to a seventh aspect of the present invention, there is provided a fingerprint collating apparatus which processes a fingerprint image obtained by a sensor to extract characteristic data, and compares the extracted characteristic data with user-registered characteristic data registered in advance. In a fingerprint matching device that determines whether or not the person is the person, a binarization processing unit that binarizes the fingerprint image,
A block division processing unit that divides the image binarized by the binarization processing unit into a plurality of blocks, and scans each of the blocks divided by the block division processing unit with a mask pattern corresponding to a predetermined angle. And a ridge direction calculation processing unit for calculating a ridge direction of a fingerprint in each block based on an output of the mask pattern scanning processing unit. Extracting a ridge direction value of a fingerprint for each block obtained from the same image of the fingerprint image divided into a plurality of blocks based on an output of the extracting means and the first feature extracting means, An autocorrelation calculating unit for calculating a difference between ridge direction values of fingerprints for each fingerprint to generate an autocorrelation map, and processing the autocorrelation map obtained by the autocorrelation calculating unit to place a fingertip or an arcuate pattern of Is determined by the fingertip / bow print determining unit that determines whether the finger is placed, and when the fingertip / bow print fingerprint determination unit determines that the finger is a finger of a finger print or an arc print, the result is displayed and the registration process is continued as it is. Fingertip / bow shape including the fingertip / bow print presenting part that asks the user outside or outside, that is, asks the user or the administrator to determine whether to perform the registration process again after temporarily interrupting and repositioning the finger or changing the finger. The fingerprint data is registered only in the case of not being determined as a fingertip / bow-shaped fingerprint in the registration mode, and only when there is an instruction to continue the registration from the outside, that is, the user or the administrator. Is to judge only the fingertip or not and request an external user or administrator to reposition the finger.
【0028】請求項8の発明に係る指紋照合装置は、請
求項7の発明において、指先・弓状紋検出手段に接続さ
れ、該指先・弓状紋検出手段の指先・弓状紋判定部の判
定結果に基づいて指紋の隆線方向に沿って濃淡画像を修
正する濃淡画像修正処理部、該濃淡画像修正処理部にお
ける濃淡画像修正結果を再度二値化する再二値化処理
部、該再二値化処理部で再度二値化された結果を細線化
する細線化部、該細線化部で細線化された画像を走査し
て該画像の特徴点を検出する特徴点検出部を含む第2の
特徴抽出手段を備えたものである。The fingerprint collating device according to the invention of claim 8 is the invention according to claim 7, wherein the fingerprint collating device is connected to the fingertip / bow print detection means, A gray-scale image correction processing unit that corrects a gray-scale image along the ridge direction of the fingerprint based on the determination result; a re-binarization processing unit that binarizes the gray-scale image correction result in the gray-scale image correction processing unit again; A thinning section for thinning the result of binarization again by the binarization processing section, and a feature point detecting section for scanning an image thinned by the thinning section and detecting a feature point of the image. 2 is provided with feature extraction means.
【0029】請求項9の発明に係る指紋照合装置は、セ
ンサによって得られた指紋画像を処理して特徴データを
抽出し、予め登録されている利用者固有の特徴データと
比較することで、利用者が本人か否かを判定する指紋照
合装置において、少なくとも指紋画像を二値化する二値
化処理部、該二値化処理部で二値化された指紋画像を複
数のブロックに分割するブロック分割部、該ブロック分
割部で分割された各ブロック内を所定の各角度に相当す
るマスクパターンを走査して、方向別のヒストグラムを
作成するマスクパターン走査処理部を含む特徴抽出手段
と、該特徴抽出手段で抽出された各ブロックの方向別ヒ
ストグラムから、各ブロックの方向角の安定性を計算す
る方向角安定性計算手段とを備え、該方向角安定性計算
手段における安定性の計算結果を特徴点に対する信頼性
の重みとして利用して特徴点一致度計算に反映させるも
のである。The fingerprint matching device according to the ninth aspect of the present invention processes the fingerprint image obtained by the sensor to extract characteristic data, and compares the extracted characteristic data with user-registered characteristic data registered in advance. A fingerprint matching device for determining whether or not the user is an identity person; a binarization processing unit that binarizes at least the fingerprint image; and a block that divides the fingerprint image binarized by the binarization processing unit into a plurality of blocks. A feature extracting unit including a dividing unit, a mask pattern scanning processing unit that scans a mask pattern corresponding to each predetermined angle in each of the blocks divided by the block dividing unit, and creates a histogram for each direction; Directional angle stability calculating means for calculating the directional angle stability of each block from the directional histogram of each block extracted by the extracting means; It is intended to reflect the feature point matching degree calculated using the calculation result as a weight of the reliability of the feature points.
【0030】請求項10の発明に係る指紋照合装置は、
請求項9の発明において、特徴抽出手段および方向角安
定性計算手段に接続され、上記特徴抽出手段の出力に基
づいて指紋の隆線方向の一致度を計算する隆線方向一致
度計算部、該隆線方向一致度計算部で算出された指紋の
隆線方向の一致度と上記方向角安定性計算手段で算出さ
れた方向角安定性とを用いて特徴点一致度を計算する特
徴点一致度計算部、該特徴点一致度計算部で算出された
特徴点の一致度に基づいて本人かどうかの判定を行う判
定処理部を含む照合手段を備えたものである。[0030] According to a tenth aspect of the present invention, there is provided a fingerprint collating apparatus.
10. The ridge direction coincidence calculating unit, which is connected to the feature extracting unit and the direction angle stability calculating unit, and calculates the ridge direction coincidence of the fingerprint based on the output of the feature extracting unit. A feature point coincidence that calculates a feature point coincidence using the ridge direction coincidence calculated by the ridge direction coincidence calculator and the directional angle stability calculated by the directional angle stability calculator. A matching unit including a calculation unit and a determination processing unit that determines whether or not the user is a principal based on the matching degree of the feature points calculated by the feature point matching degree calculation unit.
【0031】請求項11の発明に係る指紋照合装置は、
センサによって得られた指紋画像を処理して特徴データ
を抽出し、予め登録されている利用者固有の特徴データ
と比較することで、利用者が本人か否かを判定する指紋
照合装置において、指紋画像を二値化する二値化処理
部、該二値化処理部で二値化された後、複数のブロック
に分割された指紋画像の各ブロック内の指紋の隆線方向
を算出する隆線方向計算処理部と、該隆線方向計算処理
部の出力に基づいて指紋の隆線方向に沿って濃淡画像を
修正する濃淡画像修正処理部、該濃淡画像修正処理部に
おける濃淡画像修正結果を再度二値化する再二値化処理
を含む特徴抽出手段と、濃淡画像修正前後の二値化画像
を複数のブロックに分割した後、ブロック毎に二値化画
像を比較して、その変化点数を計数する変化点計数処理
部、該変化点計数処理部で算出された変化点数に応じて
ブロック毎の重みを計算する重み計算処理部を含む重み
決定手段とを備え、特徴点が存在するブロックの重み
を、その特徴点の信頼度として特徴点一致度計算に反映
させるものである。According to the eleventh aspect of the present invention, there is provided a fingerprint collating apparatus comprising:
In a fingerprint matching device that determines whether or not the user is the user by processing the fingerprint image obtained by the sensor to extract feature data and comparing the feature data with pre-registered user-specific feature data, A binarization processing unit for binarizing an image, and a ridge for calculating a ridge direction of a fingerprint in each block of the fingerprint image which is divided into a plurality of blocks after being binarized by the binarization processing unit A direction calculation processing unit, a gray image correction processing unit that corrects a gray image along the ridge direction of the fingerprint based on the output of the ridge direction calculation processing unit, and a gray image correction result in the gray image correction processing unit. A feature extraction unit including re-binarization processing for binarization, and after dividing the binarized image before and after the grayscale image correction into a plurality of blocks, comparing the binarized image for each block, and calculating the number of points of change. Change point counting section for counting, the change point counting section Weighting means including a weight calculation processing unit for calculating a weight for each block in accordance with the number of change points calculated by the unit, wherein the weight of the block in which the feature point exists is used as the reliability of the feature point. This is reflected in the degree calculation.
【0032】請求項12の発明に係る指紋照合装置は、
請求項11の発明において、特徴抽出手段および重み決
定手段に接続され、上記特徴抽出手段の出力に基づいて
指紋の隆線方向の一致度を計算する隆線方向一致度計算
部、該隆線方向一致度計算部で算出された指紋の隆線方
向の一致度と上記重み決定手段で算出された変化点数に
応じたブロック毎の重みとを用いて特徴点一致度を計算
する特徴点一致度計算部、該特徴点一致度計算部で算出
された特徴点の一致度に基づいて本人かどうかの判定を
行う判定処理部を含む照合手段を備えたものである。[0032] According to a twelfth aspect of the present invention, there is provided a fingerprint collating apparatus.
12. The ridge direction coincidence calculating unit, which is connected to a feature extracting unit and a weight determining unit, and calculates a ridge direction coincidence of a fingerprint based on an output of the feature extracting unit. A feature point coincidence calculation that calculates a feature point coincidence using the coincidence in the ridge direction of the fingerprint calculated by the coincidence calculator and the weight for each block according to the number of change points calculated by the weight determining means And a collation unit including a judgment processing unit for judging the identity of the user based on the coincidence of the feature points calculated by the feature point coincidence calculation unit.
【0033】[0033]
実施の形態1.以下、この発明の一実施の形態を図につ
いて説明する。図1はこの発明の実施の形態1を示す構
成図である。図において、11は画像入力手段であり、
この画像入力手段11としては上述の画像入力手段1と
同様のものが用いられる。12は画像入力手段11に接
続された指置き判定手段、13は指置き判定手段12に
接続された特徴抽出手段、14は特徴抽出手段13に接
続された照合手段である。指置き判定手段12は、二値
化処理と、隆線方向安定性判定処理を行うもので、この
隆線方向安定性判定処理には、ブロック分割処理と、マ
スクパターン走査処理と、安定性判定処理とが含まれ
る。Embodiment 1 FIG. Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a configuration diagram showing Embodiment 1 of the present invention. In the figure, 11 is an image input means,
As the image input means 11, the same as the above-mentioned image input means 1 is used. Reference numeral 12 denotes a finger placement determination unit connected to the image input unit 11, 13 denotes a feature extraction unit connected to the finger placement determination unit 12, and 14 denotes a matching unit connected to the feature extraction unit 13. The finger placement determining means 12 performs a binarizing process and a ridge direction stability determining process. The ridge direction stability determining process includes a block dividing process, a mask pattern scanning process, and a stability determining process. Processing.
【0034】また、特徴抽出手段13は、隆線方向計算
処理、濃淡画像修正処理、再二値化処理、細線化処理、
および特徴点検出処理を行うものである。照合手段14
としては、上述の照合手段4と同様のものが用いられ
る。The feature extracting means 13 includes a ridge direction calculating process, a grayscale image correcting process, a re-binarizing process, a thinning process,
And feature point detection processing. Collation means 14
The same as the above-mentioned matching means 4 is used.
【0035】次に、動作について、図3、図4を参照し
ながら説明する。まず、ステップS21において、画像
入力手段11により画像が取り込まれ、次いで、指置き
判定手段12より、まず二値化処理を行い(ステップS
22)、従来と同様に入力画像を16×16画素のブロ
ックに分割し、各ブロックの平均濃度を閾値として濃淡
画像を二値化する。次いで、二値画像を16×16画素
のブロックに再度分割し(ステップS23)、それぞれ
のブロックで0度、45度、90度、135度の4方向
に相当する3×3画素のマスクパターン(図21参照)
を走査する(ステップS24)。マスクパターンを走査
することで各マスクパターンと一致する画素の頻度(方
向別ヒストグラム)がわかるので、その各マスクパター
ンの頻度を用いて、安定性判定処理即ちブロック内の隆
線方向が安定しているか否かを判定する(ステップS2
5)。Next, the operation will be described with reference to FIGS. First, in step S21, an image is captured by the image input unit 11, and then the binarization process is first performed by the finger placement determination unit 12 (step S21).
22) As in the conventional case, the input image is divided into blocks of 16 × 16 pixels, and the grayscale image is binarized using the average density of each block as a threshold. Next, the binary image is divided again into blocks of 16 × 16 pixels (step S23), and a mask pattern of 3 × 3 pixels corresponding to four directions of 0 °, 45 °, 90 ° and 135 ° in each block (step S23). (See FIG. 21)
Is scanned (step S24). By scanning the mask pattern, the frequency of the pixels that match each mask pattern (histogram for each direction) can be known. Therefore, the stability determination process, that is, the ridge direction in the block is stably performed using the frequency of each mask pattern. Is determined (step S2).
5).
【0036】このステップS25における安定性判定処
理は、例えば下記の式(4)を計算することで実現さ
れ、式(4)の結果隆線方向の安定性Fがあらかじめ設
定された閾値γより小さい場合はそのブロックを背景領
域(指が置かれていない領域)と判定し、隆線方向の安
定性Fが閾値γより大きい場合にはそのブロックには指
が置かれていると判定する。そして、指が置かれている
と判定されたブロックが多い場合には指が置かれたと判
定して次段の特徴抽出手段13における処理(ステップ
S26〜S30)を実行し、指が置かれていると判定さ
れたブロックが少ない場合には指が置かれていない、あ
るいは指の置き方が不十分と判定してステップS21へ
戻る。The stability determination process in step S25 is realized by, for example, calculating the following equation (4). As a result of the equation (4), the stability F in the ridge direction is smaller than a preset threshold value γ. In this case, the block is determined to be a background area (area where no finger is placed), and if the stability F in the ridge direction is larger than the threshold γ, it is determined that a finger is placed in the block. If there are many blocks in which it is determined that the finger is placed, it is determined that the finger is placed, and the processing (steps S26 to S30) in the next stage feature extracting means 13 is executed. If the number of blocks determined to be present is small, it is determined that the finger is not placed or the finger placement is insufficient, and the process returns to step S21.
【0037】 F=|H0−H90|+|H45−H135| (4)F = | H0−H90 | + | H45−H135 | (4)
【0038】なお、式(4)において、H0、H45、
H90、H135はそれぞれステップS24のマスクパ
ターン走査処理で作成された方向別ヒストグラムにおけ
る各方向の頻度である。In the equation (4), H0, H45,
H90 and H135 are the frequencies in each direction in the direction-specific histogram created in the mask pattern scanning process in step S24.
【0039】一例として、背景領域の場合には、例えば
図3に示したように全体的にパターンに一致する画素が
少なかったり(図3(a)参照)、直交する方向の頻度
が同じぐらい存在したりしており(図3(b)参照)、
これは隆線としてはおかしい。一方、指が置かれたブロ
ックでは例えば図4に示したようにいずれか一方向の頻
度が優位になるか(図4(a)参照)、あるいは隣接す
る方向の頻度が同じ程度になる(図4(b)参照)。し
たがって、背景領域では上記式(4)の隆線方向の安定
性Fが小さくなり、指が置かれた領域では隆線方向の安
定性Fが大きくなる。かくして、ここでは、ステップS
22〜S25は指置き判定手段12における処理であ
り、その内のステップS23〜S25が隆線方向検出処
理である。As an example, in the case of the background area, as shown in FIG. 3, for example, as shown in FIG. 3, the number of pixels that match the pattern as a whole is small (see FIG. 3A), or the frequency in the orthogonal direction is almost the same. (See FIG. 3 (b)),
This is strange as a ridge. On the other hand, in the block on which the finger is placed, for example, as shown in FIG. 4, the frequency in one direction becomes dominant (see FIG. 4A), or the frequency in the adjacent direction becomes the same (see FIG. 4A). 4 (b)). Therefore, the stability F in the ridge direction of the above equation (4) decreases in the background region, and the stability F in the ridge direction increases in the region where the finger is placed. Thus, here, step S
Steps S23 to S25 are the ridge direction detection processing in steps S23 to S25.
【0040】次に、特徴抽出手段13により、ステップ
S26において、上述同様に隆線方向計算処理を行い、
方向別ヒストグラムを用いてブロック毎の隆線方向を0
から180度の範囲で求める。次に、ステップS27に
おいて、濃淡画像修正処理を行い、隆線の途切れや癒着
を修正する。これは、まず前記ブロック毎の隆線方向を
8方向に量子化し(図22および図23参照)、この8
方向に量子化された隆線方向に沿ったK×1画素の平均
値フィルタを原画像に施すことで実現される。Next, in step S26, the ridge direction calculation processing is performed by the feature extraction means 13 in the same manner as described above.
The ridge direction for each block is set to 0 using the histogram for each direction.
From 180 degrees. Next, in step S27, a gradation image correction process is performed to correct breaks or adhesion of ridges. First, the ridge direction of each block is quantized into eight directions (see FIGS. 22 and 23).
This is realized by applying an average filter of K × 1 pixels along the ridge direction quantized in the direction to the original image.
【0041】次に、ステップS28において、濃淡画像
修正結果をステップS22の二値化処理と同じ方法で再
度二値化し、そして、ステップS29において、この二
値化結果を細線化し線幅1画素の線図形を得る。そし
て、ステップS30において、特徴点検出処理を行い、
この細線化画像上に3×3画素のマスクパターンを走査
させ、注目点が値「1」であり、かつ周辺8画素の内1
画素のみ値「1」を持つような注目点の座標を端点とし
て抽出し、注目点が値「1」であり、かつ周辺8画素の
内3画素のみ値「1」を持つような注目点の座標を分岐
点として抽出する。同時に特徴点から伸びる隆線を線追
跡して特徴点のベクトル角(図24のθ)を算出してお
く。Next, in step S28, the grayscale image correction result is binarized again in the same manner as in the binarization processing in step S22, and in step S29, the binarization result is thinned to a line width of one pixel. Get a line figure. Then, in step S30, a feature point detection process is performed,
A mask pattern of 3 × 3 pixels is scanned over this thinned image, and the point of interest is a value “1” and one of eight peripheral pixels is one.
The coordinates of the point of interest such that only the pixel has a value of “1” are extracted as an end point. Extract coordinates as branch points. At the same time, the ridge line extending from the feature point is traced to calculate the vector angle of the feature point (θ in FIG. 24).
【0042】このようにして、ステップS26〜S30
における特徴抽出手段13の処理が終わると、次に、次
段の照合手段14では、上述同様にまず、ステップS3
1において、隆線方向一致度計算を行い、隆線の全体的
な流れ方向がどの程度一致しているかを計算する。これ
は、前記ステップS26における隆線方向検出処理によ
って検出されたブロック毎の隆線方向Vd(Bx、B
y)と、本人が事前に登録しておいたブロック毎の隆線
方向Ed(Bx、By)を、水平方向に−Pxから+P
xの範囲および垂直方向に−Pyから+Pyの範囲で平
行移動しながら重ねあわせ、隆線方向が全体的に最も良
く一致する位置を探し、その時の一致度合いを算出する
ものである。具体的には、あるずらし量(px、py)
のときの一致度合いSd(px、py)は上記式(2)
で計算される。Thus, steps S26 to S30
When the processing of the feature extracting means 13 in the above is completed, the collating means 14 in the next stage firstly performs the processing in step S3 as described above.
In 1, the ridge direction matching degree calculation is performed to calculate how much the overall flow direction of the ridges matches. This is because the ridge direction Vd (Bx, Bx) for each block detected by the ridge direction detection process in step S26.
y) and the ridge direction Ed (Bx, By) of each block registered in advance by the subject in the horizontal direction from -Px to + P
The overlapping is performed while moving in parallel in the range of x and the range of -Py to + Py in the vertical direction, a position where the ridge direction is the best overall matches, and the degree of matching at that time is calculated. Specifically, a certain shift amount (px, py)
The degree of coincidence Sd (px, py) at the time of
Is calculated.
【0043】次に、ステップS32において、特徴点一
致度計算を行い、前記ステップS30における特徴点検
出処理で検出された端点および分岐点といった特徴点の
座標やそのベクトル角が、あらかじめ登録されている本
人の特徴点の座標やベクトル角とどの程度一致している
かを計算する。これは登録指紋から検出され、予め登録
されたある特徴点座標と、照合指紋から検出されたある
特徴点座標の距離が近く、かつそれら特徴点のベクトル
角の差が小さいときにこれらの特徴点をペアと考え、上
記式(3)によって全体の特徴点数に対してペアの特徴
点数がどれくらいあるかを計算し、これを特徴点の一致
度とする。最後にステップS33における判定処理で
は、上記隆線方向一致度Sdmin(px、py)が予め
設定された閾値αより小さく、かつ特徴点一致度Smが
予め設定された別の閾値βより大きい場合に本人と判定
し、それ以外は他人と判定する。Next, in step S32, the feature point coincidence calculation is performed, and the coordinates of the feature points such as the end points and the branch points detected in the feature point detection processing in step S30 and their vector angles are registered in advance. Calculate the degree of coincidence with the coordinates and vector angles of the person's feature points. This is because when the distance between certain feature point coordinates detected in advance from the registered fingerprint and certain feature point coordinates detected from the collation fingerprint is short and the difference between the vector angles of these feature points is small, these feature points Is considered as a pair, the number of feature points of the pair is calculated with respect to the total number of feature points by the above equation (3), and this is defined as the coincidence of feature points. Finally, in the determination processing in step S33, the ridge direction coincidence Sdmin (px, py) is smaller than the preset threshold α and the feature point coincidence Sm is larger than another preset threshold β. The person is determined to be the other person, and the others are determined to be others.
【0044】このように、この実施の形態では、検出さ
れる隆線方向が十分安定しているか否かによって指が置
かれているか否かを判定する、つまり、隆線方向を検出
する際に実行するマスクパターン走査でブロック毎に得
られる0度、45度、90度、135度の方向成分比率
を用いて隆線方向の安定性を評価することができる。As described above, in this embodiment, it is determined whether or not the finger is placed based on whether or not the detected ridge direction is sufficiently stable, that is, when detecting the ridge direction. The ridge direction stability can be evaluated using the directional component ratios of 0 °, 45 °, 90 °, and 135 ° obtained for each block in the executed mask pattern scanning.
【0045】実施の形態2.図5はこの発明の実施の形
態2を示す構成図である。なお、図5において、図1と
対応する部分には同一符号を付し、その詳細説明を省略
する。図において、12Aは画像入力手段11に接続さ
れた指置き判定手段、13Aは指置き判定手段12Aに
接続された特徴抽出手段である。指置き判定手段12A
は、二値化処理と、隆線方向安定性判定処理を行うもの
で、この隆線方向安定性判定処理には、ブロック分割処
理と、マスクパターン走査処理と、隆線方向計算処理
と、隆線方向変化検出処理と、空間的安定性判定処理と
が含まれる。また、指置き判定手段12Aは、隆線方向
記憶機能を有する。また、特徴抽出手段13Aは、濃淡
画像修正処理、再二値化処理、細線化処理、および特徴
点検出処理を行うものである。Embodiment 2 FIG. 5 is a configuration diagram showing a second embodiment of the present invention. In FIG. 5, portions corresponding to those in FIG. 1 are denoted by the same reference numerals, and detailed description thereof will be omitted. In the figure, reference numeral 12A denotes a finger placement determination unit connected to the image input unit 11, and 13A denotes a feature extraction unit connected to the finger placement determination unit 12A. Finger placement determination means 12A
Performs a binarization process and a ridge direction stability determination process. The ridge direction stability determination process includes a block division process, a mask pattern scanning process, a ridge direction calculation process, and a ridge direction calculation process. It includes a line direction change detection process and a spatial stability determination process. Further, the finger placement determining means 12A has a ridge direction storage function. The feature extracting unit 13A performs a grayscale image correction process, a re-binarization process, a thinning process, and a feature point detection process.
【0046】次に、動作について、図6を参照しながら
説明する。ステップS21において、画像入力手段11
により画像が取り込まれ、次いで、指置き判定手段12
Aより、ステップS21〜S24までは、上述した図1
の指置き判定手段12におけるステップS21〜S24
と同様の処理を行い、マスクパターンを走査することで
各マスクパターンと一致する画素の頻度(方向別ヒスト
グラム)がわかるので、その各マスクパターンの頻度を
用いてブロック毎の隆線方向を0から180度の範囲で
求める(ステップS34)。また、このステップS34
では、微小時間△前に入力された画像から同様の方法で
求められたブロック毎の隆線方向を記憶する。Next, the operation will be described with reference to FIG. In step S21, the image input unit 11
The image is captured by the
A, steps S21 to S24 are the same as those in FIG.
Steps S21 to S24 in the finger placement determining means 12
By scanning the mask pattern, the frequency (pixel-by-direction histogram) of pixels that match each mask pattern can be determined, and the ridge direction of each block can be changed from 0 using the frequency of each mask pattern. It is determined within a range of 180 degrees (step S34). This step S34
In this example, the ridge direction for each block obtained by the same method from the image input a minute time ago is stored.
【0047】次いで、ステップS35において、隆線方
向変化検出処理を行い、現時刻の画像から求められたブ
ロック毎の隆線方向と、ステップS34での画像から求
められたブロック毎の隆線方向をそれぞれ8方向に量子
化(図22参照)した(8方向に量子化されたものを方
向コードと呼ぶ)後、両者をブロック毎に比較し、方向
が変化したか否かを判断する。そして、隆線方向が変化
していないブロックにはその方向コードをそのまま保持
し、変化したブロックには変化したことを表す特別なコ
ード(例えば−1)を与える。Next, in step S35, ridge direction change detection processing is performed, and the ridge direction of each block obtained from the image at the current time and the ridge direction of each block obtained from the image in step S34 are determined. After quantization in eight directions (see FIG. 22) (the one quantized in eight directions is called a direction code), the two are compared for each block to determine whether the direction has changed. Then, the direction code is held as it is for a block in which the ridge direction has not changed, and a special code (for example, -1) indicating the change is given to the changed block.
【0048】さらに、ステップS36において、空間的
安定性判定処理を行い、ステップS35で変化なしと判
断されたブロックに関して、同じ方向コードを持ち、か
つ互いに隣接している同一コード群を検出し、その同一
コード群の平均的な固まり具合(固まりの面積)を求め
る。そして、その固まり具合が所定値より大きいときに
は、隆線方向が時間的にも空間的にも安定しているとい
うことなので、指が置かれていると判断してステップS
27に進み、特徴抽出手段13Aにおける処理を実行す
る。一方、固まり具合が所定値より小さかったり、方向
コードが変化したブロックが多い場合には、指が十分な
状態で置かれていないと判断してステップS21に戻
る。Further, in step S36, a spatial stability determination process is performed, and the same code group having the same direction code and adjacent to each other is detected for the block determined to have no change in step S35. The average degree of lump (lump area) of the same code group is obtained. If the degree of clumping is larger than the predetermined value, it means that the ridge direction is stable both temporally and spatially, so it is determined that the finger is placed and step S
The process proceeds to 27, where the processing in the feature extracting means 13A is executed. On the other hand, if the degree of clumping is smaller than the predetermined value or if there are many blocks in which the direction code has changed, it is determined that the finger is not placed in a sufficient state, and the process returns to step S21.
【0049】これは、指が十分な状態で置かれていると
きには安定した隆線方向が検出できるとともに微小な時
間の間は変化ぜず、指が置かれていないブロックでは検
出される方向コードが時間とともに変化するような不安
定な状態になるという考え方に基づいている。かくし
て、ここでは、テップS22〜S24、ステップS34
〜S36は指置き判定手段12Aにおける処理であり、
その内のステップS22以外の各ステップが隆線方向安
定性判定処理である。This is because when the finger is placed in a sufficient state, a stable ridge direction can be detected, and it does not change for a very short time. It is based on the idea that it will be unstable with time. Thus, here, steps S22 to S24, step S34
Steps S36 to S36 are processes in the finger placement determination unit 12A,
Each step other than step S22 is the ridge direction stability determination processing.
【0050】なお、以降の特徴抽出手段13Aにおける
ステップS27〜S30の処理は、上述した図1の特徴
抽出手段13におけるステップS27〜S30の処理と
同じであり、また、次段の照合手段14におけるステッ
プS31〜S33の処理も、図1の照合手段14におけ
るステップS31〜S33の処理と同じであるので、そ
の説明を省略する。The subsequent processing of steps S27 to S30 in the feature extracting means 13A is the same as the processing of steps S27 to S30 in the above-described feature extracting means 13 of FIG. The processing in steps S31 to S33 is also the same as the processing in steps S31 to S33 in the matching unit 14 in FIG. 1, and a description thereof will be omitted.
【0051】このように、この実施の形態では、検出さ
れる隆線方向が十分安定しているか否かによって指が置
かれているか否かを判定する、つまり、ある時刻tで検
出されたブロック毎の隆線方向と、微小時間Δ前の時刻
t−Δで検出されたブロック毎の隆線方向とブロック毎
に比較し、時間的に方向が安定しており、かつ空間的に
も安定していることを評価することができる。As described above, in this embodiment, it is determined whether or not the finger is placed based on whether or not the detected ridge direction is sufficiently stable, that is, the block detected at a certain time t. The ridge direction of each block is compared with the ridge direction of each block detected at the time t-Δ before the short time Δ, and the direction is stable temporally and spatially stable. Can be evaluated.
【0052】実施の形態3.図7はこの発明の実施の形
態3を示す構成図である。なお、図7において、図1お
よび図5と対応する部分には同一符号を付し、その詳細
説明を省略する。図において、12Bは画像入力手段1
1に接続された指置き判定手段、13Bは指置き判定手
段12Bに接続された特徴抽出手段(第1の特徴抽出手
段)、15は特徴抽出手段13Bに接続された位置ずれ
検出手段であり、この位置ずれ検出手段15の後段に特
徴抽出手段13A(第2の特徴抽出手段)と照合手段1
4が縦続接続される。Embodiment 3 FIG. FIG. 7 is a configuration diagram showing a third embodiment of the present invention. In FIG. 7, parts corresponding to those in FIGS. 1 and 5 are denoted by the same reference numerals, and detailed description thereof will be omitted. In the figure, 12B is the image input means 1
1 is a finger placement determining means connected to 1; 13B is a feature extracting means (first feature extracting means) connected to the finger placing determining means 12B; 15 is a displacement detecting means connected to the feature extracting means 13B; The feature extracting means 13A (second feature extracting means) and the collating means 1 are provided after the displacement detecting means 15.
4 are cascaded.
【0053】指置き判定手段12Bとしては、ここでは
図17と同様のものを用いてよい。また、特徴抽出手段
13Bは、二値化処理と、隆線方向検出処理を行うもの
で、この隆線方向検出処理には、ブロック分割処理と、
マスクパターン走査処理と、隆線方向計算処理とが含ま
れる。また、位置ずれ検出手段15は、位置ずれ量計算
処理、位置ずれ量提示処理、および位置ずれ量判定処理
を行うものである。As the finger placement judging means 12B, the same one as shown in FIG. 17 may be used here. The feature extracting unit 13B performs a binarization process and a ridge direction detection process. The ridge direction detection process includes a block division process,
A mask pattern scanning process and a ridge direction calculation process are included. Further, the displacement detecting means 15 performs a displacement calculation process, a displacement presentation process, and a displacement determination process.
【0054】次に、動作について、図8および図9を参
照しながら説明する。ステップS21において、画像入
力手段11により画像が取り込まれ、ステップS37で
は、図19のステップS2と同様に、指置き判定手段1
2Bにより入力されたデジタル映像を画像処理して指が
置かれているか否かを判定する。そして、指が置かれて
いないときにはステップS21に戻って再度画像入力手
段11によって画像を取り込み、指が置かれているとき
には、ステップS22進み、特徴抽出手段13Bによる
処理を実行する。Next, the operation will be described with reference to FIGS. In step S21, an image is captured by the image input unit 11, and in step S37, as in step S2 in FIG.
Image processing is performed on the digital video input by 2B to determine whether a finger is placed. When the finger is not placed, the process returns to step S21 to take in the image again by the image input unit 11, and when the finger is placed, the process proceeds to step S22 to execute the processing by the feature extracting unit 13B.
【0055】特徴抽出手段13Bでは、ステップS22
〜S24までは、上述した図1の指置き判定手段12に
おけるステップS21〜S24と同様の処理を行い、ス
テップS26において、マスクパターンを走査すること
で各マスクパターンと一致する画素の頻度(方向別ヒス
トグラム)がわかるので、その各マスクパターンの頻度
を用いてブロック毎の隆線方向を0から180度の範囲
で求める。かくして、ここでは、ステップS22〜S2
6は特徴抽出手段13Bにおける処理であり、その内の
ステップS23〜S26が隆線方向検出処理である。In the feature extracting means 13B, step S22
In steps S21 to S24, the same processing as steps S21 to S24 in the finger placement determination unit 12 in FIG. 1 described above is performed, and in step S26, the frequency of pixels that match each mask pattern by scanning the mask pattern (in each direction) Histogram), the ridge direction of each block is obtained in the range of 0 to 180 degrees using the frequency of each mask pattern. Thus, here, steps S22 to S2
6 is processing in the feature extraction means 13B, and steps S23 to S26 in the processing are ridge direction detection processing.
【0056】次いで、ステップS38において、上述の
ステップS31における隆線方向一致度計算処理と同様
に、ステップS26の隆線方向検出処理で算出されたブ
ロック毎の隆線方向Vd(Bx、By)と、本人が事前
に登録しておいたブロック毎の隆線方向Ed(Bx、B
y)を、水平方向に−Pxから+Pxの範囲および垂直
方向に−Pyから+Pyの範囲で平行移動しながら重ね
あわせ、隆線方向が全体的に最も良く一致する位置を探
す。具体的には、あるずらし量(px、py)のときの
一致度合いSd(px、py)は下記の式(5)で計算
される。Next, in step S38, the ridge direction Vd (Bx, By) for each block calculated in the ridge direction detection processing in step S26 is calculated in the same manner as the ridge direction coincidence calculation processing in step S31. , Ridge direction Ed (Bx, B
y) are overlapped while translating in the horizontal direction in the range from -Px to + Px and in the vertical direction in the range from -Py to + Py, and searching for a position where the ridge direction is the best overall. Specifically, the matching degree Sd (px, py) at a certain shift amount (px, py) is calculated by the following equation (5).
【0057】 Sd(px、py)=(1/Bn)× ΣΣ{Vd(Bx+px、By+py)−Ed(Bx、By)}2 ByBx (5)Sd (px, py) = (1 / Bn) × {Vd (Bx + px, By + py) −Ed (Bx, By)} 2 ByBx (5)
【0058】ここで、Bnは重なっているブロック数を
表す。そしてSdが最小になるpx、pyを決定し、こ
れを指置きの位置ずれ量として利用者に提示する。利用
者の提示方法としては、例えば図9のように位置ずれ量
提示手段としてのモニタやLCD画面15aに位置ずれ
許容範囲15bを描き、現在の指置き位置15cを登録
時の指置き位置からの相対ブロック数で表示する。図の
場合はpx=3ブロック、py=3ブロックの位置ずれ
が検出された場合の表示例を表す。Here, Bn represents the number of overlapping blocks. Then, px and py at which Sd is minimized are determined, and are presented to the user as the amount of displacement of the finger placement. As a method of presenting the user, for example, as shown in FIG. 9, a position deviation allowable range 15b is drawn on a monitor or an LCD screen 15a as a position deviation amount presenting means, and the current finger position 15c is determined from the finger position at the time of registration. Display in relative blocks. In the case of the figure, a display example is shown in the case where a positional shift of px = 3 blocks and py = 3 blocks is detected.
【0059】次いで、ステップS39において、上記ス
テップS38で算出された位置ずれ量が図9に示した位
置ずれ許容範囲16bの範囲に入っているか否かを判定
し、許容範囲に入っている場合は、ステップS27に進
み、次段の特徴抽出手段13Aにおける処理を実行し、
許容範囲に入っていない場合は再度ステップS21に戻
る。一方利用者は位置ずれ量提示画面15aを見ながら
指置き位置15cが位置ずれ許容範囲15bに入るよう
に指位置をずらす。Next, in step S39, it is determined whether or not the amount of positional deviation calculated in step S38 falls within the allowable range of positional deviation 16b shown in FIG. , The process proceeds to step S27, and the process in the next stage feature extraction unit 13A is executed.
If not, the process returns to step S21. On the other hand, the user shifts the finger position while viewing the position shift amount presentation screen 15a such that the finger placement position 15c falls within the position shift allowable range 15b.
【0060】なお、以降の特徴抽出手段13Aにおける
ステップS27〜S30の処理は、上述した図1の特徴
抽出手段13または図5の特徴抽出手段13Aにおける
ステップS27〜S30の処理と同じであり、また、次
段の照合手段14におけるステップS31〜S33の処
理も、図1または図5の照合手段14におけるステップ
S31〜S33の処理と同じであるので、その説明を省
略する。The subsequent processing of steps S27 to S30 in the feature extracting means 13A is the same as the above-described processing of steps S27 to S30 in the feature extracting means 13 in FIG. 1 or 13A in FIG. The processing of steps S31 to S33 in the next stage collating means 14 is the same as the processing of steps S31 to S33 in the collating means 14 of FIG. 1 or FIG.
【0061】このように、この実施の形態では、現在の
指置き位置が登録時の位置とどの程度ずれているかを利
用者に提示することで、利用者が登録時と同じ位置に指
をおけるようにできる。つまり、隆線方向検出処理の直
後に隆線方向一致度合計算を実行し、結果として得られ
る位置ずれ量をユーザーインタフェース装置を介して利
用者に提示することができる。なお、上述では、モニタ
やLCD画面といった視覚的な提示手段を用いたが、位
置ずれ量に応じた音や、規則的に配置したLED等によ
って提示しても同じである。As described above, in this embodiment, by presenting to the user how much the current finger placement position is different from the position at the time of registration, the user can place the finger at the same position as at the time of registration. I can do it. That is, the ridge direction matching degree calculation is executed immediately after the ridge direction detection processing, and the resulting positional deviation amount can be presented to the user via the user interface device. In the above description, a visual presentation means such as a monitor or an LCD screen is used. However, the same applies to a case where the sound is presented in accordance with the amount of misalignment, or an LED is regularly arranged.
【0062】実施の形態4.図10はこの発明の実施の
形態4を示す構成図である。なお、図10において、図
1、図5および図7と対応する部分には同一符号を付
し、その詳細説明を省略する。図において、16は特徴
抽出手段13B(第1の特徴抽出手段1)に接続された
指先・指状紋検出手段であって、自己相関演算処理、指
先・弓状紋判定処理、および指先・弓状紋提示処理を行
うものである。この指先・指状紋検出手段16の後段に
特徴抽出手段13A(第2の特徴抽出手段)と照合手段
14が縦続接続される。Embodiment 4 FIG. 10 is a configuration diagram showing a fourth embodiment of the present invention. In FIG. 10, parts corresponding to those in FIGS. 1, 5, and 7 are denoted by the same reference numerals, and detailed description thereof will be omitted. In the figure, reference numeral 16 denotes a fingertip / fingerprint detection means connected to the feature extraction means 13B (first feature extraction means 1), which performs an autocorrelation calculation process, a fingertip / bow print determination process, and a fingertip / bow print process. This is to perform a pattern printing process. At the subsequent stage of the fingertip / fingerprint detecting means 16, a feature extracting means 13A (second feature extracting means) and a collating means 14 are connected in cascade.
【0063】次に、動作について、図11を参照しなが
ら説明する。ステップS21、S37およびS22〜S
26の処理については、図8の場合と同様であるので、
その説明を省略する。さて、指先・指状紋検出手段16
は、ステップS40において、ステップS26で検出さ
れたブロック毎の方向角を入力として自己相関の計算を
行う。すなわち、ステップS26で検出されたブロック
毎の隆線方向Vd(Bx、By)の複製を作成し、それ
ら水平方向に−Pxから+Pxの範囲および垂直方向に
−Pyから+Pyの範囲で平行移動しながら互いに重ね
あわせ、それぞれのずらし量における隆線方向の一致度
を下記の式(6)で計算する。Next, the operation will be described with reference to FIG. Steps S21, S37 and S22 to S
Since the processing of 26 is the same as that of FIG. 8,
The description is omitted. Now, fingertip / fingerprint detection means 16
Calculates the autocorrelation in step S40 using the direction angle of each block detected in step S26 as an input. That is, a copy is created in the ridge direction Vd (Bx, By) for each block detected in step S26, and the blocks are translated in the horizontal direction within a range from -Px to + Px and vertically in the range from -Py to + Py. Then, the degree of coincidence in the ridge direction at each shift amount is calculated by the following equation (6).
【0064】 Sd(px、py)=(1/Bn)× ΣΣ{Vd(Bx+px、By+py)−Vd(Bx、By)}2 ByBx (6) ここで、Bnは重なっているブロック数を表す。Sd (px, py) = (1 / Bn) × {Vd (Bx + px, By + py) −Vd (Bx, By)} 2 ByBx (6) where Bn represents the number of overlapping blocks.
【0065】次いで、指先・弓状紋検出手段16は、ス
テップS41において、現在照合時かまたは登録時かを
判別し、照合時であればステップS42において、ステ
ップS40で演算した自己相関の結果を使って指先が置
かれていることのみを判定する。そして、指先が置かれ
たと判定されたときには、ステップS43において、例
えばモニタやLCD画面等の指先・弓状紋提示手段(図
示せず)によって利用者或いは管理者にその旨を提示す
る。利用者等はそれが提示された場合には指の腹全面が
プリズムに接するように置き直す。一方処理としては、
置き直された指紋画像を再度入力し処理するためにステ
ップS21に戻る。Next, in step S41, the fingertip / bow print detection means 16 determines whether the current time is the time of collation or the time of registration. If the time is collation, in step S42, the result of the autocorrelation calculated in step S40 is determined. Use to judge only that the fingertip is placed. Then, when it is determined that the fingertip is placed, in step S43, the fact is presented to the user or the administrator by a fingertip / bow print presenting means (not shown) such as a monitor or an LCD screen. When presented, the user or the like repositions the finger so that the entire surface of the finger touches the prism. On the other hand, as processing
The process returns to step S21 in order to input and process the replaced fingerprint image again.
【0066】一方、ステップS41で照合時でない場
合、即ち登録時の場合には、ステップS44において、
同じくステップS40における自己相関の演算結果を使
って指先が置かれているか、あるいは弓状紋の指が置か
れているかを判定する。具体的には、指先や弓状紋はす
べての隆線が直線に近く、かつ平行に流れているので、
隆線に直交する方向にずらして隆線方向一致度を計算し
ても、その値はほとんど変化しない。これは前記自己相
関演算の結果の内、隆線に直交する方向に1ブロックず
らしたときの結果Sdも、数ブロックずらしたときの結
果Sdもほとんど同じ値を出力することを意味してい
る。したがって、指先・弓状紋検出手段16における判
定は、隆線直交する方向に1ブロックずらしたときのS
dと数ブロックずらしたときのSdを比較して、その差
が小さいときには指先か弓状紋が置かれたと判定する。On the other hand, if it is not at the time of collation at step S41, that is, at the time of registration, at step S44,
Similarly, it is determined whether the fingertip is placed or the finger with the bow is placed using the calculation result of the autocorrelation in step S40. Specifically, since all ridges of a fingertip or bow-shaped crest are nearly straight and flow in parallel,
Even if the degree of coincidence in the ridge direction is calculated while being shifted in the direction orthogonal to the ridge, the value hardly changes. This means that among the results of the autocorrelation calculation, the result Sd when shifted by one block in the direction orthogonal to the ridge and the result Sd when shifted by several blocks output almost the same value. Therefore, the determination by the fingertip / bow-shaped pattern detecting means 16 is based on the S when shifting by one block in the direction orthogonal to the ridge.
d is compared with Sd when it is shifted by several blocks, and when the difference is small, it is determined that the fingertip or the bow is placed.
【0067】そして、ステップS44で指先か弓状紋が
置かれたと判定されたときには、上述同様にモニタやL
CD画面等の指先・弓状紋提示手段によって利用者等に
その旨を提示する。次いで、利用者等はそれが提示され
た場合には、ステップS46において、処理変更の指示
があるかどうか、つまり、利用者等がそのままの指で置
き直すか、または指を変更するか、あるいはそのまま登
録を続行するかを判別し、処理変更の指示がある場合、
つまり、利用者等がそのままの指で置き直すか、または
指を変更する場合には、ステップS21に戻って上述の
動作を繰り返し、処理変更の指示がない場合、つまり、
利用者等がそのままの指で登録を続行する場合にはステ
ップS27に進む。When it is determined in step S44 that the fingertip or the bow is placed, the monitor and the L
This is presented to the user or the like by a fingertip / bow print presenting means such as a CD screen. Next, when the user or the like is presented, it is determined in step S46 whether there is an instruction to change the process, that is, whether the user or the like replaces the finger with the finger as it is, changes the finger, or Determine whether to continue registration as it is, and if there is an instruction to change the process,
That is, when the user or the like replaces the finger with the finger as it is or changes the finger, the process returns to step S21 to repeat the above operation, and when there is no instruction to change the process,
If the user or the like continues registration with the finger as it is, the process proceeds to step S27.
【0068】また、ステップS42で指先と判定されな
かった場合、および、ステップS44で指先や弓状紋と
判定されなかった場合には、いずれもステップS27に
進み、特徴点抽出処理以降の処理を実行する。なお、以
降の特徴抽出手段13AにおけるステップS27〜S3
0の処理は、上述した図1の特徴抽出手段13または図
5の特徴抽出手段13AにおけるステップS27〜S3
0と同じであり、また、次段の照合手段14におけるス
テップS31〜S33の処理も、図1または図5の照合
手段14におけるステップS31〜S33と同じである
ので、その説明を省略する。If it is not determined in step S42 that the finger is a fingertip, and if it is not determined in step S44 that the finger is a fingertip or an arcuate pattern, the process proceeds to step S27. Run. Steps S27 to S3 in the subsequent feature extraction means 13A
0 is performed in steps S27 to S3 in the feature extraction unit 13 in FIG. 1 or the feature extraction unit 13A in FIG.
0, and the processing in steps S31 to S33 in the next stage collating means 14 is the same as steps S31 to S33 in the collating means 14 in FIG. 1 or FIG.
【0069】このように、この実施の形態では、隆線方
向検出処理で得られた隆線方向を用いて自己相関を計算
することで登録時には置かれた指が弓状紋か否か、ある
いは指先のみが置かれているか否かを判定し、照合時に
は指先が置かれているか否かを判定し、弓状紋あるいは
指先の場合は指の変更あるいは指の置き直しを利用者に
要求することで、誤判別しやすい状態を回避することが
できる。As described above, in this embodiment, the autocorrelation is calculated using the ridge direction obtained by the ridge direction detection processing, so that the finger placed at the time of registration is an arched pattern or not. To determine whether only the fingertip is placed, to determine whether the fingertip is placed at the time of collation, and to request the user to change or reposition the finger in the case of a bow or a fingertip Thus, it is possible to avoid a state where misjudgment is likely to occur.
【0070】なお、特徴抽出手段13Aおよび照合手段
14は、図5および図7の特徴抽出手段13Aおよび照
合手段14と同じ動作をするが、登録時においては照合
手段14は実行されず、抽出された隆線方向や特徴点を
記憶するにとどまることは言うまでもない。The feature extracting means 13A and the collating means 14 operate in the same manner as the feature extracting means 13A and the collating means 14 shown in FIGS. 5 and 7, except that the collating means 14 is not executed at the time of registration but is extracted. Needless to say, the ridge direction and the feature point are stored.
【0071】実施の形態5.図12はこの発明の実施の
形態5を示す構成図である。なお、図12において、図
1、図5および図10と対応する部分には同一符号を付
し、その詳細説明を省略する。図において、13Cは指
置き判定手段12Bに接続された特徴抽出手段、17は
特徴抽出手段13Cに接続された方向角安定性計算手
段、14Aは特徴抽出手段13Cと方向角安定性計算手
段17に接続された照合手段である。Embodiment 5 FIG. FIG. 12 is a configuration diagram showing a fifth embodiment of the present invention. 12, parts corresponding to those in FIGS. 1, 5, and 10 are denoted by the same reference numerals, and detailed description thereof will be omitted. In the figure, 13C is a feature extraction unit connected to the finger placement determination unit 12B, 17 is a direction angle stability calculation unit connected to the feature extraction unit 13C, and 14A is a feature extraction unit 13C and the direction angle stability calculation unit 17 This is the connected collation means.
【0072】特徴抽出手段13Cとしては、ここでは図
17と同様のものを用いてよい。また、方向角安定性計
算手段17は、上述のマスクパターン走査処理で得られ
たブロック毎の方向別ヒストグラムを用いて、各ブロッ
クの隆線方向がどの程度安定しているかを計算する。ま
た、照合手段14Aは、上述同様の隆線方向一致度計算
処理、本人かどうかの判定処理の外に、方向角安定性計
算手段17で算出された方向角安定性を用いて特徴点一
致度計算処理を行う。As the feature extracting means 13C, the same one as shown in FIG. 17 may be used here. The direction angle stability calculation means 17 calculates how stable the ridge direction of each block is, using the histogram for each block obtained by the above-described mask pattern scanning process. The matching means 14A uses the directional angle stability calculated by the directional angle stability calculating means 17 in addition to the ridge direction coincidence calculating processing and the processing for determining whether or not the user is the same as described above. Perform calculation processing.
【0073】次に、動作について、図13を参照しなが
ら説明する。ステップS21、S37 およびS22〜
S26の処理については、図8の場合と同様であるの
で、その説明を省略する。また、ステップS26の隆線
方向計算処理後のステップS27〜S30の処理につい
ても、図8の場合と同様であるので、その説明を省略す
る。さて、方向角安定性計算手段17は、ステップS4
7において、上述のステップS24のマスクパターン走
査処理で得られたブロック毎の方向別ヒストグラムを用
いて、各ブロックの隆線方向がどの程度安定しているか
を計算する。Next, the operation will be described with reference to FIG. Steps S21, S37 and S22-
The processing in S26 is the same as that in the case of FIG. Also, the processing in steps S27 to S30 after the ridge direction calculation processing in step S26 is the same as that in the case of FIG. By the way, the direction angle stability calculation means 17 determines in step S4
In step 7, the degree of ridge direction of each block is calculated using the histogram for each block obtained in the mask pattern scanning process in step S24.
【0074】また、方向角安定性計算手段17は、上述
のステップS24のマスクパターン走査処理で得られた
ブロック毎の方向別ヒストグラムを用いて、各ブロック
の隆線方向がどの程度安定しているかを計算する。具体
的には、0度方向を示すマスクパターンに一致した画素
数をH0、45度方向を示すマスクパターンに一致した
画素数をH45、90度と135度方向を示すマスクパ
ターンに一致した画素数をH90とH135とすると
き、ブロック毎の隆線方向安定性Fは下記の式(7)で
計算される。The direction angle stability calculation means 17 uses the direction-specific histogram for each block obtained in the mask pattern scanning process in step S24 to determine how stable the ridge direction of each block is. Is calculated. Specifically, the number of pixels matching the mask pattern indicating the 0-degree direction is H0, the number of pixels matching the mask pattern indicating the 45-degree direction is H45, and the number of pixels matching the mask patterns indicating the 90-degree and 135-degree directions. Are H90 and H135, the ridge direction stability F for each block is calculated by the following equation (7).
【0075】 F=|H0−H90|+|H45−H135| (7)F = | H0−H90 | + | H45−H135 | (7)
【0076】次いで、照合手段14Aは、上述同様にま
ず、ステップS31において、隆線方向一致度計算を行
い、隆線の全体的な流れ方向がどの程度一致しているか
を計算する。つまり、ブロック毎の隆線方向をあらかじ
め登録されている本人の隆線方向と比較し、どの程度一
致しているかを計算する。そして、ステップS48にお
いて、方向角安定性計算手段17で計算されたブロック
毎の隆線方向の安定性Fを用いて特徴点の一致度を計算
する。すなわち、上述同様に登録特徴点と照合特徴点で
一致するペア特徴点を見つけだす。一方、各特徴点が属
するブロックの隆線方向の安定性Fを信頼性に関する重
みとしてそれぞれの特徴点に与え、その特徴点に与えら
れた重みを用いた下記の式(8)によって特徴点一致度
を計算する。Next, in the same manner as described above, first, in step S31, the matching means 14A calculates the degree of coincidence of the ridge direction, and calculates the degree of coincidence of the overall flow direction of the ridge. That is, the ridge direction of each block is compared with the ridge direction of the person registered in advance, and the degree of coincidence is calculated. In step S48, the degree of coincidence of the feature points is calculated using the ridge direction stability F for each block calculated by the directional angle stability calculation means 17. That is, as described above, a paired feature point that matches the registered feature point and the matching feature point is found. On the other hand, the stability F in the ridge direction of the block to which each feature point belongs is given to each feature point as a weight related to reliability, and the feature point coincidence is calculated by the following equation (8) using the weight given to the feature point. Calculate the degree.
【0077】 Sm=Σ(Fpe+Fpv)/(ΣFe+ΣFv) (8)Sm = Σ (Fpe + Fpv) / (ΣFe + ΣFv) (8)
【0078】ここで、Feは登録されている各特徴点の
重みであり、Fvは照合指紋から検出された各特徴点の
重みである。また、Fpeは登録特徴点と照合特徴点の
間でペアになった特徴点の内、登録特徴点側の重みであ
り、Fpvは照合特徴点側の重みである。なお、登録特
徴点の重みは、登録時に同じ処理によって決定されてお
り、ほかの特徴データとともに記憶されているものとす
る。最後にステップS33における判定処理では、上述
同様の隆線方向一致度計算処理(ステップS31)の結
果と、本実施の形態特有の特徴点一致度計算処理(ステ
ップS48)の結果を用いて本人か否かを判定する。即
ち、隆線方向一致度Sdmin(px、py)が予め設定
された閾値αより小さく、かつ特徴点一致度Smが予め
設定された別の閾値βより大きい場合に本人と判定し、
それ以外は他人と判定する。Here, Fe is the weight of each registered feature point, and Fv is the weight of each feature point detected from the collation fingerprint. Fpe is the weight on the registered feature point side, and Fpv is the weight on the collated feature point side, out of the feature points paired between the registered feature point and the matching feature point. It is assumed that the weights of the registered feature points are determined by the same processing at the time of registration, and are stored together with other feature data. Finally, in the determination processing in step S33, the user is determined using the result of the ridge direction coincidence calculation processing (step S31) similar to that described above and the result of the characteristic point coincidence calculation processing (step S48) unique to the present embodiment. Determine whether or not. In other words, when the ridge direction coincidence Sdmin (px, py) is smaller than a preset threshold α and the feature point coincidence Sm is larger than another preset threshold β, it is determined that the user is a person,
Otherwise, it is determined to be another person.
【0079】このように、この実施の形態では、特徴点
周辺の隆線方向の安定性を用いて特徴点の信頼性を評価
し、該評価結果に基づいて特徴点一致度合いを計算する
ことで本人か他人かの判別能力を向上することができ
る。As described above, in this embodiment, the reliability of a feature point is evaluated using the stability of the ridge direction around the feature point, and the degree of matching of the feature points is calculated based on the evaluation result. It is possible to improve the ability of discriminating a person or another person.
【0080】実施の形態6.図14はこの発明の実施の
形態6を示す構成図である。なお、図14において、図
1、図5、図10および図12と対応する部分には同一
符号を付し、その詳細説明を省略する。図において、1
8は特徴抽出手段13Cに接続された重み決定手段、1
4Bは特徴抽出手段13Cと重み決定手段18に接続さ
れた照合手段である。重み決定手段18は変化点計数処
理および重み計算処理を行うもので、濃淡画像修正処理
前後の二値画像を比較してブロック毎の画像の安定性を
評価し、特徴点の重みを決定する。また、照合手段14
Bは上述同様の隆線方向一致度計算処理、本人かどうか
の判定処理の外に、重み決定手段18で計算されたブロ
ック毎の重みを用いて特徴点の一致度を計算する。Embodiment 6 FIG. FIG. 14 is a configuration diagram showing Embodiment 6 of the present invention. In FIG. 14, the same reference numerals are given to portions corresponding to FIGS. 1, 5, 10, and 12, and the detailed description thereof will be omitted. In the figure, 1
8 is a weight determining means connected to the feature extracting means 13C,
4B is a matching unit connected to the feature extracting unit 13C and the weight determining unit 18. The weight determining means 18 performs a change point counting process and a weight calculating process, compares the binary images before and after the grayscale image correction process, evaluates the stability of the image for each block, and determines the weight of the feature point. Also, the collating means 14
B calculates the degree of coincidence of the feature points using the weight for each block calculated by the weight determining means 18 in addition to the ridge direction coincidence degree calculation processing and the identity determination processing as described above.
【0081】次に、動作について、図15を参照しなが
ら説明する。ステップS21、S37 およびS22〜
S26の処理については、図8の場合と同様であるの
で、その説明を省略する。また、ステップS26の隆線
方向計算処理後のステップS27〜S30の処理につい
ても、図8の場合と同様であるので、その説明を省略す
る。さて、重み決定手段18は、ステップS49および
S50において、濃淡画像修正処理前後の二値画像を比
較してブロック毎の画像の安定性を評価し、特徴点の重
みを決定する。Next, the operation will be described with reference to FIG. Steps S21, S37 and S22-
The processing in S26 is the same as that in the case of FIG. Also, the processing in steps S27 to S30 after the ridge direction calculation processing in step S26 is the same as that in the case of FIG. Now, in steps S49 and S50, the weight determination means 18 compares the binary images before and after the gray-scale image correction processing, evaluates the stability of the image for each block, and determines the weight of the feature point.
【0082】具体的には、例えば濃淡画像修正前のある
ブロックの濃淡画像が図16の参照番号100で示すよ
うなものであり、ステップS27において参照番号10
2で示すようなものに修正されたとする。その時のそれ
ぞれの二値化結果は参照番号104と106で示すよう
なものになる。そして、変化点計数処理(ステップS4
9)ではこれら二値画像の差をとって参照番号108で
示すような結果を得、この変化分の画素数を計数する。
また、奇数の参照番号101、103、105、107
および109の場合も同様である。Specifically, for example, the gray scale image of a certain block before the gray scale image correction is as shown by reference numeral 100 in FIG.
Suppose that it has been modified to the one shown in 2. The respective binarization results at that time are as shown by reference numerals 104 and 106. Then, the change point counting process (step S4)
In 9), the difference between these binary images is obtained to obtain a result indicated by reference numeral 108, and the number of pixels corresponding to the change is counted.
Also, odd reference numbers 101, 103, 105, 107
The same applies to the cases 109 and 109.
【0083】次いで、重み計算処理(ステップS50)
では、上記変化点計数処理の結果であるブロック毎の変
化画素数を用いて各ブロックの信頼性を表す重みWを計
算する。この場合、例えば下記の式(9)のように変化
画素が少ない場合には重みが大きく、変化画素が多い場
合には重みが小さくなるようにする。Next, a weight calculation process (step S50)
Then, the weight W representing the reliability of each block is calculated using the number of changed pixels for each block, which is the result of the change point counting process. In this case, for example, as shown in the following equation (9), the weight is large when the number of changed pixels is small, and the weight is small when the number of changed pixels is large.
【0084】 W=1−(G/Q) (9) ここで、Gは変化点計数処理の結果であるブロック毎の
変化画素数であり、Qはブロックの面積である。W = 1− (G / Q) (9) Here, G is the number of changed pixels for each block as a result of the change point counting process, and Q is the area of the block.
【0085】次いで、照合手段14Bは、上述同様にま
ず、ステップS31において、隆線方向一致度計算を行
い、隆線の全体的な流れ方向がどの程度一致しているか
を計算する。つまり、ブロック毎の隆線方向をあらかじ
め登録されている本人の隆線方向と比較し、どの程度一
致しているかを計算する。そして、ステップS51にお
いて、重み決定手段18で決定されたブロック毎の重み
Wを用いて特徴点の一致度を計算する。すなわち、上述
同様の方法で登録特徴点と照合特徴点で一致するペア特
徴点を見つけだす。一方、各特徴点が属するブロックの
重みWを信頼性に関する重みとしてそれぞれの特徴点に
与え、その特徴点に与えられた重みを用いた下記の式
(10)によって特徴点一致度を計算する。Next, in the same manner as described above, first, in step S31, the collating means 14B calculates the degree of coincidence of the ridge direction, and calculates the degree of coincidence of the entire flow direction of the ridge. That is, the ridge direction of each block is compared with the ridge direction of the person registered in advance, and the degree of coincidence is calculated. Then, in step S51, the degree of coincidence of the feature points is calculated using the weight W for each block determined by the weight determining means 18. That is, a paired feature point that matches the registered feature point and the matching feature point is found by the same method as described above. On the other hand, the weight W of the block to which each feature point belongs is given to each feature point as a weight relating to reliability, and the feature point coincidence is calculated by the following equation (10) using the weight given to the feature point.
【0086】 Sm=Σ(Wpe+Wpv)/(ΣWe+ΣWv) (10)Sm = Σ (Wpe + Wpv) / (ΣWe + ΣWv) (10)
【0087】ここで、Weは登録されている各特徴点の
重みであり、Wvは照合指紋から検出された各特徴点の
重みである。また、Wpeは登録特徴点と照合特徴点の
間でペアになった特徴点の内、登録特徴点側の重みであ
り、Wpvは照合特徴点側の重みである。なお、登録特
徴点の重みは、登録時に同じ処理によって決定されてお
り、ほかの特徴データとともに記憶されているものとす
る。Here, We is the weight of each registered feature point, and Wv is the weight of each feature point detected from the collation fingerprint. Wpe is the weight on the registered feature point side, and Wpv is the weight on the collated feature point side, of the feature points paired between the registered feature point and the matching feature point. It is assumed that the weights of the registered feature points are determined by the same processing at the time of registration, and are stored together with other feature data.
【0088】最後にステップS33における判定処理で
は、上述同様の隆線方向一致度計算処理(ステップS3
1)の結果と、本実施の形態特有の特徴点一致度計算処
理(ステップS51)の結果を用いて本人か否かを判定
する。即ち、隆線方向一致度Sdmin(px、py)が
予め設定された閾値αより小さく、かつ特徴点一致度S
mが予め設定された別の閾値βより大きい場合に本人と
判定し、それ以外は他人と判定する。Finally, in the determination processing in step S33, the ridge direction coincidence degree calculation processing (step S3
Using the result of 1) and the result of the characteristic point matching degree calculation processing (step S51) unique to the present embodiment, it is determined whether or not the user is the principal. That is, the ridge direction coincidence Sdmin (px, py) is smaller than the preset threshold α, and the feature point coincidence S
If m is larger than another preset threshold value β, it is determined that the person is the person, otherwise, it is determined that the person is another person.
【0089】このように、この実施の形態では、特徴点
周辺の隆線方向の安定性や、二値画像の安定性を用いて
特徴点の信頼性を評価し、該評価結果を重みとして特徴
点一致度合いを計算することで本人か他人かの判別能力
を向上することができる。As described above, in this embodiment, the reliability of a feature point is evaluated using the stability of the ridge direction around the feature point and the stability of the binary image, and the evaluation result is used as a weight. By calculating the degree of point matching, it is possible to improve the ability of discriminating a person or another person.
【0090】[0090]
【発明の効果】以上のように、この発明によれば、指紋
画像を二値化する二値化処理部、該二値化処理部で二値
化された指紋画像を複数のブロックに分割するブロック
分割処理部、外部ブロック分割処理部で分割された各ブ
ロック内で所定の各角度に相当するマスクパターンを走
査して方向別のヒストグラムを作成するマスクパターン
走査処理部、該マスクパターン走査処理部の出力に基づ
いて各ブロックの上記方向別ヒストグラムから各ブロッ
クの方向角の安定性を判定する安定性判定処理部を含む
指置き判定手段を備え、該指置き判定手段が指の置かれ
ている状態を検知したときのみ特徴抽出および登録デー
タとの照合を行うので、かすれた指では確定しなかった
り指を置いていないのに置かれたと誤判定することな
く、安定確実な指置き判定ができるという効果がある。As described above, according to the present invention, a binarization processing unit for binarizing a fingerprint image, and the fingerprint image binarized by the binarization processing unit is divided into a plurality of blocks. A block division processing unit, a mask pattern scanning processing unit that scans a mask pattern corresponding to each predetermined angle in each block divided by the external block division processing unit to create a histogram for each direction, and the mask pattern scanning processing unit And a finger placement determination unit including a stability determination processing unit that determines the stability of the directional angle of each block from the directional histogram of each block based on the output of the block. Only when the state is detected, feature extraction and collation with the registered data are performed, so that the finger is not fixed with a blurred finger or erroneously determined that the finger has not been placed, and is stably and reliably placed. There is an effect that it is judgment.
【0091】また、この発明によれば、指紋画像を二値
化する二値化処理部、該二値化処理部で二値化された指
紋画像を複数のブロックに分割するブロック分割部、該
ブロック分割部で分割された各ブロック内の指紋の隆線
方向を算出する隆線方向計算処理部、微小時間前に入力
された上記隆線方向計算処理部による算出結果を記憶す
る隆線方向記憶部、現時刻に入力された画像から上記隆
線方向計算処理部で算出されたブロック毎の指紋の隆線
方向と上記隆線方向記憶部に記憶されている微小時間前
のブロック毎の指紋の隆線方向とを比較してその変化を
検出する隆線方向変化検出処理部、該隆線方向変化検出
処理部で変化なしと判断されたブロックに関して同じ方
向角を持ち且つ互いに隣接しているブロック群を検出し
そのかたまり具合を判定する空間的安定性判定処理部を
含む指置き判定手段を備え、該指置き判定手段が指の置
かれている状態を検知したときのみ特徴抽出および登録
データとの照合を行うので、かすれた指では確定しなか
ったり指を置いていないのに置かれたと誤判定すること
なく、安定確実な指置き判定ができるという効果があ
る。Further, according to the present invention, a binarization processing section for binarizing a fingerprint image, a block division section for dividing the fingerprint image binarized by the binarization processing section into a plurality of blocks, A ridge direction calculation processing unit that calculates a ridge direction of a fingerprint in each block divided by the block division unit, and a ridge direction storage that stores a calculation result obtained by the ridge direction calculation processing unit input a short time ago. Unit, the ridge direction of the fingerprint for each block calculated by the ridge direction calculation processing unit from the image input at the current time and the fingerprint of the block for a minute time ago stored in the ridge direction storage unit. A ridge direction change detection processing unit that compares the ridge direction with the ridge direction to detect a change in the ridge direction, and blocks that have the same direction angle and are adjacent to each other with respect to the blocks determined to be unchanged by the ridge direction change detection processing unit Detecting groups and how much they are A finger placement determination unit including a spatial stability determination processing unit for determination is provided, and only when the finger placement determination unit detects a state where the finger is placed, the feature extraction and the comparison with the registered data are performed. There is an effect that a stable and reliable finger placement determination can be performed without erroneously determining that the finger has not been set or the finger has not been placed.
【0092】また、この発明によれば、指紋画像を二値
化する二値化処理部、該二値化処理部で二値化された画
像を複数のブロックに分割するブロック分割処理部、該
ブロック分割処理部で分割された各ブロック内を所定の
各角度に相当するマスクパターンを走査して、方向別の
ヒストグラムを作成するマスクパターン走査処理部、該
マスクパターン走査処理部の出力に基づいて各ブロック
内の指紋の隆線方向を算出する隆線方向計算処理部含む
第1の特徴抽出手段と、該第1の特徴抽出手段の出力に
基づいて、登録時と照合時の指の位置ずれ量を計算する
位置ずれ量計算部、該位置ずれ量計算部で算出された位
置ずれ量を表示する位置ずれ量提示部、上記位置ずれ量
計算部の出力に基づいて位置ずれ量が予め設定された規
定範囲以内か否かを判定する位置ずれ量判定部を含む位
置ずれ量検出手段とを備え、位置ずれ量が予め設定され
た規定範囲を越えている時には外部の利用者や管理者に
指の置き直しを指示し、規定範囲内の場合のみ、予め登
録された特徴データとの照合を行い本人か否かを判定す
るので、登録時と照合時に指を置く位置が大きくずれ
ず、以て、本人同士の特徴点一致度合いを計算する際に
特徴点がペアになる確率が大きくなり、本人と他人の判
別能力が向上するという効果がある。Further, according to the present invention, a binarization processing section for binarizing a fingerprint image, a block division processing section for dividing an image binarized by the binarization processing section into a plurality of blocks, A mask pattern scanning processing unit that scans a mask pattern corresponding to each predetermined angle in each block divided by the block division processing unit and creates a histogram for each direction, based on an output of the mask pattern scanning processing unit A first feature extraction unit including a ridge direction calculation processing unit for calculating a ridge direction of a fingerprint in each block; and a positional shift of the finger between registration and collation based on an output of the first feature extraction unit. A position shift amount calculation unit for calculating the amount, a position shift amount presentation unit for displaying the position shift amount calculated by the position shift amount calculation unit, and a position shift amount based on an output of the position shift amount calculation unit. Whether it is within the specified range A position shift amount detection unit including a position shift amount determination unit for determining, and when the position shift amount exceeds a predetermined range, an external user or an administrator is instructed to reposition a finger, and the Only when it is within the range, it is compared with the previously registered feature data and it is determined whether or not the user is the subject. Has the effect of increasing the probability that feature points will be paired when calculating, and improving the ability to discriminate between the subject and another person.
【0093】また、この発明によれば、指紋画像を二値
化する二値化処理部、該二値化処理部で二値化された画
像を複数のブロックに分割するブロック分割処理部、該
ブロック分割処理部で分割された各ブロック内を所定の
各角度に相当するマスクパターンを走査して、方向別の
ヒストグラムを作成するマスクパターン走査処理部、該
マスクパターン走査処理部の出力に基づいて各ブロック
内の指紋の隆線方向を算出する隆線方向計算処理部を含
む第1の特徴抽出手段と、該第1の特徴抽出手段の出力
に基づいて、複数のブロックに分割された指紋画像の同
一の画像から得られたブロック別の指紋の隆線方向値を
互いに位置をずらしながらブロック毎の指紋の隆線方向
値の差を計算して自己相関マップを生成する自己相関演
算部、該自己相関演算部で得られた自己相関マップを処
理して指先が置かれたかまたは弓状紋の指が置かれたか
を判定する指先・弓状紋判定部、該指先・弓状紋判定部
で指先または弓状紋の指と判定されたときに、この結果
を表示して、そのまま登録処理を続行するか、一旦中断
して指の置き直しまたは指の変更を行った後再度登録処
理を行うかの判断を外部即ち利用者または管理者に求め
る指先・弓状紋提示部を含む指先・弓状紋検出手段とを
備え、登録モードにおいては指先・弓状紋と判定されな
かった場合と、外部の利用者または管理者による登録続
行の指示があった場合のみ特徴データを登録し、照合モ
ードにおいては指先か否かの判定のみを行って利用者ま
たは管理者に指の置き直しを求めるので、隆線方向一致
度合の計算時に位置ずれ量の判定を誤ることがなくな
り、以て、その後の特徴点一致度合の計算でも本人同士
の場合には高い一致度合いが期待でき、本人と他人の判
別能力が向上するという効果がある。Further, according to the present invention, a binarization processing section for binarizing a fingerprint image, a block division processing section for dividing an image binarized by the binarization processing section into a plurality of blocks, A mask pattern scanning processing unit that scans a mask pattern corresponding to each predetermined angle in each block divided by the block division processing unit and creates a histogram for each direction, based on an output of the mask pattern scanning processing unit A first feature extraction unit including a ridge direction calculation processing unit for calculating a ridge direction of a fingerprint in each block, and a fingerprint image divided into a plurality of blocks based on an output of the first feature extraction unit An autocorrelation calculation unit that calculates the difference between the ridge direction values of the fingerprint of each block while shifting the positions of the ridge direction values of the fingerprint of each block obtained from the same image to generate an autocorrelation map, Autocorrelation A fingertip / bow print determining unit that processes the autocorrelation map obtained by the arithmetic unit to determine whether a fingertip is placed or a finger with an arch print is placed, When it is determined that the finger is an arched finger, whether to display the result and continue the registration processing as it is, or to suspend the registration once and then re-register the finger and then perform the registration processing again A fingertip / bow print detection unit including a fingertip / bow print presentation unit for requesting a determination from the outside, that is, a user or an administrator, and in the registration mode, when the fingertip / bow print is not determined, The feature data is registered only when the user or the administrator instructs to continue the registration, and in the verification mode, only the determination of the fingertip is performed, and the user or the administrator is asked to replace the finger. Judgment of misregistration amount when calculating line direction coincidence Eliminates Rukoto, than Te, can be expected is higher matching degree in the case between the person in the calculation of the subsequent characteristic points matching degree, the effect of improving the person and others discrimination performance.
【0094】また、この発明によれば、少なくとも指紋
画像を二値化する二値化処理部、該二値化処理部で二値
化された指紋画像を複数のブロックに分割するブロック
分割部、該ブロック分割部で分割された各ブロック内を
所定の各角度に相当するマスクパターンを走査して、方
向別のヒストグラムを作成するマスクパターン走査処理
部を含む特徴抽出手段と、該特徴抽出手段で抽出された
各ブロックの方向別ヒストグラムから、各ブロックの方
向角の安定性を計算する方向角安定性計算手段とを備
え、該方向角安定性計算手段における安定性の計算結果
を特徴点に対する信頼性の重みとして利用して特徴点一
致度計算に反映させるので、例えば傷やしわ、かすれ等
が原因で生じた擬似特徴点の重みを小さくでき、以て、
本人と他人の判別能力が向上するという効果がある。According to the present invention, at least a binarization processing section for binarizing a fingerprint image, a block division section for dividing the fingerprint image binarized by the binarization processing section into a plurality of blocks, A feature extraction unit including a mask pattern scanning processing unit that scans a mask pattern corresponding to each predetermined angle in each block divided by the block division unit and creates a histogram for each direction; Directional angle stability calculating means for calculating the stability of the directional angle of each block from the extracted histogram for each direction of the block; Since it is used as the weight of the gender and reflected in the feature point coincidence calculation, for example, the weight of the pseudo feature point generated due to scratches, wrinkles, blurring, etc. can be reduced,
This has the effect of improving the ability to discriminate between the person and another person.
【0095】また、この発明によれば、指紋画像を二値
化する二値化処理部、該二値化処理部で二値化された
後、複数のブロックに分割された指紋画像の各ブロック
内の指紋の隆線方向を算出する隆線方向計算処理部と、
該隆線方向計算処理部の出力に基づいて指紋の隆線方向
に沿って濃淡画像を修正する濃淡画像修正処理部、該濃
淡画像修正処理部における濃淡画像修正結果を再度二値
化する再二値化処理を含む特徴抽出手段と、濃淡画像修
正前後の二値化画像を複数のブロックに分割した後、ブ
ロック毎に二値化画像を比較して、その変化点数を計数
する変化点計数処理部、該変化点計数処理部で算出され
た変化点数に応じてブロック毎の重みを計算する重み計
算処理部を含む重み決定手段とを備え、特徴点が存在す
るブロックの重みを、その特徴点の信頼度として特徴点
一致度計算に反映させるので、例えば傷やしわ、かすれ
等が原因で生じた擬似特徴点の重みを小さくでき、以
て、本人と他人の判別能力が向上するという効果があ
る。Further, according to the present invention, a binarization processing section for binarizing a fingerprint image, and each block of the fingerprint image divided into a plurality of blocks after being binarized by the binarization processing section A ridge direction calculation processing unit that calculates the ridge direction of the fingerprint in the
A gray-scale image correction processing unit that corrects a gray-scale image along the ridge direction of a fingerprint based on the output of the ridge direction calculation processing unit, and a binarization unit that binarizes the gray-scale image correction result in the gray-scale image correction processing unit again A feature extraction unit including a binarization process; and a change point counting process of dividing the binarized image before and after the grayscale image correction into a plurality of blocks, comparing the binarized images for each block, and counting the number of change points. And a weight determination unit including a weight calculation processing unit that calculates a weight for each block in accordance with the number of change points calculated by the change point counting processing unit. Is reflected in the feature point coincidence calculation, so that the weight of pseudo feature points caused by, for example, scratches, wrinkles, blurring, etc. can be reduced, thereby improving the discrimination ability between the subject and others. is there.
【図1】この発明の実施の形態1を示す構成図である。FIG. 1 is a configuration diagram showing a first embodiment of the present invention.
【図2】この発明の実施の形態1の動作説明に供するた
めのフローチャートである。FIG. 2 is a flowchart for explaining the operation of the first embodiment of the present invention;
【図3】この発明の実施の形態1における背景領域での
マスクパターン頻度の例を示す図である。FIG. 3 is a diagram showing an example of a mask pattern frequency in a background region according to the first embodiment of the present invention.
【図4】 この発明の実施の形態1における指が置かれ
た領域でのマスクパターン頻度の例を示す図である。FIG. 4 is a diagram illustrating an example of a mask pattern frequency in a region where a finger is placed according to the first embodiment of the present invention;
【図5】この発明の実施の形態2を示す構成図である。FIG. 5 is a configuration diagram showing a second embodiment of the present invention.
【図6】この発明の実施の形態2の動作説明に供するた
めのフローチャートである。FIG. 6 is a flowchart for explaining the operation of the second embodiment of the present invention;
【図7】この発明の実施の形態3を示す構成図である。FIG. 7 is a configuration diagram showing a third embodiment of the present invention.
【図8】この発明の実施の形態3の動作説明に供するた
めのフローチャートである。FIG. 8 is a flowchart for explaining the operation of the third embodiment of the present invention;
【図9】 この発明の実施の形態3における位置ずれ量
の表示状態を例示する図である。FIG. 9 is a diagram illustrating a display state of a displacement amount according to the third embodiment of the present invention;
【図10】この発明の実施の形態4を示す構成図であ
る。FIG. 10 is a configuration diagram showing a fourth embodiment of the present invention.
【図11】この発明の実施の形態4の動作説明に供する
ためのフローチャートである。FIG. 11 is a flowchart for explaining the operation of the fourth embodiment of the present invention;
【図12】この発明の実施の形態5を示す構成図であ
る。FIG. 12 is a configuration diagram showing a fifth embodiment of the present invention.
【図13】この発明の実施の形態5の動作説明に供する
ためのフローチャートである。FIG. 13 is a flowchart for explaining the operation of the fifth embodiment of the present invention;
【図14】この発明の実施の形態6を示す構成図であ
る。FIG. 14 is a configuration diagram showing a sixth embodiment of the present invention.
【図15】この発明の実施の形態6の動作説明に供する
ためのフローチャートである。FIG. 15 is a flowchart for describing an operation according to the sixth embodiment of the present invention;
【図16】この発明の実施の形態6における二値化画像
の変化を例示する図である。FIG. 16 is a diagram illustrating a change in a binarized image according to the sixth embodiment of the present invention.
【図17】従来の指紋照合装置を示す構成図である。FIG. 17 is a configuration diagram showing a conventional fingerprint matching device.
【図18】指紋画像入力手段の一例をを示す図である。FIG. 18 is a diagram illustrating an example of a fingerprint image input unit.
【図19】従来の指紋照合装置の動作説明に供するため
のフローチャートである。FIG. 19 is a flowchart for explaining the operation of a conventional fingerprint matching device.
【図20】 従来の指紋照合装置の指置き判定手段にお
ける小領域の濃度ヒストグラムを例示する図である。FIG. 20 is a diagram exemplifying a density histogram of a small area in a finger placement determination unit of a conventional fingerprint matching device.
【図21】 隆線方向を8方向に量子化する際の8方向
を示す図である。FIG. 21 is a diagram illustrating eight directions when a ridge direction is quantized into eight directions.
【図22】 隆線方向を算出する際に利用するマスクパ
ターンの例を示す図である。FIG. 22 is a diagram illustrating an example of a mask pattern used when calculating a ridge direction.
【図23】 隆線方向検出結果を例示する図である。FIG. 23 is a diagram illustrating a ridge direction detection result.
【図24】 端点・分岐点とベクトル角を例示する図で
ある。FIG. 24 is a diagram illustrating end points / branch points and vector angles.
11 画像入力手段、12,12A,12B 指置き判
定手段、13,13A,13B,13C 特徴抽出手
段、14,14A,14B 照合手段、15 位置ずれ
量検出手段、16 指先・弓状紋検出手段、17 方向
角安定性計算手段、19 重み決定手段。11 image input means, 12, 12A, 12B finger placement determination means, 13, 13A, 13B, 13C feature extraction means, 14, 14A, 14B collation means, 15 displacement amount detection means, 16 fingertip / bow print detection means, 17 directional angle stability calculating means, 19 weight determining means.
Claims (12)
して特徴データを抽出し、予め登録されている利用者固
有の特徴データと比較することで、利用者が本人か否か
を判定する指紋照合装置において、 指紋画像を二値化する二値化処理部、該二値化処理部で
二値化された指紋画像を複数のブロックに分割するブロ
ック分割処理部、該ブロック分割処理部で分割された各
ブロック内で所定の各角度に相当するマスクパターンを
走査して方向別のヒストグラムを作成するマスクパター
ン走査処理部、該マスクパターン走査処理部の出力に基
づいて各ブロックの上記方向別ヒストグラムから各ブロ
ックの方向角の安定性を判定する安定性判定処理部を含
む指置き判定手段を備え、 該指置き判定手段が指の置かれている状態を検知したと
きのみ特徴抽出および登録データとの照合を行うことを
特徴とする指紋照合装置。1. A fingerprint which determines whether or not a user is a user by extracting a feature data by processing a fingerprint image obtained by a sensor and comparing the feature data with feature data unique to a user registered in advance. In the verification device, a binarization processing unit that binarizes the fingerprint image, a block division processing unit that divides the fingerprint image binarized by the binarization processing unit into a plurality of blocks, and a division unit that divides the fingerprint image by the block division processing unit A mask pattern scanning processing unit that scans a mask pattern corresponding to each predetermined angle in each of the blocks to generate a histogram for each direction, and the histogram for each direction of each block based on an output of the mask pattern scanning processing unit. And a finger placement determination unit including a stability determination processing unit that determines the stability of the directional angle of each block from the above, and is characterized only when the finger placement determination unit detects a state where the finger is placed. Fingerprint collation apparatus and performs collation with output and registration data.
定手段の安定性判定処理部の判定結果に基づいて各ブロ
ック内の指紋の隆線方向を算出する隆線方向計算処理
部、該隆線方向計算処理部で算出された指紋の隆線方向
に沿って濃淡画像を修正する濃淡画像修正処理部、該濃
淡画像修正処理部における濃淡画像修正結果を再度二値
化する再二値化処理部、該再二値化処理部で再度二値化
された結果を細線化する細線化部、該細線化部で細線化
された画像を走査して該画像の特徴点を検出する特徴点
検出部を含む特徴抽出手段を備えた請求項1記載の指紋
照合装置。2. A ridge direction calculation processing unit which is connected to a finger placement determination unit and calculates a ridge direction of a fingerprint in each block based on a determination result of a stability determination processing unit of the finger placement determination unit. A gray-scale image correction processing unit that corrects a gray-scale image along the ridge direction of the fingerprint calculated by the ridge direction calculation processing unit, and re-binarization that binarizes the gray-scale image correction result in the gray-scale image correction processing unit again A processing unit, a thinning unit for thinning the result of re-binarization by the re-binarization processing unit, and a feature check for scanning a thinned image by the thinning unit to detect a feature point of the image. 2. The fingerprint matching device according to claim 1, further comprising a feature extracting unit including an output unit.
して特徴データを抽出し、予め登録されている利用者固
有の特徴データと比較することで、利用者が本人か否か
を判定する指紋照合装置において、 指紋画像を二値化する二値化処理部、該二値化処理部で
二値化された指紋画像を複数のブロックに分割するブロ
ック分割部、該ブロック分割部で分割された各ブロック
内の指紋の隆線方向を算出する隆線方向計算処理部、微
小時間前に入力された上記隆線方向計算処理部による算
出結果を記憶する隆線方向記憶部、現時刻に入力された
画像から上記隆線方向計算処理部で算出されたブロック
毎の指紋の隆線方向と上記隆線方向記憶部に記憶されて
いる微小時間前のブロック毎の指紋の隆線方向とを比較
してその変化を検出する隆線方向変化検出処理部、該隆
線方向変化検出処理部で変化なしと判断されたブロック
に関して同じ方向角を持ち且つ互いに隣接しているブロ
ック群を検出しそのかたまり具合を判定する空間的安定
性判定処理部を含む指置き判定手段を備え、 該指置き判定手段が指の置かれている状態を検知したと
きのみ特徴抽出および登録データとの照合を行うことを
特徴とする指紋照合装置。3. A fingerprint which determines whether or not the user is the user by processing a fingerprint image obtained by the sensor to extract feature data and comparing the feature data with feature data unique to the user registered in advance. In the matching device, a binarization processing unit that binarizes the fingerprint image, a block division unit that divides the fingerprint image binarized by the binarization processing unit into a plurality of blocks, and a block that is divided by the block division unit A ridge direction calculation processing unit that calculates the ridge direction of the fingerprint in each block, a ridge direction storage unit that stores the calculation result of the ridge direction calculation processing unit input shortly before, and a ridge direction storage unit that is input at the current time. The ridge direction of the fingerprint of each block calculated from the image obtained by the ridge direction calculation processing unit is compared with the ridge direction of the fingerprint of each block before the short time stored in the ridge direction storage unit. Ridge direction change to detect the change Output processing unit, a spatial stability determination processing unit that detects blocks that have the same direction angle and that are adjacent to each other with respect to the blocks determined to have no change by the ridge direction change detection processing unit and determine the degree of clumping. A fingerprint matching device comprising: a finger placement determining unit that includes: a feature extraction unit that performs feature extraction and comparison with registered data only when the finger placement determining unit detects a state in which a finger is placed.
定手段の空間的安定性判定処理部の判定結果に基づいて
指紋の隆線方向に沿って濃淡画像を修正する濃淡画像修
正処理部、該濃淡画像修正処理部における濃淡画像修正
結果を再度二値化する再二値化処理部、該再二値化処理
部で再度二値化された結果を細線化する細線化部、該細
線化部で細線化された画像を走査して該画像の特徴点を
検出する特徴点検出部を含む特徴抽出手段を備えた請求
項3記載の指紋照合装置。4. A gray-scale image correction processing unit connected to the finger placement determination unit and correcting a gray-scale image along the ridge direction of the fingerprint based on the determination result of the spatial stability determination processing unit of the finger placement determination unit. A re-binarization processing unit for re-binarizing the gray-scale image correction result in the gray-scale image correction processing unit; a thinning unit for thinning the result binarized again by the re-binarization processing unit; 4. The fingerprint matching device according to claim 3, further comprising a feature extraction unit including a feature point detection unit that scans the image thinned by the conversion unit and detects feature points of the image.
して特徴データを抽出し、予め登録されている利用者固
有の特徴データと比較することで、利用者が本人か否か
を判定する指紋照合装置において、 指紋画像を二値化する二値化処理部、該二値化処理部で
二値化された画像を複数のブロックに分割するブロック
分割処理部、該ブロック分割処理部で分割された各ブロ
ック内を所定の各角度に相当するマスクパターンを走査
して、方向別のヒストグラムを作成するマスクパターン
走査処理部、該マスクパターン走査処理部の出力に基づ
いて各ブロック内の指紋の隆線方向を算出する隆線方向
計算処理部含む第1の特徴抽出手段と、 該第1の特徴抽出手段の出力に基づいて、登録時と照合
時の指の位置ずれ量を計算する位置ずれ量計算部、該位
置ずれ量計算部で算出された位置ずれ量を表示する位置
ずれ量提示部、上記位置ずれ量計算部の出力に基づいて
位置ずれ量が予め設定された規定範囲以内か否かを判定
する位置ずれ量判定部を含む位置ずれ量検出手段とを備
え、位置ずれ量が予め設定された規定範囲を越えている
時には利用者に指の置き直しを指示し、規定範囲内の場
合のみ、予め登録された特徴データとの照合を行い本人
か否かを判定することを特徴とする指紋照合装置。5. A fingerprint for determining whether or not a user is himself / herself by processing a fingerprint image obtained by a sensor to extract characteristic data and comparing the characteristic data with characteristic data unique to the user registered in advance. In the verification device, a binarization processing unit that binarizes the fingerprint image, a block division processing unit that divides the image binarized by the binarization processing unit into a plurality of blocks, and a block that is divided by the block division processing unit A mask pattern scanning processor for scanning a mask pattern corresponding to each predetermined angle in each block to generate a histogram for each direction, and a fingerprint ridge in each block based on an output of the mask pattern scanning processor. A first feature extraction unit including a ridge direction calculation processing unit for calculating a line direction; and a displacement amount for calculating a displacement amount of a finger at the time of registration and at the time of collation based on an output of the first feature extraction unit. Calculation unit, A position shift amount presenting unit for displaying the position shift amount calculated by the position shift amount calculation unit, and a position for determining whether the position shift amount is within a predetermined range based on an output of the position shift amount calculation unit. A displacement amount detecting means including a displacement amount determination unit is provided, and when the displacement amount exceeds a predetermined range, the user is instructed to put the finger again, and only when the position is within the specified range, the registration is performed in advance. A fingerprint collating apparatus comprising: performing collation with determined feature data to determine whether or not the user is the principal.
ずれ量検出手段の位置ずれ量判定部の判定結果に基づい
て指紋の隆線方向に沿って濃淡画像を修正する濃淡画像
修正処理部、該濃淡画像修正処理部における濃淡画像修
正結果を再度二値化する再二値化処理部、該再二値化処
理部で再度二値化された結果を細線化する細線化部、該
細線化部で細線化された画像を走査して該画像の特徴点
を検出する特徴点検出部を含む第2の特徴抽出手段を備
えた請求項5記載の指紋照合装置。6. A gray-scale image correction processing unit connected to a positional deviation amount detecting unit, and correcting a gray-scale image along a ridge direction of a fingerprint based on a determination result of a positional deviation amount determining unit of the positional deviation amount detecting unit. A re-binarization processing unit for re-binarizing the gray-scale image correction result in the gray-scale image correction processing unit; a thinning unit for thinning the result binarized again by the re-binarization processing unit; 6. The fingerprint matching device according to claim 5, further comprising a second feature extraction unit including a feature point detection unit that scans the image thinned by the conversion unit and detects feature points of the image.
して特徴データを抽出し、予め登録されている利用者固
有の特徴データと比較することで、利用者が本人か否か
を判定する指紋照合装置において、 指紋画像を二値化する二値化処理部、該二値化処理部で
二値化された画像を複数のブロックに分割するブロック
分割処理部、該ブロック分割処理部で分割された各ブロ
ック内を所定の各角度に相当するマスクパターンを走査
して、方向別のヒストグラムを作成するマスクパターン
走査処理部、該マスクパターン走査処理部の出力に基づ
いて各ブロック内の指紋の隆線方向を算出する隆線方向
計算処理部を含む第1の特徴抽出手段と、 該第1の特徴抽出手段の出力に基づいて、複数のブロッ
クに分割された指紋画像の同一の画像から得られたブロ
ック別の指紋の隆線方向値を互いに位置をずらしながら
ブロック毎の指紋の隆線方向値の差を計算して自己相関
マップを生成する自己相関演算部、該自己相関演算部で
得られた自己相関マップを処理して指先が置かれたかま
たは弓状紋の指が置かれたかを判定する指先・弓状紋判
定部、該指先・弓状紋判定部で指先または弓状紋の指と
判定されたときに、この結果を表示して、そのまま登録
処理を続行するか、一旦中断して指の置き直しまたは指
の変更を行った後再度登録処理を行うかの判断を外部に
求める指先・弓状紋提示部を含む指先・弓状紋検出手段
とを備え、登録モードにおいては指先・弓状紋と判定さ
れなかった場合と、外部から登録続行の指示があった場
合のみ特徴データを登録し、照合モードにおいては指先
か否かの判定のみを行って外部に指の置き直しを求める
ことを特徴とする指紋照合装置。7. A fingerprint for determining whether or not the user is the user by processing fingerprint images obtained by the sensor to extract characteristic data and comparing the extracted characteristic data with characteristic data unique to the user registered in advance. In the verification device, a binarization processing unit that binarizes the fingerprint image, a block division processing unit that divides the image binarized by the binarization processing unit into a plurality of blocks, and a block that is divided by the block division processing unit A mask pattern scanning processor for scanning a mask pattern corresponding to each predetermined angle in each block to generate a histogram for each direction, and a fingerprint ridge in each block based on an output of the mask pattern scanning processor. A first feature extraction unit including a ridge direction calculation processing unit for calculating a line direction; and a fingerprint image obtained by dividing the fingerprint image divided into a plurality of blocks based on an output of the first feature extraction unit. Was An autocorrelation operation unit that calculates an autocorrelation map by calculating a difference between fingerprint ridge direction values for each block while shifting the ridge direction values of the fingerprints for each lock, and obtained by the autocorrelation operation unit A fingertip / bow print determining unit that processes the auto-correlation map to determine whether the fingertip is placed or the finger with the bow print is placed, When judged, this result is displayed, and the fingertip for which the registration process is to be continued as it is, or a request to the outside to determine whether the registration process is to be performed again after temporarily suspending and repositioning the finger or changing the finger, is performed. A fingertip / bow print detecting means including an bow print presentation unit, and in the registration mode, only when the fingertip / bow print is not determined and when there is an external instruction to continue registration, the feature data is provided. Register and judge whether it is a fingertip in collation mode Fingerprint matching device, characterized in that it seek outside to re-place the finger go himself.
先・弓状紋検出手段の指先・弓状紋判定部の判定結果に
基づいて指紋の隆線方向に沿って濃淡画像を修正する濃
淡画像修正処理部、該濃淡画像修正処理部における濃淡
画像修正結果を再度二値化する再二値化処理部、該再二
値化処理部で再度二値化された結果を細線化する細線化
部、該細線化部で細線化された画像を走査して該画像の
特徴点を検出する特徴点検出部を含む第2の特徴抽出手
段を備えた請求項7記載の指紋照合装置。8. A grayscale image is connected to a fingertip / bow print detecting means, and a grayscale image is corrected along a ridge direction of a fingerprint based on a determination result of a fingertip / bow print determination unit of the finger tip / bow print detection means. A gray-scale image correction processing unit, a re-binarization processing unit for binarizing the gray-scale image correction result in the gray-scale image correction processing unit again, and thinning the result binarized again by the re-binarization processing unit 8. The fingerprint matching apparatus according to claim 7, further comprising a second feature extracting unit including a thinning unit and a feature point detecting unit that scans the image thinned by the thinning unit and detects a feature point of the image.
して特徴データを抽出し、予め登録されている利用者固
有の特徴データと比較することで、利用者が本人か否か
を判定する指紋照合装置において、 少なくとも指紋画像を二値化する二値化処理部、該二値
化処理部で二値化された指紋画像を複数のブロックに分
割するブロック分割部、該ブロック分割部で分割された
各ブロック内を所定の各角度に相当するマスクパターン
を走査して、方向別のヒストグラムを作成するマスクパ
ターン走査処理部を含む特徴抽出手段と、 該特徴抽出手段で抽出された各ブロックの方向別ヒスト
グラムから、各ブロックの方向角の安定性を計算する方
向角安定性計算手段とを備え、該方向角安定性計算手段
における安定性の計算結果を特徴点に対する信頼性の重
みとして利用して特徴点一致度計算に反映させることを
特徴とする指紋照合装置。9. A fingerprint which determines whether or not a user is himself / herself by processing a fingerprint image obtained by a sensor to extract feature data and comparing the feature data with pre-registered user-specific feature data. In the matching device, at least a binarization processing unit that binarizes the fingerprint image, a block division unit that divides the fingerprint image binarized by the binarization processing unit into a plurality of blocks, Feature extracting means including a mask pattern scanning processing unit for creating a histogram for each direction by scanning a mask pattern corresponding to each predetermined angle in each block, and a direction of each block extracted by the feature extracting means. Directional angle stability calculating means for calculating the directional angle stability of each block from another histogram, and calculating the stability calculated by the directional angle stability calculating means with respect to a feature point. Fingerprint verification apparatus characterized by reflecting the feature point matching degree calculated using as weights.
手段に接続され、上記特徴抽出手段の出力に基づいて指
紋の隆線方向の一致度を計算する隆線方向一致度計算
部、該隆線方向一致度計算部で算出された指紋の隆線方
向の一致度と上記方向角安定性計算手段で算出された方
向角安定性とを用いて特徴点一致度を計算する特徴点一
致度計算部、該特徴点一致度計算部で算出された特徴点
の一致度に基づいて本人かどうかの判定を行う判定処理
部を含む照合手段を備えた請求項9記載の指紋照合装
置。10. A ridge direction coincidence calculating unit which is connected to a feature extracting unit and a direction angle stability calculating unit, and calculates a ridge direction coincidence of a fingerprint based on an output of the feature extracting unit. A feature point coincidence calculating unit that calculates a feature point coincidence using the fingerprint ridge direction coincidence calculated by the direction coincidence calculator and the directional angle stability calculated by the directional angle stability calculator; 10. The fingerprint matching apparatus according to claim 9, further comprising a matching unit including a determination processing unit for determining whether the user is a person based on the matching degree of the feature points calculated by the feature point matching degree calculation unit.
理して特徴データを抽出し、予め登録されている利用者
固有の特徴データと比較することで、利用者が本人か否
かを判定する指紋照合装置において、 指紋画像を二値化する二値化処理部、該二値化処理部で
二値化された後、複数のブロックに分割された指紋画像
の各ブロック内の指紋の隆線方向を算出する隆線方向計
算処理部と、該隆線方向計算処理部の出力に基づいて指
紋の隆線方向に沿って濃淡画像を修正する濃淡画像修正
処理部、該濃淡画像修正処理部における濃淡画像修正結
果を再度二値化する再二値化処理を含む特徴抽出手段
と、 濃淡画像修正前後の二値化画像を複数のブロックに分割
した後、ブロック毎に二値化画像を比較して、その変化
点数を計数する変化点計数処理部、該変化点計数処理部
で算出された変化点数に応じてブロック毎の重みを計算
する重み計算処理部を含む重み決定手段とを備え、特徴
点が存在するブロックの重みを、その特徴点の信頼度と
して特徴点一致度計算に反映させることを特徴とする指
紋照合装置。11. A fingerprint which determines whether or not a user is himself / herself by processing a fingerprint image obtained by a sensor to extract feature data and comparing the feature data with feature data unique to the user registered in advance. In the matching device, a binarization processing unit for binarizing the fingerprint image, a ridge direction of a fingerprint in each block of the fingerprint image divided into a plurality of blocks after being binarized by the binarization processing unit Ridge direction calculation processing section for calculating the ridge direction calculation processing section, a gray image correction processing section for correcting a gray image along the ridge direction of the fingerprint based on the output of the ridge direction calculation processing section, and a shading in the gray image correction processing section. A feature extraction unit including a re-binarization process for re-binarizing the image correction result, and dividing the binarized image before and after the gray-scale image correction into a plurality of blocks, and comparing the binarized image for each block. , A change point counting unit for counting the number of change points Weight determining means including a weight calculation processing unit for calculating a weight for each block in accordance with the number of change points calculated by the change point counting processing unit; A fingerprint matching apparatus characterized in that the fingerprint degree is reflected in the calculation of the feature point coincidence degree.
続され、上記特徴抽出手段の出力に基づいて指紋の隆線
方向の一致度を計算する隆線方向一致度計算部、該隆線
方向一致度計算部で算出された指紋の隆線方向の一致度
と上記重み決定手段で算出された変化点数に応じたブロ
ック毎の重みとを用いて特徴点一致度を計算する特徴点
一致度計算部、該特徴点一致度計算部で算出された特徴
点の一致度に基づいて本人かどうかの判定を行う判定処
理部を含む照合手段を備えた請求項11記載の指紋照合
装置。12. A ridge direction coincidence calculating unit connected to a feature extracting unit and a weight determining unit, and calculating a ridge direction coincidence of a fingerprint based on an output of the feature extracting unit. A feature point coincidence calculation unit that calculates a feature point coincidence using the degree of coincidence of the ridge direction of the fingerprint calculated by the calculation unit and the weight of each block according to the number of change points calculated by the weight determination unit; 12. The fingerprint matching apparatus according to claim 11, further comprising a matching unit including a determination processing unit that determines whether the user is a person based on the matching degree of the feature points calculated by the feature point matching degree calculation unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP14675897A JP3695899B2 (en) | 1997-06-04 | 1997-06-04 | Fingerprint verification device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP14675897A JP3695899B2 (en) | 1997-06-04 | 1997-06-04 | Fingerprint verification device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH10334237A true JPH10334237A (en) | 1998-12-18 |
JP3695899B2 JP3695899B2 (en) | 2005-09-14 |
Family
ID=15414915
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP14675897A Expired - Fee Related JP3695899B2 (en) | 1997-06-04 | 1997-06-04 | Fingerprint verification device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3695899B2 (en) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20030040825A (en) * | 2001-11-16 | 2003-05-23 | 에버미디어 주식회사 | The method for improving fingerprint idenfication using adptive thresholding and minutiae restoration |
KR100467392B1 (en) * | 2001-06-04 | 2005-01-24 | 주식회사 테크스피어 | Method for identifing biometric person using a finger crease pattern and apparatus thereof |
WO2007004537A1 (en) * | 2005-06-30 | 2007-01-11 | Nec Corporation | Fingerprint image background detecting device and detecting method |
JP2007102422A (en) * | 2005-10-03 | 2007-04-19 | Mitsubishi Electric Corp | Pattern matching device |
JP2009104379A (en) * | 2007-10-23 | 2009-05-14 | Hitachi Omron Terminal Solutions Corp | Biometric information authentication apparatus and biometric information registration method |
US7574023B2 (en) | 2004-10-01 | 2009-08-11 | Mitsubishi Denki Kabushiki Kaisha | Fingerprint image pickup device |
US7577279B2 (en) | 2003-03-13 | 2009-08-18 | Mitsubishi Denki Kabushiki Kaisha | Identity verification apparatus and fingerprint image pickup method |
JP2009237941A (en) * | 2008-03-27 | 2009-10-15 | Nec Soft Ltd | Ridge region extracting device, ridge region extracting system, ridge region extracting method, and program |
WO2010001447A1 (en) | 2008-06-30 | 2010-01-07 | 富士通株式会社 | Authentication device, authentication method and authentication program |
JP2010049694A (en) * | 2009-09-24 | 2010-03-04 | Fujitsu Ltd | Registration device and authentication device for individual authentication system using fingerprint information, computer-readable recording medium recording registration program for the system, and computer-readable recording medium recording authentication program for the system |
US8660318B2 (en) | 2009-10-30 | 2014-02-25 | Fujitsu Frontech Limited | Living body information registration method, biometrics authentication method, and biometrics authentication apparatus |
CN105469083A (en) * | 2015-11-13 | 2016-04-06 | 广东欧珀移动通信有限公司 | Fingerprint image processing method, fingerprint image processing device and terminal equipment |
CN110838196A (en) * | 2019-11-11 | 2020-02-25 | 珠海格力电器股份有限公司 | Intelligent door lock control method, intelligent door lock control system and intelligent door lock |
JP2021149153A (en) * | 2020-03-16 | 2021-09-27 | Necプラットフォームズ株式会社 | Feature amount extraction device, feature amount extraction method and program |
-
1997
- 1997-06-04 JP JP14675897A patent/JP3695899B2/en not_active Expired - Fee Related
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100467392B1 (en) * | 2001-06-04 | 2005-01-24 | 주식회사 테크스피어 | Method for identifing biometric person using a finger crease pattern and apparatus thereof |
KR20030040825A (en) * | 2001-11-16 | 2003-05-23 | 에버미디어 주식회사 | The method for improving fingerprint idenfication using adptive thresholding and minutiae restoration |
US7577279B2 (en) | 2003-03-13 | 2009-08-18 | Mitsubishi Denki Kabushiki Kaisha | Identity verification apparatus and fingerprint image pickup method |
US7574023B2 (en) | 2004-10-01 | 2009-08-11 | Mitsubishi Denki Kabushiki Kaisha | Fingerprint image pickup device |
JP4911317B2 (en) * | 2005-06-30 | 2012-04-04 | 日本電気株式会社 | Fingerprint image background detection apparatus and detection method |
WO2007004537A1 (en) * | 2005-06-30 | 2007-01-11 | Nec Corporation | Fingerprint image background detecting device and detecting method |
US8385612B2 (en) | 2005-06-30 | 2013-02-26 | Nec Corporation | Fingerprint image background detection apparatus and detection method |
JP2007102422A (en) * | 2005-10-03 | 2007-04-19 | Mitsubishi Electric Corp | Pattern matching device |
JP2009104379A (en) * | 2007-10-23 | 2009-05-14 | Hitachi Omron Terminal Solutions Corp | Biometric information authentication apparatus and biometric information registration method |
JP2009237941A (en) * | 2008-03-27 | 2009-10-15 | Nec Soft Ltd | Ridge region extracting device, ridge region extracting system, ridge region extracting method, and program |
WO2010001447A1 (en) | 2008-06-30 | 2010-01-07 | 富士通株式会社 | Authentication device, authentication method and authentication program |
US8464323B2 (en) | 2008-06-30 | 2013-06-11 | Fujitsu Limited | Authentication apparatus |
JP2010049694A (en) * | 2009-09-24 | 2010-03-04 | Fujitsu Ltd | Registration device and authentication device for individual authentication system using fingerprint information, computer-readable recording medium recording registration program for the system, and computer-readable recording medium recording authentication program for the system |
US8660318B2 (en) | 2009-10-30 | 2014-02-25 | Fujitsu Frontech Limited | Living body information registration method, biometrics authentication method, and biometrics authentication apparatus |
CN105469083A (en) * | 2015-11-13 | 2016-04-06 | 广东欧珀移动通信有限公司 | Fingerprint image processing method, fingerprint image processing device and terminal equipment |
CN105469083B (en) * | 2015-11-13 | 2019-05-17 | Oppo广东移动通信有限公司 | Fingerprint image processing method, device and terminal device |
CN110838196A (en) * | 2019-11-11 | 2020-02-25 | 珠海格力电器股份有限公司 | Intelligent door lock control method, intelligent door lock control system and intelligent door lock |
CN110838196B (en) * | 2019-11-11 | 2020-12-15 | 珠海格力电器股份有限公司 | Intelligent door lock control method, intelligent door lock control system and intelligent door lock |
JP2021149153A (en) * | 2020-03-16 | 2021-09-27 | Necプラットフォームズ株式会社 | Feature amount extraction device, feature amount extraction method and program |
Also Published As
Publication number | Publication date |
---|---|
JP3695899B2 (en) | 2005-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6233348B1 (en) | Fingerprint registering apparatus, fingerprint identifying apparatus, and fingerprint identifying method | |
US8649575B2 (en) | Method and apparatus of a gesture based biometric system | |
US6754369B1 (en) | License plate reading apparatus and method | |
JPH10334237A (en) | Fingerprint collation device | |
US7050609B2 (en) | Biometric data acceptance method | |
JP5930023B2 (en) | Biometric authentication apparatus, biometric authentication method, and biometric authentication computer program | |
JPH03231381A (en) | Collation of finger print | |
CN102939617A (en) | Gesture recognition device, gesture recognition method, and program | |
US9690430B2 (en) | Touch detection apparatus, touch detection method and recording medium | |
JP5393072B2 (en) | Palm position detection device, palm print authentication device, mobile phone terminal, program, and palm position detection method | |
JPH10275233A (en) | Information processing system, pointing device, and information processing device | |
JP2018169943A (en) | Face authentication processing device, face authentication processing method and face authentication processing system | |
EP2919149A2 (en) | Image processing apparatus and image processing method | |
WO2008143271A1 (en) | Registering device, checking device, program, and data structure | |
US6445811B1 (en) | Fingerprint image processing device and fingerprint image processing method | |
JP2898562B2 (en) | License plate determination method | |
US8483449B2 (en) | Registration device, checking device, program, and data structure | |
JP2006072555A (en) | Biological information image correction device | |
JP7329790B2 (en) | Biometric detection device, biometric authentication device, computer program, and biometric detection method | |
JPH03291776A (en) | Fingerprint picture processor | |
JPH09147113A (en) | Fingerprint collating method and device therefor | |
JP3585143B2 (en) | Character string extraction method and device | |
JP2865530B2 (en) | Fingerprint collation device | |
JP6790611B2 (en) | Bioimage processing device, bioimage processing method, and bioimage processing program | |
JP3742312B2 (en) | Image collation device, image collation method, program, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050204 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050215 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050406 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050607 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050628 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090708 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100708 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100708 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110708 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110708 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120708 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120708 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130708 Year of fee payment: 8 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |