JPS63236173A - Feature extraction device - Google Patents
Feature extraction deviceInfo
- Publication number
- JPS63236173A JPS63236173A JP62069886A JP6988687A JPS63236173A JP S63236173 A JPS63236173 A JP S63236173A JP 62069886 A JP62069886 A JP 62069886A JP 6988687 A JP6988687 A JP 6988687A JP S63236173 A JPS63236173 A JP S63236173A
- Authority
- JP
- Japan
- Prior art keywords
- image
- fingerprint
- input
- unit
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Collating Specific Patterns (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.
Description
【発明の詳細な説明】
(産業上の利用分野)
本発明は指紋照合に関し、特に入力指紋と登録指紋とを
指紋紋様特徴によってその同一性を判別し、個人識別を
行う指紋照合処理において用いられ、特徴を格納する特
徴ファイルをマンマシン対話により形成する特徴抽出装
置に関する。DETAILED DESCRIPTION OF THE INVENTION (Field of Industrial Application) The present invention relates to fingerprint matching, and is particularly used in fingerprint matching processing for personal identification by determining the identity of input fingerprints and registered fingerprints based on fingerprint pattern characteristics. , relates to a feature extraction device that creates a feature file that stores features through man-machine interaction.
(従来の技術とその問題点)
指紋を用いて個人を識別するシステムは、指紋が「万人
不同」および「終生不変」の特質を有するから、極めて
信頼性が高い、そこで、バタン認識技術を用いて採取指
紋とあらかじめ登録された登録指紋との同一性の自動照
合を行う装置については、既に特願昭54−39648
号、特願昭57−111114号をはじめとし、多くの
提案がなされている。(Conventional technology and its problems) Systems that use fingerprints to identify individuals are extremely reliable because fingerprints have the characteristics of being "unique for everyone" and "unchangeable throughout life." A device for automatically verifying the identity of a collected fingerprint and a pre-registered registered fingerprint has already been disclosed in Japanese Patent Application No. 54-39648.
Many proposals have been made, including Japanese Patent Application No. 57-111114.
一方、近年の情報化社会の進展とともにコンピュータ端
末やデータベースへのアクセスや機密地域への大出門管
理時の個人識別の必要が増大しつつめる。現在、これら
の多くは、暗証番号やIDカードなどにより行われてい
るが、忘却、盗難。On the other hand, as the information society has progressed in recent years, the need for personal identification when accessing computer terminals and databases and managing entrance to sensitive areas is increasing. Currently, many of these transactions are carried out using pin numbers or ID cards, but these can easily be forgotten or stolen.
紛失によりその効力を失うものであり、その信頼性は低
いと言わざるをえない、そこで、指紋照合技術を用いた
個人識別装置の実現に大きな期待がかけられてきた。こ
の個人識別装置には、入力指紋と登録指紋との照合に用
いられる特徴を格納した特徴ファイルが必要である。特
徴ファイルは、従来、登録濃淡指紋画像への濃淡補正、
濃淡強調から始まり芯線化等の種々の画像処理を経た後
に特徴点を抽出し、その位置、方向、近傍特徴点間に存
在する隆線数等を求めて作成していた。ところが、この
ようにして特徴ファイルを作成する従来の特徴抽出装置
は、その処理量の膨大さ、複雑さからミニコンピユータ
システムレベルの大規模かつ高価格なものであった。If it is lost, it loses its effectiveness and its reliability must be said to be low.Therefore, great expectations have been placed on the realization of a personal identification device using fingerprint matching technology. This personal identification device requires a feature file that stores features used to compare input fingerprints with registered fingerprints. Feature files are conventionally used to perform shading correction on registered shading fingerprint images,
After performing various image processing such as shading enhancement and core line conversion, feature points are extracted, and their positions, directions, and the number of ridges existing between neighboring feature points are determined and created. However, conventional feature extraction devices that create feature files in this manner have been large-scale and expensive, comparable to mini-computer systems, due to the enormous amount of processing and complexity.
上述の如く、既存の自動特徴抽出装置には、装置自体の
規模や価格について問題があった。そこで、本発明の目
的は従来の大規模かつ高価格な特徴抽出装置の欠点を除
去し、従来より簡便で低価格な特徴抽出装置を提供する
ことにある。また、重要機密地域への偽造指紋による不
法侵入や、重要ファイルへの不法アクセスの防止のため
に人体指以外の偽造指紋の登録をも防がなければならな
い。As mentioned above, existing automatic feature extraction devices have problems with the scale and price of the device itself. SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to eliminate the drawbacks of conventional large-scale and expensive feature extraction devices, and to provide a feature extraction device that is simpler and cheaper than conventional ones. Furthermore, in order to prevent illegal intrusion into sensitive areas using forged fingerprints and illegal access to important files, it is also necessary to prevent the registration of forged fingerprints other than human fingers.
(問題点を解決するための手段)
前述の問題点を解決するために本発明が提供する手段は
、入力された指紋の画像と登録されている指紋の画像と
が同一の指紋を現すか否かを前記二つの指紋画像の紋様
特徴によって判定するのに用いられる紋様特徴を、マン
マシン対話によって抽出して登録し、当該指紋の特徴フ
ァイルを作成する特徴抽出装置であって、指紋の光学画
像を入力し、その光学画像を電気信号に変換して電気信
号のアナログ指紋画像を生成する指紋画像入力部と、前
記アナログ指紋画像を2次元量子化画像に変換するA/
D変換部と、前記2次元量子化画像中の所定位置の画素
の濃淡値を検出し、記憶し、その濃淡値の変化により指
紋の載置が完了したことを検査し、検査の結果を出力す
る指紋載置検査部と、このtl、W検査部の載置完了検
出出力を受けた時刻およびこの時刻以降であり一定時間
内にとりこまれた画像中の前記所定位置の画素の濃淡値
を検出し、前記指紋載置検査部に記憶された濃淡値と比
較し、正常なる指紋が載置されたが否かの判定をする偽
造入力判定部と、この偽造入力判定部において正常入力
と判定された後の前記所定位置または新たな位置の画素
の濃淡値が所定の閾値以上となった時に前記指紋画像入
力部で入力された画像を入力画像として採取する入力画
像採取制御部と、この入力画像採取制御部で採取された
前記入力画像の前記2次元量子化画像を記憶する画像記
憶部と、この画像記憶部内に蓄えられた前記2次元量子
化画像を表示する画像出力部と、前記画像記憶部に蓄え
られている前記2次元量子化画像の指紋に含まれる特徴
点の位置および紋様方向を示す点を入力するポインティ
ングデバイスと、前記特徴点の最近傍四特徴点を求め、
各特徴点間に存在する隆線数を求める特徴抽出部と、前
記画像記憶部に蓄えられている前記2次元量子化画像の
指紋から抽出された特徴点の位置、紋様方向および近傍
特徴点間に存在する隆線数および端点か又は分岐点かの
区別を少なくとも含む特徴を登録した特徴リストを格納
するファイルと、前記特徴リスト作成時にマンマシン対
話を行なうための確認情報を入力する入力部と、特徴抽
出および特徴ファイル作成過程を出力する出力部とから
なり、前記指紋画像入力部により採取された指紋画像上
の特徴点の位置および方向を示す点をユーザが前記画像
出力部に表示された濃淡画像上で目視により定め、前記
ポインティングデバイスにより、前記出力部に表示され
た二値画像上での当該特徴点の前記点の位置が入力され
たとき、前記特徴抽出部は当該特徴点の位置および方向
を自動的に算出し、当該指紋の特徴ファイルを作成する
ことを特徴とする。(Means for Solving the Problems) In order to solve the above-mentioned problems, the present invention provides means for determining whether the input fingerprint image and the registered fingerprint image represent the same fingerprint. A feature extraction device that extracts and registers pattern features used for determining the pattern characteristics of the two fingerprint images through man-machine interaction and creates a feature file of the fingerprint, the device comprising: an optical image of the fingerprint; a fingerprint image input unit that inputs an optical image and converts the optical image into an electrical signal to generate an analog fingerprint image of the electrical signal; and A/A that converts the analog fingerprint image into a two-dimensional quantized image.
A D conversion unit detects and stores the gray scale value of a pixel at a predetermined position in the two-dimensional quantized image, checks that the fingerprint placement is completed based on a change in the gray value, and outputs the test result. Detects the time when the fingerprint placement inspection unit receives the placement completion detection output of the TL and W inspection unit, and the grayscale value of the pixel at the predetermined position in the image captured within a certain period of time after this time. and a forgery input determination section that compares the density values stored in the fingerprint placement inspection section and determines whether or not a normal fingerprint has been placed; an input image collection control unit that collects the image input by the fingerprint image input unit as an input image when the grayscale value of a pixel at the predetermined position or at a new position becomes equal to or higher than a predetermined threshold; an image storage section that stores the two-dimensional quantized image of the input image collected by the collection control section; an image output section that displays the two-dimensional quantized image stored in the image storage section; and the image storage section. a pointing device for inputting a point indicating the position and pattern direction of a feature point included in the fingerprint of the two-dimensional quantized image stored in the section; and determining four feature points nearest to the feature point;
a feature extraction unit that calculates the number of ridges existing between each feature point; and a feature point extraction unit that calculates the number of ridges existing between each feature point, and the position, pattern direction, and distance of the feature point extracted from the fingerprint of the two-dimensional quantized image stored in the image storage unit; a file storing a feature list in which features are registered including at least the number of ridges existing in the area and the distinction between end points and branch points; and an input section for inputting confirmation information for performing man-machine interaction when creating the feature list. , an output unit that outputs the feature extraction and feature file creation process, and a point indicating the position and direction of the feature point on the fingerprint image collected by the fingerprint image input unit is displayed on the image output unit by the user. When the position of the feature point on the binary image determined visually on the gray scale image and displayed on the output unit by the pointing device is input, the feature extraction unit determines the position of the feature point. and the direction thereof, and create a feature file of the fingerprint.
(実施例)
以下、本発明の実施例について図面を参照して説明する
。(Example) Hereinafter, an example of the present invention will be described with reference to the drawings.
第1図は本発明の一実施例を示すブロック図である。本
実施例は、入力された濃淡画像に含まれる特徴をマンマ
シン対話により格納する特徴ファイルを作成する特徴抽
出装置である。この実施例は、載置された指紋の濃淡画
像を採取し光電変換する指紋画像入力部100と、光電
変換信号を2次元量子化画像データに変換するA/D変
換部101と、採取画像中の所定の位置の画素の濃淡値
を検出、記憶し、その濃淡変化により指紋が透明体へ載
置完了したことを検出、出力する指紋載置検査部102
と、指紋載置検査部102の検査出力を受けた後の時刻
およびこの時刻以降であり、一定時間内に取り込まれた
画像中の前記所定位置の画素の濃淡値を検出し、前記記
憶された濃淡値と比較し、偽造でなく正常なる指紋が載
置されたか否かの判定をする偽造入力判定部103と、
前記偽造入力判定部103において正常入力と判定され
た後の所定位置または新たな位置の画素の濃淡値が所定
の閾値以上となった時、入力画像を採取する画像採取制
御部104と、2次元量子化画像データを記憶する画像
記憶部105と、2次元量子化画像データを表示する画
像出力部115と、特徴抽出部110と、ファイル11
1と、出力部112と、入力部113と、ポインティン
グデバイス114とからなっている。FIG. 1 is a block diagram showing one embodiment of the present invention. This embodiment is a feature extraction device that creates a feature file that stores features included in an input grayscale image through man-machine interaction. This embodiment includes a fingerprint image input unit 100 that collects a grayscale image of a placed fingerprint and photoelectrically converts it, an A/D converter 101 that converts the photoelectric conversion signal into two-dimensional quantized image data, and A fingerprint placement inspection unit 102 detects and stores the gray scale value of a pixel at a predetermined position of the image sensor, and detects and outputs that the fingerprint has been placed on the transparent body based on the gray scale change.
and the time after receiving the inspection output of the fingerprint placement inspection unit 102, and after this time, detect the grayscale value of the pixel at the predetermined position in the image captured within a certain period of time, and a forgery input determination unit 103 that compares the density value and determines whether a normal fingerprint and not a forgery is placed;
an image acquisition control unit 104 that acquires an input image when the gray value of a pixel at a predetermined position or a new position after the forged input determination unit 103 determines that the input is normal; An image storage unit 105 that stores quantized image data, an image output unit 115 that displays two-dimensional quantized image data, a feature extraction unit 110, and a file 11.
1, an output section 112, an input section 113, and a pointing device 114.
特徴抽出部110は外部インタフェース106.中央処
理装置107.プログラムメモリ 108及び作業メモ
リ 109からなっている。ポインティングデバイス1
14からボインティングされた出力部112上の座標値
および入力部113から入力される種々の情報は外部イ
ンタフェース106を介して中央処理装置107に受は
取られる。プログラムメモリ 108はプログラムを格
納し、中央処理装置107はそのプログラムにより作動
し、作業メモリ 109は特徴ファイル作成時にマニュ
ーシャの座標値等を一時記憶する。ここで作成された特
徴ファイルは入力部113から入力されるIDコードを
割当てられ、ファイル111に記憶される。The feature extraction unit 110 connects to the external interface 106. Central processing unit 107. It consists of a program memory 108 and a working memory 109. Pointing device 1
The coordinate values on the output unit 112 that are pointed from 14 and various information input from the input unit 113 are received by the central processing unit 107 via the external interface 106. A program memory 108 stores a program, and the central processing unit 107 operates according to the program.A working memory 109 temporarily stores coordinate values of the minutiae and the like when creating a feature file. The feature file created here is assigned an ID code input from the input unit 113 and is stored in the file 111.
指紋画像入力部100については透明体上に載置された
指に対して、光源からの光による光学的境界条件を利用
して、I T V (1ndustrial tele
−vision)等の撮像装置により指紋紋様バタンの
光電変換像を入力する装置で、例えば、特開昭54−6
9300号および特開昭54−85600号公報に記載
されている装置があり利用される。The fingerprint image input unit 100 uses an optical boundary condition caused by light from a light source to perform ITV (industrial telephony) on a finger placed on a transparent body.
A device that inputs a photoelectrically converted image of a fingerprint pattern stamp using an imaging device such as JP-A-54-6
9300 and Japanese Patent Laid-Open No. 54-85600 are available and are used.
指紋載置検査部102.偽造入力判定部103および画
像採取制御部104からなる部分は、ITVより繰り返
し取り込まれる画像中の所定位置の画素の濃淡値変化に
より指紋載π完了を検査し、この検査出力を受けた後の
時刻およびこの時刻以降であり一定時間内に取り込まれ
た画像中の前記所定位置の画素の濃淡値を前記記憶され
た濃淡値と比較し平常なる指紋の入力を判定し、正常入
力と判定された後の前記所定位yLまたは、新たな位置
の画素の濃淡値が所定の閾値以上となった時、入力画像
を採取するもので例えば、特願昭60−097127号
に記載されている装置があり利用される。このようにし
て得られた多値の2次元量子化画像は画像記憶部105
に記憶される。Fingerprint placement inspection section 102. A section consisting of a forgery input determination unit 103 and an image acquisition control unit 104 inspects the completion of fingerprint imprinting based on changes in the density values of pixels at predetermined positions in images repeatedly captured from the ITV, and determines the time after receiving this inspection output. And after this time, the gray value of the pixel at the predetermined position in the image captured within a certain period of time is compared with the stored gray value to determine whether a normal fingerprint has been input, and after it is determined that the input is normal. When the density value of the pixel at the predetermined position yL or at a new position exceeds a predetermined threshold value, an input image is collected. be done. The multivalued two-dimensional quantized image thus obtained is stored in the image storage unit 105.
is memorized.
第2図(a)、(b)および(c)は本実施例における
特徴点(以下、マニューシャと呼ぶ)を含む指紋バタン
、マニューシャリスト、および方向を示す、第2図(a
)〜(C)において、指紋の特徴はマニューシャMの位
置(X、Y)、紋様方向り、近傍マニューシャとのりレ
ーションrl+r21 r31 !”4を単位として、
−指紋内に複数個存在するマニューシャM+ (t=
1.2.・、・。FIGS. 2(a), (b), and (c) show the fingerprint button, minutiae list, and direction including minutiae (hereinafter referred to as minutiae) in this embodiment.
) to (C), the characteristics of the fingerprint are the position (X, Y) of the minutiae M, the direction of the pattern, and the adhesion ratio with the neighboring minutiae rl+r21 r31 ! ``In units of 4,
-Multiple minutiae M+ (t=
1.2.・、・.
n)に対してリスト状に表現したもので、これらの詳細
な定義は特開昭55−138174号に記述されており
、リレーションの求め方については特願昭60−259
989号に記述されているから、ここでは、これらの詳
細な説明を省略する。n) is expressed in a list form.Detailed definitions of these are described in Japanese Patent Application Laid-Open No. 138174/1982, and how to find the relations is described in Japanese Patent Application No. 259/1983.
989, detailed description thereof will be omitted here.
第3図に本実施例におけるマニューシャリスト作成の流
れ図を示す、第3図において、ステップS1およびS2
では前述の方法により指紋の載置を検査後、偽造入力か
否かの判定を行い、ステップS3で、その判定結果に応
じて再押捺を要求する。ここで、再押捺回数が連続し、
所定回数を越えた場合は、全処理を停止するものである
。ステップS4では前述の方法により指紋採゛取制御を
行い、ステップS5ではその結果に応じて、再押捺を要
求する。ここでも、再押捺回数が連続し、所定回数を越
えた場合は、全処理を終了する。ステップs6では、画
像採取時に用いた閾値による二値画像を出力部112に
表示する。ここで画像記憶部105に記憶されている濃
淡指紋画像は画像出力部115に表示される。ステップ
s6では、ユーザは画像出力部115に表示されている
濃淡指紋画像でマニューシャを探し、出力部112に表
示されている二値画像で、ポインティングデバイス11
4により、マニューシャおよびその方向を示す2点のボ
インティングを行う、ここでマニューシャM1の座標@
! (X+ 、Y+ )は作業メモリ 109に一時記
憶される。出力部112には画像記憶部105内の濃淡
画像を所定の閾値で二値化したものが表示されているが
、二値画像では汗腺口等により隆線の途切れを生じたり
し、マニューシャの存在が不安定となり、また、端点/
分岐点の区別も不安定なものなので、画像出力部115
に表示される濃淡画像上でマニューシャの選定を行う方
が安定なマニューシャ抽出が行われる。ステップS7で
はマニューシャの方向を表わす点をボインティングする
と、ステップS6で得られたマニューシャの座標値(X
、、y、)と方向を表わす点(Xnt、Y+o)を結ぶ
線分とX軸のなす角りが算出される。ステップS8では
ステップS6でボインティングされた点の複数個の近傍
点の画素の濃淡値より、前述のマニューシャが端点が分
岐点かの判定を特徴抽出部110が行い、出力部112
への出力結果をユーザが確認する。端点か分岐点かの区
別は作業メモリ 109に第2図(b)の形式に従い、
一時記憶される。ステップS9では、ユーザが、全マニ
ューシャのボインティングが終了したことを示す終了信
号を入力部113又はポインティングデバイス114か
ら入力しステップS6へと進む、そうでなければ、同様
のボインティングを繰り返す。ここで、ボインティング
済みのマニューシャには、その中心位置を中心とした円
形を措き、その方向を示す点と前記中心とを結ぶ線分を
出力部112に表示されている二値画像上に表示するこ
とによりボインティングの進捗状況を知ることができる
。全マニューシャのボインティング終了後は、各マ二ュ
ーシャを中心座標とし、第2図(a)のような局所a!
標系を形成し、その各象限における最近例レーションr
1 + r2 + r3 Hr4を前記特願昭60−2
59989号記載の方法により求める。なお最近傍マニ
ューシャが存在しない場合は所定の定数(例えば255
)をリレーションとして格納する。FIG. 3 shows a flowchart of creating a mechanical list in this embodiment. In FIG. 3, steps S1 and S2 are shown.
After inspecting the placement of the fingerprint using the method described above, it is determined whether or not it is a forged input, and in step S3, a re-stamping is requested in accordance with the determination result. Here, the number of times of re-stamping is continuous,
If the predetermined number of times is exceeded, the entire process is stopped. In step S4, fingerprint sampling is controlled by the method described above, and in step S5, a re-stamping is requested in accordance with the result. Here too, if the number of times of re-stamping continues and exceeds a predetermined number of times, the entire process is terminated. In step s6, a binary image based on the threshold value used at the time of image acquisition is displayed on the output unit 112. Here, the grayscale fingerprint image stored in the image storage section 105 is displayed on the image output section 115. In step s6, the user searches for a minutiae in the grayscale fingerprint image displayed on the image output section 115, and uses the binary image displayed on the output section 112 to search for the minutiae on the pointing device 11.
4, point two points indicating the minutiae and its direction, where the coordinates of minutiae M1 @
! (X+, Y+) is temporarily stored in working memory 109. The output unit 112 displays a binary image of the gray scale image in the image storage unit 105 using a predetermined threshold value, but in the binary image, breaks in ridges may occur due to sweat pores, etc., and the presence of minutiae may occur. becomes unstable, and the end point /
Since the distinction between branch points is also unstable, the image output unit 115
Minutiae extraction is more stable when the minutiae is selected on the grayscale image displayed. In step S7, a point representing the direction of the minutiae is pointed, and the coordinate value (X
,,y,) and the point (Xnt, Y+o) representing the direction, and the angle formed by the X-axis is calculated. In step S8, the feature extraction unit 110 determines whether the end point of the minutiae described above is a branching point based on the grayscale values of pixels of a plurality of neighboring points of the point pointed in step S6, and the output unit 112
The user checks the output results. The distinction between endpoints and branching points is made in the working memory 109 according to the format shown in Figure 2(b).
Memorized temporarily. In step S9, the user inputs an end signal from the input unit 113 or pointing device 114 indicating that the pointing of all minutiae has been completed, and the process proceeds to step S6. Otherwise, the same pointing is repeated. Here, for the minutia that has already been pointed, a line segment connecting the point indicating the direction and the center is displayed on the binary image displayed on the output unit 112, except for a circle centered at the center position. By doing this, you can know the progress of pointing. After the pointing of all minutiae is completed, each minutiae is set as the center coordinate, and the local a!
form a standard system, and the most recent example ration r in each quadrant of it
1 + r2 + r3 Hr4 in the above-mentioned patent application 1986-2
It is determined by the method described in No. 59989. Note that if the nearest neighbor minutiae does not exist, a predetermined constant (for example, 255
) as a relation.
ステップShoでは全マニューシャについてリレーショ
ンが求められ、マニューシャネットワークが構成される
。ステップS11では、まず、あるマニューシャの第一
象限の最近傍マニューシャとのりレーションが表示され
、ユーザは画像出力部115に表示されている濃淡画像
上で、前記リレーションを確認し、正しい値が算出され
ているならば、次のリレーション確認へと移る。もし、
誤った値が算出されているならば、正しい値を入力部1
13から入力し、訂正後に次のリレーション確認へと移
る。確認されたりレーションは随時、マニューシャリス
トへ格納されてゆく、ステップS12において全マニュ
ーシャに対するリレーション確認終了が検出されると、
ステップS13で作成したマニューシャリストに入力部
113から入力したIDコードを割り当てた後、ファイ
ル111に記憶することによりマニューシャリストの作
成を終える。In step Sho, relations are found for all minutiae, and a minutiae network is constructed. In step S11, first, the relationship between a certain minutiae and the nearest neighboring minutiae in the first quadrant is displayed, and the user checks the relationship on the grayscale image displayed on the image output section 115 to calculate the correct value. If so, move on to the next relation check. if,
If an incorrect value has been calculated, enter the correct value in input section 1.
13, and after making corrections, move on to the next relation confirmation. Confirmed relations are stored in the minutiae list as needed. When the end of relation confirmation for all minutiae is detected in step S12,
After assigning the ID code input from the input unit 113 to the manual list created in step S13, the creation of the manual list is completed by storing it in the file 111.
なお、本実施例においては画像記憶部105に記憶され
る指紋画像は多値画像としたが、公知なる方法により、
二値化を施された二値画像を記憶し、その画像を処理す
ることにしても、処理の本質は変わることなく行える。Note that in this embodiment, the fingerprint image stored in the image storage unit 105 is a multivalued image, but by a known method,
Even if a binarized binary image is stored and processed, the essence of the processing remains unchanged.
(発明の効果)
以上説明したように本発明は、入力濃淡指紋画像が偽造
指紋であるか否かの検査を行った後、正常入力であれば
、その二値画像上でマニューシャの位置および方向を示
す点をポインティングデバイスで示すことにより種々の
画像処理を施すことなく、前記マニューシャの方向およ
びリレーションを算出し、それらをユーザが順次、確認
し、マニューシャリストへ格納してゆく特徴抽出装置を
提供するものである0本装置は、前述の如く、種々の複
雑な画像処理を必要としないから、パーソナルコンピュ
ータシステム上で実現可能であり、簡便に低価格に実施
できる。(Effects of the Invention) As explained above, the present invention inspects whether the input grayscale fingerprint image is a forged fingerprint, and if the input is normal, the position and direction of the minutiae are displayed on the binary image. Provided is a feature extraction device that calculates the direction and relation of the minutiae without performing various image processing by indicating a point indicating the minutiae with a pointing device, and allows a user to sequentially check them and store them in a minutiae list. As described above, this apparatus does not require various complicated image processing, so it can be implemented on a personal computer system and can be implemented simply and at low cost.
第1図は本発明の一実施例を示すブロック図、第2図(
a)、(b)および(c)は本実施例におけるマニュー
シャ、マニューシャリストおよび方向の概念をそれぞれ
示す図、第3図は本実施例における処理の手順を示す流
れ図である。
100・・・指紋画像入力部、101・・・A/D2f
i部、102・・・指紋載置検査部、103・・・偽造
入力判定部、104・・・画像採取制御部、105・・
・画像記憶部、106・・・外部インタフェース、10
7・・・中央処理装置、108・・・プログラムメモリ
、109・・・作業メモリ、110・・・特徴抽出部、
111・・・ファイル、112・・・出力部、113・
・・入力部、114・・・ポインティングデバイス、1
15・・・画像出力部、201・・・端点、202・・
・分岐点、203・・・リレーション、204・・・方
向。FIG. 1 is a block diagram showing one embodiment of the present invention, and FIG. 2 (
a), (b), and (c) are diagrams showing the concepts of minutiae, minutiarist, and direction, respectively, in this embodiment, and FIG. 3 is a flowchart showing the processing procedure in this embodiment. 100...Fingerprint image input section, 101...A/D2f
Part i, 102... Fingerprint placement inspection unit, 103... Forgery input determination unit, 104... Image collection control unit, 105...
- Image storage unit, 106...external interface, 10
7... Central processing unit, 108... Program memory, 109... Working memory, 110... Feature extraction unit,
111...File, 112...Output section, 113.
... Input section, 114 ... Pointing device, 1
15... Image output section, 201... End point, 202...
- Branching point, 203...Relation, 204...Direction.
Claims (1)
同一の指紋を現すか否かを前記二つの指紋画像の紋様特
徴によって判定するのに用いられる紋様特徴を、マンマ
シン対話によって抽出して登録し、当該指紋の特徴ファ
イルを作成する特徴抽出装置において、 指紋の光学画像を入力し、その光学画像を電気信号に変
換して電気信号のアナログ指紋画像を生成する指紋画像
入力部と、 前記アナログ指紋画像を2次元量子化画像に変換するA
/D変換部と、 前記2次元量子化画像中の所定位置の画素の濃淡値を検
出し、記憶し、その濃淡値の変化により指紋の載置が完
了したことを検査し、検査の結果を出力する指紋載置検
査部と、 この載置検査部の載置完了検出出力を受けた時刻および
この時刻以降であり一定時間内にとりこまれた画像中の
前記所定位置の画素の濃淡値を検出し、前記指紋載置検
査部に記憶された濃淡値と比較し、正常なる指紋が載置
されたか否かの判定をする偽造入力判定部と、 この偽造入力判定部において正常入力と判定された後の
前記所定位置または新たな位置の画素の濃淡値が所定の
閾値以上となつた時に前記指紋画像入力部で入力された
画像を入力画像として採取する入力画像採取制御部と、 この入力画像採取制御部で採取された前記入力画像の前
記2次元量子化画像を記憶する画像記憶部と、 この画像記憶部内に蓄えられた前記2次元量子化画像を
表示する画像出力部と、 前記画像記憶部に蓄えられている前記2次元量子化画像
の指紋に含まれる特徴点の位置および紋様方向を示す点
を入力するポインティングデバイスと、 前記特徴点の最近傍四特徴点を求め、各特徴点間に存在
する隆線数を求める特徴抽出部と、前記画像記憶部に蓄
えられている前記2次元量子化画像の指紋から抽出され
た特徴点の位置、紋様方向および近傍特徴点間に存在す
る隆線数および端点か又は分岐点かの区別を少なくとも
含む特徴を登録した特徴リストを格納するファイルと、
前記特徴リスト作成時にマンマシン対話を行うための確
認情報を入力する入力部と、 特徴抽出および特徴ファイル作成過程を出力する出力部
とからなり、 前記指紋画像入力部により採取された指紋画像上の特徴
点の位置および方向を示す点をユーザが前記画像出力部
に表示された濃淡画像上で目視により定め、前記ポイン
ティングデバイスにより、前記出力部に表示された二値
画像上での当該特徴点の前記点の位置が入力されたとき
、前記特徴抽出部は当該特徴点の位置および方向を自動
的に算出し、当該指紋の特徴ファイルを作成することを
特徴とする特徴抽出装置。[Scope of Claims] A pattern feature used to determine whether an input fingerprint image and a registered fingerprint image represent the same fingerprint based on the pattern features of the two fingerprint images, A feature extraction device that extracts and registers the fingerprint through man-machine interaction and creates a feature file of the fingerprint receives an optical image of the fingerprint, converts the optical image into an electrical signal, and generates an analog fingerprint image of the electrical signal. a fingerprint image input unit; and A converting the analog fingerprint image into a two-dimensional quantized image.
/D conversion unit; detects and stores the gray scale value of a pixel at a predetermined position in the two-dimensional quantized image, checks whether the fingerprint placement is completed based on a change in the gray value, and outputs the result of the test; A fingerprint placement inspection unit that outputs a fingerprint placement inspection unit, and detects the time when the placement completion detection output of this placement inspection unit is received and the grayscale value of the pixel at the predetermined position in the image captured within a certain period of time after this time. and a forgery input determination unit that compares the density values stored in the fingerprint placement inspection unit and determines whether or not a normal fingerprint has been placed; an input image collection control unit that collects the image input in the fingerprint image input unit as an input image when the grayscale value of a pixel at the subsequent predetermined position or a new position becomes equal to or greater than a predetermined threshold; and this input image collection. an image storage unit that stores the two-dimensional quantized image of the input image collected by the control unit; an image output unit that displays the two-dimensional quantized image stored in the image storage unit; and an image storage unit a pointing device for inputting points indicating the position and pattern direction of the minutiae included in the fingerprint of the two-dimensional quantized image stored in the fingerprint; a feature extraction unit that calculates the number of existing ridges, and the positions and pattern directions of minutiae extracted from the fingerprint of the two-dimensional quantized image stored in the image storage unit, and ridges existing between neighboring minutiae points. A file that stores a feature list in which features are registered, including at least a number and a distinction between an end point or a branch point;
It consists of an input section for inputting confirmation information for man-machine interaction when creating the feature list, and an output section for outputting the feature extraction and feature file creation process, The user visually determines a point indicating the position and direction of the feature point on the grayscale image displayed on the image output section, and uses the pointing device to determine the point indicating the position and direction of the feature point on the binary image displayed on the output section. A feature extraction device characterized in that when the position of the point is input, the feature extraction unit automatically calculates the position and direction of the feature point and creates a feature file of the fingerprint.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP62069886A JPS63236173A (en) | 1987-03-24 | 1987-03-24 | Feature extraction device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP62069886A JPS63236173A (en) | 1987-03-24 | 1987-03-24 | Feature extraction device |
Publications (1)
Publication Number | Publication Date |
---|---|
JPS63236173A true JPS63236173A (en) | 1988-10-03 |
Family
ID=13415670
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP62069886A Pending JPS63236173A (en) | 1987-03-24 | 1987-03-24 | Feature extraction device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPS63236173A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09274656A (en) * | 1996-04-03 | 1997-10-21 | Chuo Spring Co Ltd | Fingerprint collation device |
JP2002298127A (en) * | 2001-03-30 | 2002-10-11 | Secom Co Ltd | Fingerprint matching device, fingerprint registration method and fingerprint matching method |
-
1987
- 1987-03-24 JP JP62069886A patent/JPS63236173A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09274656A (en) * | 1996-04-03 | 1997-10-21 | Chuo Spring Co Ltd | Fingerprint collation device |
JP2002298127A (en) * | 2001-03-30 | 2002-10-11 | Secom Co Ltd | Fingerprint matching device, fingerprint registration method and fingerprint matching method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2002348288B2 (en) | Image identification system | |
US7853054B2 (en) | Fingerprint template generation, verification and identification system | |
JPH0353385A (en) | Feature extraction device | |
JPS63236173A (en) | Feature extraction device | |
JP2866461B2 (en) | Fingerprint collation device | |
JP2859681B2 (en) | Fingerprint data binarization method | |
KR100465136B1 (en) | Method for Processing Image of Finger Print | |
JPH0433065A (en) | Fingerprint collating device | |
JPS63236174A (en) | Feature extraction device | |
JPH09330408A (en) | Fingerprint collating device | |
JPH0353384A (en) | Feature extraction device | |
JP2868909B2 (en) | Fingerprint collation device | |
JPH0192879A (en) | Feature extracting device | |
JPH01211184A (en) | Person himself collating device | |
JPH0193865A (en) | Feature extracting device | |
JPH0518152B2 (en) | ||
JP2880587B2 (en) | Fingerprint collation device | |
JP2551631B2 (en) | Personal verification device | |
JP2698453B2 (en) | Fingerprint matching method | |
JP2788529B2 (en) | Dictionary registration method for fingerprint matching device | |
JP3033595B2 (en) | Fingerprint image registration method | |
JP2005149351A (en) | Fingerprint collation system | |
JPH03127192A (en) | Fingerprint collating system | |
JPS6159583A (en) | Figure center position determination device | |
JPH04177476A (en) | Fingerprint collation device |