JPH10261083A - Personal identification device and personal identification method - Google Patents
Personal identification device and personal identification methodInfo
- Publication number
- JPH10261083A JPH10261083A JP9062682A JP6268297A JPH10261083A JP H10261083 A JPH10261083 A JP H10261083A JP 9062682 A JP9062682 A JP 9062682A JP 6268297 A JP6268297 A JP 6268297A JP H10261083 A JPH10261083 A JP H10261083A
- Authority
- JP
- Japan
- Prior art keywords
- information
- reliability
- input
- similarity
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 21
- 230000010354 integration Effects 0.000 claims abstract description 46
- 238000004364 calculation method Methods 0.000 claims abstract description 26
- 238000006243 chemical reaction Methods 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 15
- 238000007796 conventional method Methods 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000012935 Averaging Methods 0.000 description 4
- 238000012795 verification Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Landscapes
- Collating Specific Patterns (AREA)
Abstract
(57)【要約】
【課題】人間個人の生体情報の類似度の算出は、生体情
報が時間の経過と共に変化すること、騒音や周囲の環境
の変化等により困難さが大きく変化することが原因で正
確な値を求めることは困難であった。
【解決手段】少なくとも1つの個人の生体情報を含む個
人同定の複数の要素に関して、各要素ごとに、情報を入
力し必要ならば特徴量に変換する入力部と、入力された
情報もしくは情報より変換された特徴量を記憶する特徴
記憶部と、入力された情報もしくは情報より変換された
特徴量と、の照合を行い、類似度を算出する照合部と、
入力された情報もしくは情報より変換された特徴量と、
記憶部で記憶されている情報もしくは特徴量より情報の
信頼度を算出し出力する信頼度算出部を備え、さらに複
数の照合部が出力された類似度と信頼度に基づいて全体
の照合結果を判定する統合規則を持つ同定結果統合部と
を備えたことを特徴とする。
(57) [Summary] [Problem] The calculation of the similarity of the biological information of a human individual is caused by the fact that the biological information changes over time, and the difficulty greatly changes due to noise, changes in the surrounding environment, and the like. It was difficult to obtain an accurate value. With respect to a plurality of elements of personal identification including at least one individual's biometric information, for each element, an input unit for inputting information and converting it to a feature quantity if necessary, a conversion based on the input information or information A feature storage unit that stores the obtained feature amount, a matching unit that performs matching of the input information or the feature amount converted from the information, and calculates a similarity;
Input information or a feature amount converted from the information,
A reliability calculating unit that calculates and outputs the reliability of the information from the information or the feature amount stored in the storage unit, and further includes a plurality of matching units that determine the overall matching result based on the output similarity and reliability. An identification result integration unit having an integration rule for determination.
Description
【0001】[0001]
【発明の属する技術分野】本発明は、人間個人の特徴情
報を用いて個人の固定をする個人同定装置及び個人同定
方法に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a personal identification device and a personal identification method for fixing an individual using characteristic information of a human individual.
【0002】[0002]
【従来の技術】従来、金融機関等や役所での個人の同定
は、あらかじめ登録された印鑑を用いて行われている。
また、キャッシュカードを用いたシステムでは、通常、
個人の同定はあらかじめ登録された暗証番号を用いて行
われている。しかし、このような従来方法では、印鑑の
紛失や盗難、暗証番号の忘却や漏洩によって正確な個人
の同定が行えなくなるのが現状である。そのため、最近
では音声、顔画像、指紋などの個人の生体情報をあらか
じめ登録しておき、これらの一致判定より個人同定を行
う方法が提案されている。2. Description of the Related Art Heretofore, identification of individuals at financial institutions or government offices has been performed using a registered seal.
Also, in a system using a cash card, usually,
The identification of an individual is performed using a password registered in advance. However, in such a conventional method, at present, accurate identification of an individual cannot be performed due to loss or theft of a seal, forgetting or leaking a personal identification number. Therefore, recently, there has been proposed a method in which individual biometric information such as a voice, a face image, and a fingerprint is registered in advance, and the individual is identified based on the coincidence determination.
【0003】図1は、生体情報の1つである音声情報を
用いて個人同定を行うシステムのブロック図である。あ
らかじめ本人の声に関する情報を音声記録部2に記憶し
ておく。同定時では、音声入力部1より入力された音声
情報と音声記録部2の音声情報とを音声照合部3で比較
し、類似度を算出し、類似度がある一定値を超えた場合
は本人と同定する手法が数多く提案されている。FIG. 1 is a block diagram of a system for performing individual identification using voice information which is one of biological information. Information about the voice of the person is stored in the voice recording unit 2 in advance. At the time of identification, the voice information input from the voice input unit 1 and the voice information of the voice recording unit 2 are compared by the voice matching unit 3, and the similarity is calculated. If the similarity exceeds a certain value, the user is identified. There have been proposed a number of techniques for identifying the
【0004】顔画像や指紋を用いた個人同定システムの
ブロック図を図2、図3に示す。図2では予め本人の顔
画像情報等を顔画像記憶部2に記憶させておく。そし
て、顔画像入力部1から入力された顔画像情報と顔画像
記憶部2の顔画像情報とを顔画像照合部3で比較し、類
似度を算出し、類似度がある一定値を越えた場合本人と
同定する。FIGS. 2 and 3 are block diagrams of a personal identification system using a face image and a fingerprint. In FIG. 2, the face image information of the person is stored in the face image storage unit 2 in advance. Then, the face image information input from the face image input unit 1 is compared with the face image information in the face image storage unit 2 by the face image matching unit 3 to calculate the similarity, and the similarity exceeds a certain value. In that case, identify yourself.
【0005】また、図3では、予め本人の指紋情報記憶
部2に記憶させておく。そして、指紋入力部1から入力
された指紋情報と指紋情報部2の指紋情報とを指紋照合
部3で比較し、類似度を算出し、類似度がある一定値を
越えた場合本人と同定する。同定は音声の場合と同様な
処理を用いて行っている。また、より高い同定精度を得
るために、生体情報を用いた個人同定システムと、従来
の印鑑や暗証番号を用いたシステムを組み合わせて用い
るシステムも提案されている。音声情報と暗証番号情報
を用いたシステムのブロック図が図4である。図4で
は、予め本人の音声情報が音声記憶部2にまた、本人が
設定した暗証番号情報が暗証番号記憶部5に記憶されて
いる。そして、音声入力部1から音声が、また、暗証番
号入力部4から暗証番号が入力され、これらが音声記憶
部2の音声情報や暗証番号記憶部5の暗証番号と比較さ
れ、類似度を算出し、類似度がある一定値を越えた場
合、本人と同定する。このシステムを用いた照合は、生
体情報より得た同定結果と、3の音声照合部と6の暗証
番号照合部の同定結果が、ともに本人であると判定され
た場合のみ、本人と同定する場合が多い。音声情報の代
わりに顔画像情報や指紋情報を用いる場合も、図4と同
様のシステム構成で容易に実現できる。[0005] In FIG. 3, the fingerprint information storage unit 2 of the user is stored in advance. Then, the fingerprint information input from the fingerprint input unit 1 and the fingerprint information of the fingerprint information unit 2 are compared by the fingerprint matching unit 3 to calculate the similarity, and when the similarity exceeds a certain value, the fingerprint is identified as the person. . The identification is performed using the same processing as in the case of voice. Further, in order to obtain higher identification accuracy, a system using a combination of a personal identification system using biological information and a conventional system using a seal or a password has been proposed. FIG. 4 is a block diagram of a system using voice information and personal identification number information. In FIG. 4, the voice information of the user is stored in the voice storage unit 2 in advance, and the password information set by the user is stored in the password number storage unit 5 in advance. Then, a voice is input from the voice input unit 1 and a password is input from the password input unit 4, and these are compared with the voice information of the voice storage unit 2 and the password of the password storage unit 5, and the similarity is calculated. If the similarity exceeds a certain value, the person is identified as the person. Matching using this system is performed when the identification result obtained from the biometric information and the identification results of the voice collation unit 3 and the password identification unit 6 are both identified as the principal only when it is determined that the individual is the principal. There are many. Even when face image information or fingerprint information is used instead of voice information, it can be easily realized with the same system configuration as in FIG.
【0006】[0006]
【発明が解決しようとする課題】以上説明してきたよう
に従来の現状の個人の生体情報を用いた個人照合方法で
は、登録した生体情報と現在の情報との類似度を算出
し、個人同定を行っている。生体情報の類似度の算出
は、生体情報が時間の経過とともに変化すること、騒音
の有無や周囲環境の変化などにより困難さが大きく変化
することなどが原因で、常に正確な値を出力することは
極めて困難である。すなわち、これらの方法では、定常
的に高精度の類似度を算出することは難しいという問題
点が存在している。音声情報においては、騒音状況下に
おいて認識精度を上げる手法や、声の時間変化に適応し
て認識精度を上げる手法が提案されているが、いずれも
騒音のない状況や、声の時間変化のない状況での認識精
度と比較すると劣っている。顔画像や指紋を用いた手法
においても同様である。また、図4のように複数の情報
を利用するシステムにおいても、個々の同定結果の精度
が低い場合には、単純に組み合わせるだけでは高精度な
同定を行うことは難しい。As described above, in the conventional personal matching method using the current personal biometric information, the similarity between the registered biometric information and the current information is calculated, and the personal identification is performed. Is going. When calculating the similarity of biometric information, always output an accurate value due to the fact that the biometric information changes over time, or the difficulty greatly changes due to the presence of noise or changes in the surrounding environment. Is extremely difficult. That is, in these methods, there is a problem that it is difficult to constantly calculate a highly accurate similarity. For voice information, a method of improving recognition accuracy under noise conditions and a method of improving recognition accuracy by adapting to time change of voice have been proposed, but none of them has no noise or no time change of voice. Inferior to the recognition accuracy in the situation. The same applies to a method using a face image or a fingerprint. Also, in a system using a plurality of pieces of information as shown in FIG. 4, when the accuracy of individual identification results is low, it is difficult to perform high-precision identification only by simple combination.
【0007】本発明は、このような従来の個人同定方法
の問題点を解決するもので、複数の情報を用いて個人の
同定を行う際に、各情報ごとに、同定の類似度とともに
信頼度を基に全体の個人同定結果を判定する統合規則を
使用することで、より精度の高い個人同定を行うことを
目的としている。統合規則を学習によって更新すること
で、さらに高い精度の個人同定が可能になる。生体情報
を用いた個人同定において、時間経過や周囲の状況など
より高精度な同定が行えない場合には低い信頼度を、時
間経過もなく周囲の状況もほぼ理想的な場合には高い信
頼度を出力し、統合部において信頼度を考慮し、高い信
頼度の同定結果を重視して最終的な同定結果を出力する
ことにより、従来の手法と比較して高精度な個人同定を
行うことができる。The present invention solves such a problem of the conventional individual identification method. When an individual is identified using a plurality of pieces of information, the reliability and the similarity of the identification are determined for each piece of information. The purpose of the present invention is to perform a more accurate individual identification by using an integrated rule that determines the entire individual identification result based on the information. By updating the integration rule by learning, it is possible to perform individual identification with higher accuracy. In the case of personal identification using biological information, low reliability is used when more accurate identification such as time lapse or surrounding conditions cannot be performed, and high reliability when the surrounding conditions are almost ideal without time lapse. Output, and the integration unit considers the reliability and outputs the final identification result with emphasis on the identification result with high reliability, so that more accurate individual identification can be performed compared to the conventional method. it can.
【0008】[0008]
【課題を解決するための手段】上記目的を達成するため
に本発明は、個人の生体情報を用いて個人の同定を行う
個人同定装置及び方法であって、少なくとも1つの個人
の生体情報を含む個人同定の複数の個人情報に関して、
個人情報を入力し、必要ならば特徴量に変換する入力部
と、入力された個人情報と照合比較が可能な特徴量を記
憶する。記憶部と、入力された個人情報と記憶している
特徴量との照合を行い、類似度情報を出力する照合部
と、入力された情報と記憶している特徴量より信頼度情
報を算出する信頼度算出部と、複数の照合部が出力され
た類似度情報と信頼度情報に基づいて全体の照合結果を
判定する統合規則を備えた同定結果統合部とを備えたこ
とを特徴とする。さらに、学習データによって統合規則
を学習することを特徴とする。SUMMARY OF THE INVENTION In order to achieve the above object, the present invention relates to a personal identification apparatus and method for identifying an individual by using individual biological information, which includes at least one individual biological information. Regarding multiple personal information of personal identification,
An input unit for inputting personal information and converting it into a feature amount if necessary, and a feature amount that can be collated and compared with the input personal information are stored. A storage unit that performs a comparison between the input personal information and the stored feature amount and outputs a similarity information, and calculates a reliability information from the input information and the stored feature amount A reliability calculation unit, and an identification result integration unit having an integration rule for determining an overall comparison result based on the similarity information and the reliability information output from the plurality of matching units are provided. Further, the invention is characterized in that an integration rule is learned from learning data.
【0009】このような特徴を有する本発明によれば、
複数の情報を各入力部より入力し、必要ならば特徴量に
変換した後に、各情報ごとに一致判定を行い、各情報ご
とに類似度同時に類似度がどれくらい信頼できるかを示
す信頼度を出力する。そして、同定結果統合部におい
て、複数の類似度と信頼度を基に、統合規則に基づいて
全体の照合結果を算出し、個人の同定を行う。統合規則
は、学習データを用いて学習し更新する。According to the present invention having such features,
After inputting multiple pieces of information from each input unit and converting them to features if necessary, perform a match determination for each piece of information and output a degree of similarity for each piece of information and a degree of reliability that indicates how much similarity is reliable at the same time I do. Then, the identification result integration unit calculates the overall collation result based on the integration rules based on the plurality of similarities and the degrees of reliability, and identifies the individual. The integration rules are learned and updated using learning data.
【0010】[0010]
実施例1 図5は本発明の一実施例による個人照合方法の全体構成
を示すブロック図である。本図における個人照合方法は
個人照合の複数の入力手段及び複数の照合手段を用い
る。本実施例では複数の情報として、音声情報、顔画像
情報、指紋情報の3つの生体情報を用いる。Embodiment 1 FIG. 5 is a block diagram showing an overall configuration of a personal verification method according to an embodiment of the present invention. The personal verification method shown in the figure uses a plurality of input means for personal verification and a plurality of verification means. In this embodiment, three pieces of biometric information of voice information, face image information, and fingerprint information are used as a plurality of pieces of information.
【0011】音声情報に関しては、音声を入力する音声
入力部1、あらかじめ登録した音声情報を格納する音声
記憶部2、入力音声情報と記憶された音声情報を照合し
類似度を算出する音声照合部3、入力された音声情報の
信頼度を算出する音声信頼度算出部4を、顔画像情報・
指紋情報に関しても音声と同様に顔画像入力部5、顔画
像記憶部6、顔画像照合部7、顔画像信頼度算出部8、
指紋入力部9、指紋記憶部10、指紋照合部11、指紋
信頼度算出部12を用いる。同定結果統合部13は、
3,7,11の各照合部より算出された類似度と、4,
8,12の各信頼度算出部より算出された信頼度を統合
規則によって統合し、最終的に本人であるかどうかの判
定を出力する。As for voice information, a voice input unit 1 for inputting voice, a voice storage unit 2 for storing voice information registered in advance, a voice matching unit for comparing input voice information with stored voice information and calculating similarity 3. The voice reliability calculation unit 4 for calculating the reliability of the input voice information is provided with the face image information
As for the fingerprint information, the face image input unit 5, the face image storage unit 6, the face image matching unit 7, the face image reliability calculation unit 8,
A fingerprint input unit 9, a fingerprint storage unit 10, a fingerprint collation unit 11, and a fingerprint reliability calculation unit 12 are used. The identification result integration unit 13
The similarity calculated by each of the collating units 3, 7, 11;
The reliability calculated by each of the reliability calculation units 8 and 12 is integrated according to the integration rule, and finally a determination as to whether the user is the principal is output.
【0012】本実施例において、音声情報は、音声入力
部に対して決められた単語を数回事前に発声し、特徴抽
出した形で音声記憶部に記憶される。顔画像情報は、画
像入力部に対して正面を向いた顔画像を事前に入力し、
特徴抽出した形で顔画像記憶部に記憶される。指紋情報
は、事前に指紋を入力部より入力し、指紋全体より特徴
を抽出した形で指紋記憶部に記憶される。本人同定時に
は、入力された各情報をそれぞれ特徴変換し、各記憶部
に記憶されている本人の情報と比較して類似度の算出を
行う。In this embodiment, the speech information is stored in the speech storage unit in a form in which a word determined for the speech input unit is uttered several times in advance and features are extracted. The face image information is obtained by inputting a face image facing the front to the image input unit in advance,
The image is stored in the face image storage unit in a form in which features are extracted. The fingerprint information is stored in the fingerprint storage unit in a form in which a fingerprint is input from the input unit in advance and features are extracted from the entire fingerprint. At the time of personal identification, the input information is subjected to feature conversion, and the similarity is calculated by comparing the input information with personal information stored in each storage unit.
【0013】本実施例での信頼度は、音声情報に関して
は、音声入力時の周囲環境と辞書作成時の周囲環境のS
N比の差及び、辞書作成時より音声入力時までに経過し
た日数より定義される。SN比に関しては差の少ない方
が、経過日数に関しては日数の少ない方が高い信頼度が
算出される。画像情報に関しては、画像入力時の顔の向
き及び、辞書作成時より音声入力時までに経過した日数
より定義される。顔の向きに関しては、横向きよりも正
面に近い方が、経過日数に関しては日数の少ない方が高
い信頼度が算出される。指紋情報に関しては、入力され
た指紋部分の面積を用いて定義される。面積の大きい方
が高い信頼度が算出される。画像に関しては、顔部分が
検出できなかった場合には再入力を要求する。指紋に関
しては、面積が小さ過ぎて照合に利用できない場合に
は、類似度や信頼度を統合する前の段階で再入力を要求
する。In the present embodiment, the degree of reliability is as follows.
It is defined by the difference between the N ratios and the number of days elapsed from the time of creating the dictionary to the time of voice input. With respect to the SN ratio, higher reliability is calculated as the difference is smaller, and as to the elapsed days, the smaller the number of days, the higher the reliability. The image information is defined by the direction of the face at the time of inputting the image and the number of days elapsed from the time of creating the dictionary to the time of inputting the voice. As for the direction of the face, a higher reliability is calculated when the face is closer to the front than when the face is horizontal, and when the number of elapsed days is smaller, the reliability is calculated. Fingerprint information is defined using the area of the input fingerprint portion. The higher the area, the higher the reliability is calculated. Regarding the image, if a face portion cannot be detected, a re-input is requested. Regarding the fingerprint, if the area is too small to be used for collation, a re-input is required before the integration of the similarity and the reliability.
【0014】具体的な信頼度算出規則を図6,図7,図
8に示す。図6は音声情報の信頼度算出規則であり、図
6(a)がSN比に関する信頼度算出規則を、図6
(b)が経過日数に関する信頼度算出規則を示してい
る。音声信頼度算出部では、これらの規則をもとに音声
情報の信頼度を算出する。ここでは、図6(a)の規則
によって求めた信頼度と図6(b)の規則によって求め
た信頼度の平均を、音声情報の信頼度と定義する。図7
は顔画像情報の信頼度算出規則であり、図7(a)は顔
の向きに関する信頼度算出規則を、図7(b)は経過日
数に関する信頼度算出規則を示している。顔画像情報信
頼度算出部では、これらの規則をもとに顔画像情報の信
頼度を算出する。ここでは、図7(a)で算出された信
頼度と図7(b)で算出された信頼度の平均を、顔画像
情報の信頼度を定義する。図8は、指紋情報の信頼度算
出規則である。指紋情報信頼度算出部では、この規則を
用いて信頼度を算出する。各情報の信頼度は最大で1.
0、最小で0.2であり、音声情報、顔画像情報は0.
05刻みで、指紋情報は0.2刻みで出力される。FIGS. 6, 7 and 8 show specific rules for calculating the reliability. FIG. 6 shows a reliability calculation rule for audio information. FIG. 6A shows a reliability calculation rule relating to the SN ratio.
(B) shows the reliability calculation rule regarding the elapsed days. The voice reliability calculation unit calculates the reliability of the voice information based on these rules. Here, the average of the reliability obtained by the rule of FIG. 6A and the reliability obtained by the rule of FIG. 6B is defined as the reliability of the audio information. FIG.
7A shows a reliability calculation rule for face image information. FIG. 7A shows a reliability calculation rule for the face direction, and FIG. 7B shows a reliability calculation rule for the elapsed days. The face image information reliability calculation unit calculates the reliability of the face image information based on these rules. Here, the average of the reliability calculated in FIG. 7A and the reliability calculated in FIG. 7B defines the reliability of the face image information. FIG. 8 shows a rule for calculating the reliability of fingerprint information. The fingerprint information reliability calculation unit calculates the reliability using this rule. The reliability of each information is 1.
0, the minimum value is 0.2, and the voice information and the face image information are .0.
The fingerprint information is output in increments of 0.2 in increments of 05.
【0015】なお、本実施例では、3、7、11の音声
情報、画像情報、指紋情報の照合部における類似度の算
出は従来手法と同様に行う。同定結果統合部で用いる統
合規則を図9に示す。本統合規則は、音声照合部、顔画
像照合部、指紋照合部から出力される各類似度と、音声
信頼度算出部、顔画像信頼度算出部、指紋信頼度算出部
から出力される各信頼度を統合し、最終的な類似度を算
出する規則である。本規則は、各情報の信頼度がちきい
値以上の情報を選択し(ステップ20)、選択されたす
べての個人情報の類似度を平均し、(ステップ21)求
めた値がしきい値以上あれば本人と判断する(ステップ
22)ことで、最終的な類似度を算出する。ここではし
きい値を0.6に設定する。同定結果統合部では、統合
規則を用いて最終的な類似度を算出し、類似度が決めら
れた閾値以上の場合には本人であると、そうでない場合
は本人でないと判定する。ここでは、閾値は0.8と
し、最終的な類似度が0.8以上の場合には本人である
と、0.8未満の場合は本人でないと判定する。In this embodiment, the calculation of the similarity in the collation unit for the voice information, image information and fingerprint information of 3, 7, and 11 is performed in the same manner as the conventional method. FIG. 9 shows an integration rule used in the identification result integration unit. This integration rule specifies the similarities output from the voice matching unit, the face image matching unit, and the fingerprint matching unit, and the reliability values output from the voice reliability calculating unit, the face image reliability calculating unit, and the fingerprint reliability calculating unit. This is a rule for integrating the degrees and calculating the final similarity. This rule selects information whose reliability of each information is equal to or greater than a threshold value (step 20), averages the similarities of all the selected personal information, and (step 21) determines whether or not the obtained value exceeds a threshold value. If the person is determined to be the person (step 22), the final similarity is calculated. Here, the threshold is set to 0.6. The identification result integration unit calculates the final similarity using the integration rule, and determines that the user is the principal if the similarity is equal to or greater than a predetermined threshold, and otherwise determines that the user is not the principal. Here, the threshold is set to 0.8, and when the final similarity is 0.8 or more, it is determined that the user is the user, and when the final similarity is less than 0.8, it is determined that the user is not the user.
【0016】次に、本実施例の動作について説明する。
音声、画像、指紋ともに14日前に作成したデータより
特徴量を抽出し各記憶部に記憶させた。音声データ収集
時のSN比は30dBであった。Next, the operation of this embodiment will be described.
For voice, image, and fingerprint, feature amounts were extracted from data created 14 days ago and stored in each storage unit. The SN ratio at the time of voice data collection was 30 dB.
【0017】まず、本人が音声、画像、指紋の3つの情
報を入力して個人同定を行った。情報入力時のSN比は
5dBであり、顔は顔画像入力部に対して正面を向いた
形で認識させた。指紋情報に関しては、システムが定め
た面積の90%のデータが得られた。First, the person himself / herself entered three pieces of information of voice, image and fingerprint to identify the individual. The SN ratio at the time of inputting the information was 5 dB, and the face was recognized as facing the front with respect to the face image input unit. As for the fingerprint information, 90% of the data determined by the system was obtained.
【0018】各情報の照合部で従来の手法に基づいて類
似度を算出した結果、音声情報の類似度は0.4、顔画
像情報の類似度は0.9、指紋情報の類似度は0.9と
なった。次に、各情報の信頼度算出規則部で、各信頼度
算出規則に基づいて信頼度を算出した。図6(a)より
SN比による音声情報信頼度は0.2、図6(b)より
経過日数による音声情報信頼度は0.6と算出され、音
声情報信頼度としては両者の平均の0.4が出力され
た。顔画像情報信頼度は、図7(a)の顔の向きによる
信頼度1.0と、図7(b)の経過日数による信頼度
0.6の平均である0.8が出力された。指紋情報信頼
度は、図8の規則により1.0が出力された。As a result of calculating the similarity based on the conventional method in each information collating unit, the similarity of voice information is 0.4, the similarity of face image information is 0.9, and the similarity of fingerprint information is 0. 0.9. Next, the reliability calculation rule section of each information calculated the reliability based on each reliability calculation rule. From FIG. 6A, the audio information reliability based on the SN ratio is calculated as 0.2, and from FIG. 6B, the audio information reliability based on the elapsed days is calculated as 0.6. .4 was output. As the face image information reliability, an average 0.8 of the reliability 1.0 based on the face orientation in FIG. 7A and the reliability 0.6 based on the number of days elapsed in FIG. 7B was output. As the fingerprint information reliability, 1.0 was output according to the rule shown in FIG.
【0019】情報結果統合部によって、各情報の類似
度、信頼度を統合する。図9の統合規則を用いて統合を
行う。音声情報の信頼度は0.4であり0.8未満であ
るので、音声情報の類似度は最終的な類似度算出には用
いない。顔画像情報の信頼度0.8、指紋情報の信頼度
1.0は、それぞれ0.8以上であるので、図9の規則
によりこれらの類似度を平均したものが最終的な類似度
となる。顔画像情報の類似度は0.9、指紋情報の類似
度は0.9であるので、最終的な類似度は0.9と計算
され、閾値0.8以上であるので、信頼結果統合部では
本人と判定した。The information result integration unit integrates the similarity and reliability of each information. Integration is performed using the integration rule of FIG. Since the reliability of the audio information is 0.4 and less than 0.8, the similarity of the audio information is not used for the final similarity calculation. Since the reliability 0.8 of the face image information and the reliability 1.0 of the fingerprint information are each 0.8 or more, the final similarity is obtained by averaging these similarities according to the rule of FIG. . Since the similarity of the face image information is 0.9 and the similarity of the fingerprint information is 0.9, the final similarity is calculated as 0.9 and the threshold value is 0.8 or more. Then she was determined to be herself.
【0020】従来の手法で照合を行うと、信頼度は算出
されないので、音声情報の類似度0.4、顔画像情報類
似度0.9、指紋画像情報類似度0.9のみが出力され
る。照合結果の統合は、全ての類似度の平均をとる手法
や、全ての類似度が閾値を上回った場合のみ本人と判定
する手法が一般的に用いられるが、今回の場合には全て
の類似度の平均値は閾値0.8を下回っており、また音
声情報の類似度が0.4と低い値であるので、どちらの
手法においても本人と判定されない。本システムでは、
音声情報の信頼度が低いので、音声情報の類似度を無視
することで本人であるという正しい同定が行える。この
結果は、信頼度の算出により高精度な個人同定が行える
ことを示している。If the matching is performed by the conventional method, the reliability is not calculated, so that only the voice information similarity 0.4, the face image information similarity 0.9, and the fingerprint image information similarity 0.9 are output. . In order to integrate the matching results, a method of averaging all the similarities or a method of determining that the individual is the only person when all the similarities exceed the threshold value are generally used. Is less than the threshold value 0.8 and the similarity of the voice information is a low value of 0.4, so that the user is not determined to be a person by either method. In this system,
Since the reliability of the voice information is low, the identity of the person can be correctly identified by ignoring the similarity of the voice information. This result indicates that highly accurate individual identification can be performed by calculating the reliability.
【0021】次に、同様のシステムにおいて、他人が音
声、顔画像、指紋の3つの情報を入力した場合を考え
る。音声情報は騒音された本人のものを、顔画像情報は
正面から撮影された本人の写真を用いて入力を行い、指
紋のみ本人のものではないものを入力した。周囲環境と
のSN比は30dBであり、経過日数は14日であっ
た。各情報の照合部で従来の手法に基づいて類似度を算
出した結果、音声情報の類似度は0.9、顔画像情報の
類似度は0.9、指紋情報の類似度は0.4となった。
各情報の信頼度は、音声情報に関しては図6(a)の
1.0と、図6(b)の規則の0.6を平均した0.8
が算出される。顔画像情報に関しては、図7(a)の
1.0と図7(b)の0.6を平均した0.8が算出さ
れる。指紋に関しては、接した面積が十分な面積の80
だったので、0.8が算出された。統合規則によって統
合すると、どの信頼度も0.8を越えているので、3つ
の類似度の平均によって最終的は類似度0.73が算出
される。0.8未満であるので、本人でないという正し
い結果と出力することができる。Next, consider a case in which another person inputs three pieces of information of a voice, a face image, and a fingerprint in a similar system. The voice information was input using the noised person, and the face image information was input using the photograph of the person photographed from the front. The SN ratio with respect to the surrounding environment was 30 dB, and the number of elapsed days was 14 days. As a result of calculating the similarity based on the conventional method in each information collating unit, the similarity of the voice information is 0.9, the similarity of the face image information is 0.9, and the similarity of the fingerprint information is 0.4. became.
The reliability of each piece of information is 0.8, which is an average of 1.0 of FIG. 6A and 0.6 of the rule of FIG.
Is calculated. As for the face image information, 0.8 is calculated by averaging 1.0 in FIG. 7A and 0.6 in FIG. 7B. For fingerprints, the contact area should be sufficient
Therefore, 0.8 was calculated. Since all the reliability values exceed 0.8 when integrated by the integration rule, the final similarity 0.73 is calculated by averaging the three similarities. Since it is less than 0.8, it is possible to output a correct result indicating that the user is not the user.
【0022】最初の本人の例では、類似度は音声、顔画
像、指紋の順に0.4、0.9、0.9であり、次の他
人の例では、類似度は同様の順に0.9、0.9、0.
4である。数字だけ見れば同じ値であり、類似度だけで
前者は本人であり、後者は他人であるという判定を出力
することはできない。類似度とともに信頼度を算出し、
統合規則によって統合することで、従来手法と比較して
高精度な判定ができることがわかる。In the example of the first person, the similarity is 0.4, 0.9, 0.9 in the order of voice, face image, and fingerprint. In the example of the next person, the similarity is 0. 9, 0.9, 0.
4. If only the numbers are seen, the values are the same, and it is impossible to output a judgment that the former is the principal and the latter is another person only by the similarity. Calculate reliability along with similarity,
It can be seen that by performing the integration according to the integration rule, a highly accurate determination can be made as compared with the conventional method.
【0023】実施例2 本実施例では、実施例1と同様のシステム構成で、各記
憶部に保持する情報を変更したシステムを用いる。音声
情報は、実施例1では決められた単語を発声した際の音
声情報を特徴抽出したものを記憶していたが、本実施例
では、5母音「あ」「い」「う」「え」「お」の発声を
特徴抽出したものを、音声記憶部に記憶しておく。記憶
方法は、システムが指定した単語を発声させ、音声認識
させて該当する母音の部分のデータを保持し特徴抽出す
ることで行う。顔画像情報は、実施例1では、正面の画
像を使用していたが、本実施例では、正面以外にも上向
き、横向きなど複数枚の画像を特徴抽出したものを記憶
しておく。指紋情報は、実施例1では指紋全体を使用し
ていたが、本実施例では指紋全体を複数の個所に分割し
た形で特徴抽出し、記憶しておく。Embodiment 2 In this embodiment, a system having the same system configuration as that of Embodiment 1 but changing the information held in each storage unit is used. In the first embodiment, the voice information stores the feature information of the voice information when a predetermined word is uttered, but in the present embodiment, the five vowels “A”, “I”, “U”, “E” are stored. The feature extraction of the utterance of “O” is stored in the voice storage unit. The storage method is performed by uttering a word specified by the system, performing voice recognition, and retaining data of a corresponding vowel portion and extracting features. In the first embodiment, the front image is used as the face image information. However, in the present embodiment, information obtained by extracting a plurality of images such as upward and sideways in addition to the front is stored. In the first embodiment, the entire fingerprint is used as the fingerprint information, but in the present embodiment, features are extracted and stored in a form in which the entire fingerprint is divided into a plurality of locations.
【0024】認識する際には、音声に関してはシステム
が指定した単語を利用者に発声をしてもらい、特徴抽出
して母音部を音声認識により抽出した後に、各母音ごと
に記憶されている情報と比較することで類似度を求め
る。顔画像に関しては、入力画像と、記憶された画像の
中で入力画像の顔の向きに最も近い向きの画像を比較す
ることで類似度を算出する。指紋に関しては、断片的に
記憶された複数の個所に関して入力された情報と記憶部
の情報を比較し類似度を出力する。When recognizing speech, the system asks the user to utter a word specified by the system, extracts features and extracts vowel parts by speech recognition, and then stores information stored for each vowel. The similarity is obtained by comparing with. As for the face image, the similarity is calculated by comparing the input image with an image in the direction of the face closest to the face of the input image among the stored images. As for the fingerprint, the information inputted in a plurality of locations stored fragmentarily is compared with the information in the storage unit, and the similarity is output.
【0025】信頼度の算出方法や、統合規則に関しては
実施例1と同様のものを用いる。本システムにおいて、
他人が音声、顔画像、指紋の3つの情報を入力した場合
を考える。指紋情報に関しては画像を入手しており、そ
れを入力した。音声情報、顔画像情報は、なるべく信頼
度が落ちるように、音声情報はSN比5dBの状況で入
力し、顔画像情報は横向きの情報を入力した。類似度
は、音声情報に関しては0.4、顔画像情報に関しては
0.4、指紋情報に関しては1.0と出力された。信頼
度に関しては、音声情報は0.4、顔画像情報は0.
8、指紋情報は0.8が出力された。統合規則で判定し
た結果、信頼度0.8以上である顔画像情報、指紋情報
の平均の類似度は0.7となり、閾値0.8を下回って
いるので、本人ではないという正しい結果が出力され
た。The calculation method of the reliability and the integration rule are the same as those in the first embodiment. In this system,
Consider a case where another person has input three pieces of information: voice, face image, and fingerprint. An image of the fingerprint information was obtained and input. For the voice information and the face image information, the voice information was input in the situation of the S / N ratio of 5 dB and the face image information was input in the horizontal direction so as to reduce the reliability as much as possible. The similarity was output as 0.4 for voice information, 0.4 for face image information, and 1.0 for fingerprint information. Regarding the reliability, the voice information is 0.4 and the face image information is 0.4.
8. 0.8 was output as fingerprint information. As a result of the judgment by the integration rule, the average similarity of the face image information and the fingerprint information with the reliability of 0.8 or more is 0.7, which is lower than the threshold value 0.8. Was done.
【0026】上記の例は、実施例1のシステムだと、顔
画像として横向きの画像を入力しているので、顔画像の
信頼度が低くなり、結果的に指紋情報の類似度が最終的
な類似度となり本人であると判定される。一方、本シス
テムでは、顔画像を記憶する際に正面の画像だけでなく
横向きの画像も記憶させていたため、顔画像の信頼度が
高くなり、結果として本人でないという正しい結果を出
力することができた。他人が本人の一部の情報を入手し
た際に、他の情報の類似度を故意に下げて本人になりす
ます方法が考えられるが、本実施例のように、認識に使
用する部分を限定もしくは複数用意しておき、利用者に
は認識に利用する部分を知らせないことによって、故意
に信頼度を下げて情報を入力することを事実上不可能に
することができる。よって、悪意を持った他人に対して
も高い精度の個人同定が行える。In the above example, in the case of the system of the first embodiment, since a landscape image is input as a face image, the reliability of the face image is reduced, and as a result, the similarity of the fingerprint information is finally reduced. The degree of similarity is determined, and the person is determined to be the person. On the other hand, in the present system, when the face image is stored, not only the front image but also the horizontal image is stored, so the reliability of the face image is increased, and as a result, it is possible to output a correct result that the user is not himself / herself. Was. When another person obtains some information of the person, a method of intentionally lowering the similarity of the other information and impersonating the person may be considered.However, as in this embodiment, the part used for recognition is limited or plural. By preparing the user and not informing the user of the part to be used for recognition, it is virtually impossible to intentionally lower the reliability and input information. Therefore, highly accurate individual identification can be performed even for a malicious person.
【0027】実施例3 本実施例では、図10のようなシステム構成をとり、音
声情報、顔画像情報、指紋情報の3つの生体情報の他
に、暗証番号情報を用いて個人の同定を行う。図10で
は、音声入力部23、顔画像入力部27、指紋入力部3
1、暗証番号入力部35からそれぞれ入力された音声情
報、顔画像情報、指紋情報、暗証番号情報が、音声記憶
部24の音声情報や顔画像記憶部28の顔画像情報や指
紋記憶部33の指紋情報や暗証番号記憶部37の暗証番
号情報と共に、それぞれ音声情報は、音声照合部25、
音声信頼度算出部26に入力され、顔画像情報は顔画像
照合部29、顔画像信頼度算出部30に入力され、指紋
情報は指紋照合部32、指紋信頼度算出部34に入力さ
れ、暗証番号情報は、暗証番号照合部36、暗証番号信
頼度算出部38に入力される。それぞれの照合部で求め
られた類似度情報やそれぞれの信頼度算出部で求められ
た信頼度情報は、同定結果統合部39に入力され、総合
的に統合した結果に基づいて個人の同定を行う。3つの
生体情報の類似度、信頼度の算出は実施例2と同様に行
う。暗証番号情報に関しては、暗証番号照合部は、1.
0もしくは0.0、即ち正しいか誤りかの2通りの類似
度を出力する。暗証番号信頼度出力部では、ここでは常
に1.0の信頼度を出力する。統合規則は図11のもの
を用いる。実施例2の統合規則図9では、0.8以上の
信頼度を出力する。統合規則は図11のものを用いる。
実施例2の統合規則図9では、0.8以上の信頼度を持
つ情報の類似度の平均と閾値を比較していたが、図11
では、0.8以上の信頼度を持つ情報の類似度が全て閾
値0.8を越えた場合のみ本人であると判定する。(ス
テップ40,41) 本システムにおいて、他人が音声、顔画像、指紋、暗証
番号の4つの情報を入力した場合を考える。本人の音声
情報、顔画像情報、指紋情報に関しては情報を記録した
ものを用意した場合には、音声、顔画像、指紋のどの情
報に対しても高類似度、高信頼度を得ることが可能であ
る。ただし、本システムでは、暗証番号の信頼度は常に
1.0であり、暗証番号の類似度が1.0にならない限
り、即ち正しい暗証番号を入力しない限り、本人と判定
されることはない仕組みになっている。このように、入
力する情報や統合規則を変更することによって、他人を
排除する点の頑強さを容易に変更できるのも、本発明の
大きな利点である。Embodiment 3 In this embodiment, a system configuration as shown in FIG. 10 is employed, and an individual is identified using password information in addition to three pieces of biometric information of voice information, face image information, and fingerprint information. . In FIG. 10, the voice input unit 23, the face image input unit 27, the fingerprint input unit 3
1. The voice information, the face image information, the fingerprint information, and the personal identification number information respectively input from the personal identification number input unit 35 are used as the voice information of the voice storage unit 24, the face image information of the face image storage unit 28, and the fingerprint storage unit 33. The voice information, together with the fingerprint information and the password information in the password number storage unit 37, are stored in the voice matching unit 25,
The face image information is input to the face image matching section 29 and the face image reliability calculating section 30, and the fingerprint information is input to the fingerprint matching section 32 and the fingerprint reliability calculating section 34 and the password is input to the voice reliability calculating section 26. The number information is input to a password collating unit 36 and a password reliability calculating unit 38. The similarity information obtained by each matching unit and the reliability information obtained by each reliability calculation unit are input to the identification result integration unit 39, and the individual is identified based on the integrated result. . The calculation of the similarity and the reliability of the three pieces of biometric information is performed in the same manner as in the second embodiment. Regarding the password information, the password collating unit includes:
0 or 0.0, that is, two types of similarity, correct or incorrect, are output. Here, the password reliability output unit always outputs a reliability of 1.0. The integration rule shown in FIG. 11 is used. In the integration rule FIG. 9 of the second embodiment, a reliability of 0.8 or more is output. The integration rule shown in FIG. 11 is used.
In the integration rule of FIG. 9 according to the second embodiment, the average of similarity of information having a reliability of 0.8 or more is compared with the threshold.
Then, only when all the similarities of the information having the reliability of 0.8 or more exceed the threshold value 0.8, it is determined that the user is the principal. (Steps 40 and 41) In this system, it is assumed that another person has input four pieces of information of a voice, a face image, a fingerprint, and a personal identification number. If the recorded information is prepared for the voice information, face image information and fingerprint information of the person, high similarity and high reliability can be obtained for any information of voice, face image and fingerprint It is. However, in the present system, the reliability of the personal identification number is always 1.0, and unless the similarity of the personal identification number becomes 1.0, that is, unless the correct personal identification number is input, the personal identification is not determined. It has become. As described above, it is a great advantage of the present invention that the robustness of excluding others can be easily changed by changing the input information and the integration rules.
【0028】実施例4 実施例2において、図9の統合規則及び閾値の代わり
に、ニューラルネットワークを用いて類似度及び信頼度
の判定を行う。ニューラルネットワークは図12に示す
入力層(ユニット42〜45)・中間層ユニット46〜
49・出力層ユニット50〜51からなる断層構造をと
り、結合は入力層→中間層→出力層という前向きの結合
だけで、各層内の結合はない。各ユニットの構造は図1
3に示すような脳のニューロンのモデル化である。各ユ
ニット52,53の入力に対して結合の強さを示す重み
がついており、重みを考慮して加算部54で入力の総和
をとった後に変換関数部55で一定の変換規則を用いて
値を変換し出力する。学習時には、各ユニットの重みと
変換規則を変更していく。Embodiment 4 In Embodiment 2, similarity and reliability are determined using a neural network instead of the integration rule and threshold shown in FIG. The neural network has an input layer (units 42 to 45) and an intermediate layer unit 46 to 46 shown in FIG.
49. A fault structure composed of the output layer units 50 to 51 is adopted, and the connection is only a forward connection of the input layer → intermediate layer → output layer, and there is no connection in each layer. Figure 1 shows the structure of each unit.
This is a modeling of brain neurons as shown in FIG. Weights indicating the strength of the connection are given to the inputs of the units 52 and 53. The summation of the inputs is performed by the adder 54 in consideration of the weights, and the value is calculated by the conversion function unit 55 using a certain conversion rule. Is converted and output. At the time of learning, the weight and conversion rule of each unit are changed.
【0029】本実施例では、入力層6個、中間層21
個、出力層1個のユニットを持つニューラルネットワー
クを用いる。学習時には、あらかじめ本人や他人が音声
情報、顔画像情報、指紋情報を入力して得られた3つの
類似度と3つの信頼度の6つの要素を持つベクトルを入
力し、本人の場合のみ対応する出力層のユニットが活性
化するように十分学習しておく。In this embodiment, six input layers and the intermediate layer 21
And a neural network having one output layer unit. At the time of learning, a vector having three elements of three similarities and three degrees of reliability obtained by inputting voice information, face image information, and fingerprint information by the subject or another person in advance is input, and only the case of the subject is supported. Learn enough to activate the units in the output layer.
【0030】認識時には、利用者は実施例2と同様の方
法で音声情報、顔画像情報、指紋情報を入力する。実施
例2と同様に各情報の類似度と信頼度を算出する。算出
した類似度および信頼度を、学習済みのニューラルネッ
トワークに入力する。出力層の出力が決められた閾値を
越えていれば本人と、そうでなければ他人と判定され
る。At the time of recognition, the user inputs voice information, face image information, and fingerprint information in the same manner as in the second embodiment. Similar to the second embodiment, the similarity and the reliability of each information are calculated. The calculated similarity and reliability are input to a learned neural network. If the output of the output layer exceeds a predetermined threshold value, it is determined that the user is the user, and if not, that the user is another person.
【0031】実施例1や実施例2における統合規則は、
最適なものを事前に決めるのが難しいという問題点が存
在したが、学習データを用いて規則を学習することで、
容易に適切な統合規則を設定することができる。The integration rules in the first and second embodiments are as follows:
There was a problem that it was difficult to decide the best one in advance, but by learning rules using training data,
Appropriate integration rules can be easily set.
【0032】[0032]
【発明の効果】以上詳述してきた本発明によれば、複数
の個人情報を用いて個人同定を行い、さらに各個人情報
ごとに信頼度情報を出力することで、信頼度情報の高い
情報を用いた同定結果を優先させることができるので、
従来よりも高い個人同定精度を得ることができる。統合
規則は学習によって更新されるので、周囲の状況の変化
に対しても頑強な個人同定精度を得ることができる。According to the present invention described in detail above, personal identification is performed using a plurality of personal information, and reliability information is output for each personal information. Since the identification result used can be prioritized,
It is possible to obtain higher individual identification accuracy than before. Since the integration rule is updated by learning, it is possible to obtain robust personal identification accuracy even when the surrounding situation changes.
【図1】 音声情報を用いて個人同定を行うシステムブ
ロック図FIG. 1 is a block diagram of a system for performing individual identification using voice information.
【図2】 顔画像を用いて個人同定を行うシステムブロ
ック図FIG. 2 is a system block diagram for performing individual identification using a face image.
【図3】 指紋を用いて個人同定を行うシステムブロッ
ク図FIG. 3 is a system block diagram for performing individual identification using a fingerprint.
【図4】 音声情報と暗証番号情報を用いて個人同定を
行うシステムブロック図FIG. 4 is a system block diagram for performing personal identification using voice information and personal identification number information.
【図5】 本発明の一実施例を示した図FIG. 5 shows an embodiment of the present invention.
【図6】 第一の信頼度算出規則を示した図FIG. 6 is a diagram showing a first reliability calculation rule;
【図7】 第二の信頼度算出規則を示した図FIG. 7 is a diagram showing a second reliability calculation rule;
【図8】 第三の信頼度算出規則を示した図FIG. 8 is a diagram showing a third reliability calculation rule;
【図9】 本発明の同定結果統合部で用いる統合規則を
示した図FIG. 9 is a diagram showing an integration rule used in the identification result integration unit of the present invention.
【図10】 本発明の一実施例を示した図FIG. 10 shows an embodiment of the present invention.
【図11】 本発明の同定結果統合部で用いる統合規則
の判定の仕方を示した図FIG. 11 is a diagram showing a method of determining an integration rule used in the identification result integration unit of the present invention.
【図12】 本発明の類似度及び信頼度の判定をニュー
ラルネットワークを用いて行う場合の一構成を示した図FIG. 12 is a diagram showing one configuration in a case where determination of similarity and reliability of the present invention is performed using a neural network.
【図13】 各ユニットの一構成を示した図FIG. 13 is a diagram showing one configuration of each unit.
1…音声入力部 2…音声照合部 3…音声記憶部 DESCRIPTION OF SYMBOLS 1: Voice input part 2: Voice collation part 3: Voice storage part
Claims (4)
の個人情報を収集して、これにより個人を同定する個人
同定装置において、 前記各個人情報ごとに、予め登録された個人情報又はこ
の個人情報から変換された特徴量を記憶する記憶部と、 前記個人情報を入力し必要ならば特徴量に変換する入力
と、 前記記憶部中の個人情報もしくは特徴量と入力された個
人情報もしくは特徴量を照合し、類似度情報を出力する
照合部と、 前記記憶部中の個人情報もしくは特徴量と入力された個
人情報もしくは特徴量から信頼度情報を求める信頼度算
出部と、 出力された複数の類似度情報および信頼度情報から統合
規則を用いて同定結果を出力する同定結果統合部を備え
たことを特徴とする個人同定装置。1. A personal identification device which collects a plurality of personal information including at least one or more biometric information and identifies an individual by using the collected personal information. A storage unit for storing a feature amount converted from information; an input for inputting the personal information and converting it to a feature amount if necessary; a personal information or feature amount in the storage unit and the input personal information or feature amount A matching unit that collates and outputs similarity information; a reliability calculation unit that obtains reliability information from the personal information or feature amount in the storage unit and the input personal information or feature amount; An individual identification device, comprising: an identification result integration unit that outputs an identification result from similarity information and reliability information using an integration rule.
入力部に入力されてきた個人情報に基づき作成された学
習データを用いて学習することを特徴とする請求項1記
載の個人同定装置。2. The personal identification apparatus according to claim 1, wherein an integration rule in the identification result integration unit is learned using learning data created based on personal information input to the input unit.
の個人情報を収集し、これにより個人を同定する個人同
定方法において、 前記個人情報を入力し、必要な場合この個人情報を特徴
量に変換するステップと、 各個人情報ごとに予め登録された個人情報又はこの個人
情報から変換された特徴量を記憶するステップと、 記憶された個人情報又は特徴量と前記入力された個人情
報もしくは特徴量を照合し、類似度情報を出力するステ
ップと、 記憶された個人情報又は特徴量と前記入力された個人情
報もしくは特徴量から信頼度情報を求めるステップと、 求められた前記複数の類似度情報及び信頼度情報から統
合規則を用いて同定結果を求めるステップとからなるこ
とを特徴とする個人同定方法。3. A personal identification method for collecting a plurality of personal information including at least one or more biometric information and identifying the individual based on the collected personal information. The personal information is input, and if necessary, the personal information is used as a feature amount. A step of converting; a step of storing personal information registered in advance for each personal information or a feature amount converted from this personal information; a step of storing the stored personal information or feature amount and the input personal information or feature amount Collating and outputting similarity information; obtaining reliability information from the stored personal information or feature quantity and the input personal information or feature quantity; and obtaining the plurality of pieces of similarity information and Obtaining an identification result from the reliability information using an integration rule.
づき作成された、学習データを用いて随時学習され更新
されることを特徴とする請求項3記載の個人同定方法。4. The personal identification method according to claim 3, wherein the integration rule is learned and updated at any time using learning data created based on the input personal information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9062682A JPH10261083A (en) | 1997-03-17 | 1997-03-17 | Personal identification device and personal identification method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9062682A JPH10261083A (en) | 1997-03-17 | 1997-03-17 | Personal identification device and personal identification method |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH10261083A true JPH10261083A (en) | 1998-09-29 |
Family
ID=13207311
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP9062682A Pending JPH10261083A (en) | 1997-03-17 | 1997-03-17 | Personal identification device and personal identification method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH10261083A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2001093186A1 (en) * | 2000-06-01 | 2001-12-06 | Business Korea Co., Ltd. | Security system and security inspection method using physical information stored in storage medium |
JP2002008034A (en) * | 2000-06-21 | 2002-01-11 | Cyber Sign Japan Inc | Personal authentication device and method, and communication device |
KR100348521B1 (en) * | 1999-08-26 | 2002-08-14 | 김운용 | An entrance control method by a living body recognition and apparatus of it |
JP2005122715A (en) * | 2003-10-17 | 2005-05-12 | Microsoft Corp | Network fingerprinting |
JPWO2005031612A1 (en) * | 2003-09-26 | 2007-11-15 | 株式会社ニコン | Electronic image storage method, electronic image storage device, and electronic image storage system |
KR100779995B1 (en) | 2006-06-07 | 2007-11-27 | 재단법인서울대학교산학협력재단 | A system for detecting the passage of a person based on a key, and a method therefor |
JP2010286702A (en) * | 2009-06-12 | 2010-12-24 | Nec Corp | Speaker verification device, speaker verification method, and program |
JP2011210126A (en) * | 2010-03-30 | 2011-10-20 | Canon Inc | Apparatus and method for recognizing pattern |
US8676969B2 (en) | 2004-02-06 | 2014-03-18 | Microsoft Corporation | Network classification |
-
1997
- 1997-03-17 JP JP9062682A patent/JPH10261083A/en active Pending
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100348521B1 (en) * | 1999-08-26 | 2002-08-14 | 김운용 | An entrance control method by a living body recognition and apparatus of it |
WO2001093186A1 (en) * | 2000-06-01 | 2001-12-06 | Business Korea Co., Ltd. | Security system and security inspection method using physical information stored in storage medium |
JP2002008034A (en) * | 2000-06-21 | 2002-01-11 | Cyber Sign Japan Inc | Personal authentication device and method, and communication device |
JPWO2005031612A1 (en) * | 2003-09-26 | 2007-11-15 | 株式会社ニコン | Electronic image storage method, electronic image storage device, and electronic image storage system |
JP4569471B2 (en) * | 2003-09-26 | 2010-10-27 | 株式会社ニコン | Electronic image storage method, electronic image storage device, and electronic image storage system |
JP2005122715A (en) * | 2003-10-17 | 2005-05-12 | Microsoft Corp | Network fingerprinting |
US8676969B2 (en) | 2004-02-06 | 2014-03-18 | Microsoft Corporation | Network classification |
US9374286B2 (en) | 2004-02-06 | 2016-06-21 | Microsoft Technology Licensing, Llc | Network classification |
US9608883B2 (en) | 2004-02-06 | 2017-03-28 | Microsoft Technology Licensing, Llc | Network classification |
KR100779995B1 (en) | 2006-06-07 | 2007-11-27 | 재단법인서울대학교산학협력재단 | A system for detecting the passage of a person based on a key, and a method therefor |
JP2010286702A (en) * | 2009-06-12 | 2010-12-24 | Nec Corp | Speaker verification device, speaker verification method, and program |
JP2011210126A (en) * | 2010-03-30 | 2011-10-20 | Canon Inc | Apparatus and method for recognizing pattern |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3439359B2 (en) | Personal identification method, personal identification device, and recording medium | |
EP1357520B1 (en) | Method for verifying users and updating database, and face verification system using the same | |
US5412738A (en) | Recognition system, particularly for recognising people | |
Bigun et al. | Multimodal biometric authentication using quality signals in mobile communications | |
JP2000148985A (en) | Personal authentication system | |
Soltane et al. | Face and speech based multi-modal biometric authentication | |
JPH11175718A (en) | Person recognizing device and its method | |
JPS6217240B2 (en) | ||
WO2012020591A1 (en) | System for identifying individuals, feature value specification device, feature specification method, and recording medium | |
US7788101B2 (en) | Adaptation method for inter-person biometrics variability | |
Soltane et al. | Multi-modal biometric authentications: concept issues and applications strategies | |
JP2006085268A (en) | Biometrics system and biometrics method | |
JPH10261083A (en) | Personal identification device and personal identification method | |
JP5812505B2 (en) | Demographic analysis method and system based on multimodal information | |
CN114677634B (en) | Surface label identification method and device, electronic equipment and storage medium | |
TWI325568B (en) | A method for face varification | |
JP4887966B2 (en) | Verification device | |
KR101208678B1 (en) | Incremental personal autentication system and method using multi bio-data | |
KR100875923B1 (en) | User retrieval system and its method through multi biometric recognition | |
Cheng et al. | An efficient approach to multimodal person identity verification by fusing face and voice information | |
JP2003044858A (en) | Personal authentication device and method | |
Jacob et al. | Feature level fusion using multiple fingerprints | |
WO2005069221A1 (en) | Pattern identifying system, pattern identifying method, and pattern identifying program | |
KR100795947B1 (en) | Biometric System Using Orthodontic Image, Its Recognition Method, and Recording Media | |
Ozkaya et al. | Intelligent face mask prediction system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040301 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20050414 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20050606 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060203 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060404 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20060804 |