[go: up one dir, main page]

JP2002221990A - Personal authentication device - Google Patents

Personal authentication device

Info

Publication number
JP2002221990A
JP2002221990A JP2001016662A JP2001016662A JP2002221990A JP 2002221990 A JP2002221990 A JP 2002221990A JP 2001016662 A JP2001016662 A JP 2001016662A JP 2001016662 A JP2001016662 A JP 2001016662A JP 2002221990 A JP2002221990 A JP 2002221990A
Authority
JP
Japan
Prior art keywords
speaker
recognition
personal authentication
similarity
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001016662A
Other languages
Japanese (ja)
Other versions
JP3818063B2 (en
Inventor
Toshiyuki Morii
利幸 森井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2001016662A priority Critical patent/JP3818063B2/en
Publication of JP2002221990A publication Critical patent/JP2002221990A/en
Application granted granted Critical
Publication of JP3818063B2 publication Critical patent/JP3818063B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To make authentication with high accuracy by a system for authenticating individuals by speech. SOLUTION: The higher accuracy than by the prior art is obtained by making combination use of speaker characteristic recognition and recognition of utterance contents and the accuracy of the speaker characteristic recognition and the accuracy of content recognition is improved by adopting an 'incantation' as utterance contents. The systems thus has an effect of making it possible to obtain the high individual authentication accuracy not possible heretofore.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、銀行やパソコンの
セキュリティーシステムに用いられる個人を認証する装
置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus for authenticating an individual used in a security system of a bank or a personal computer.

【0002】[0002]

【従来の技術】以下では、従来の個人認証技術を説明す
る。
2. Description of the Related Art A conventional personal authentication technique will be described below.

【0003】近年情報関連技術の進歩により、ネットワ
ーク、コンピュータ等による産業、生活の情報化が著し
い。その中で、情報の保全を目的としたセキュリティー
技術の需要が急速に高まっている。特に、個人の認証技
術は人間そのものを鍵とする暗号技術であり、最も基本
的且つますます必要になるセキュリティー技術である。
In recent years, with the advancement of information-related technology, the computerization of industry and life using networks, computers, and the like has been remarkable. Under such circumstances, the demand for security technology for the purpose of information security is rapidly increasing. In particular, the personal authentication technology is a cryptographic technology using a person as a key, and is the most basic and increasingly necessary security technology.

【0004】これまで、暗証番号、サイン、指紋、アイ
リス(虹彩)等が検討され商用化されている。最近で
は、指紋の10-6という誤り率の高精度認証技術が確立
されパソコンのインターフェース等に利用され商用化さ
れようとしており、また、アイリスによる認証は10-4
の誤り率の精度が得られるとされ、一部の銀行において
利用されている。その中で、音声による個人の認証技術
はNTT、東工大等によって10年以上前から研究されて
きたが、テキスト依存型でも精度は95〜98%である
とされ、他の技術と比較して格段に精度が悪い。
Until now, personal identification numbers, signatures, fingerprints, irises (irises) and the like have been studied and commercialized. Recently, is utilized to interface or the like of the personal computer high accuracy authentication technique for error rate of 10 -6 fingerprint is established is about to be commercialized, also authentication by the iris 10 -4
It is said that the accuracy of the error rate can be obtained, and is used in some banks. Among them, voice authentication technology has been studied for more than 10 years by NTT, Tokyo Institute of Technology, etc., but it is said that the accuracy is 95-98% even in the text-dependent type. The accuracy is extremely low.

【0005】しかし、音声は人がコミュニケーションに
使用する自然なインターフェースであり、その手軽さか
ら利用の道が開かれることが強く望まれている。しかし
これまでにない性能を実現しなければ音声による個人認
証を実現することはできなかった。
[0005] However, voice is a natural interface used by humans for communication, and it is strongly desired that the way of use be opened because of its simplicity. However, personal authentication by voice could not be realized without achieving unprecedented performance.

【0006】[0006]

【発明が解決しようとする課題】以上のように、従来か
ら音声による個人認証は研究されてきたがその精度は9
5〜98%と指紋やアイリスと比較して格段に性能が悪
かった。しかし、音声は人がコミュニケーションに使用
する自然なインターフェースであり、その手軽さから利
用の道が開かれることが強く望まれており、これまでに
ない性能を実現することが大きな課題となっていた。
As described above, personal authentication by voice has been studied, but its accuracy is 9%.
The performance was much worse than that of fingerprints and irises, at 5 to 98%. However, voice is a natural interface used by humans for communication, and it is strongly desired that the way of use be opened because of its simplicity, and realizing unprecedented performance has been a major issue. .

【0007】[0007]

【課題を解決するための手段】この問題を解決するため
に、請求項1記載の発明は、話者認識部と発声内容認識
部と認識結果統合部と話者登録部を備え、話者の認識と
発声内容の認識の両方を行い、それらの結果を統合する
ことによって個人認証を行うことを特徴とするるように
構成した個人認証装置である。
In order to solve this problem, the invention according to claim 1 comprises a speaker recognizing unit, a speech content recognizing unit, a recognition result integrating unit, and a speaker registering unit. A personal authentication device configured to perform both recognition and recognition of utterance contents and perform personal authentication by integrating the results thereof.

【0008】これにより、話者認識部の認識結果と発声
内容の認識結果を統合することができることから従来は
話者認識のみで実現されていた個人認証技術よりも高精
度な個人認証を実現することが可能になる。
As a result, since the recognition result of the speaker recognition unit and the recognition result of the utterance content can be integrated, personal authentication with higher accuracy than the personal authentication technology conventionally realized only with speaker recognition is realized. It becomes possible.

【0009】また、請求項2記載の発明は、認証用言語
が、音響的情報及び内容間類似度に基づき、言語の意味
内容は問わずに生成されたことを特徴とする。
The invention according to claim 2 is characterized in that the authentication language is generated irrespective of the meaning of the language based on the acoustic information and the similarity between the contents.

【0010】これにより、まず音響的情報に基づいてい
るため、高い話者認識精度が得られ、また、内容間類似
度に基づいているため高い内容認識精度が得られ、それ
らを統合するのでより高い個人認証精度を得ることが出
来る。
[0010] Thereby, first, a high speaker recognition accuracy is obtained because of the acoustic information, and a high content recognition accuracy is obtained because of the similarity between the contents. High personal authentication accuracy can be obtained.

【0011】[0011]

【発明の実施の形態】本発明の請求項1に記載の発明
は、話者認識部と発声内容認識部と認識結果統合部と話
者登録部を備えることを特徴とした個人認証装置であ
り、さらに発声内容として本発明の請求項2に記載の発
明を採用することにより従来よりも格別の認証精度を得
ることが可能になるという作用を有する。以下の説明で
は、本発明の請求項2記載の3つの特徴を持つ発声内容
を仮に「呪文」(認識用言語を指す)と呼ぶこととす
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The invention according to claim 1 of the present invention is a personal authentication apparatus characterized by comprising a speaker recognizing section, a speech content recognizing section, a recognition result integrating section, and a speaker registering section. Further, by adopting the invention described in claim 2 of the present invention as utterance contents, there is an effect that it is possible to obtain exceptional authentication accuracy more than before. In the following description, the utterance content having the three characteristics described in claim 2 of the present invention will be temporarily referred to as a “spell” (which indicates a recognition language).

【0012】以下に本発明の実施の形態について説明す
る。
An embodiment of the present invention will be described below.

【0013】図1は、本実施の形態における個人認証装
置の機能ブロック図である。
FIG. 1 is a functional block diagram of the personal authentication device according to the present embodiment.

【0014】図1において、100はマイク、101は
音声入力手段、102はキーボード、103はキー入力
手段、104は話者登録部、105は個人性格納部、1
06は話者認識部、107は登録No格納部、108は
発声内容認識部、109は呪文格納部、110は認識結
果統合部、111は認証結果、112はスイッチであ
る。以下に図1を用いて個人認証アルゴリズムを説明す
る。
In FIG. 1, reference numeral 100 denotes a microphone, 101 denotes voice input means, 102 denotes a keyboard, 103 denotes key input means, 104 denotes a speaker registration unit, 105 denotes a personality storage unit,
06 is a speaker recognition unit, 107 is a registration number storage unit, 108 is an utterance content recognition unit, 109 is a spell storage unit, 110 is a recognition result integration unit, 111 is an authentication result, and 112 is a switch. The personal authentication algorithm will be described below with reference to FIG.

【0015】まず、認証させたい使用者(認証者と呼
ぶ)の登録方法から説明する。
First, a method of registering a user to be authenticated (referred to as an authenticator) will be described.

【0016】この時、スイッチ112を話者登録手段1
04から話者認識手段106と発声内容認識手段108
へつながるように切り替える。この切替は、例えば、人
間(認証者)がおこなう。
At this time, the switch 112 is set to the speaker registration means 1
From 04, the speaker recognition means 106 and the utterance content recognition means 108
Switch to lead to. This switching is performed by, for example, a human (authenticator).

【0017】予め呪文格納手段109に格納している呪
文は、3つの特徴、(1)内容自身に意味はなく、ま
た、(2)個人を識別するのに十分な音響的情報を含ん
でおり、また、十分なロバスト性(環境、個人の状態)
を持ち、個人の認識精度が極めて高く、また、(3)内
容の群(予め決められた十分多くの集まり)を有してい
る。
The spell stored in advance in the spell storage means 109 has three features: (1) the content itself has no meaning; and (2) it contains sufficient acoustic information to identify an individual. , And also robust enough (environment, personal condition)
, The recognition accuracy of the individual is extremely high, and (3) a group of contents (a sufficiently large group of predetermined groups) is provided.

【0018】この呪文は、内容間類似度の最大値が極め
て低く、誰が発声しても認識率が極めて高くなる、を有
している)のリストを用意しておき、認証者はその中か
ら任意の呪文を記憶する。呪文のリストの例を以下の図
2に示す。図2に示すように、各呪文には番号が付けら
れている。また、世界共通で使用する場合は各国の音韻
の呪文を格納する。内容間類似度とは、登録されている
文字列と文字列との類似度をいう。
This spell has an extremely low maximum similarity between contents, and the recognition rate becomes extremely high, regardless of who utters it). Remember any spells. An example of a list of spells is shown in Figure 2 below. As shown in FIG. 2, each spell is numbered. Also, when used worldwide, it stores spells of phonemes of each country. The similarity between contents refers to the similarity between registered character strings.

【0019】そして、認証者は覚えた呪文を登録する。
まず、キーボード102によって呪文の番号を入力す
る。キー入力手段103は入力された番号を話者登録部
104へ送る。また、認証者は覚えた呪文をマイク10
0に発声する。音声入力部101は入力された音声信号
を話者登録部104へ送る。話者登録部104は、ま
ず、キー入力部103から送られてきた呪文の番号を発
声内容認識部108へ送る。
Then, the authenticator registers the learned spell.
First, the spell number is input using the keyboard 102. The key input unit 103 sends the input number to the speaker registration unit 104. In addition, the certifier uses the microphone 10
Say 0. The voice input unit 101 sends the input voice signal to the speaker registration unit 104. First, the speaker registration unit 104 sends the spell number transmitted from the key input unit 103 to the utterance content recognition unit 108.

【0020】この時、発声内容認識部108は登録モー
ドであることをスイッチ112の状態から認識し、送ら
れてきた番号を登録No格納部107へ格納する。次
に、話者登録部104は、音声入力部101から送られ
てきた音声信号を話者認識部106に送る。話者認識部
106は登録モードであることをスイッチ112の状態
から認識し、送られてきた音声信号を分析し認証者の個
人性パターン(話者音韻モデル)を作成して個人性格納
部105へ格納する。個人性パターンとは、話者の識別
に用いる個人の特徴をあらわしたパラメータであって、
例えば、下記文献Aの話者音韻モデルが相当する。
At this time, the utterance content recognition unit 108 recognizes that the mode is the registration mode from the state of the switch 112, and stores the transmitted number in the registration number storage unit 107. Next, speaker registration section 104 sends the speech signal sent from speech input section 101 to speaker recognition section 106. The speaker recognition unit 106 recognizes that the mode is the registration mode from the state of the switch 112, analyzes the sent voice signal, creates a personality pattern (speaker phoneme model) of the authenticator, and stores the personality storage unit 105. To store. The personality pattern is a parameter that represents the characteristics of an individual used for speaker identification.
For example, the speaker phoneme model of Document A below corresponds to this.

【0021】この個人性パターンの作成方法としては様
々な方法が研究されている。文献A(松井他「テキスト
指定型話者認識」、電子情報通信学会論文誌D−II、
Vol.J79−D−II、No.5、pp.647−
656、1996年5月)の「話者音韻モデル」に開示
されているように、話者隠れマルコフモデルを基本と
し、各話者の学習データ及び不特定話者の隠れマルコフ
モデルを用いて、話者隠れマルコフモデルを学習させ
て、個人性パラメータを生成する。
Various methods have been studied as methods for creating this personality pattern. Reference A (Matsui et al. “Text-Specific Speaker Recognition”, IEICE Transactions D-II,
Vol. J79-D-II, no. 5, pp. 647-
656, May 1996), based on a speaker hidden Markov model, using learning data of each speaker and a hidden Markov model of an unspecified speaker. A speaker hidden Markov model is trained to generate individuality parameters.

【0022】なお、個人性パターンとは、話者の識別に
用いる個人の特徴を表したパラメータであって、例え
ば、上記文献の「話者音韻モデル」に相当する。
Note that the personality pattern is a parameter representing the characteristics of an individual used for speaker identification, and corresponds to, for example, the "speaker phoneme model" in the above-mentioned document.

【0023】以上で認証者の登録は終了である。なお、
認証者は呪文の番号を記憶しておく必要はない。
Thus, the registration of the certifier has been completed. In addition,
The verifier does not need to remember the spell number.

【0024】次に認証時の機能について詳細に説明す
る。
Next, the function at the time of authentication will be described in detail.

【0025】認証時には、予め、スイッチ112は音声
入力部101が話者認識部106と発声内容認識部10
9とにつながるように切り替えておく。
At the time of authentication, the switch 112 is set in advance so that the voice input unit 101 makes the speaker recognizing unit 106 and the utterance content recognizing unit 10
9 so that it is connected.

【0026】まず、認証される人物(被験者と呼ぶ)は
マイク100に向かって呪文を発声する。(もちろん、
被験者が認証者で、認証者と認識されたい場合は、記憶
しておいた呪文を発声する。)音声入力部101は入力
された音声を、話者認識部106と発声内容認識手段1
08へ送る。話者認識部106はスイッチが認証時の状
態になっていることを認識し、送られてきた音声信号を
分析し被験者の個人性パターンを抽出する。
First, a person to be authenticated (called a subject) speaks a spell toward the microphone 100. (of course,
If the subject is a certifier and wants to be recognized as a certifier, he utters the spell that he remembers. The voice input unit 101 converts the input voice into a speaker recognizing unit 106 and an utterance content recognizing unit 1.
Send to 08. The speaker recognition unit 106 recognizes that the switch is in the state at the time of authentication, analyzes the transmitted voice signal, and extracts the individuality pattern of the subject.

【0027】そして、この個人性パターンと個人性格納
部105内に格納された認証者の個人性パターンとの照
合を行い、被験者が認証者であるかどうかを示す度合い
を求め、認識結果統合部110へ送る。具体的照合方法
については上記(文献A)に開示されている。また、発
声内容認識部108では、送られてきた音声信号と呪文
格納部109に格納されたパターンとの照合を行う。
Then, the personality pattern is collated with the personality pattern of the certifier stored in the personality storage unit 105 to determine a degree indicating whether or not the subject is a certifier. Send to 110. The specific collation method is disclosed in the above (Document A). Further, the utterance content recognition unit 108 compares the transmitted voice signal with the pattern stored in the spell storage unit 109.

【0028】具体的な照合方法については、HMMやモ
デル音声法やCompats法やCLM法等様々な方法
が既に研究されている。一例として、上記文献に記載の
通り、話者音韻モデルを連結して、そのテキストのモデ
ルを作成し、入力音声をそのテキストのモデルに与えた
ときのゆう度を計算し、話者及びテキストの判定をおこ
なう。
As a specific matching method, various methods such as the HMM, the model speech method, the Compats method, and the CLM method have been studied. As an example, as described in the above-mentioned literature, a speaker phonemic model is connected, a model of the text is created, a likelihood when an input voice is given to the model of the text is calculated, and the speaker and the text are calculated. Make a decision.

【0029】また、CLM法については研究会資料:文
献B(平岡他「ワードスポッティング手法を用いた不特
定話者・少数語向け音声認識装置」、電子情報通信学
会、音声研究会資料、SP88−18、1988年6
月)に開示されている。
Further, regarding the CLM method, a study group material: Document B (Hiraoka et al., “Speech Recognition Apparatus for Unspecified Speakers / Minor Words Using Word Spotting Technique”, IEICE, Speech Workshop Group Material, SP88- 18, 1988 6
Mon).

【0030】また、モデル音声法については、研究会資
料:文献C(宮田他「CV・VC・VCVを単位とした
モデル音声法による不特定話者音声認識」、電子情報通
信学会、音声研究会資料、SP91−83、1991年
12月)に開示されている。そして、照合結果(「どの
呪文にどれだけ近かったか」や「登録No格納部107
に格納された番号の呪文とはどれだけ近かったか」とい
った類似度情報)を認識結果統合部110へ送る。
For the model speech method, refer to the document of the study group: Document C (Miyata et al. “Unrecognized speaker speech recognition by the model speech method in units of CV, VC and VCV”, IEICE, Speech Research Group. Material, SP91-83, December 1991). Then, the matching result (“how close to which spell” and “registration number storage unit 107
To the recognition result integration unit 110).

【0031】なお、呪文格納部109に呪文を格納する
形態は発声内容認識部108の照合方法によって様々な
構造をとる。例えば、(文献B)のように、音声信号を
統計的に分析して選られるパラメータの時系列モデルで
認識する場合は、呪文を表わす時系列パターンの形態で
格納する。
The form of storing the spell in the spell storage section 109 has various structures depending on the collation method of the utterance content recognition section 108. For example, when a speech signal is statistically analyzed and recognized by a time-series model of parameters selected as in (Reference B), the speech signal is stored in the form of a time-series pattern representing a spell.

【0032】また、(文献C)のように、音声片を認識
の単位とする場合はテキストの形態で格納する。そし
て、認識結果統合部110では、話者認識部106と発
声内容認識部108から送られてきた結果を基に総合的
な判断を行い、被験者が認証者か否かの判断を認証結果
111として出力する。
When a speech unit is used as a unit of recognition as in (Reference C), the data is stored in the form of text. Then, the recognition result integration unit 110 makes a comprehensive determination based on the results sent from the speaker recognition unit 106 and the utterance content recognition unit 108, and determines whether or not the subject is the authenticator as the authentication result 111. Output.

【0033】総合的な判断の方法としては様々な方法が
あるが、一例としては、「どれだけ認証者に近いか(類
似度)」の値S1と「登録No格納部107に格納され
た番号の呪文とはどれだけ近かったか(類似度)」の値
S2と「登録No格納部107に格納された番号以外で
最も近かった呪文の類似度」の値をS3として以下の
(数1)で判断する方法が挙げられる。
There are various methods for comprehensive judgment. As an example, as an example, the value S1 of “how close to the authenticator (similarity)” and the number stored in the registration number storage unit 107 are The value S2 of "how close the spell was to the spell of (similarity)" and the value of "similarity of the closest spell other than the number stored in the registration No. storage unit 107" are S3 and are expressed by the following (Equation 1). There is a method of determining.

【0034】[0034]

【数1】 (Equation 1)

【0035】以上の構成により高い個人認証精度を得る
ことが出来る。
With the above configuration, high personal authentication accuracy can be obtained.

【0036】なお、定数a,b,tは、認証者であるか
ないか既知の教師データ(様々な人が被験者として発声
して得られる話者認識部106の出力と発声内容認識部
108の出力を記録したものにその被験者が認証者であ
るかないかを併せて記録したデータベース)に基づく学
習(最も認証精度が上がるような境界面(直線)を求め
ること)により求める。学習方法の一例を以下に示す。
まず、教師データを以下の(数2)に示す。
Note that the constants a, b, and t are the teacher data (whether the output is the speaker recognition unit 106 or the output of the speech content recognition unit 108 obtained by uttering various persons as subjects) whether or not they are authenticators. Is obtained by learning (finding a boundary surface (straight line) that maximizes the authentication accuracy) based on a database in which the subject is recorded as an authenticator or not. An example of the learning method will be described below.
First, teacher data is shown in the following (Equation 2).

【0037】[0037]

【数2】 (Equation 2)

【0038】まず、定数a、bを定める。これらは、以
下のコスト関数(数3)を最小にするように求める。
First, constants a and b are determined. These are determined so as to minimize the following cost function (Equation 3).

【0039】[0039]

【数3】 (Equation 3)

【0040】そこで、定数a、bは、上記コスト関数を
a、bで偏微分することにより得られる2つのa、bを
変数とした1次式を、連立方程式として解くことにより
求めることができる。これにより認証者である集合と認
証者でない集合の境界線の傾きを定めることができる。
Therefore, the constants a and b can be obtained by solving a linear equation with two variables a and b obtained by partially differentiating the cost function by a and b as simultaneous equations. . This makes it possible to determine the slope of the boundary between the set that is the authenticator and the set that is not the authenticator.

【0041】次に定数tの学習であるが、本実施例では
一例として、目標となる2つの誤認証率(認証者でない
者を認証者と間違えてしまう率(誤許容率)、認証者を
認証者でないと間違えてしまう率(誤拒否率))の要求
基準を反映しながら、両者を小さくするような逐次近似
アルゴリズムで求める。アルゴリズムの手順を以下に示
す。 (1)初期値としてt=0とする。(これは、(数2)
のTnの設定に依存する。) (2)教師データの各サンプルに対して(数1)の判定
を行い、教師データについて誤許容率Pと誤拒否率Qを
計算する。 (3)以下の(数4)の値Rを計算する。
Next, learning of the constant t is performed. In the present embodiment, as an example, two target false authentication rates (the rate at which a person who is not an authenticator is mistaken for an authenticator (false error rate), It is determined by a successive approximation algorithm that reduces both while reflecting the required standard of the rate (error rejection rate) in which the user is not an authenticator. The procedure of the algorithm is shown below. (1) Set t = 0 as an initial value. (This is (Equation 2)
Depends on the setting of Tn. (2) The judgment of (Equation 1) is performed for each sample of the teacher data, and an error tolerance rate P and an error rejection rate Q are calculated for the teacher data. (3) Calculate the value R of the following (Equation 4).

【0042】[0042]

【数4】 (Equation 4)

【0043】(4)予め定めた固定の微小量xを用い
て、t+x、t−xの2つの場合について上記(2)
(3)と同様の処理を行い、それぞれの値(R+、R−
と呼ぶ)を求める。 (5)R<R+ 且つ R<R− の時終了、その時のt
を使用する。
(4) Using the predetermined fixed minute amount x, two cases of t + x and t−x are described in (2) above.
The same processing as (3) is performed, and each value (R +, R−
Call). (5) Termination when R <R + and R <R−, t at that time
Use

【0044】R>R+ 且つ R<R− の時、t=t+
xとして(2)へ。
When R> R + and R <R−, t = t +
Go to (2) as x.

【0045】R<R+ 且つ R>R− の時、t=t―
xとして(2)へ。
When R <R + and R> R−, t = t−
Go to (2) as x.

【0046】R>R+ 且つ R>R− 且つ R+<R−
の時、t=t+xとして(2)へ。
R> R + and R> R− and R + <R−
At the time, go to (2) as t = t + x.

【0047】R>R+ 且つ R>R− 且つ R+>R−
の時、t=t―xとして(2)へ。
R> R + and R> R− and R +> R−
Then, go to (2) as t = tx.

【0048】上記アルゴリズムにより定数a、b、tが
学習できる。この他にもニューラルネットの学習アルゴ
リズムや、最尤降下法、遺伝的アルゴリズムなどのアル
ゴリズムでも学習できる。また、上記アルゴリズムにお
いて変化量Xを適応的に徐々に変化させていく方法も有
効である。
The constants a, b, and t can be learned by the above algorithm. In addition, learning can also be performed using a neural network learning algorithm, an algorithm such as a maximum likelihood descent method, or a genetic algorithm. Further, a method of adaptively gradually changing the variation X in the above algorithm is also effective.

【0049】ここで、本発明の2の重要な特徴である
「呪文群」の作成方法の一例を述べる。まず、呪文の定
義を以下に示す。 (1)内容自身に意味はない。 (2)個人を識別するのに十分な音響的情報を含んでお
り、また、十分なロバスト性(環境、個人の状態)を持
ち、個人の認識精度が極めて高くなる。 (3)内容の群(予め決められた十分多くの集まり)
は、内容間類似度の最大値が極めて低く、誰が発声して
も認識率が極めて高くなる。
Here, an example of a method of creating a “spell group”, which is an important feature of the present invention, will be described. First, the definition of a spell is shown below. (1) The content itself has no meaning. (2) It contains acoustic information sufficient to identify an individual, has sufficient robustness (environment, state of the individual), and has extremely high individual recognition accuracy. (3) Content group (sufficiently large group determined in advance)
Has an extremely low maximum value of the similarity between contents, and the recognition rate becomes extremely high, no matter who utters.

【0050】以下、呪文群の作成方法について述べる。
なお、音韻の単位としては、音素、半音節、音節等様々
であり、外国語も含めると更に多種多様なものがある
が、本実施例の説明では分かりやすくするために「仮
名」を単位とする。
Hereinafter, a method of creating a spell group will be described.
Note that the units of phonemes are various such as phonemes, semi-syllables, and syllables, and there are even more diverse ones including foreign languages. I do.

【0051】まず、上記特徴の(2)を満たすために、
呪文を構成する最低限の仮名を設定し、乱数を用いて、
十分多数の呪文候補集団(「母集団A」と呼ぶ)を作成
する。個人性が特にどの音韻や周波数に含まれているか
という研究もなされているが、ここでは一例として音韻
バランスを考慮した方法を用いる。
First, in order to satisfy the above feature (2),
Set the minimum kana that makes up the spell and use random numbers to
A sufficient number of spell candidate groups (referred to as “population A”) are created. Although research has been conducted on which phonemes and frequencies are particularly included in personality, a method that considers phoneme balance is used here as an example.

【0052】例えば、ロバスト性(環境、個人の状態)
も考慮して、「母音」「有声子音」「無声子音」「半母
音」「濁音」の5種類は必ず含むようにし、その間に任
意の仮名が入るように構成する。
For example, robustness (environment, personal condition)
In consideration of the above, the five types of "vowel", "voiced consonant", "unvoiced consonant", "half vowel", and "dullary" are always included, and an arbitrary pseudonym is inserted between them.

【0053】やり方としては、まず文字数を乱数で決定
(5文字以上。一般の人が簡単に覚えられる数を考慮し
あまり長くならないように設定。)し、その何文字目に
上記5種類の仮名が来るかかを乱数で決定し、更にそれ
ぞれの種類のどの仮名を使用するかを乱数で決定し、最
後に残りの場所の仮名を全ての仮名の集合から乱数で抽
出して決定するという方法が挙げられる。
As a method, first, the number of characters is determined by a random number (5 or more characters. Setting is made so as not to be too long in consideration of the number that can be easily remembered by ordinary people). Is determined by random numbers, and further, which kana of each type is to be used is determined by random numbers, and finally, the remaining locations of kana are extracted and determined by random numbers from the set of all kana. Is mentioned.

【0054】この方法で膨大な数の要素からなる母集団
Aを作成することができる。これらは、個人を識別する
のに十分な音響的情報を含んでおり、上記(2)の特徴
を持つ。なお、母集団A作成時には、簡単な規則によっ
て常識的拘束を与えることが有効である。
With this method, a population A consisting of an enormous number of elements can be created. These include acoustic information sufficient to identify an individual, and have the feature (2). At the time of creating the population A, it is effective to give common sense constraints by simple rules.

【0055】例えば、「「ん」は先頭に来ない」や
「「ん」や「っ」は2つ続かない」や「「っ」は語尾に
来ない」や「「ん」の後に母音は来ない」や「「っ」の
後に母音、半母音は来ない」や「同音は3つ続かない」
等である。
For example, "" does not come to the head ",""does not come after two", "" does not come to the end ", or""No vowels and half vowels do not come after""or""."
And so on.

【0056】次に、上記母集団Aから上記特徴の(3)
を持つものを自動的に選択し、新たな母集団(「母集団
B」と呼ぶ)を作成する。まず、各仮名の標準パターン
と、仮名の類似度、内容間類似度について、その一例を
述べる。
Next, from the population A, (3)
Are automatically selected to create a new population (referred to as “population B”). First, an example of the standard pattern of each kana, the similarity of the kana, and the similarity between contents will be described.

【0057】まず、仮名のラベル付けされた(時間的に
どこからどこまでがどの仮名なのかが記述され音声デー
タに付加されている)多くの話者の単語集団から各仮名
の音響パラメータの時系列を切り出し、それらの多くの
集合(仮名データと呼ぶ)から平均と分散を求めること
により各仮名の標準パターンを求めることができる。
First, a time series of acoustic parameters of each kana is obtained from a word group of many speakers labeled with kana (where the kana is described in time and which kana is added to the voice data). A standard pattern of each kana can be obtained by cutting out and obtaining an average and a variance from many sets of these (called kana data).

【0058】そして、各仮名の標準パターンと上記多く
の仮名データとをマッチングすることによって得られる
類似度を平均化(パターンとデータの関係を換えて再度
マッチングして全ての平均をとる)することにより、仮
名同士の類似度を求める。例えば以下の(表1)の様な
表が作成できる。なお、上記マッチング方法について
は、(文献B)に開示されている。(「単語マッチン
グ」を「仮名マッチング」に応用すればよい。)
Then, the similarity obtained by matching the standard pattern of each kana with the above-mentioned many kana data is averaged (the relationship between the pattern and the data is changed and the matching is performed again to take the average of all). To determine the similarity between the pseudonyms. For example, the following table (Table 1) can be created. The above matching method is disclosed in (Reference B). ("Word matching" can be applied to "kana matching".)

【0059】[0059]

【表1】 [Table 1]

【0060】(表1)を利用すれば各仮名同士の類似度
が求められる。そこで、この表を用いて内容間類似度を
求める。この際のマッチングの方法としては、DP(動
的計画法)や部分スポッティングを用いたもの等が挙げ
られる。本実施の形態では、最も基本的な例として、1
つの仮名の位置のずれを考慮して最も類似度が大きくな
る時の各仮名の類似度の合計類似度を求めるというアル
ゴリズムを採用する。
Using (Table 1), the similarity between the pseudonyms can be obtained. Therefore, the similarity between contents is obtained using this table. As a matching method at this time, a method using DP (Dynamic Programming), partial spotting, or the like can be used. In the present embodiment, as the most basic example, 1
An algorithm is employed in which the total similarity of the similarities of each kana when the similarity is maximized in consideration of the displacement of the two kana.

【0061】例えば「アイウエオ」と「エンキッカウイ
オー」の内容間類似度の求め方を以下の(図3)に示
す。(実際は呪文の特徴(2)より上記2つの内容は存
在しないが、(表1)を用いて説明するためにこれらの
内容を使用することに注意されたい。また、類似度は
(表1)を参照している。) 図3のように、上記2つの内容の場合は内容間類似度は
(表1)を利用してもとめた相互の類似度の和を求め
「75」という値になる。このようにして、2つの内容
の内容間類似度を求めることができる。
For example, the following (FIG. 3) shows how to determine the degree of similarity between the contents of “Aiueo” and “Enkikkauio”. (Actually, the above two contents do not exist due to the characteristic (2) of the spell, but it should be noted that these contents are used to explain using (Table 1). The similarity is (Table 1) As shown in FIG. 3, in the case of the above two contents, the similarity between the contents is obtained by calculating the sum of the mutual similarities obtained using (Table 1) and has a value of "75". . In this way, the similarity between two contents can be obtained.

【0062】なお、上記アルゴリズムに、上記値を仮名
の数で割って正規化するという方法で内容間類似度を求
めるという方法を追加すれば、より仮名文字数に依存し
ない類似度が得られる。
If the above algorithm is added with a method of calculating the similarity between contents by dividing the above value by the number of kana and normalizing the same, a similarity that does not depend on the number of kana characters can be obtained.

【0063】また、文字列が部分的に似ているという場
合も考えられるので、比較する2つの文字列のうち短い
文字列の前後に「っ」を付加した文字列(長い文字列の
文字数と短い文字列の文字数の差の数だけ場合が存在す
る)でマッチングをとることによりより確実な内容間類
似度を得ることができる。
Further, since it is conceivable that the character strings are partially similar, a character string obtained by adding “「 ”before and after a short character string of two character strings to be compared (the number of characters of a long character string and Matching with the number of differences in the number of characters in a short character string) can obtain a more reliable similarity between contents.

【0064】例えば、「アイウエオ」と「ガピアイウエ
オートル」のマッチングでは、「アイウエオッッッッ
ッ」と「ッアイウエオッッッッ」と「ッッアイウエオッ
ッッ」と「ッッッアイウエオッッ」と「ッッッッアイウ
エオッ」と「ッッッッッアイウエオ」とマッチングを取
り、最大の類似度を内容間類似度とすればよい。この工
夫により、部分的に近い場合にも高い類似度が確実に得
られる。以上で内容間類似度の求め方の説明を終わる。
For example, in the matching between "aiueo" and "gapiaiueaautoru", "aiueotsu", "aiueootsu", "hiaiueooh", and "ohaiou" What is necessary is to match "eye-eye", "key-eye-eye", and "key-eye-eye", and determine the maximum similarity as the similarity between contents. With this ingenuity, a high degree of similarity can be reliably obtained even when the areas are partially close. This concludes the description of how to determine the similarity between contents.

【0065】そこで、母集団Aの各要素に対して、上記
内容間類似度を用いた自動選択を行い、母集団Bを作成
する。自動選択アルゴリズムについて以下に示す。本実
施の形態では、予め指定した数の要素まで母集団Aの要
素を間引くことによって母集団Bを作成するというアル
ゴリズムである。 (0)予め母集団Bの要素数の目標値を定めておく。 (1)母集団Aの要素に全てに番号(順番)をつける。 (2)nを1から母集団Aの要素数まで1つづつ動か
し、(3)を行う。 (3)番号nの要素と母集団Aの要素全てとマッチング
を行い、その内容間類似度の最大値と次に大きな値(準
最大値)を求め、これらを番号nの要素の総合類似度と
する。 (4)母集団Aの要素すべての総合類似度を調べ、総合
類似度(最大値の方)が最大となる2つの要素を特定す
る。 (5)2つの要素のうち、準最大値が大きい方の要素を
母集団Aから削除する。
Therefore, a population B is created by automatically selecting each element of the population A using the above-mentioned similarity between contents. The automatic selection algorithm is described below. In the present embodiment, the algorithm is such that the population B is created by thinning out the elements of the population A to a predetermined number of elements. (0) A target value of the number of elements of the population B is determined in advance. (1) A number (order) is assigned to all elements of the population A. (2) Move n one by one from 1 to the number of elements of the population A, and perform (3). (3) Match the element of the number n with all the elements of the population A, obtain the maximum value of the similarity between the contents and the next largest value (quasi-maximum value), and calculate these as the overall similarity of the element of the number n And (4) The total similarity of all the elements of the population A is checked, and two elements having the maximum total similarity (the maximum value) are specified. (5) Of the two elements, the element with the larger semi-maximum value is deleted from the population A.

【0066】(6)母集団Aの要素数が予め指定してお
いた目標値になったとき、これを母集団Bとして、終了
する。それ以外の場合は(1)にいく。
(6) When the number of elements of the population A reaches the target value specified in advance, this is set as the population B, and the processing ends. Otherwise, go to (1).

【0067】上記アルゴリズムによって、最適ではない
が、相互の内容間類似度の比較的低い、呪文の定義の
(3)の特徴を持つ母集団が作成できる。なお、選択ア
ルゴリズムとしては、この他にも、逆に要素を増やして
いくようなアルゴリズム等、様々なものが存在する。
By the above algorithm, a population which is not optimal but has relatively low similarity between contents and which has the characteristic (3) of the definition of the spell can be created. There are various other selection algorithms, such as an algorithm that increases the number of elements.

【0068】そして、最後に人が母集団Bの要素(呪文
候補)を吟味し、発声できないものや、鍵とするのに適
当でないものを削除する。以下のような場合が考えられ
る。 (1)発声し難いもの。(「イアヘッホロピビヒ」等)
安定した発声ができないものは除く。 (2)意味のある文字列を含むもの。特に口にして問題
のある単語を含む場合は除く。
Finally, the human examines the elements (spell candidates) of the population B and deletes those that cannot be uttered or those that are not suitable as keys. The following cases are possible. (1) Those that are difficult to utter. (Such as "Iahechoropybich")
Excludes those who cannot produce stable utterances. (2) Those containing a meaningful character string. Except for words that have a problematic word.

【0069】上記の作業によって「呪文群」が完成す
る。以上で呪文群の作成法の説明を終わる。
The "spell group" is completed by the above operation. This concludes the description of how to create spells.

【0070】そして、呪文群を利用して、認証者の登録
のために「呪文群の番号付きリスト」を作成し用意し、
また認証のために呪文格納部109に格納する呪文パタ
ーンを作成する。
Using the spell group, a “numbered list of spell groups” is created and prepared for registration of the certifier,
In addition, a spell pattern to be stored in the spell storage unit 109 for authentication is created.

【0071】ここで、呪文格納部109に格納するパタ
ーンの作成方法について述べる。文献Bに開示されてい
る不特定話者の音声認識技術を用いる場合は、老若男女
沢山の話者に呪文群の呪文を発声してもらい、これを録
音・音声区間の切り出しを行い、各呪文の音声データベ
ースを作成し、これを用いて呪文の標準パターンを作成
し、これを格納することによって呪文格納部109を準
備する。このアルゴリズムは文献Bに開示されている。
Here, a method of creating a pattern to be stored in the spell storage unit 109 will be described. In the case of using the unrecognized speaker's voice recognition technology disclosed in Document B, a large number of young and old speakers are required to utter spells of a group of spells, and the spells are recorded and voice sections are cut out. A spell storage unit 109 is prepared by creating a standard spell pattern using the voice database and storing the spell standard pattern. This algorithm is disclosed in reference B.

【0072】また、呪文の数が多い場合は、多くの話者
の音声データベースから各音韻(半音節、音節など)の
標準パターンを作成して用いる場合もある。このアルゴ
リズムは文献Cに開示されている。この場合、呪文はテ
キストで記述していればよく、認識の際に音韻標準パタ
ーンを接続することによって呪文の標準パターンを作成
する。また、HMMや他の認識方法を用いる場合には、
上記2つとはまた異なる形態の標準パターンが呪文格納
部109に格納される。
When the number of spells is large, a standard pattern of each phoneme (half syllable, syllable, etc.) may be created and used from the speech database of many speakers. This algorithm is disclosed in reference C. In this case, the spell only needs to be described in text, and the spell standard pattern is created by connecting the phoneme standard patterns during recognition. Also, when using HMM or other recognition methods,
A standard pattern in a form different from the above two is stored in the spell storage unit 109.

【0073】以上で認証方法の全説明を終わる。The whole description of the authentication method has been completed.

【0074】さて、上記認証方法の説明で述べた、認証
結果111を実際の鍵に伝え、被験者が認証者であると
いう結果の場合に鍵を開けるようにすれば、音声を利用
した部屋や金庫のセキュリティーシステムが構築出来
る。またこの認証結果111と他の認証(指紋、アイリ
ス、顔認識、サイン認識など)を併用することにより、
さらに高精度なセキュリティーシステムも実現できる。
By transmitting the authentication result 111 to the actual key as described in the above description of the authentication method and opening the key when the result indicates that the subject is an authenticator, a room or a safe using voice can be used. Security system can be constructed. Also, by using this authentication result 111 in combination with other authentication (fingerprint, iris, face recognition, signature recognition, etc.),
Furthermore, a highly accurate security system can be realized.

【0075】また、本発明の個人認証装置のアルゴリズ
ムをプログラムとしてHD、ROM等の記録媒体に記録
すれば、パソコンや携帯電話など広い応用範囲で音声を
利用した高精度の個人認証が実現出来、様々なセキュリ
ティーシステムを構築できる。
If the algorithm of the personal authentication apparatus of the present invention is recorded as a program in a recording medium such as an HD or a ROM, highly accurate personal authentication using voice can be realized in a wide range of applications such as a personal computer and a mobile phone. Various security systems can be built.

【0076】図4に、個人認証装置を用いた無線通信装
置の一例を示す。201はマイク、202は通信部、2
03はアンテナ、204はスピーカ、205はキーボー
ド、206は制御部、207個人認証装置、208はハ
ンドスイッチ、209はスイッチ、210は電源であ
る。
FIG. 4 shows an example of a wireless communication device using a personal authentication device. 201 is a microphone, 202 is a communication unit, 2
03 is an antenna, 204 is a speaker, 205 is a keyboard, 206 is a control unit, 207 personal authentication device, 208 is a hand switch, 209 is a switch, and 210 is a power supply.

【0077】本発明の無線通信装置の実施の形態の説明
を行う。
An embodiment of the wireless communication apparatus according to the present invention will be described.

【0078】まず、従来から携帯電話等に用いられてき
た従来の通話機能について説明する。マイク201から
入力された音声は通信部202で符号化、変調、高周波
変換されてアンテナ203から送信される。また、アン
テナ203で受信した電波は通信部202において、低
周波変換、復調、復号化されてスピーカ204から音声
出力される。
First, a conventional call function conventionally used for a mobile phone or the like will be described. The voice input from the microphone 201 is encoded, modulated, and high-frequency converted by the communication unit 202 and transmitted from the antenna 203. The radio wave received by the antenna 203 is subjected to low-frequency conversion, demodulation, and decoding in the communication unit 202, and the sound is output from the speaker 204.

【0079】その他に通信部202はリングトーン(デ
ュアルトーン)を検出してスピーカ204から着信を知
らせるメロディを出力するという機能も有する。キーボ
ード205は電話番号の入力や電源のオンオフを入力
し、制御部206は、キーボード205の入力を受け
て、宛先番号符号化を行い通信部202へ送る。以上の
機能は全て電源210から供給される電気によって実現
される。
In addition, the communication section 202 has a function of detecting a ring tone (dual tone) and outputting a melody for notifying an incoming call from the speaker 204. The keyboard 205 inputs a telephone number input or power on / off, and the control unit 206 receives the input from the keyboard 205, encodes the destination number, and sends it to the communication unit 202. All of the above functions are realized by electricity supplied from the power supply 210.

【0080】次に、実使用時の機能について説明する。
まず、ハンドスイッチ208とスイッチ209は始めオ
フの状態になっている。ここで、ハンドスイッチ208
が押されると、マイク201とキーボード205と個人
認証装置207に電源210から電気が供給され、個人
認証ができるモードになる。
Next, the function at the time of actual use will be described.
First, the hand switch 208 and the switch 209 are initially off. Here, the hand switch 208
When is pressed, power is supplied from the power supply 210 to the microphone 201, the keyboard 205, and the personal authentication device 207, and a mode is set in which personal authentication can be performed.

【0081】個人認証装置207は実施の形態1に記載
した内容の構成と機能を持っており、そこで個人認証を
行い、認証結果をスイッチ209に送る。スイッチ20
9は発声者が認証者と認めた時のみオンの状態になり、
マイク201、通信部202、スピーカ204、キーボ
ード205、制御部206へ電気が供給されるようにす
る。
The personal authentication device 207 has the configuration and function of the contents described in the first embodiment, performs personal authentication there, and sends the authentication result to the switch 209. Switch 20
9 is ON only when the speaker recognizes as a certifier,
Electricity is supplied to the microphone 201, the communication unit 202, the speaker 204, the keyboard 205, and the control unit 206.

【0082】これで、通常の無線通信装置として使用で
きるようになる。したがって、個人認証装置207から
スイッチ209に送られてきた認証結果が「認証者でな
い」であった場合はスイッチ209はオフの状態のまま
であり、無線通信装置として使用できない状態のままを
維持する。
Thus, the device can be used as a normal wireless communication device. Therefore, when the authentication result sent from the personal authentication device 207 to the switch 209 is “not an authenticator”, the switch 209 remains off and remains in a state where it cannot be used as a wireless communication device. .

【0083】また、ハンドスイッチは指を離すとオフの
状態に戻るような機能を持ち、無駄な電気を消費しない
ようになっている。またキーボード205についている
電源スイッチをオフにすることによりスイッチ209は
オフの状態になり、次に認証者が認証されない限り動作
しないことになる。
The hand switch has a function of returning to the off state when the finger is released, so that wasteful electricity is not consumed. When the power switch on the keyboard 205 is turned off, the switch 209 is turned off, and will not operate unless the authenticator is authenticated next.

【0084】なお、認証者の登録はハンドスイッチをオ
ンにしながら、マイクとキーボードを使用することによ
り行う。この機能については実施の形態1に記載した。
また、非認証者が悪意で登録してしまうのを避けるため
に、一度登録を行ったら、認証者と認証しない限り再登
録は行えないという機能を個人認証装置に追加すれば、
更にセキュリティ度は向上する。
The registration of the authenticator is performed by using the microphone and the keyboard while turning on the hand switch. This function has been described in the first embodiment.
Also, in order to prevent unauthenticated persons from registering maliciously, by adding a function to the personal authentication device that once registered, you can not re-register unless you authenticate with the authenticator,
Further, the degree of security is improved.

【0085】本発明は、上記実施の形態により、音声に
よる個人認証機能により特定の人しか使用することがで
きない無線通信装置を実現することができるという効果
を有する。
The present invention has an effect that a wireless communication device which can be used only by a specific person by the personal authentication function by voice can be realized by the above embodiment.

【0086】図5に、個人認証装置を用いたセキュリテ
ィーシステムを示す。301はマイク、302は個人認
証装置、303は鍵、304はキーボードである。な
お、上記「鍵」はシステムを使用可能にする鍵であり、
部屋や金庫のドアや、パソコン、銀行の端末、車のエン
ジンなどを使用可能にする鍵を示しており、そのいずれ
にも応用可能である。
FIG. 5 shows a security system using a personal authentication device. 301 is a microphone, 302 is a personal authentication device, 303 is a key, and 304 is a keyboard. Note that the above “key” is a key for enabling the system,
It shows keys that enable doors in rooms and safes, personal computers, bank terminals, car engines, etc., and can be applied to any of them.

【0087】本発明のセキュリティーシステムの実施の
形態について以下に示す。
Embodiments of the security system according to the present invention will be described below.

【0088】鍵303がかかった状態にあるとする。ま
ず、使用者はマイク301に発声を行う。個人認証装置
302は入力された音声から、使用者が認証者であるか
どうかを認証し、認証結果を鍵303に出力する。鍵3
03は使用者が認証者である場合、鍵を解く。
It is assumed that the key 303 is locked. First, the user speaks into the microphone 301. The personal authentication device 302 authenticates whether or not the user is an authenticator from the input voice, and outputs the authentication result to the key 303. Key 3
03 unlocks the key if the user is the authenticator.

【0089】これで、鍵の付いたシステムを使用するこ
とが出来る。なお、認証方法については実施の形態1に
開示した。鍵は手動でかけることが出来るが解くことが
できないようになっており、声による認証によってのみ
解くことができる。
Now, a system with a key can be used. The authentication method has been disclosed in the first embodiment. The key can be manually unlocked but cannot be unlocked, and can only be unlocked by voice authentication.

【0090】以上によりシステムの使用に関するセキュ
リティーを保つことができる。なお、認証者の登録はマ
イク301、キーボード304、個人認証装置302を
用いて事前に行う。登録方法については実施の形態1に
記載した。また、一度登録したら認証者しか再登録がで
きないようにすればセキュリティー度を更に向上させる
ことができる。
As described above, security for use of the system can be maintained. The registration of the certifier is performed in advance using the microphone 301, the keyboard 304, and the personal authentication device 302. The registration method has been described in the first embodiment. In addition, the security level can be further improved by allowing only the authenticator to re-register once registered.

【0091】また、「鍵をかける」という行為を、手動
でなく個人認証装置を利用して行うようにすることも可
能である。この時、鍵の開閉を異なる発声内容で行うよ
うにすれば、認証者しか開閉できない鍵が実現できる。
It is also possible to perform the act of “locking” using a personal authentication device instead of manually. At this time, if the key is opened and closed with different utterance contents, a key that can be opened and closed only by the authenticator can be realized.

【0092】本発明は、上記実施の形態により、音声に
よる個人認証機能により特定の人しか使用することがで
きないシステムを実現することができるという効果を有
する。
The present invention has an effect that a system in which only a specific person can use the personal authentication function by voice can be realized by the above embodiment.

【0093】[0093]

【発明の効果】以上のように、話者認識部と発声内容認
識部と認識結果統合部と話者登録部を備える特徴によ
り、話者認識部の認識結果と発声内容の認識結果を統合
することができることから従来は話者認識のみで実現さ
れていた個人認証技術よりも高精度な個人認証を実現す
ることが可能になり、また、本発明の2の発声する内容
の特徴により、まず(2)の特徴からより高い話者認識
精度が得られ、また(3)の特徴からより高い内容認識
精度が得られ、それらを統合するのでより高い個人認証
精度を得ることが出来、また、本発明の3の特徴によ
り、高精度の個人認証を実現することが出来、音声を利
用した安全なセキュリティーシステムが構築出来、従来
得られなかった格別の効果を得ることができる。
As described above, by using the features including the speaker recognition unit, the utterance content recognition unit, the recognition result integration unit, and the speaker registration unit, the recognition result of the speaker recognition unit and the recognition result of the utterance content are integrated. Therefore, it is possible to realize personal authentication with higher accuracy than the personal authentication technology which has conventionally been realized only by speaker recognition. Further, according to the feature of the uttered contents of the second aspect of the present invention, (( A higher speaker recognition accuracy can be obtained from the feature (2), and a higher content recognition accuracy can be obtained from the feature (3). By integrating them, a higher personal authentication accuracy can be obtained. According to the third feature of the present invention, highly accurate personal authentication can be realized, a secure security system using voice can be constructed, and a special effect which cannot be obtained conventionally can be obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態による個人認証装置の機能
ブロック図
FIG. 1 is a functional block diagram of a personal authentication device according to an embodiment of the present invention.

【図2】呪文リストの一例を示した図FIG. 2 is a diagram showing an example of a spell list

【図3】内容間類似度の計算方法の一例を示した図FIG. 3 is a diagram showing an example of a method of calculating the similarity between contents;

【図4】個人認証装置を用いた無線通信装置の構成を示
した図
FIG. 4 is a diagram showing a configuration of a wireless communication device using a personal authentication device.

【図5】個人認証装置を用いたセキュリティーシステム
を示した図
FIG. 5 shows a security system using a personal authentication device.

【符号の説明】[Explanation of symbols]

101 音声入力手段(マイク) 102 キーボード 103 キー入力手段 104 話者登録部 105 個人性格納部 106 話者認識部 107 登録No格納部 108 発声内容認識部 109 呪文格納部 110 認識結果統合部 111 認証結果 112 スイッチ Reference Signs List 101 voice input means (microphone) 102 keyboard 103 key input means 104 speaker registration unit 105 personality storage unit 106 speaker recognition unit 107 registration No storage unit 108 utterance content recognition unit 109 spell storage unit 110 recognition result integration unit 111 authentication result 112 switch

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04L 9/32 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) H04L 9/32

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 話者が発した音声信号を分析し、個人性
パターンを抽出し、既に登録されている認証者の個人性
パターンとの照合を行う話者認識部と、 前記音声信号と既に登録されている認証用言語の音声パ
ターンとの照合を行い、発声された言葉の認識を行う発
声内容認識部と、 前記話者認識部から求められた前記認証者である類似度
と前記発生内容認識部から求められた登録された前記音
声パターンである類似度とに基づいて、前記話者の個人
認証をおこなう認識結果統合部とを有する個人認証装
置。
1. A speaker recognizing unit that analyzes a voice signal emitted by a speaker, extracts a personality pattern, and checks the personality pattern against a registered personality pattern of an authenticator. An utterance content recognizing unit that performs matching with a voice pattern of a registered authentication language and recognizes an uttered word; similarity as the authenticator obtained from the speaker recognizing unit and the generated content A personal authentication device, comprising: a recognition result integration unit that performs personal authentication of the speaker based on a similarity that is the registered voice pattern obtained from a recognition unit.
【請求項2】 認証用言語は、音響的情報及び内容間類
似度に基づき、言語の意味内容は問わずに生成されたこ
とを特徴とする請求項1の個人認証装置。
2. The personal authentication apparatus according to claim 1, wherein the authentication language is generated irrespective of the meaning of the language based on the acoustic information and the similarity between the contents.
【請求項3】 請求項1または請求項2の個人認証装置
を備えるセキュリティーシステム。
3. A security system comprising the personal authentication device according to claim 1.
JP2001016662A 2001-01-25 2001-01-25 Personal authentication device Expired - Lifetime JP3818063B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001016662A JP3818063B2 (en) 2001-01-25 2001-01-25 Personal authentication device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001016662A JP3818063B2 (en) 2001-01-25 2001-01-25 Personal authentication device

Publications (2)

Publication Number Publication Date
JP2002221990A true JP2002221990A (en) 2002-08-09
JP3818063B2 JP3818063B2 (en) 2006-09-06

Family

ID=18882989

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001016662A Expired - Lifetime JP3818063B2 (en) 2001-01-25 2001-01-25 Personal authentication device

Country Status (1)

Country Link
JP (1) JP3818063B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006126558A (en) * 2004-10-29 2006-05-18 Asahi Kasei Corp Voice speaker authentication system
WO2008018136A1 (en) * 2006-08-10 2008-02-14 Pioneer Corporation Speaker recognizing device, speaker recognizing method, etc.
JP2014182270A (en) * 2013-03-19 2014-09-29 Yahoo Japan Corp Information processor and information processing method
CN107210040A (en) * 2015-02-11 2017-09-26 三星电子株式会社 The operating method of phonetic function and the electronic equipment for supporting this method
WO2020045204A1 (en) 2018-08-31 2020-03-05 日本電気株式会社 Biometric authentication device, biometric authentication method, and recording medium
US12175997B2 (en) 2019-01-15 2024-12-24 Nec Corporation Information processing device, wearable device, information processing method, and storage medium

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006126558A (en) * 2004-10-29 2006-05-18 Asahi Kasei Corp Voice speaker authentication system
WO2008018136A1 (en) * 2006-08-10 2008-02-14 Pioneer Corporation Speaker recognizing device, speaker recognizing method, etc.
JP2014182270A (en) * 2013-03-19 2014-09-29 Yahoo Japan Corp Information processor and information processing method
CN107210040A (en) * 2015-02-11 2017-09-26 三星电子株式会社 The operating method of phonetic function and the electronic equipment for supporting this method
CN107210040B (en) * 2015-02-11 2021-01-12 三星电子株式会社 Method for operating voice function and electronic device supporting the same
WO2020045204A1 (en) 2018-08-31 2020-03-05 日本電気株式会社 Biometric authentication device, biometric authentication method, and recording medium
US12175997B2 (en) 2019-01-15 2024-12-24 Nec Corporation Information processing device, wearable device, information processing method, and storage medium

Also Published As

Publication number Publication date
JP3818063B2 (en) 2006-09-06

Similar Documents

Publication Publication Date Title
Campbell Speaker recognition: A tutorial
Naik Speaker verification: A tutorial
US7054811B2 (en) Method and system for verifying and enabling user access based on voice parameters
JP4213716B2 (en) Voice authentication system
US7386448B1 (en) Biometric voice authentication
Reynolds An overview of automatic speaker recognition technology
JP4672003B2 (en) Voice authentication system
Reynolds Automatic speaker recognition: Current approaches and future trends
WO2008100971A1 (en) Text-dependent speaker verification
JPH1173195A (en) Method for authenticating speaker&#39;s proposed identification
US10957318B2 (en) Dynamic voice authentication
Mamyrbayev et al. DEVELOPMENT OF SECURITY SYSTEMS USING DNN AND I & X-VECTOR CLASSIFIERS.
Campbell Jr Speaker recognition
Ozaydin Design of a text independent speaker recognition system
KR100779242B1 (en) Speaker Recognition Method in Integrated Speech Recognition / Speaker Recognition System
JP3818063B2 (en) Personal authentication device
Ly-Van et al. Signature with text-dependent and text-independent speech for robust identity verification
Laskar et al. HiLAM-aligned kernel discriminant analysis for text-dependent speaker verification
JPH1173196A (en) Method for authenticating speaker&#39;s proposed identification
JP4163979B2 (en) Speaker authentication device
Pandey et al. Multilingual speaker recognition using ANFIS
Furui Speaker recognition
JP2000099090A (en) Speaker recognition using symbol strings
Broun et al. Distributed speaker recognition using the ETSI distributed speech recognition standard
KR100673834B1 (en) Context-Required Speaker Independent Authentication System and Method

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20050630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060605

R151 Written notification of patent or utility model registration

Ref document number: 3818063

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100623

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100623

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110623

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120623

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120623

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130623

Year of fee payment: 7

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term