JPS59124389A - Word voice recognition system - Google Patents
Word voice recognition systemInfo
- Publication number
- JPS59124389A JPS59124389A JP57231962A JP23196282A JPS59124389A JP S59124389 A JPS59124389 A JP S59124389A JP 57231962 A JP57231962 A JP 57231962A JP 23196282 A JP23196282 A JP 23196282A JP S59124389 A JPS59124389 A JP S59124389A
- Authority
- JP
- Japan
- Prior art keywords
- word
- distance
- registered
- unit
- section
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.
Description
【発明の詳細な説明】
発明の技術分野
本発明は単語音声認識方式に係り、特に予め各々の単語
に対して複数の音声を登録し、この登録された総ての単
語音声と未知入力との距離を算出したとき、この算出し
た距離があらかじめ閾値以下のもののみを予め定められ
た個数取出して特定単語に対する平均値を求め、この平
均値を未知入力単語音声と登録単語との距離とし、これ
にもとづき認識結果を判定するようにしたものに関する
。[Detailed Description of the Invention] Technical Field of the Invention The present invention relates to a word speech recognition method, and in particular, registers a plurality of sounds for each word in advance, and compares all registered word sounds with unknown input. When the distance is calculated, a predetermined number of items whose calculated distance is less than a threshold value are taken out, the average value for the specific word is determined, and this average value is defined as the distance between the unknown input word voice and the registered word. This invention relates to a system in which recognition results are determined based on the following information.
従来技術と問題点
単語音声の認識を行う場合、あらかじめ特定話者により
既知の単語音声の特徴パラメータを辞書に登録しておき
、これと未知入力単語の特徴ノくラメータを照合するこ
とにより行われる。Conventional technology and problems When recognizing word sounds, the feature parameters of known word sounds are registered in a dictionary by a specific speaker in advance, and this is done by comparing these with the feature parameters of unknown input words. .
このため単語音声を認識するに先立ち、特定話者がマイ
クロホンにより既知の単語音声を入力してその特徴パラ
メータを抽出する。この特徴ノぐラメータとしては1例
えば16種類のパンドックスフィルタを設けて音声信号
をこれらのパントノ(スフィルタにより特定周波数領域
毎の出力を得てこれらをA/D変換し、これらを例えば
10〜157728のサンプリング周期での平均値をと
って)くラメータとする。そしてこれらのパラメータを
登録部に登録する。この場合、パラメータとしてはこの
ようなサンプリング時間内における各フィルターの平均
出力のみならず、フォルマント周波数やLPC等を使用
することもできる。この登録は、同−単語について一回
だけ行うものではなく2例えば4回とか、5回というよ
うに適当な複数回登録することが行われる。したがって
単語S1.S2.S3・・・について例えば4回登録し
たときには、第1図のように81についてはパラメータ
81〜S1が登録され、S2についてはパラメータ82
〜S2が登録され。Therefore, before recognizing a word sound, a specific speaker inputs a known word sound through a microphone and extracts its characteristic parameters. As a characteristic parameter, 1, for example, 16 types of pandox filters are provided, and the audio signals are converted into outputs for each specific frequency range using these pandox filters, which are A/D converted. The average value over a sampling period of 157,728 is taken as a parameter. Then, these parameters are registered in the registration section. In this case, as a parameter, not only the average output of each filter within such a sampling time but also a formant frequency, LPC, etc. can be used. This registration is not performed only once for the same word, but is performed an appropriate number of times, such as 2 times, 4 times, or 5 times. Therefore, the word S1. S2. For example, when S3... is registered four times, parameters 81 to S1 are registered for 81 as shown in FIG. 1, and parameters 82 for S2 are registered.
~S2 is registered.
S3についてはパラメータ83〜S3が登録されること
になる。For S3, parameters 83 to S3 will be registered.
いま未知入力単語音声Xの特孕が第1回のXとして示さ
れる場合、Xと各単語S1.S2.S3よりそれぞれ距
離の近いものを一定数9例えば3個選定して平均距離を
求めこれにより照合を行う。このときXと81との平均
距離匂−1は次の式(1)で得られる
dx−1=+[(XtS; )+(X+8: )+(x
、s; ):]−−−−−(11ここで例えば(X、S
l)はXとパラメータS1との距離を示し、他も同様で
ある。If the special pregnancy of the currently unknown input word sound X is indicated as the first X, then X and each word S1. S2. From step S3, a fixed number of 9, for example 3, objects that are close to each other are selected, the average distance is determined, and the comparison is performed based on this. At this time, the average distance dx-1 between X and 81 is obtained by the following equation (1): dx-1=+[(XtS;
, s; ):]------(11 Here, for example, (X, S
l) indicates the distance between X and parameter S1, and the same applies to the others.
このようにしてXと82の平均距離dx−2,Xと83
との平均距離dニー3は次式(21,(3)により得ら
れる。In this way, the average distance dx-2 between X and 82,
The average distance d knee 3 from
dx−2= 、 [(X、 82 )+(X S 2
)+(Xl 82 ) ) ”・・・(2)dz−3=
’ ((X) 8S )+(Xl S”s )+(X
、s、 ) 〕”・(3)そしてこれらの平均距離d
x−19dx−2,dx−zの大きさがもつとも小さい
ものより順にXの候補として選択されることになり、第
1図の“場合ではdz−1(dz−2(dz−3となる
ので、Xの候補はSl。dx−2= , [(X, 82 )+(X S 2
) + (Xl 82 ) ) ”...(2) dz-3=
'((X)8S)+(Xl S”s)+(X
,s, )]・(3) And their average distance d
The smallest size of x-19dx-2, dx-z will be selected as a candidate for , the candidate for X is Sl.
S2.S3の順で得られる。S2. Obtained in the order of S3.
このようにすることにより9例えばXにもっとも近いも
のが83であったとしてもS3のグループ全体よりみれ
ばS3のみ近いのは異常であることが明らかであり、こ
のような異常なものにもとづく誤認を減少できるという
効果がある。By doing this, 9For example, even if the closest thing to It has the effect of reducing
ところで上記の如きKNN (K−Nearest N
eighbor)法では、同一単語に対して複数回音声
入力して特徴パラメータを登録する必要があるが、この
登録時に何等かの理由により9例えば人間がそのとき喉
の調子が異常であったり、あるいはノイズが生じ、登録
時にこのような異常状態下に抽出されたパラメータが存
在したときこの異常なパラメータにより全体の平均値が
大きく変ることになり、認識精度が下ることになる。By the way, the above KNN (K-Nearest N
In the above method, it is necessary to register the feature parameters by inputting the voice for the same word multiple times, but for some reason during this registration, for example, the human's throat is abnormal at that time, or If noise occurs and there is a parameter extracted under such an abnormal condition at the time of registration, the overall average value will change greatly due to this abnormal parameter, resulting in a decrease in recognition accuracy.
発明の目的
本発明の目的はこのような異常状態での特徴パラメータ
の存在による問題点を改善するために。OBJECTS OF THE INVENTION An object of the present invention is to improve the problems caused by the presence of characteristic parameters in such abnormal conditions.
平均値算出を行うときのパラメータに閾値を設定して異
常に大きなものは平均値算出対象外とするように構成す
るとともに、I(NN法で平均値を求めるに必要なに番
目の距離がこの閾値を超えていたときにはこの単語を認
識対象から外すようにした単語音声認識方式を提供する
ことである。A threshold value is set for the parameters when calculating the average value, and abnormally large values are excluded from the average value calculation target. To provide a word speech recognition method in which a word is excluded from a recognition target when a threshold value is exceeded.
発明の構成
この目的を達成するために本発明の単語音声認識方式で
は、予め各単語に対し複数の音声を登録する登録部と、
この登録された総ての単語音声と ′未知入力単語音
声とを照合判定する照合部を備える単語音声認識装置に
おいて、未知入力単語音声と登録単語との距離として同
一の単語である複数゛の登録単語音声と未知入力単語音
声との距離を算出しそれらの距離の小さいものから順に
予め定められた閾値以下の距離のものと、予め定められ
た個数取り出してそれらの平均値を得る平均値算出部を
設け、それらの平均値を未知入力単語音声と登録単語と
の距離として定義し、その定義された距離に依って認識
結果を判定することを特徴とする。Structure of the Invention In order to achieve this object, the word speech recognition method of the present invention includes a registration unit that registers a plurality of sounds for each word in advance;
In a word speech recognition device equipped with a matching unit that compares and determines all the registered word speech and the unknown input word speech, the distance between the unknown input word speech and the registered word is determined by the registration of multiple words that are the same word. An average value calculation unit that calculates the distance between the word sound and the unknown input word sound, and extracts those whose distance is less than a predetermined threshold value in descending order of distance, and a predetermined number of them, and calculates their average value. The method is characterized in that the average value thereof is defined as the distance between the unknown input word voice and the registered word, and the recognition result is determined based on the defined distance.
発明の実施例
本発明の一実施例を第2図〜第4回にもとづき説明する
。Embodiment of the Invention An embodiment of the present invention will be described based on FIGS. 2 to 4.
第2図は本発明の一実施例構成図、第3図はその平均値
算出部の詳細図、第4図はその動作説明図である。FIG. 2 is a block diagram of an embodiment of the present invention, FIG. 3 is a detailed diagram of the average value calculation section, and FIG. 4 is an explanatory diagram of its operation.
図中、1は前処理部、2はパラメータ抽出部。In the figure, 1 is a preprocessing section, and 2 is a parameter extraction section.
3は切換部、4は登録部、5はDP照合部、6は平均値
算出部、7は閾値出力部、8は判定部である。3 is a switching section, 4 is a registration section, 5 is a DP verification section, 6 is an average value calculation section, 7 is a threshold value output section, and 8 is a determination section.
前処理部1は入力音声の入力レベルを一定に保時したり
あるいは雑音を除去する等、特徴パラメータ抽出のため
の前処理を行うものである。The preprocessing unit 1 performs preprocessing for extracting feature parameters, such as keeping the input level of the input voice constant or removing noise.
パラメータ抽出部2ば2例えば16種類のバンドパスフ
ィルタを備えてサンプリング周期毎に各フィルタの平均
出力を得てパラメータを抽出し。The parameter extraction unit 2 is equipped with, for example, 16 types of band-pass filters, and extracts parameters by obtaining the average output of each filter at each sampling period.
これらをA/D変換してディジタル信号を出力するもの
である。勿論このシステムにおけるパラメータがフォル
マント周波数を使用する場合にはフォルマント抽出手段
を具備するものであり、 LPCを使用するときにはこ
れに対応する構成を有するものである。These are A/D converted and output as digital signals. Of course, if the parameters in this system are to use formant frequencies, a formant extraction means is provided, and if LPC is used, a corresponding configuration is provided.
切換部3はパラメータ抽出部2から出方されたパラメー
タを、特定話者登録のときはこれらを登録部4に送出し
てこれに格納し、また照合の場合にはDP照照合部上こ
れらを送出するように動作するものである。The switching unit 3 sends the parameters output from the parameter extraction unit 2 to the registration unit 4 and stores them in the case of specific speaker registration, and also sends them to the DP verification unit in the case of verification. It operates to transmit.
DP照照合部上未知入力の単語音声のパラメータを登録
部4に格納されている登録された単語音声のパラメータ
のすべてとダイナミックプログラミング法により照合し
てその照合結果を出方するものである。The DP comparison section compares the unknown input word speech parameters with all the registered word speech parameters stored in the registration section 4 using a dynamic programming method, and outputs the matching results.
平均値算出部6は、第1図について説明したように、未
知入力と特定単語音声のグループとの平均距離を求める
ものであるが、この場合未知人力XとパラメータS築と
の距離(X、SQ)とが閾値出力部7から出力された閾
値Hより大きい場合はこれを使用せず、平均値算定対象
外とする。なお上記Sn□は、単語Smにおけるn個目
のパラメータである。As explained with reference to FIG. 1, the average value calculation unit 6 calculates the average distance between the unknown input and the group of specific word sounds, but in this case, the distance (X, SQ) is larger than the threshold H output from the threshold output unit 7, it is not used and is excluded from the average value calculation target. Note that the above Sn□ is the n-th parameter in the word Sm.
平均値算出部6は第3図に示す如く、単語識別部109
区分保持部11.読出部12.順序整理部13.カウン
ト部14.比較部15.計算部16等により構成されて
いる。そしてDP照照合部上らDPP合結果が順次出力
されるとき、これを各同一単語音声毎に単語識別部10
にて識別してこれを区分保持部11にて一時保持する。As shown in FIG. 3, the average value calculation unit 6 includes a word identification unit 109
Section holding section 11. Reading section 12. Sequence organizer 13. Count section 14. Comparison part 15. It is composed of a calculation section 16 and the like. Then, when the DPP matching results are sequentially output from the DP verification unit, they are sent to the word identification unit 10 for each same word sound.
, and temporarily holds it in the classification holding section 11 .
それからこれらを各単語毎に読出部12により取出して
第4図に示すフローチャートのように順序整理部13に
て同−単語内においてその距離の小さい順に並らべてこ
れらをカウント部14に順次選出する。Then, these are taken out for each word by the reading unit 12, and as shown in the flowchart shown in FIG. do.
この場合、KNN法により平均値を算出する個数かに個
と決められており、いま例えばに=3とすればカウント
部14ではこれを順次計算部16に送出してカウント部
14が3個目を送出したとき比較部15を制御してこの
3番目のものが閾値出力部7から送出された閾値Hと比
較してこれがH以下であれば計算部16に演算指示信号
「1」を出力してそれまで送出したに個つまり3個まで
の平均距離を算出させてこれを判定部8に出力させる。In this case, the number of pieces for which the average value is calculated by the KNN method is determined to be 3. For example, if = 3, the counting unit 14 sequentially sends this to the calculation unit 16, and the counting unit 14 calculates the third value. When the third value is sent out, the comparator 15 is controlled to compare this third value with the threshold H sent out from the threshold output section 7, and if this is less than H, a calculation instruction signal "1" is output to the calculation section 16. Then, the average distance of the three items sent so far is calculated and outputted to the determination unit 8.
しかしこの3番目のものが閾値Hを越えていた場合には
比較部15は「0」を計算部16に出力して平均値計算
を行わせずにこの単語が認識対象外であることを示す信
号を計算部16から判定部8に出力させる。例えば上記
の如(k=3であり閾値がHの場合には、Sl、S2に
ついてはそれぞれ比較部15より演算指示信号「1」が
出力されるが、S3については3個目のパラメータS3
との距離が閾値Hを越えるので比較部15より「0」が
出力され、この83は認識対象外であることが計算部1
6より判定部8に出力されることになる。However, if this third word exceeds the threshold H, the comparison unit 15 outputs "0" to the calculation unit 16 to indicate that this word is not to be recognized without calculating the average value. The signal is output from the calculating section 16 to the determining section 8. For example, as described above (when k=3 and the threshold value is H, the calculation instruction signal "1" is output from the comparator 15 for each of Sl and S2, but for S3, the third parameter S3
Since the distance between the two and
6 and is output to the determination unit 8.
判定部8はこのようにして平均値算出部6から認識対象
外であることが表示されることなく平均値演算部6から
出力された平均距離の小さいものから順に候補を決めて
判定結果として出力することになる。In this way, the determination unit 8 determines candidates in order of decreasing average distance output from the average value calculation unit 6 without displaying that they are not recognized by the average value calculation unit 6, and outputs them as determination results. I will do it.
次に本発明の動作について第2図により、また他図を参
照しつつ説明する。Next, the operation of the present invention will be explained with reference to FIG. 2 and other figures.
(1) まず特定話者が上記の如く各単語に対し複数
回発声して前処理部1を経由して、その特徴とするパラ
メータをパラメータ抽出部2により抽出し、切替部3を
経由して登録部4に登録する。この入力は特定単語を複
数回連続発声して入力するよりも不連続で入力すること
が望ましい。(1) First, a specific speaker utters each word multiple times as described above, passes through the preprocessing unit 1, extracts the characteristic parameters by the parameter extraction unit 2, and then passes through the switching unit 3. Register in the registration section 4. It is preferable that this input be performed discontinuously rather than by uttering the specific word several times in succession.
(2)次に特定話者から未知入力単語音声Xが入力され
たとき、前処理部1で上記の如き前処理を行い、パラメ
ータ抽出部2で特徴パラメータが抽出され、切替部3を
経由してDP照合部5に伝達される。そして登録部4に
登録された各単語の複数のパラメータとの距離計算が行
われ、それが平均値算出部6に出力される。(2) Next, when the unknown input word speech X is input from a specific speaker, the preprocessing unit 1 performs the preprocessing as described above, the parameter extraction unit 2 extracts the characteristic parameters, and the parameter is extracted via the switching unit 3. and is transmitted to the DP verification unit 5. Distances between each word registered in the registration unit 4 and a plurality of parameters are calculated, and the distance is output to the average value calculation unit 6.
(3)平均値算出部6はこのDP照合部5からの出力を
、単語識別部10にて同一単語を識別してこれを区分保
持部11にて一時保持し、読出部12にて読出し、順序
整理部13にて同−単語内において距離の小さい順に並
らべこれをカウント部14に順次出力する。カウント部
14はこれを順次計算部16に送出して3個目を送出し
たとき比較部15を制御してこの3番目のものと閾値H
とを比較させる。こ゛れがH以下であれば比較部15は
「1」を出力して計算部16に対しこれらの3個の平均
距離を求めてこれを判定部8に出力させる。しかしHを
越えていたとき比較部15は「0」を出力して計算部1
6に対し平均距離計算の代りにこの単語が認識対象外で
あることを出力させる。またノイズがのったり発音間違
があるようなときは総ての登録単語に関して予め定めた
個数取り出せないことになり認識結果を棄却することに
なる。(3) The average value calculation unit 6 uses the word identification unit 10 to identify the same words in the output from the DP matching unit 5, temporarily stores them in the classification holding unit 11, reads them out in the reading unit 12, The order arrangement unit 13 arranges the words in the same word in descending order of distance and sequentially outputs them to the counting unit 14. The counting section 14 sequentially sends this to the calculation section 16, and when the third one is sent, controls the comparison section 15 to compare this third one with the threshold value H.
Have them compare. If this is less than or equal to H, the comparison section 15 outputs "1" and causes the calculation section 16 to calculate the average distance of these three distances and output it to the determination section 8. However, when it exceeds H, the comparison section 15 outputs "0" and the calculation section 1
6, instead of calculating the average distance, it outputs that this word is not a recognition target. Furthermore, if there is noise or mispronunciation, it will not be possible to extract a predetermined number of all registered words, and the recognition result will be rejected.
(4)判定部8は平均値算出部6から算出された距離の
小さいものより順に候補を選択し、これを判定結果とし
て出力することになる。(4) The determination unit 8 selects candidates in the order of distance calculated by the average value calculation unit 6 in order of decreasing distance, and outputs these as determination results.
なお上記説明では同一単語の登録入力回数を4とした例
について説明したが、登録入力回数は勿論これのみに限
定されるものではなく適宜選定できる。また平均値計算
部での距離計算の対象数は3に限定されるものではなく
例えば2でもよく。In the above explanation, an example has been explained in which the number of times of registration input of the same word is 4, but the number of registration inputs is of course not limited to this, and can be selected as appropriate. Further, the number of targets for distance calculation in the average value calculation section is not limited to three, and may be two, for example.
登録回数より小さい適当な数を選定できる。An appropriate number smaller than the number of registrations can be selected.
、 発明の効果
本発明によれば、従来のKNN法では登録音声の中に異
常な音声が混入していたときに、この誤った音声のため
に平均距離が大きくなってしまい誤認識となる場合があ
る欠点を、閾値以下のものかに個に達しない単語を認識
対象から外すことによりこのような誤認識を防ぐこと力
tでき・るので。, Effects of the Invention According to the present invention, when an abnormal voice is mixed in the registered voices in the conventional KNN method, the average distance becomes large due to this erroneous voice, resulting in erroneous recognition. This kind of erroneous recognition can be prevented by excluding words that do not reach the threshold value or less from the recognition target.
認識精度を向上させることができるのみならず。Not only can recognition accuracy be improved.
同時に計算時間も短縮することができる。At the same time, calculation time can also be reduced.
第1図はKNN法の概略説明図、第2図をま本発明の一
実施例構成図、第3図しまその平均イ直算dj部の詳細
図、第4図はその動作説明図である。
図中、1は前処理部、2はノくラメータ抽出音じ。
3は切換部、4は登録部、5はDP照合部、 6+ま
平均値算出部、7は閾値出力部、8しま半l定盲すであ
る。
特許出願人 富士通株式会社
代理人弁理士 山 谷 晧 榮Fig. 1 is a schematic explanatory diagram of the KNN method, Fig. 2 is a configuration diagram of an embodiment of the present invention, Fig. 3 is a detailed diagram of the average direct calculation dj part of the strip, and Fig. 4 is an explanatory diagram of its operation. . In the figure, 1 is the preprocessing section, and 2 is the parameter extraction sound. 3 is a switching section, 4 is a registration section, 5 is a DP collation section, 6 is an average value calculation section, 7 is a threshold value output section, and 8 is a half-circle constant blind. Patent applicant Fujitsu Ltd. Representative Patent Attorney Akira Yamatani
Claims (3)
、この登録された総ての単語音声と未知入力単語音声と
を照合判定する照合部を備える単語音声認識装置におい
て、未知入力単語音声と登録単語との距離として同一の
単語である複数の登録単語音声と未知入力単語音声との
距離を算出しそれらの距離の小さいものから順に、予め
定められた閾値以下の距離のものを、予め定められた個
数取り出してそれらの平均値を得る平均値算出部を設け
、それらの平均値を未知入力単語音声と登録単語との距
離として定義し、その定義された距離に依って認識結果
を判定することを特徴とする単語音声認識方式。(1) In a word speech recognition device that includes a registration unit that registers a plurality of sounds for each word in advance, and a matching unit that compares and determines all the registered word sounds and unknown input word sounds, an unknown input word As the distance between a voice and a registered word, the distance between a plurality of registered word voices that are the same word and an unknown input word voice is calculated, and those distances that are less than or equal to a predetermined threshold are selected in descending order of distance. An average value calculation unit is provided to extract a predetermined number of words and calculate their average value, define the average value as the distance between the unknown input word voice and the registered word, and determine the recognition result based on the defined distance. A word speech recognition method characterized by the following:
ては、認識結果の判定の対象としな(・ことを特徴とす
る特許請求の範囲第1項記載の単語音声認識方式。(2) The word speech recognition method according to claim 1, wherein registered words that cannot be retrieved in a predetermined number are not subject to recognition result determination.
た個数取出せない場合は、認識結果を棄却とすることを
特徴とする特許請求の範囲第1項記載の単語音声認識方
式。(3) The word speech recognition method according to claim 1, wherein if a predetermined number of all registered words cannot be extracted, the recognition result is rejected.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP57231962A JPS59124389A (en) | 1982-12-29 | 1982-12-29 | Word voice recognition system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP57231962A JPS59124389A (en) | 1982-12-29 | 1982-12-29 | Word voice recognition system |
Publications (1)
Publication Number | Publication Date |
---|---|
JPS59124389A true JPS59124389A (en) | 1984-07-18 |
Family
ID=16931776
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP57231962A Pending JPS59124389A (en) | 1982-12-29 | 1982-12-29 | Word voice recognition system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPS59124389A (en) |
-
1982
- 1982-12-29 JP JP57231962A patent/JPS59124389A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US4403114A (en) | Speaker recognizer in which a significant part of a preselected one of input and reference patterns is pattern matched to a time normalized part of the other | |
US4100370A (en) | Voice verification system based on word pronunciation | |
US5025471A (en) | Method and apparatus for extracting information-bearing portions of a signal for recognizing varying instances of similar patterns | |
JPH0352640B2 (en) | ||
EP1417677A1 (en) | Voice registration method and system, and voice recognition method and system based on voice registration method and system | |
US4509186A (en) | Method and apparatus for speech message recognition | |
US5159637A (en) | Speech word recognizing apparatus using information indicative of the relative significance of speech features | |
JP2996019B2 (en) | Voice recognition device | |
Kamble et al. | Emotion recognition for instantaneous Marathi spoken words | |
JPS6129518B2 (en) | ||
JPS59124389A (en) | Word voice recognition system | |
JPS58108590A (en) | Voice recognition equipment | |
Niederjohn et al. | Computer recognition of the continuant phonemes in connected English speech | |
JP2744622B2 (en) | Plosive consonant identification method | |
JPS59124392A (en) | Voice recognition system | |
JPS59124391A (en) | Voice recognition processing system | |
JPS59124388A (en) | Word speech recognition processing method | |
JP2577891B2 (en) | Word voice preliminary selection device | |
JPS59124390A (en) | Candidate reduction speech recognition method | |
JPH0682275B2 (en) | Voice recognizer | |
JPH0316040B2 (en) | ||
JPS60115996A (en) | Voice recognition equipment | |
JPS62113197A (en) | Voice recognition equipment | |
JPS6336678B2 (en) | ||
JPS5936759B2 (en) | Voice recognition method |