JPH06175685A - パタン認識装置及びヒドゥンマルコフモデル作成装置 - Google Patents
パタン認識装置及びヒドゥンマルコフモデル作成装置Info
- Publication number
- JPH06175685A JPH06175685A JP4329489A JP32948992A JPH06175685A JP H06175685 A JPH06175685 A JP H06175685A JP 4329489 A JP4329489 A JP 4329489A JP 32948992 A JP32948992 A JP 32948992A JP H06175685 A JPH06175685 A JP H06175685A
- Authority
- JP
- Japan
- Prior art keywords
- hmm
- learning
- markov model
- weighting coefficient
- weighting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003909 pattern recognition Methods 0.000 title claims abstract description 8
- 239000013598 vector Substances 0.000 claims abstract description 93
- 238000004364 calculation method Methods 0.000 claims description 31
- 230000036316 preload Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 12
- 230000007704 transition Effects 0.000 description 11
- 238000012790 confirmation Methods 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 8
- 238000000034 method Methods 0.000 description 6
- 230000005236 sound signal Effects 0.000 description 5
- 238000000605 extraction Methods 0.000 description 4
- 238000007476 Maximum Likelihood Methods 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Abstract
(57)【要約】
【目的】 従来の音声認識等に用いられている荷重係数
ベクトル算出部の構成の複雑さと演算回数の増加を解決
する。 【構成】 従来のHMM学習時,認識時において荷重係
数ベクトルの計算をする荷重係数べクトル算出部に代
え、HMM(ヒドゥンマルコフモデル)学習前に算出した
荷重係数ベクトルを荷重係数ベクトル記憶部104に記憶
しておく。これにより従来の計算装置に比べ僅かの記憶
容量にて音声認識等を行なうので、構成を簡単化でき
る。
ベクトル算出部の構成の複雑さと演算回数の増加を解決
する。 【構成】 従来のHMM学習時,認識時において荷重係
数ベクトルの計算をする荷重係数べクトル算出部に代
え、HMM(ヒドゥンマルコフモデル)学習前に算出した
荷重係数ベクトルを荷重係数ベクトル記憶部104に記憶
しておく。これにより従来の計算装置に比べ僅かの記憶
容量にて音声認識等を行なうので、構成を簡単化でき
る。
Description
【0001】
【産業上の利用分野】本発明はパタン認識装置及びヒド
ゥンマルコフモデル(HMM:Hidden MarkovModel)作成
装置(以下、単にHMM作成装置という)に関し、特に音
声認識等の時系列パターンを識別するための装置に関す
る。
ゥンマルコフモデル(HMM:Hidden MarkovModel)作成
装置(以下、単にHMM作成装置という)に関し、特に音
声認識等の時系列パターンを識別するための装置に関す
る。
【0002】本発明は一般の時系列信号に適応可能なも
のであるが、説明の便宜のために、以下、従来の技術及
び本発明については、音声認識を例に説明する。
のであるが、説明の便宜のために、以下、従来の技術及
び本発明については、音声認識を例に説明する。
【0003】
【従来の技術】一般に、音声認識装置は、未知の音声信
号を定められた音響特徴ベクトルの系列に変換し、その
後、前もって記憶されている識別された参照パタンを表
す音響特徴ベクトルと比較するように構成されている。
比較の結果として、未知の音声信号は、定められた認識
基準に従って最もよく適合する参照パタンとして識別さ
れる。現在、最も性能の良いとされる参照パタンは、統
計的推定に基づく状態と状態遷移との集合を利用したH
MMである。
号を定められた音響特徴ベクトルの系列に変換し、その
後、前もって記憶されている識別された参照パタンを表
す音響特徴ベクトルと比較するように構成されている。
比較の結果として、未知の音声信号は、定められた認識
基準に従って最もよく適合する参照パタンとして識別さ
れる。現在、最も性能の良いとされる参照パタンは、統
計的推定に基づく状態と状態遷移との集合を利用したH
MMである。
【0004】そこで、先ず、HMMについて説明する。
HMMは、観測系列O=o1,o2,…,oTにおいて各
観測が有限の数Mのシンボル中のどれかであるような観
測系列を評価するのに用いられる。観測系列は、直接的
には観測可能でない状態遷移を持つ潜在的なマルコフ鎖
の確率的関数としてモデル化できる。図5はこのような
HMMを説明するための図である。
HMMは、観測系列O=o1,o2,…,oTにおいて各
観測が有限の数Mのシンボル中のどれかであるような観
測系列を評価するのに用いられる。観測系列は、直接的
には観測可能でない状態遷移を持つ潜在的なマルコフ鎖
の確率的関数としてモデル化できる。図5はこのような
HMMを説明するための図である。
【0005】図5では、状態数N=3、有限個の出力シ
ンボルM=4を例としてある。状態1,2,3間の遷移
は状態遷移確率行列A=[aij]として表され、aijは
モデルが状態iにいる場合には状態jに遷移を生ずる確
率である。モデルの出力シンボルの確率はシンボル出力
確率行列B=[bj(k)]で表され、bj(k)はモデルが状
態jに遷移した場合にシンボルkを出力する確率であ
る。HMMは、各語彙に対して1つずつ作成しておき、
各HMMから未知の観測系列を発生する確率に基づいて
観測系列を分類するために用いることができる。
ンボルM=4を例としてある。状態1,2,3間の遷移
は状態遷移確率行列A=[aij]として表され、aijは
モデルが状態iにいる場合には状態jに遷移を生ずる確
率である。モデルの出力シンボルの確率はシンボル出力
確率行列B=[bj(k)]で表され、bj(k)はモデルが状
態jに遷移した場合にシンボルkを出力する確率であ
る。HMMは、各語彙に対して1つずつ作成しておき、
各HMMから未知の観測系列を発生する確率に基づいて
観測系列を分類するために用いることができる。
【0006】未知入力に対して得られるシンボル系列を
O=o1,o2,…,oT、HMMλから発生できる長さ
Tの任意の状態系列をS=s1,s2,…,sTとすると
き、λからシンボル系列Oの発生する確率(尤度)は、
(数1)のように示される。
O=o1,o2,…,oT、HMMλから発生できる長さ
Tの任意の状態系列をS=s1,s2,…,sTとすると
き、λからシンボル系列Oの発生する確率(尤度)は、
(数1)のように示される。
【0007】
【数1】
【0008】以上は、入力xtを唯一のシンボルotに変
換するようにしたものであるが、K個の複数のシンボル
ot1,ot2,…,otKに変換し(シンボルベクトルqt=
(ot1,ot2,…,otK))、各々のシンボルとの荷重係
数ut1,ut2,…,utKを用いて表す方法(荷重係数ベ
クトルvt(ut1,ut2,…,utK))もあり、その場合、
未知入力はシンボルベクトル系列Q=q1,q2,…,q
Tと荷重係数ベクトル系列V=v1,v2,…,vTで表現
され、HMMλからシンボルベクトル系列の発生する確
率(尤度)は、(数2)のように示される。
換するようにしたものであるが、K個の複数のシンボル
ot1,ot2,…,otKに変換し(シンボルベクトルqt=
(ot1,ot2,…,otK))、各々のシンボルとの荷重係
数ut1,ut2,…,utKを用いて表す方法(荷重係数ベ
クトルvt(ut1,ut2,…,utK))もあり、その場合、
未知入力はシンボルベクトル系列Q=q1,q2,…,q
Tと荷重係数ベクトル系列V=v1,v2,…,vTで表現
され、HMMλからシンボルベクトル系列の発生する確
率(尤度)は、(数2)のように示される。
【0009】
【数2】
【0010】各々の語彙のHMMから求まる尤度を比較
することにより認識は行われる。
することにより認識は行われる。
【0011】
【外1】
【0012】
【数3】
【0013】図6は従来のHMMを用いた音声認識装置
の構成を示すブロック図である。同図において、601は
特徴抽出部であり、入力音声信号vを線形予測コーディ
ング(LPC:Linear Predictive Coding)分析、フーリ
エ変換等の周知の方法により、一定時間間隔毎に特徴ベ
クトルの系列X=x1,x2,…xt,…,xTに変換す
る。ここで、Tは、入力音声信号vにおける特徴ベクト
ル系列の長さである。
の構成を示すブロック図である。同図において、601は
特徴抽出部であり、入力音声信号vを線形予測コーディ
ング(LPC:Linear Predictive Coding)分析、フーリ
エ変換等の周知の方法により、一定時間間隔毎に特徴ベ
クトルの系列X=x1,x2,…xt,…,xTに変換す
る。ここで、Tは、入力音声信号vにおける特徴ベクト
ル系列の長さである。
【0014】602はコードブックと呼ばれるものであ
り、図7に示すように有限個Mの各シンボルを表す代表
ベクトルを保持している。即ち、各行の1カラム目にシ
ンボルを、それ以降に代表ベクトルを格納する形で、コ
ードブックの数M行で構成されている。
り、図7に示すように有限個Mの各シンボルを表す代表
ベクトルを保持している。即ち、各行の1カラム目にシ
ンボルを、それ以降に代表ベクトルを格納する形で、コ
ードブックの数M行で構成されている。
【0015】603はベクトル量子化部であり、前記特徴
ベクトルxtを前記コードブック602の最も近い順に1位
からK位の代表ベクトルのシンボルに置き換え、シンボ
ルベクトルqt=(ot1,ot2,…,otk…,otK)に変
換し、前記特徴ベクトルの系列をシンボルベクトル系列
Q=q1,q2,…,qTに変換するものである。
ベクトルxtを前記コードブック602の最も近い順に1位
からK位の代表ベクトルのシンボルに置き換え、シンボ
ルベクトルqt=(ot1,ot2,…,otk…,otK)に変
換し、前記特徴ベクトルの系列をシンボルベクトル系列
Q=q1,q2,…,qTに変換するものである。
【0016】604は荷重係数ベクトル算出部であり、前
記特徴ベクトルxtの前記ベクトル量子化部603により選
ばれる1位からK位の代表ベクトルそれぞれに対する荷
重係数を(数4)に従い算出し、荷重係数ベクトルvt=
(ut1,ut2,…,utk…,utK)を算出し、荷重係数ベ
クトル系列V=v1,v2,…,vTを算出するものであ
る。
記特徴ベクトルxtの前記ベクトル量子化部603により選
ばれる1位からK位の代表ベクトルそれぞれに対する荷
重係数を(数4)に従い算出し、荷重係数ベクトルvt=
(ut1,ut2,…,utk…,utK)を算出し、荷重係数ベ
クトル系列V=v1,v2,…,vTを算出するものであ
る。
【0017】
【数4】
【0018】
【外2】
【0019】
【外3】
【0020】
【数5】
【0021】
【外4】
【0022】
【数6】
【0023】608は尤度記憶部であり、前記尤度算出部6
07で算出された各単語の尤度を比較するため記憶する。
07で算出された各単語の尤度を比較するため記憶する。
【0024】609は比較判定部であり、前記尤度記憶部6
08に記憶されているそれぞれのHMMに対する尤度の最
大値を与えるHMMに対応する語彙を認識結果(rec)と
して判定するものである。
08に記憶されているそれぞれのHMMに対する尤度の最
大値を与えるHMMに対応する語彙を認識結果(rec)と
して判定するものである。
【0025】前記各部606から608は各語彙のHMMにつ
き1度ずつ行い、w=1〜Wまで繰り返され、その結果を前
記比較判定部609で評価する。
き1度ずつ行い、w=1〜Wまで繰り返され、その結果を前
記比較判定部609で評価する。
【0026】以上のようなHMMを用いた認識を行うた
めには、事前にHMMを作成しておく必要がある。これ
をHMMの学習と呼び、以下にその方法について説明す
る。
めには、事前にHMMを作成しておく必要がある。これ
をHMMの学習と呼び、以下にその方法について説明す
る。
【0027】
【外5】
【0028】802はコードブックと呼ばれるものであ
り、有限個Mの各シンボルを表わす代表ベクトルを保持
しており、その構成は前記図7と同様である。
り、有限個Mの各シンボルを表わす代表ベクトルを保持
しており、その構成は前記図7と同様である。
【0029】
【外6】
【0030】
【外7】
【0031】
【外8】
【0032】806はHMM一時記憶部であり、初期HM
M(A,Bは乱数、または経験値などを用いたもの)や逐
次学習を繰り返す上で学習が収束する以前の学習途上H
MMを記憶するものであり、前記状態遷移確率行列Aと
前記シンボル出力確率行列Bを記憶しておき学習が1度
終わる度に更新する。
M(A,Bは乱数、または経験値などを用いたもの)や逐
次学習を繰り返す上で学習が収束する以前の学習途上H
MMを記憶するものであり、前記状態遷移確率行列Aと
前記シンボル出力確率行列Bを記憶しておき学習が1度
終わる度に更新する。
【0033】
【外9】
【0034】
【外10】
【0035】
【数7】
【0036】
【外11】
【0037】810は再推定部であり、(数8)に従って状
態遷移確率aijを、(数9)に従ってシンボル出力確率b
i(m)を再推定するものである。
態遷移確率aijを、(数9)に従ってシンボル出力確率b
i(m)を再推定するものである。
【0038】
【数8】
【0039】
【数9】
【0040】811は学習収束確認部であり、再推定部810
における状態から学習が収束状態にあるか否かを判定
し、収束状態にあるならば収束信号yをそうでなければ
再推定命令信号nを再推定HMM記憶部812に送る。
における状態から学習が収束状態にあるか否かを判定
し、収束状態にあるならば収束信号yをそうでなければ
再推定命令信号nを再推定HMM記憶部812に送る。
【0041】上記再推定HMM記憶部812は、再推定さ
れたHMMを一時記憶しておき、前記学習収束確認部81
1からの信号により、収束信号yならば再推定HMMを
前記図6におけるHMM記憶部605に記憶させ、再推定
命令信号nならば前記HMM一時記憶部806に記憶させ
る。
れたHMMを一時記憶しておき、前記学習収束確認部81
1からの信号により、収束信号yならば再推定HMMを
前記図6におけるHMM記憶部605に記憶させ、再推定
命令信号nならば前記HMM一時記憶部806に記憶させ
る。
【0042】前記学習収束確認部811で収束信号yが得
られるまで、前記各部807から810は繰り返される。
られるまで、前記各部807から810は繰り返される。
【0043】以上が、従来のHMMを用いた音声認識装
置、及びHMM作成装置の構成である。
置、及びHMM作成装置の構成である。
【0044】
【発明が解決しようとする課題】以上のような従来の音
声認識等を用いられている前記図6及び図8の荷重係数
ベクトル算出部604,804は、前記(数4)のような算出を
行うため、その構成が複雑となること及び演算回数が増
加するという課題があった。
声認識等を用いられている前記図6及び図8の荷重係数
ベクトル算出部604,804は、前記(数4)のような算出を
行うため、その構成が複雑となること及び演算回数が増
加するという課題があった。
【0045】本発明は、この課題を解決すべく荷重係数
ベクトルの事前の算出によって荷重係数ベクトル算出部
を削除することによって装置全体の構成を簡略化し、か
つ演算回数を削減することを目的とする。
ベクトルの事前の算出によって荷重係数ベクトル算出部
を削除することによって装置全体の構成を簡略化し、か
つ演算回数を削減することを目的とする。
【0046】
【課題を解決するための手段】本発明の請求項1記載の
発明は、荷重係数ベクトル記憶手段を有し、HMM(ヒ
ドゥンマルコフモデル)の学習前に事前に荷重係数ベク
トルを記憶させ、パタン認識時にその固定値を用いるこ
とを特徴とするパタン認識装置である。
発明は、荷重係数ベクトル記憶手段を有し、HMM(ヒ
ドゥンマルコフモデル)の学習前に事前に荷重係数ベク
トルを記憶させ、パタン認識時にその固定値を用いるこ
とを特徴とするパタン認識装置である。
【0047】また、本発明の請求項2記載の発明は、荷
重係数ベクトル記憶手段を有し、HMM(ヒドゥンマル
コフモデル)の学習前に事前に荷重係数ベクトルを記憶
させ、前記ヒドゥンマルコフモデル学習時にその固定値
を用いることを特徴とするヒドゥンマルコフモデル作成
装置である。
重係数ベクトル記憶手段を有し、HMM(ヒドゥンマル
コフモデル)の学習前に事前に荷重係数ベクトルを記憶
させ、前記ヒドゥンマルコフモデル学習時にその固定値
を用いることを特徴とするヒドゥンマルコフモデル作成
装置である。
【0048】
【作用】本発明によれば、HMM学習前に算出した荷重
係数ベクトルを荷重係数ベクトル記憶部に記憶してお
き、HMM学習時、認識時において、逐次算出していた
荷重係数ベクトルの計算を削除し、装置を簡略化,計算
量を削減できる。
係数ベクトルを荷重係数ベクトル記憶部に記憶してお
き、HMM学習時、認識時において、逐次算出していた
荷重係数ベクトルの計算を削除し、装置を簡略化,計算
量を削減できる。
【0049】
【実施例】以下、実施例を用いて、本発明に付いて説明
する。
する。
【0050】図1は、本発明の第1の実施例におけるH
MMを用いた音声認識装置の構成を示すブロック図であ
る。同図において、101は特徴抽出部であり、入力音声
信号vをLPC分析、フーリエ変換等の周知の方法によ
り、一定時間間隔毎に特徴ベクトルの系列X=x1,
x2,…xt,…,xTに変換する。ここで、Tは、入力
音声信号における特徴ベクトル系列の長さである。
MMを用いた音声認識装置の構成を示すブロック図であ
る。同図において、101は特徴抽出部であり、入力音声
信号vをLPC分析、フーリエ変換等の周知の方法によ
り、一定時間間隔毎に特徴ベクトルの系列X=x1,
x2,…xt,…,xTに変換する。ここで、Tは、入力
音声信号における特徴ベクトル系列の長さである。
【0051】102はコードブックと呼ばれるものであ
り、有限個Mの各シンボルを表わす代表ベクトルを保持
しており、その構成は前記図7と同様である。
り、有限個Mの各シンボルを表わす代表ベクトルを保持
しており、その構成は前記図7と同様である。
【0052】103はベクトル量子化部であり、前記特徴
ベクトルxtを前記コードブック102の最も近い順に1位
からK位の代表ベクトルのシンボルに置き換え、シンボ
ルベクトルqt=(ot1,ot2,…,otk…,otK)に変
換し、前記特徴ベクトルの系列をシンボルベクトル系列
Q=q1,q2,…,qTに変換するものである。
ベクトルxtを前記コードブック102の最も近い順に1位
からK位の代表ベクトルのシンボルに置き換え、シンボ
ルベクトルqt=(ot1,ot2,…,otk…,otK)に変
換し、前記特徴ベクトルの系列をシンボルベクトル系列
Q=q1,q2,…,qTに変換するものである。
【0053】104は本発明の特徴である荷重係数ベクト
ル記憶部であり、1位からK位の代表ベクトルそれぞれ
に対する荷重係数(u1,…,uk…,uK)を入力音声の
フレームに関係ない固定値として記憶しておくものであ
る。この値の決め方は、例えば、1位からK位の逆数で
もよく、また、1位からK位まで徐々に小さくなる値を
適当に与えてもよい。
ル記憶部であり、1位からK位の代表ベクトルそれぞれ
に対する荷重係数(u1,…,uk…,uK)を入力音声の
フレームに関係ない固定値として記憶しておくものであ
る。この値の決め方は、例えば、1位からK位の逆数で
もよく、また、1位からK位まで徐々に小さくなる値を
適当に与えてもよい。
【0054】
【外12】
【0055】
【外13】
【0056】
【数10】
【0057】
【外14】
【0058】108は尤度記憶部であり、前記尤度算出部1
07で算出された各単語の尤度を比較するため記憶する。
07で算出された各単語の尤度を比較するため記憶する。
【0059】109は比較判定部であり、前記尤度記憶部1
08に記憶されているそれぞれのHMMに対する尤度の最
大値を与えるHMMに対応する語彙を認識結果(rec)と
して判定するものである。
08に記憶されているそれぞれのHMMに対する尤度の最
大値を与えるHMMに対応する語彙を認識結果(rec)と
して判定するものである。
【0060】前記各部106から108は各語彙のHMMにつ
き1度ずつ行い、w=1〜Wまで繰り返され、その結果を前
記比較判定部109で評価する。
き1度ずつ行い、w=1〜Wまで繰り返され、その結果を前
記比較判定部109で評価する。
【0061】以上のように本実施例では音声認識時にお
いて、逐次計算していた荷重係数ベクトル算出部の計算
を削除できる。
いて、逐次計算していた荷重係数ベクトル算出部の計算
を削除できる。
【0062】
【外15】
【0063】202はコードブックと呼ばれるものであ
り、有限個Mの各シンボルを表す代表ベクトルを保持し
ており、その構成は前記図7と同様である。
り、有限個Mの各シンボルを表す代表ベクトルを保持し
ており、その構成は前記図7と同様である。
【0064】
【外16】
【0065】204は本発明の特徴である荷重係数ベクト
ル記憶部であり、1位からK位の代表ベクトルそれぞれ
に対する荷重係数(u1,u2,…,uk…,uK)を入力学
習音声信号v′のフレームの関係ない固定値として記憶
しておくものである。この値の決め方は、例えば、1位
からK個の逆でもよく、また、1位からK位まで徐々に
小さくなる値を適当に与えてもよい。
ル記憶部であり、1位からK位の代表ベクトルそれぞれ
に対する荷重係数(u1,u2,…,uk…,uK)を入力学
習音声信号v′のフレームの関係ない固定値として記憶
しておくものである。この値の決め方は、例えば、1位
からK個の逆でもよく、また、1位からK位まで徐々に
小さくなる値を適当に与えてもよい。
【0066】
【外17】
【0067】206はHMM一時記憶部であり、初期HM
M(A,Bは乱数、または経験値などを用いたもの)や逐
次学習を繰り返す上で学習が収束する以前の学習途上H
MMを記憶するものであり、前記状態遷移確率行列Aと
前記シンボル出力確率行列Bを記憶しておき学習が1度
終わる度に更新する。
M(A,Bは乱数、または経験値などを用いたもの)や逐
次学習を繰り返す上で学習が収束する以前の学習途上H
MMを記憶するものであり、前記状態遷移確率行列Aと
前記シンボル出力確率行列Bを記憶しておき学習が1度
終わる度に更新する。
【0068】
【外18】
【0069】
【外19】
【0070】
【外20】
【0071】210は再推定部であり、前記(数8)に従っ
て状態遷移確率aijを、前記(数9)に従ってシンボル出
力確率bi(m)を再推定するものである。
て状態遷移確率aijを、前記(数9)に従ってシンボル出
力確率bi(m)を再推定するものである。
【0072】211は学習収束確認部であり、学習が収束
状態にあるか否かを判定し、収束状態にあるならば収束
信号yを、そうでなければ再推定命令信号nを再推定H
MM記憶部212に送る。
状態にあるか否かを判定し、収束状態にあるならば収束
信号yを、そうでなければ再推定命令信号nを再推定H
MM記憶部212に送る。
【0073】上記再推定HMM記憶部212は、再推定さ
れたHMMを一時記憶しておき、前記学習収束確認部21
1からの信号により、収束信号yならば再推定HMMを
前記図1におけるHMM記憶部105に記憶させ、再推定
命令信号nならば前記HMM一時記憶部206に記憶させ
る。
れたHMMを一時記憶しておき、前記学習収束確認部21
1からの信号により、収束信号yならば再推定HMMを
前記図1におけるHMM記憶部105に記憶させ、再推定
命令信号nならば前記HMM一時記憶部206に記憶させ
る。
【0074】前記学習収束確認部211で収束信号yが得
られるまで、前記各部207から210は繰り返される。
られるまで、前記各部207から210は繰り返される。
【0075】以上が、本発明の各第1の実施例のHMM
を用いた音声認識装置、及びHMM作成装置の構成であ
る。
を用いた音声認識装置、及びHMM作成装置の構成であ
る。
【0076】以上の第1の実施例でもわかるように、従
来の図6や図8に示す荷重係数ベクトル計算部604,804
が削減され、そのかわりに荷重係数ベクトル記憶部10
4,204が与えられている。前者は計算装置としての構成
となるが、後者は高々K個の値を記憶するものでよく、
大きく構成が簡略化されている。また、計算を行なう必
要もなく計算量の削減につながっている。
来の図6や図8に示す荷重係数ベクトル計算部604,804
が削減され、そのかわりに荷重係数ベクトル記憶部10
4,204が与えられている。前者は計算装置としての構成
となるが、後者は高々K個の値を記憶するものでよく、
大きく構成が簡略化されている。また、計算を行なう必
要もなく計算量の削減につながっている。
【0077】以上の本発明の実施例を用いて行なった実
験に付いて説明を行なう。
験に付いて説明を行なう。
【0078】認識対象語彙としては、日本の100地名を
用い、各々のHMMの学習データに男性27名が2回発声
した各語彙に付き延べ54単語を用い、認識のデータとし
ては各100語彙に付いて学習話者以外の者48名が2回発
声した計9600単語を用いた。結果については(表1)に示
すように計算量を削減したにも関わらず従来の方法に比
べ性能の劣化は見られない。
用い、各々のHMMの学習データに男性27名が2回発声
した各語彙に付き延べ54単語を用い、認識のデータとし
ては各100語彙に付いて学習話者以外の者48名が2回発
声した計9600単語を用いた。結果については(表1)に示
すように計算量を削減したにも関わらず従来の方法に比
べ性能の劣化は見られない。
【0079】
【表1】
【0080】図3は、本発明の第2の実施例におけるH
MMを用いた音声認識装置の構成を示すブロック図であ
る。この第2の実施例の構成は、前記図1の第1の実施
例の構成に、荷重係数ベクトル記憶部305に記憶する荷
重係数の値をHMM学習の事前に計算する事前荷重係数
ベクトル計算部304を構築した物である。同図におい
て、301は特徴抽出部であり、入力音声信号vをLPC
分析、フーリエ変換等の周知の方法により、一定時間間
隔毎に特徴ベクトルの系列X=x1,x2,…xt,…,
xTに変換する。ここで、Tは、入力音声信号における
特徴ベクトル系列の長さである。
MMを用いた音声認識装置の構成を示すブロック図であ
る。この第2の実施例の構成は、前記図1の第1の実施
例の構成に、荷重係数ベクトル記憶部305に記憶する荷
重係数の値をHMM学習の事前に計算する事前荷重係数
ベクトル計算部304を構築した物である。同図におい
て、301は特徴抽出部であり、入力音声信号vをLPC
分析、フーリエ変換等の周知の方法により、一定時間間
隔毎に特徴ベクトルの系列X=x1,x2,…xt,…,
xTに変換する。ここで、Tは、入力音声信号における
特徴ベクトル系列の長さである。
【0081】302はコードブックと呼ばれるものであ
り、有限個Mの各シンボルを表す代表ベクトルを保持し
ており、その構成は前記図7と同様である。
り、有限個Mの各シンボルを表す代表ベクトルを保持し
ており、その構成は前記図7と同様である。
【0082】303はベクトル量子化部であり、前記特徴
ベクトルxtを前記コードブック302の最も近い順に1位
からK位の代表ベクトルのシンボルに置き換え、シンボ
ルベクトルqt=(ot1,ot2,…,otk…,otK)に変
換し、前記特徴ベクトルの系列をシンボルベクトル系列
Q=q1,q2,…qt,qTに変換するものである。
ベクトルxtを前記コードブック302の最も近い順に1位
からK位の代表ベクトルのシンボルに置き換え、シンボ
ルベクトルqt=(ot1,ot2,…,otk…,otK)に変
換し、前記特徴ベクトルの系列をシンボルベクトル系列
Q=q1,q2,…qt,qTに変換するものである。
【0083】304は本発明の特徴である事前荷重係数ベ
クトル計算部であり、HMM学習データDとコードブッ
ク302を用いて(数11)に従って、荷重係数を算出するも
のである。
クトル計算部であり、HMM学習データDとコードブッ
ク302を用いて(数11)に従って、荷重係数を算出するも
のである。
【0084】
【数11】
【0085】305は荷重係数ベクトル記憶部であり、前
記事前荷重係数ベクトル計算部304により学習の事前に
求められた1位からK位の代表ベクトルそれぞれに対す
る荷重係数(u1,…,uk…,uK)を入力音声信号vの
フレームに関係ない固定値として記憶しておくものであ
る。
記事前荷重係数ベクトル計算部304により学習の事前に
求められた1位からK位の代表ベクトルそれぞれに対す
る荷重係数(u1,…,uk…,uK)を入力音声信号vの
フレームに関係ない固定値として記憶しておくものであ
る。
【0086】
【外21】
【0087】
【外22】
【0088】
【外23】
【0089】309は尤度記憶部であり、前記尤度算出部3
08で算出された各単語の尤度を比較するため記憶する。
08で算出された各単語の尤度を比較するため記憶する。
【0090】310は比較判定部であり、前記尤度記憶部3
09に記憶されているそれぞれのHMMに対する尤度の最
大値を与えるHMMに対応する語彙を認識結果(rec)と
して判定するものである。
09に記憶されているそれぞれのHMMに対する尤度の最
大値を与えるHMMに対応する語彙を認識結果(rec)と
して判定するものである。
【0091】前記各部307から309は各語彙のHMMにつ
き1度ずつ行い、w=1〜Wまで繰り返され、その結果を前
記比較判定部310で評価する。
き1度ずつ行い、w=1〜Wまで繰り返され、その結果を前
記比較判定部310で評価する。
【0092】
【外24】
【0093】402はコードブックと呼ばれるものであ
り、有限個Mの各シンボルを表わす代表ベクトルを保持
しており、その構成は前記図7と同様である。
り、有限個Mの各シンボルを表わす代表ベクトルを保持
しており、その構成は前記図7と同様である。
【0094】
【外25】
【0095】404は本発明の特徴である事前荷重係数ベ
クトル計算部であり、HMM学習用データDとコードブ
ック402を用いて前記(数11)に従って、荷重係数を算出
するものである。
クトル計算部であり、HMM学習用データDとコードブ
ック402を用いて前記(数11)に従って、荷重係数を算出
するものである。
【0096】405は荷重係数ベクトル記憶部であり、前
記図3の事前荷重係数ベクトル計算部304により学習の
事前に求められた1位からK位の代表ベクトルそれぞれ
に対する荷重係数(u1,u2,…,uk…,uK)を入力学
習音声信号v′のフレームに関係ない固定値として記憶
しておくものである。
記図3の事前荷重係数ベクトル計算部304により学習の
事前に求められた1位からK位の代表ベクトルそれぞれ
に対する荷重係数(u1,u2,…,uk…,uK)を入力学
習音声信号v′のフレームに関係ない固定値として記憶
しておくものである。
【0097】
【外26】
【0098】407はHMM一時記憶部であり、初期HM
M(A,Bは乱数、または経験値などを用いたもの)や逐
次学習を繰り返す上で学習が収束する以前の学習途上H
MMを記憶するものであり、前記状態遷移確率行列Aと
前記シンボル出力確率行列Bを記憶しておき学習が1度
終わる度に更新する。
M(A,Bは乱数、または経験値などを用いたもの)や逐
次学習を繰り返す上で学習が収束する以前の学習途上H
MMを記憶するものであり、前記状態遷移確率行列Aと
前記シンボル出力確率行列Bを記憶しておき学習が1度
終わる度に更新する。
【0099】
【外27】
【0100】
【外28】
【0101】
【外29】
【0102】411は再推定部であり、前記(数8)に従っ
て状態遷移確率aijを、前記(数9)に従ってシンボル出
力確率bi(m)を再推定するものである。
て状態遷移確率aijを、前記(数9)に従ってシンボル出
力確率bi(m)を再推定するものである。
【0103】412は学習収束確認部であり、学習が収束
状態にあるか否かを判定し、収束状態にあるならば収束
信号yを、そうでなければ再推定命令信号nを再推定H
MM記憶部413に送る。
状態にあるか否かを判定し、収束状態にあるならば収束
信号yを、そうでなければ再推定命令信号nを再推定H
MM記憶部413に送る。
【0104】上記再推定HMM記憶部413は、再推定さ
れたHMMを一時記憶しておき、前記学習収束確認部41
2からの信号により、収束信号yならば再推定HMMを
前記図3におけるHMM記憶部306に記憶させ、再推定
命令信号nならば前記HMM一時記憶部407に記憶させ
る。
れたHMMを一時記憶しておき、前記学習収束確認部41
2からの信号により、収束信号yならば再推定HMMを
前記図3におけるHMM記憶部306に記憶させ、再推定
命令信号nならば前記HMM一時記憶部407に記憶させ
る。
【0105】前記学習収束確認部412で収束信号yが得
られるまで、前記各部408から411は繰り返される。
られるまで、前記各部408から411は繰り返される。
【0106】以上が、本発明の第2実施例のHMMを用
いた音声認識装置、及びHMM作成装置の構成である。
いた音声認識装置、及びHMM作成装置の構成である。
【0107】以上の第2の実施例でもわかるように、従
来の図6や図8に示す荷重係数ベクトル計算部604や804
が削減され、そのかわりに荷重係数ベクトル記憶部30
5,405が与えられている。前者は計算装置としての構成
となるが、後者は高々K個の値を記憶するものでよく、
大きく構成が簡略化されている。また、計算を行なう必
要もなく計算量の削減につながっている。
来の図6や図8に示す荷重係数ベクトル計算部604や804
が削減され、そのかわりに荷重係数ベクトル記憶部30
5,405が与えられている。前者は計算装置としての構成
となるが、後者は高々K個の値を記憶するものでよく、
大きく構成が簡略化されている。また、計算を行なう必
要もなく計算量の削減につながっている。
【0108】以上の本発明を用いて行なった実験に付い
て説明を行なう。
て説明を行なう。
【0109】認識対象語彙としては、日本の100地名を
用い、各々のHMMの学習データに男性27名が2回発声
した各語彙に付き延べ54単語を用い、認識のデータとし
ては各100語彙に付いて学習話者以外の者48名が2回発
声した計9600単語を用いた。結果に付いては(表2)に示
すように計算量を削減したにも関わらず従来の方法に比
べ性能の劣化はほぼ見られない。
用い、各々のHMMの学習データに男性27名が2回発声
した各語彙に付き延べ54単語を用い、認識のデータとし
ては各100語彙に付いて学習話者以外の者48名が2回発
声した計9600単語を用いた。結果に付いては(表2)に示
すように計算量を削減したにも関わらず従来の方法に比
べ性能の劣化はほぼ見られない。
【0110】
【表2】
【0111】
【発明の効果】以上説明したように、本発明は、事前の
荷重係数ベクトルの算出により、従来に比べ認識率をほ
ぼ変化させずに、従来に比べ構成が簡易で、演算回数の
少ないパタン認識装置を作成することが可能となる。
荷重係数ベクトルの算出により、従来に比べ認識率をほ
ぼ変化させずに、従来に比べ構成が簡易で、演算回数の
少ないパタン認識装置を作成することが可能となる。
【図1】本発明の第1の実施例におけるHMMを用いた
音声認識装置の構成を示すブロック図である。
音声認識装置の構成を示すブロック図である。
【図2】本発明の第1の実施例における音声認識に用い
るHMM作成装置の構成を示すブロック図である。
るHMM作成装置の構成を示すブロック図である。
【図3】本発明の第2の実施例におけるHMMを用いた
音声認識装置の構成を示すブロック図である。
音声認識装置の構成を示すブロック図である。
【図4】本発明の第2の実施例における音声認識に用い
るHMM作成装置の構成を示すブロック図である。
るHMM作成装置の構成を示すブロック図である。
【図5】ビドゥンマルコフモデル(HMM)を説明するた
めの図である。
めの図である。
【図6】従来のHMMを用いた音声認識装置の構成を示
すブロック図である。
すブロック図である。
【図7】コードブックの構成例を示す図である。
【図8】従来の音声認識に用いるHMM作成装置の構成
を示すブロック図である。
を示すブロック図である。
101,201,301,401…特徴抽出部、 102,202,302,4
02…コードブック、103,203,303,403…ベクトル量子
化部、 104,204,305,405…荷重係数ベクトル記憶
部、 106,207,307,408…重み付け確率和算出部、
105,306…HMM記憶部、 107,308…尤度算出部、
108,309…尤度記憶部、 109,310…比較判定部、 20
5,406…HMM学習用データ記憶部、 206,407 HM
M一時記憶部、 208,409…経路確率算出部、 209,4
10…経路確率記憶部、 210,411…再推定部、 211,4
12…学習収束確認部、 212,413…再推定HMM記憶
部、304,404…事前荷重係数ベクトル計算部。
02…コードブック、103,203,303,403…ベクトル量子
化部、 104,204,305,405…荷重係数ベクトル記憶
部、 106,207,307,408…重み付け確率和算出部、
105,306…HMM記憶部、 107,308…尤度算出部、
108,309…尤度記憶部、 109,310…比較判定部、 20
5,406…HMM学習用データ記憶部、 206,407 HM
M一時記憶部、 208,409…経路確率算出部、 209,4
10…経路確率記憶部、 210,411…再推定部、 211,4
12…学習収束確認部、 212,413…再推定HMM記憶
部、304,404…事前荷重係数ベクトル計算部。
Claims (4)
- 【請求項1】 荷重係数ベクトル記憶手段を有し、ヒド
ゥンマルコフモデルの学習前に事前に荷重係数ベクトル
を記憶させ、パタン認識時にその固定値を用いることを
特徴とするパタン認識装置。 - 【請求項2】 荷重係数ベクトル記憶手段を有し、ヒド
ゥンマルコフモデルの学習前に事前に荷重係数ベクトル
を記憶させ、前記ヒドゥンマルコフモデル学習時にその
固定値を用いることを特徴とするヒドゥンマルコフモデ
ル作成装置。 - 【請求項3】 事前荷重係数ベクトル算出手段を有し、
荷重係数をヒドゥンマルコフモデル学習前に該ヒドゥン
マルコフモデルの学習データより求めた荷重係数ベクト
ルの平均として荷重係数ベクトル記憶手段に記憶し、パ
タン認識時にその値を用いることを特徴とする請求項1
記載のパタン認識装置。 - 【請求項4】 事前荷重係数ベクトル算出手段を有し、
荷重係数をヒドゥンマルコフモデル学習前に該ヒドゥン
マルコフモデルの学習データより求めた荷重係数ベクト
ルの平均として荷重係数ベクトル記憶手段に記憶し、前
記ヒドゥンマルコフモデル学習時にその値を用いること
を特徴とする請求項2記載のヒドゥンマルコフモデル作
成装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4329489A JPH06175685A (ja) | 1992-12-09 | 1992-12-09 | パタン認識装置及びヒドゥンマルコフモデル作成装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4329489A JPH06175685A (ja) | 1992-12-09 | 1992-12-09 | パタン認識装置及びヒドゥンマルコフモデル作成装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH06175685A true JPH06175685A (ja) | 1994-06-24 |
Family
ID=18221946
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP4329489A Pending JPH06175685A (ja) | 1992-12-09 | 1992-12-09 | パタン認識装置及びヒドゥンマルコフモデル作成装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH06175685A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08225649A (ja) * | 1994-10-27 | 1996-09-03 | Consortium Elektrochem Ind Gmbh | 環式ポリオルガノシロキサン及びその製造方法並びに該物質を含有する偏光子及び減速子 |
KR100406604B1 (ko) * | 1995-03-07 | 2004-02-18 | 브리티쉬 텔리커뮤니케이션즈 파블릭 리미티드 캄퍼니 | 음성인식방법및장치 |
-
1992
- 1992-12-09 JP JP4329489A patent/JPH06175685A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08225649A (ja) * | 1994-10-27 | 1996-09-03 | Consortium Elektrochem Ind Gmbh | 環式ポリオルガノシロキサン及びその製造方法並びに該物質を含有する偏光子及び減速子 |
KR100406604B1 (ko) * | 1995-03-07 | 2004-02-18 | 브리티쉬 텔리커뮤니케이션즈 파블릭 리미티드 캄퍼니 | 음성인식방법및장치 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2795058B2 (ja) | 時系列信号処理装置 | |
US10902845B2 (en) | System and methods for adapting neural network acoustic models | |
JP2871561B2 (ja) | 不特定話者モデル生成装置及び音声認識装置 | |
US4827521A (en) | Training of markov models used in a speech recognition system | |
US5825978A (en) | Method and apparatus for speech recognition using optimized partial mixture tying of HMM state functions | |
KR100324988B1 (ko) | 신호해석장치 | |
US4783804A (en) | Hidden Markov model speech recognition arrangement | |
EP0706171A1 (en) | Speech recognition method and apparatus | |
EP0847041A2 (en) | Method and apparatus for speech recognition performing noise adaptation | |
CN108701452A (zh) | 音频模型学习方法、语音识别方法、音频模型学习装置、语音识别装置、音频模型学习程序及语音识别程序 | |
JP4531166B2 (ja) | 信頼性尺度の評価を用いる音声認識方法 | |
WO2022148176A1 (en) | Method, device, and computer program product for english pronunciation assessment | |
JP2002500779A (ja) | 識別訓練されたモデルを用いる音声認識システム | |
US5680509A (en) | Method and apparatus for estimating phone class probabilities a-posteriori using a decision tree | |
JPH0934486A (ja) | 音声認識方法、情報形成方法、音声認識装置および記録媒体 | |
US5956676A (en) | Pattern adapting apparatus using minimum description length criterion in pattern recognition processing and speech recognition system | |
JPH06208392A (ja) | パターン認識方法および装置 | |
JPH08211889A (ja) | 木構造を用いたパターン適応化方式 | |
JP2531227B2 (ja) | 音声認識装置 | |
JPH06175685A (ja) | パタン認識装置及びヒドゥンマルコフモデル作成装置 | |
JP3589044B2 (ja) | 話者適応化装置 | |
JP2996925B2 (ja) | 音素境界検出装置及び音声認識装置 | |
JPH0823758B2 (ja) | 話者適応形音声認識装置 | |
JP2600871B2 (ja) | Hmm作成装置及びそれを用いた尤度計算装置、時系列パターン認識装置 | |
JP2973805B2 (ja) | 標準パターン作成装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
LAPS | Cancellation because of no payment of annual fees |