JPH04248722A - Data coding method - Google Patents
Data coding methodInfo
- Publication number
- JPH04248722A JPH04248722A JP3014402A JP1440291A JPH04248722A JP H04248722 A JPH04248722 A JP H04248722A JP 3014402 A JP3014402 A JP 3014402A JP 1440291 A JP1440291 A JP 1440291A JP H04248722 A JPH04248722 A JP H04248722A
- Authority
- JP
- Japan
- Prior art keywords
- category
- categories
- vector
- stage
- code
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 19
- 239000013598 vector Substances 0.000 claims abstract description 107
- 230000005484 gravity Effects 0.000 claims 1
- 238000004364 calculation method Methods 0.000 abstract description 14
- 238000013139 quantization Methods 0.000 abstract description 4
- 238000013144 data compression Methods 0.000 description 6
- 238000007796 conventional method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000037433 frameshift Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Landscapes
- Image Processing (AREA)
- Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
Abstract
Description
【0001】0001
【産業上の利用分野】本発明は、データ圧縮を用いる、
音声認識装置、画像認識装置、ディジタル通信などの分
野に関する。[Industrial Application Field] The present invention uses data compression.
It relates to fields such as voice recognition devices, image recognition devices, and digital communications.
【0002】0002
【従来の技術】従来、「An Algorithm f
or Vector Quantizer Desig
n」(IEEE TRASACTIONS ONCOJ
MMUNICATIONS, VOL.COM−28,
NO.1,JANUARY 1980. by LIN
DE,BUZO and GRAY)に記載されている
ように、ベクトル量子化による、ディジタル信号のデー
タ圧縮が知られていた。[Prior Art] Conventionally, "An Algorithm f
or Vector Quantizer Design
n” (IEEE TRASACTIONS ONCOJ
MMUNICATIONS, VOL. COM-28,
No. 1, JANUARY 1980. by LIN
Data compression of digital signals by vector quantization was known, as described in DE, BUZO and GRAY).
【0003】0003
【発明が解決しようとする課題】しかし、従来のベクト
ル量子化では、入力データを、コードブック中のT個の
コードベクトルのいづれかにコード化する際、入力デー
タとコードブック中の各コードベクトルとT回距離計算
をするため、コード化に時間がかかり、認識処理やデー
タ通信を実時間で処理することを困難にする、という問
題点があった。この問題点を解決し、データ圧縮処理の
計算時間を高速にすることが、本発明の課題である。[Problems to be Solved by the Invention] However, in conventional vector quantization, when encoding input data into any of the T code vectors in the codebook, it is difficult to associate the input data with each code vector in the codebook. Since distance calculations are performed T times, encoding takes time, making it difficult to perform recognition processing and data communication in real time. It is an object of the present invention to solve this problem and speed up the calculation time of data compression processing.
【0004】0004
【課題を解決するための手段】本発明のデータ符号化方
法は、データ符号化方法において、コードブック中の、
T個の各コードベクトルを、第1段階の分類として、M
(1)種類の各カテゴリーに分割することと、第2段階
の分類として、前記第1段階の分類のM(1)種類の各
カテゴリーを、それぞれM(2)種類の各カテゴリーに
分割し、M(1)*M(2)種類の各カテゴリーに分割
することと、前記の各段階の分類と同様にして、第N段
階の分類として、第N−1段階の分類のM(1)*M(
2)*・・・*M(N−1)種類の各カテゴリーを、そ
れぞれM(N)種類の各カテゴリーに分割し、M(1)
*M(2)*・・・*M(N)種類の各カテゴリーに分
割することと、前記段階数Nの値を3以上とすることと
、前記各カテゴリーの各特徴ベクトルを、前記各カテゴ
リーに含まれる前記各コードベクトルの重心ベクトルと
することと、入力データを前記コードブック中の前記コ
ードベクトルのいづれかに、コード化する際、第1探索
として、前記入力データと前記第1段階のM(1)種類
のカテゴリーの特徴ベクトルとの距離が最小となる、1
つの前記第1段階のカテゴリーを選択することと、第2
探索として、前記入力データと、選択された前記第1段
階のカテゴリーに属する前記M(2)種類のカテゴリー
の特徴ベクトルとの距離が最小となる、1つの前記第2
段階のカテゴリーを選択することと、前記の各探索と同
様にして、第N探索として、前記入力データと、選択さ
れた前記第N−1段階のカテゴリーに属する前記M(N
)種類のカテゴリーの特徴ベクトルとの距離が最小とな
る、1つの前記第N段階のカテゴリーを選択することと
、 最終探索として、前記入力データと、選択された
前記第N段階のカテゴリーに属する前記コードベクトル
との距離が最小となる、1つの前記コードベクトルを選
択し、前記入力データを、選択された1つの前記コード
ベクトルのコードに対応づけることと、第n探索(n≦
N)において選択された第n段階のカテゴリーに属する
前記コードベクトルが1個のみの時は、第n探索を最終
探索として、その前記コードベクトルのコードに、前記
入力データを対応づけること、を特徴とする。[Means for Solving the Problems] The data encoding method of the present invention includes:
Each of the T code vectors is classified as M
(1) dividing into each category of types, and as a second stage classification, dividing each of the M(1) types of categories in the first stage classification into each of M(2) types of categories, respectively; By dividing into M(1)*M(2) types of categories, and in the same way as the classification at each stage described above, as the Nth stage classification, the N-1th stage classification M(1)* M(
2) *...*Divide each category of M(N-1) types into each category of M(N) types,
dividing into *M(2)*...*M(N) categories, setting the value of the number of stages N to 3 or more, and dividing each feature vector of each category into , and when input data is encoded into any of the code vectors in the codebook, as a first search, the input data and M of the first stage are (1) The distance from the feature vector of the type category is the minimum, 1
selecting one of said first stage categories; and
As a search, one second search is performed, in which the distance between the input data and the feature vectors of the M(2) types of categories belonging to the selected first stage category is minimized.
By selecting the category of the stage, and in the same way as each search above, as the Nth search, the input data and the M(N
) selecting one of the N-th stage categories that has a minimum distance from the feature vector of the category of type; Selecting one code vector having a minimum distance to the code vector, and associating the input data with the code of the selected one code vector, and n-th search (n≦
When there is only one code vector belonging to the category of the n-th stage selected in N), the n-th search is regarded as the final search, and the input data is associated with the code of the code vector. shall be.
【0005】[0005]
【実施例】(実施例1)本発明のデータ符号化方法を、
単語認識の音声認識装置に応用した場合の1実施例を図
面に沿って説明する。[Example] (Example 1) The data encoding method of the present invention is
An embodiment in which the present invention is applied to a speech recognition device for word recognition will be described with reference to the drawings.
【0006】図1は、本発明のデータ符号化方法を用い
た音声認識装置のシステム構成図である。話者によって
発話された音声を、マイク1より入力し、A/D変換部
2において、16[KHz]、12ビットのディジタル
信号に変換し、特徴抽出部3において、20[ms]を
1フレームとして、1フレーム毎に、ハミングウィンド
ウ処理、線形予測分析を行い、14次LPCケプストラ
ム係数を特徴パラメータとして求める。この時、フレー
ムのシフト量は10[ms]とする。このようにして得
た14次の特徴パラメータを入力ベクトルとして、デー
タ圧縮部4において、本発明のデータ符号化方法を用い
て、コードブック5中のコードベクトルの1つのコード
ベクトルにコード化する。データ圧縮部4においてコー
ド化されたコードの時系列と、あらかじめ学習させてあ
るX個の単語の標準パターンとを、単語認識部5におい
てHMM法を用いてパターンマッチングを行うことによ
り、単語認識する。このときX個の単語の標準パターン
は単語辞書7に登録されている。FIG. 1 is a system configuration diagram of a speech recognition device using the data encoding method of the present invention. The voice uttered by the speaker is input through the microphone 1, and the A/D converter 2 converts it into a 16 [KHz], 12-bit digital signal, and the feature extractor 3 converts 20 [ms] into one frame. As such, Hamming window processing and linear prediction analysis are performed for each frame, and 14th-order LPC cepstral coefficients are determined as feature parameters. At this time, the frame shift amount is 10 [ms]. Using the 14th-order feature parameter thus obtained as an input vector, the data compression unit 4 encodes it into one of the code vectors in the codebook 5 using the data encoding method of the present invention. The word recognition unit 5 performs pattern matching on the time series of codes encoded in the data compression unit 4 and standard patterns of X words that have been trained in advance, using the HMM method to recognize words. . At this time, standard patterns of X words are registered in the word dictionary 7.
【0007】本実施例においては、コードブック5中の
コードベクトルの総数は256個であり、6段階に分類
されている。また、このコードブック5中の256個の
コードベクトルは、20人の話者により発話された音声
を、16[KHz]、12ビットでサンプリングし、2
0[ms]を1フレーム、シフト量を10[ms]とし
て、1フレーム毎に、ハミングウィンドウ処理、線形予
測分析を行い、14次LPCケプストラム係数を特徴パ
ラメータとする数10万フレームの特徴パラメータ群か
ら、LBGアルゴリズムを用いて求めたものであり、各
々のコードベクトルの次数は14次である。このLBG
アルゴリズムとは、「AnAlgorithm for
Vector Quantizer Design」(
IEEE TRASACTIONS ON COMMU
NICATIONS,VOL.COM−28,NO.1
, JANUARY 1980. by LINDE,
BUZO and GRAY)に記載されているアルゴ
リズムである。In this embodiment, the total number of code vectors in the codebook 5 is 256, which are classified into six levels. In addition, the 256 code vectors in this codebook 5 are obtained by sampling the voices uttered by 20 speakers at 16 [KHz] and 12 bits.
Hamming window processing and linear prediction analysis are performed for each frame, with 0 [ms] as one frame and the shift amount as 10 [ms], and a feature parameter group of hundreds of thousands of frames with 14th LPC cepstral coefficients as feature parameters. , using the LBG algorithm, and the order of each code vector is 14th. This LBG
An algorithm is “AnAlgorithm for
Vector Quantizer Design” (
IEEE TRASACTIONS ON COMMU
NICATIONS, VOL. COM-28, NO. 1
, JANUARY 1980. by LINDE,
This is an algorithm described in BUZO and GRAY).
【0008】コードブック5中のコードベクトルの6段
階の分類について、図3を用いて簡単に説明する。図3
において、カテゴリー(0、1)301は256個のコ
ードベクトルを全部含むカテゴリー、すなわちコードブ
ックそのものとする。このカテゴリー(0、1)301
中の256個のコードベクトルを、第1段階の分類によ
って、2種類のカテゴリー、カテゴリー(1、1)30
2、カテゴリー(1、2)302、に分割する。カテゴ
リー302、303の特徴ベクトルは、各々のカテゴリ
に属するコードベクトルの重心ベクトルとする。第2段
階の分類として、第1段階の分類で分割された2種類の
カテゴリー302、303に属するコードベクトルを、
それぞれ2種類のカテゴリーに分割する。カテゴリー3
02に属するコードベクトルを分割したカテゴリーが、
カテゴリー304、305であり、カテゴリー303に
属するコードブックを分割したカテゴリーが、カテゴリ
ー306、307である。このように、第2段階の分類
では、コードベクトルは4種類のカテゴリーに分割され
る。各々のカテゴリーの特徴ベクトルは、第1段階の分
類と同様に、各々のカテゴリーに属するコードベクトル
の重心ベクトルとする。同様にして第3段階の分類では
、コードベクトルは、カテゴリー(3、1)308から
カテゴリー(3、8)309までの8種類のカテゴリー
に分割される。本実施例では、同様にして、6段階の分
類まで行う。第6段階の分類では、コードベクトルは、
カテゴリー(6、1)310からカテゴリー(6、64
)311までの64種類のカテゴリーに分割される。カ
テゴリー310に属するコードベクトルは、コードベク
トル312、313、314、315の4個であり、カ
テゴリー310の特徴ベクトルは、コードベクトル31
2、313、314、315の重心ベクトルである。The six-stage classification of code vectors in codebook 5 will be briefly explained using FIG. Figure 3
In this example, category (0, 1) 301 is a category that includes all 256 code vectors, that is, the codebook itself. This category (0, 1) 301
The 256 code vectors were classified into two categories, category (1, 1), and 30
2, category (1, 2) 302. The feature vectors of categories 302 and 303 are the centroid vectors of code vectors belonging to each category. As the second stage classification, code vectors belonging to the two categories 302 and 303 divided in the first stage classification are
Each category is divided into two categories. Category 3
The categories obtained by dividing the code vector belonging to 02 are:
Categories 304 and 305 are categories, and categories 306 and 307 are obtained by dividing the codebook belonging to category 303. Thus, in the second stage classification, code vectors are divided into four categories. The feature vector of each category is the centroid vector of the code vector belonging to each category, as in the first stage classification. Similarly, in the third stage classification, the code vector is divided into eight categories from category (3, 1) 308 to category (3, 8) 309. In this embodiment, classification is performed in the same way up to six levels. In the sixth stage of classification, the code vector is
Category (6, 1) 310 to Category (6, 64
) is divided into 64 categories up to 311. The four code vectors belonging to category 310 are code vectors 312, 313, 314, and 315, and the feature vector of category 310 is code vector 31.
2, 313, 314, and 315.
【0009】この分類のアルゴリズムを図2を用いて説
明する。The algorithm for this classification will be explained using FIG.
【0010】まず、記号を定義する。Nは分類の全段階
数とし、本実施例では6とする。nは分類の段階名とす
る。Iは第n−1段階の分類におけるカテゴリー数、i
はカテゴリー名とする。Cn(i)は第n段階の分類に
おいて新しくできたカテゴリーiの重心ベクトル、すな
わち、第n段階のiカテゴリーの特徴ベクトルである。First, symbols will be defined. N is the total number of classification stages, and is set to 6 in this embodiment. Let n be the classification stage name. I is the number of categories in the n-1th stage classification, i
is the category name. Cn(i) is the centroid vector of the newly created category i in the n-th stage classification, that is, the feature vector of the i-category in the n-th stage.
【0011】演算21において、nとIをそれぞれ1に
初期化する。これは、最初の分類が、第1段階の分類で
あることと、最初のカテゴリー数(第0段階の分類のカ
テゴリー数)は1種類(コードブックそのもの)である
ことを示す。In operation 21, n and I are each initialized to 1. This indicates that the first classification is the first stage classification and that the first number of categories (the number of categories in the 0th stage classification) is one type (the codebook itself).
【0012】ループ22では、I種類のカテゴリーに属
するコードベクトルをそれぞれ2分割する計算を実行す
るために、演算23から演算27までをI回計算する。In loop 22, operations 23 to 27 are calculated I times in order to perform calculations for dividing each code vector belonging to I types of categories into two.
【0013】演算23では、第n−1段階のiカテゴリ
ーに属するコードベクトルを2分割するための初期化と
して、第n−1段階のiカテゴリーに属するコードベク
トルのうち最も距離の離れた2個のコードベクトルを、
2個の重心ベクトルの初期値として選択する。In operation 23, as an initialization for dividing the code vector belonging to the i category in the n-1th stage into two, the two most distant code vectors belonging to the i category in the n-1th stage are The code vector of
Select as the initial values of the two centroid vectors.
【0014】演算24では、第n−1段階のiカテゴリ
ーに属する各々のコードベクトルと2個の重心ベクトル
との距離計算をし、その距離が小さくなるように、各々
のコードベクトルを2種類のカテゴリーに分割する。In operation 24, the distance between each code vector belonging to the i category of the n-1th stage and the two centroid vectors is calculated, and each code vector is divided into two types so that the distance becomes small. Split into categories.
【0015】演算25では、演算24で分類された2種
類のカテゴリー毎に、それぞれのカテゴリーに属するコ
ードベクトルの重心ベクトルを求める。In operation 25, for each of the two categories classified in operation 24, the centroid vector of the code vector belonging to each category is determined.
【0016】分岐26では、演算24で分類された2種
類のカテゴリー毎に、演算25で求めた重心ベクトルと
そのカテゴリーに属するコードベクトルとの距離の和の
値が、収束条件を満たすか、否かで、演算27に進むか
、演算24、25を再計算するかを判断する。本実施例
での収束条件は、この距離の和がある一定値に収束した
時、収束したと判断し、収束した場合演算27を実行す
る。In branch 26, for each of the two categories classified in operation 24, it is determined whether the sum of the distances between the centroid vector obtained in operation 25 and the code vector belonging to that category satisfies the convergence condition. It is determined whether to proceed to operation 27 or to recalculate operations 24 and 25. The convergence condition in this embodiment is that when the sum of these distances converges to a certain constant value, convergence is determined, and when convergence occurs, operation 27 is executed.
【0017】演算27では、演算25で計算された2個
の重心ベクトルを、第n段階の分類の(2*i−1)カ
テゴリーと(2*i)カテゴリーの特徴ベクトルとして
、記憶しておく。In operation 27, the two centroid vectors calculated in operation 25 are stored as feature vectors for the (2*i-1) and (2*i) categories of the n-th classification. .
【0018】演算28では、段階名nの値を1つ増やし
、第n−1段階のカテゴリー数をIに代入する。In operation 28, the value of the stage name n is increased by one, and the number of categories of the (n-1)th stage is substituted for I.
【0019】分岐29では、nがN以下の場合、ループ
22から演算28を実行し、nがNを越えた場合、分類
計算を終了とする。本実施例では、Nの値は6であるの
で、第6段階の分類まで計算を行い、各々のカテゴリー
の特徴ベクトルを求める。At branch 29, if n is less than or equal to N, operation 28 is executed from loop 22, and if n exceeds N, the classification calculation is terminated. In this embodiment, the value of N is 6, so calculations are performed up to the sixth stage of classification, and feature vectors for each category are determined.
【0020】以上の計算で求めた各カテゴリーの特徴ベ
クトルを用いて、入力データの1フレームの入力ベクト
ルをコード化する方法を、図3を用いて説明する。A method of encoding an input vector of one frame of input data using the feature vectors of each category obtained through the above calculation will be explained with reference to FIG.
【0021】第1の探索として、入力ベクトルと第1段
階の2種類のカテゴリー302、303の特徴ベクトル
C1(1)、C1(2)との距離が小さい方の、1つの
カテゴリーを選択する。As a first search, one category with a smaller distance between the input vector and the feature vectors C1(1) and C1(2) of the two categories 302 and 303 of the first stage is selected.
【0022】第2の探索として、入力ベクトルと、選択
された第1段階のカテゴリーに属する2種類のカテゴリ
ーの特徴ベクトルとの距離が小さい方の、1つのカテゴ
リーを選択する。仮に第1の探索で、カテゴリー303
が選択された場合、第2の探索では、カテゴリー306
、307の特徴ベクトルC2(3)、C2(4)との距
離が小さい方の、1つのカテゴリーを選択することにな
る。As a second search, one category is selected that has a smaller distance between the input vector and the feature vectors of two categories belonging to the selected first-stage category. Suppose that in the first search, category 303
is selected, in the second search, category 306
, 307, the one category with the smaller distance from the feature vectors C2(3) and C2(4) is selected.
【0023】同様にして、第6探索まで探索を行い、第
6段階の分類のカテゴリーを1つ選択する。Similarly, the search is performed up to the sixth search, and one category of the classification at the sixth stage is selected.
【0024】最終探索として、入力ベクトルと選択され
た第6段階のカテゴリーに属するコードベクトルとの距
離が最小となる、1つのコードベクトルを選択し、入力
ベクトルを、選択されたコードベクトルのコードに対応
づけることにより、入力ベクトルのコード化が完了する
。As a final search, one code vector with the minimum distance between the input vector and the code vector belonging to the selected sixth stage category is selected, and the input vector is converted into the code of the selected code vector. By making the correspondence, encoding of the input vector is completed.
【0025】第6段階の各カテゴリーに属するコードブ
ックの数は、平均4個である。よって、入力ベクトルを
コード化する際の距離計算の回数は、本実施例の場合、
各段階のカテゴリーの特徴ベクトルとの距離計算が2*
6=12回、第6段階のカテゴリーに属するコードベク
トルとの距離計算が平均4回、合計平均18回となる。
従来の方法でコード化を行った場合、256個すべての
コードベクトルと距離計算を行うため、距離計算の回数
は256回となる。よって、本発明のデータ符号化方法
を用いると、この実施例では、従来方法の約14倍の速
さでコード化が可能となる。[0025] The average number of codebooks belonging to each category in the sixth stage is four. Therefore, in this example, the number of distance calculations when encoding an input vector is
The distance calculation between the feature vector of each stage category is 2*
6 = 12 times, the distance calculation with the code vector belonging to the category of the 6th stage is performed 4 times on average, and the total average is 18 times. When encoding is performed using the conventional method, distance calculations are performed for all 256 code vectors, so the number of distance calculations is 256. Therefore, using the data encoding method of the present invention, in this embodiment, it is possible to encode data approximately 14 times faster than the conventional method.
【0026】また、第n探索(n≦N)において選択さ
れた第n段階のカテゴリーに属するコードベクトルが1
個のみの時は、第n探索を最終探索として、そのコード
ベクトルのコードに、入力ベクトルを対応づける。[0026] Also, if the code vector belonging to the n-th category selected in the n-th search (n≦N) is 1
If there are only 1, the n-th search is the final search, and the input vector is associated with the code of that code vector.
【0027】[0027]
【発明の効果】以上説明したように、本発明のデータ符
号化方法を用いることにより、入力データのコード化が
高速になるという効果がある。仮に、コードサイズを2
56とし、本発明のデータ符号化方法の分類を6段階と
し、第n段階の分類でのカテゴリー数を2n個とした場
合、コード化の際、従来方法では256回の距離計算が
必要なのに対し、本発明のデータ符号化方法では平均1
0回の距離計算をするだけでよいので、約25倍高速に
なる。As explained above, by using the data encoding method of the present invention, there is an effect that input data can be encoded at high speed. Suppose the code size is 2.
56, the classification of the data encoding method of the present invention is 6 stages, and the number of categories in the nth stage classification is 2n, the conventional method requires 256 distance calculations during encoding, whereas the conventional method requires 256 distance calculations. , the data encoding method of the present invention has an average of 1
Since it is only necessary to calculate the distance 0 times, the speed is approximately 25 times faster.
【0028】また、このようにコード化が高速になるた
め、コードサイズを大きくして、コード化に生ずる量子
化誤差を小さくすることが可能となる。[0028] Furthermore, since the coding speed is increased in this way, it is possible to increase the code size and reduce the quantization error that occurs in the coding.
【図1】本発明のデータ符号化方法を音声認識装置に応
用した場合のシステム構成図。FIG. 1 is a system configuration diagram when the data encoding method of the present invention is applied to a speech recognition device.
【図2】本発明のデータ符号化方法において、コードベ
クトルを分割するアルゴリズムを示す図。FIG. 2 is a diagram showing an algorithm for dividing code vectors in the data encoding method of the present invention.
【図3】本発明のデータ符号化方法における、コードベ
クトルの分類を示す図。FIG. 3 is a diagram showing classification of code vectors in the data encoding method of the present invention.
1 マイク 2 A/D変換部 3 特徴抽出部 4 データ圧縮部 5 コードブック 6 単語認識部 7 単語辞書 21 演算 22 ループ 23 演算 24 演算 25 演算 26 分岐 27 演算 28 演算 29 分岐 301 カテゴリー 302 カテゴリー 303 カテゴリー 304 カテゴリー 305 カテゴリー 306 カテゴリー 307 カテゴリー 308 カテゴリー 309 カテゴリー 310 カテゴリー 311 カテゴリー 312 コードベクトル 313 コードベクトル 314 コードベクトル 315 コードベクトル 1. Microphone 2 A/D conversion section 3 Feature extraction section 4 Data compression section 5 Codebook 6 Word recognition section 7. Word dictionary 21 Arithmetic 22 Loop 23 Arithmetic 24 Arithmetic 25 Arithmetic 26 Branch 27 Arithmetic 28 Arithmetic 29 Branch 301 Category 302 Category 303 Category 304 Category 305 Category 306 Category 307 Category 308 Category 309 Category 310 Category 311 Category 312 Code vector 313 Code vector 314 Code vector 315 code vector
Claims (2)
ック中の、T個の各コードベクトルを、第1段階の分類
として、M(1)種類の各カテゴリーに分割することと
、第2段階の分類として、前記第1段階の分類のM(1
)種類の各カテゴリーを、それぞれM(2)種類の各カ
テゴリーに分割し、M(1)*M(2)種類の各カテゴ
リーに分割することと、前記の各段階の分類と同様にし
て、第N段階の分類として、第N−1段階の分類のM(
1)*M(2)*・・・*M(N−1)種類の各カテゴ
リーを、それぞれM(N)種類の各カテゴリーに分割し
、M(1)*M(2)*・・・*M(N)種類の各カテ
ゴリーに分割することと、前記段階数Nの値を3以上と
することと、前記各カテゴリーの各特徴ベクトルを、前
記各カテゴリーに含まれる前記各コードベクトルの重心
ベクトルとすることと、入力データを前記コードブック
中の前記コードベクトルのいづれかに、コード化する際
、第1探索として、前記入力データと前記第1段階のM
(1)種類のカテゴリーの特徴ベクトルとの距離が最小
となる、1つの前記第1段階のカテゴリーを選択するこ
とと、第2探索として、前記入力データと、選択された
前記第1段階のカテゴリーに属する前記M(2)種類の
カテゴリーの特徴ベクトルとの距離が最小となる、1つ
の前記第2段階のカテゴリーを選択することと、前記の
各探索と同様にして、第N探索として、前記入力データ
と、選択された前記第N−1段階のカテゴリーに属する
前記M(N) 種類のカテゴリーの特徴ベクトルとの距
離が最小となる、1つの前記第N段階のカテゴリーを選
択することと、最終探索として、前記入力データと、選
択された前記第N段階のカテゴリーに属する前記コード
ベクトルとの距離が最小となる、1つの前記コードベク
トルを選択し、前記入力データを、選択された1つの前
記コードベクトルのコードに対応づけることと、第n探
索(n≦N)において選択された第n段階のカテゴリー
に属する前記コードベクトルが1個のみの時は、第n探
索を最終探索として、その前記コードベクトルのコード
に、前記入力データを対応づけること、を特徴とするデ
ータ符号化方法。Claim 1. A data encoding method comprising: dividing each of T code vectors in a codebook into M(1) types of categories as a first stage classification; and a second stage classification. , M(1
) type categories are respectively divided into M(2) types of categories, and divided into M(1) * M(2) types of categories, and in the same manner as the classification of each stage described above, As the Nth stage classification, M(
1) *M(2)*...*M(N-1) categories are divided into M(N) categories, and M(1)*M(2)*... *Divide into M(N) categories, set the value of the number of stages N to 3 or more, and set each feature vector of each category to the center of gravity of each code vector included in each category. When input data is encoded into one of the code vectors in the codebook, as a first search, the input data and the first stage M
(1) Selecting one of the first-stage categories that has a minimum distance from the feature vector of the category of the type, and as a second search, using the input data and the selected first-stage category. As the Nth search, in the same way as each of the searches described above, select one of the second-stage categories that has a minimum distance from the feature vectors of the M(2) types of categories belonging to the above. selecting one of the N-th stage categories in which the distance between the input data and the feature vectors of the M(N) types of categories belonging to the selected N-1-th stage category is minimum; As a final search, one code vector with the minimum distance between the input data and the code vector belonging to the selected N-th stage category is selected, and the input data is When there is only one code vector belonging to the n-th category selected in the n-th search (n≦N), the n-th search is the final search and the A data encoding method, comprising associating the input data with the code of the code vector.
において、コードブック中のコードベクトルを、学習デ
ータをLBGアルゴリズムを用いて、ベクトル量子化し
たコードベクトルとすることを特徴とするデータ符号化
方法。2. The data encoding method according to claim 1, wherein the code vector in the codebook is a code vector obtained by vector quantizing learning data using an LBG algorithm. Method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3014402A JPH04248722A (en) | 1991-02-05 | 1991-02-05 | Data coding method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3014402A JPH04248722A (en) | 1991-02-05 | 1991-02-05 | Data coding method |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH04248722A true JPH04248722A (en) | 1992-09-04 |
Family
ID=11860055
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP3014402A Pending JPH04248722A (en) | 1991-02-05 | 1991-02-05 | Data coding method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH04248722A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07110695A (en) * | 1993-09-27 | 1995-04-25 | Internatl Business Mach Corp <Ibm> | Voice coding device and method |
US6112173A (en) * | 1997-04-01 | 2000-08-29 | Nec Corporation | Pattern recognition device using tree structure data |
JP2005182829A (en) * | 2003-12-23 | 2005-07-07 | Genesis Microchip Inc | Temporary motion vector filtering |
-
1991
- 1991-02-05 JP JP3014402A patent/JPH04248722A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07110695A (en) * | 1993-09-27 | 1995-04-25 | Internatl Business Mach Corp <Ibm> | Voice coding device and method |
US6112173A (en) * | 1997-04-01 | 2000-08-29 | Nec Corporation | Pattern recognition device using tree structure data |
JP2005182829A (en) * | 2003-12-23 | 2005-07-07 | Genesis Microchip Inc | Temporary motion vector filtering |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Shiraki et al. | LPC speech coding based on variable-length segment quantization | |
Zhen et al. | Cascaded cross-module residual learning towards lightweight end-to-end speech coding | |
JPH01291298A (en) | Adaptive voice recognition device | |
JPH09127990A (en) | Voice coding method and device | |
JPH1097298A (en) | Vector quantizing method, method and device for voice coding | |
JPH04171500A (en) | Voice parameter coding system | |
US8510105B2 (en) | Compression and decompression of data vectors | |
EP2260486A1 (en) | Reduced-complexity vector indexing and de-indexing | |
KR20190019460A (en) | Apparatus and method for discriminating vocoder type | |
JPH04248722A (en) | Data coding method | |
US9792910B2 (en) | Method and apparatus for improving speech recognition processing performance | |
GB1597468A (en) | Conversion between linear pcm representation and compressed pcm | |
Gadkari et al. | Noisy channel relaxation for VQ design | |
JPH06175695A (en) | Coding and decoding method for voice parameters | |
JP2004120623A (en) | Encoding apparatus, encoding method, decoding apparatus and decoding method | |
JP3228389B2 (en) | Gain shape vector quantizer | |
Rebollo-Neira | Trigonometric dictionary based codec for music compression with high quality recovery | |
JPH08234797A (en) | Voice parameter quantization device and vector quantization device | |
KR100322730B1 (en) | Speaker adapting method | |
Smith et al. | Application of a sequential pattern learning system to connected speech recognition | |
JPH07248791A (en) | Method and device for identifying speaker | |
Wu et al. | Source coding and vector quantization with codebook-excited neural networks | |
JP3700310B2 (en) | Vector quantization apparatus and vector quantization method | |
JPH0728226B2 (en) | Input adaptive quantizer / inverse quantizer | |
Kohata et al. | A new segment quantizer for line spectral frequencies using Lempel-Ziv algorithm [speech coding applications] |