JPH07160295A - Voice encoding device - Google Patents
Voice encoding deviceInfo
- Publication number
- JPH07160295A JPH07160295A JP5310522A JP31052293A JPH07160295A JP H07160295 A JPH07160295 A JP H07160295A JP 5310522 A JP5310522 A JP 5310522A JP 31052293 A JP31052293 A JP 31052293A JP H07160295 A JPH07160295 A JP H07160295A
- Authority
- JP
- Japan
- Prior art keywords
- signal
- codebook
- weighting
- band
- auditory
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000000873 masking effect Effects 0.000 claims abstract description 39
- 230000003044 adaptive effect Effects 0.000 claims description 27
- 239000013598 vector Substances 0.000 claims description 21
- 238000013139 quantization Methods 0.000 claims description 20
- 238000004364 calculation method Methods 0.000 claims description 17
- 238000001228 spectrum Methods 0.000 claims description 15
- 230000005236 sound signal Effects 0.000 claims description 10
- 238000005303 weighing Methods 0.000 abstract 3
- 230000015556 catabolic process Effects 0.000 abstract 1
- 238000006731 degradation reaction Methods 0.000 abstract 1
- 238000000034 method Methods 0.000 description 26
- 230000005284 excitation Effects 0.000 description 13
- 230000004044 response Effects 0.000 description 10
- 238000004458 analytical method Methods 0.000 description 9
- 238000003786 synthesis reaction Methods 0.000 description 7
- 230000015572 biosynthetic process Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000007774 longterm Effects 0.000 description 5
- 230000003595 spectral effect Effects 0.000 description 5
- 238000005311 autocorrelation function Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 3
- 108010076504 Protein Sorting Signals Proteins 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 101000822695 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C1 Proteins 0.000 description 1
- 101000655262 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C2 Proteins 0.000 description 1
- 101000622137 Homo sapiens P-selectin Proteins 0.000 description 1
- 102100023472 P-selectin Human genes 0.000 description 1
- 101000655256 Paraclostridium bifermentans Small, acid-soluble spore protein alpha Proteins 0.000 description 1
- 101000655264 Paraclostridium bifermentans Small, acid-soluble spore protein beta Proteins 0.000 description 1
- 101000873420 Simian virus 40 SV40 early leader protein Proteins 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000000050 ionisation spectroscopy Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は音声信号を低いビットレ
ート、特に8〜4.8kb/s程度で高品質に符号化す
るための音声符号化装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a speech coding apparatus for coding a speech signal with a low bit rate, especially at a high quality of 8 to 4.8 kb / s.
【0002】[0002]
【従来の技術】音声信号を8〜4.8kb/s程度の低
いビットレートで符号化する方式としては、例えば、
M.Schroeder and B.Atal氏によ
る”Code−excited linear pre
diction:High quality spee
ch at very low bit rates”
(Proc.ICASSP,pp.937−940,1
985年)と題した論文(文献1)や、Kleijn氏
らによる”Improved speech qual
ity and efficient vector
quantizaqtion in SELP”と題し
た論文(ICASSP、pp.155−158、198
8年)(文献2)等に記載されているCELP(Cod
e Excited LPC Coding)方式や、
B.Atal氏らによる”A newmodel of
LPC excitation for produ
cing natural−sounding spe
ech at low bit rates”,(Pr
oc.ICASSP,pp.614−617,198
2)と題した論文(文献3)等に記載されているマルチ
パルス符号化方式が知られている。2. Description of the Related Art As a method for encoding a voice signal at a low bit rate of about 8 to 4.8 kb / s, for example,
M. Schroeder and B.I. "Code-excited linear pre by Atal
Diction: High quality speed
ch at very low bit rates "
(Proc. ICASSP, pp. 937-940, 1
985) (reference 1) and Kleijn et al., “Improved speech qual”.
ity and efficient vector
"Quantization in SELP" (ICASSP, pp.155-158, 198).
8 years) (reference 2) and other CELP (Cod
e Excited LPC Coding) method,
B. “A new model of by Atal et al.
LPC excitement for product
cing natural-sounding spe
ech at low bit rates ", (Pr
oc. ICASSP, pp. 614-617, 198
The multi-pulse coding method described in a paper (reference 3) and the like entitled 2) is known.
【0003】文献1、2の方法では、送信側では、フレ
ーム毎(例えば20ms)に音声信号から音声信号のス
ペクトル特性を表すスペクトルパラメータを抽出し、フ
レームをさらに小区間サブフレーム(例えば5ms)に
分割し、サブフレーム毎に、過去の音源信号をもとに再
生した再生信号と、前記音源信号との重み付け2乗誤差
を最小化するように長時間相関(ピッチ相関)を表す適
応コードブックのピッチパラメータを抽出し、前記ピッ
チパラメータにより前記サブフレームの音声信号を長期
予測し、長期予測して求めた残差信号に対して、予め定
められた種類の雑音信号からなるコードブックから選択
した信号により合成した信号と、前記音声信号との重み
付け2乗誤差を最小化するように一種類の雑音信号を選
択するととみに、最適なゲインを計算する。そして選択
された雑音信号の種類を表すインデクスとゲインならび
に、前記スペクトルパラメータとピッチパラメータを伝
送する。受信側の説明は省略する。According to the methods of References 1 and 2, on the transmitting side, a spectrum parameter representing a spectrum characteristic of a voice signal is extracted from the voice signal for each frame (for example, 20 ms), and the frame is further divided into sub-interval subframes (for example, 5 ms). An adaptive codebook that represents a long-term correlation (pitch correlation) so as to minimize a weighted squared error between a reproduction signal that is divided and reproduced based on a past excitation signal for each subframe and the excitation signal. A pitch parameter is extracted, a long-term prediction of the voice signal of the subframe is performed based on the pitch parameter, and a residual signal obtained by the long-term prediction is selected, and a signal selected from a codebook including a noise signal of a predetermined type. Assuming that one type of noise signal is selected so as to minimize the weighted squared error between the signal synthesized by the above method and the voice signal, To calculate the optimal gain. Then, the index and the gain indicating the type of the selected noise signal, and the spectrum parameter and the pitch parameter are transmitted. A description of the receiving side is omitted.
【0004】[0004]
【発明が解決しようとする課題】上述した文献1の従来
方式では、マルチパルスや、適応コードブックや、雑音
信号からなるコードブックを探索するときは、誤差評価
尺度として、入力音声信号と前記コードブックあるいは
マルチパルスにより再生した信号との重み付け2乗誤差
を用いていた。ここで、このような重み付け尺度を下式
で示す。In the conventional method of the above-mentioned document 1, when searching for a codebook composed of multipulses, adaptive codebooks, and noise signals, the input speech signal and the code are used as error evaluation measures. A weighted squared error with a signal reproduced by a book or multi-pulse is used. Here, such a weighting scale is shown by the following equation.
【0005】[0005]
【数1】 [Equation 1]
【0006】W(z)は重み付けフィルタの伝達特性で
ある。ai はスペクトルパラメータから求めた線形予測
係数である。γ1 、γ2 i は重み付け量を制御する定数
であり、通常、0<γ2 <γ1 <1とする。W (z) is the transfer characteristic of the weighting filter. a i is a linear prediction coefficient obtained from the spectrum parameter. γ 1 and γ 2 i are constants for controlling the weighting amount, and are generally 0 <γ 2 <γ 1 <1.
【0007】しかし、この評価尺度は必ずしも聴感と一
致していないために、この尺度で選択したコードベクト
ル、あるいは求めたマルチパルスを用いて再生した再生
音声の音質は、聴覚的に必ずしも十分ではないという問
題点があった。またこの問題点は特にビットレートを低
減しコードブックのサイズを小さくすると顕著であっ
た。However, since this evaluation scale does not always match the auditory perception, the sound quality of the reproduced voice reproduced using the code vector selected by this scale or the obtained multi-pulse is not necessarily sufficient for hearing. There was a problem. In addition, this problem was particularly noticeable when the bit rate was reduced and the codebook size was reduced.
【0008】[0008]
【課題を解決するための手段】第1の発明によれば、入
力した離散的な音声信号を予め定められた時間長のフレ
ームに分割し、前記音声信号のスペクトル包絡を表すス
ペクトルパラメータを求めて出力するスペクトルパラメ
ータ計算部と、前記フレームを予め定められた時間長の
小区間に分割し、過去の音源信号からなる適応コードブ
ックをもとに再生した信号が前記音声信号に近くなるよ
うにピッチパラメータを求める適応コードブック部と、
前記音声信号の音源信号を予め構成した複数種類のコー
ドベクトルからなるコードブックあるいはマルチパルス
により表して出力する音源探索部とを有する音声符号化
装置において、前記音声信号から聴覚のマスキング特性
をもとにマスキングしきい値を求めるマスキング計算部
と、前記しきい値をもとに聴覚重み付けフィルタの係数
を求め、前記適応コードブックあるいは前記コードブッ
クあるいは前記マルチパルスにより再生した信号と前記
音声信号との誤差信号に対して、前記重み付けフィルタ
により重み付けを施す聴覚重み付け部と、前記重み付け
値の電力を小さくするように前記コードブックから最適
なコードベクトルを求めるかあるいはマルチパルスを求
めて出力する探索部とを有することを特徴とする音声符
号化装置が得られる。According to the first aspect of the invention, an input discrete voice signal is divided into frames of a predetermined time length, and a spectrum parameter representing a spectrum envelope of the voice signal is obtained. A spectrum parameter calculation unit for outputting and dividing the frame into small sections of a predetermined time length, and pitching so that a signal reproduced based on an adaptive codebook composed of past sound source signals becomes close to the voice signal. An adaptive codebook section for finding parameters,
In a speech coding apparatus having a sound source search unit that outputs a sound source signal of the speech signal by expressing it as a codebook or a multi-pulse composed of a plurality of types of pre-configured code vectors, based on the auditory masking characteristic from the speech signal. A masking calculation unit for obtaining a masking threshold value, and a coefficient of the auditory weighting filter based on the threshold value, and a signal reproduced by the adaptive codebook, the codebook, or the multipulse, and the voice signal. An auditory weighting unit that weights the error signal with the weighting filter, and a search unit that obtains an optimal code vector from the codebook so as to reduce the power of the weighting value, or obtains and outputs multiple pulses. A speech coding apparatus characterized by having .
【0009】また、第2の発明によれば、第1の発明の
音声符号化装置において、入力音声信号を帯域分割する
帯域分割部と、帯域分割された信号について、前記聴覚
重み付けフィルタを用いて重み付けを施す聴覚重み付け
部と、前記重み付け値の電力を小さくするようにコード
ブックの探索、あるいはマルチパルスの探索を行う探索
部とを有することを特徴とする音声符号化装置が得られ
る。According to a second aspect of the invention, in the speech coding apparatus of the first aspect of the invention, a band dividing unit for band-dividing an input speech signal and the auditory weighting filter for the band-divided signal are used. A speech coding apparatus is provided which has an auditory weighting unit for weighting, and a search unit for performing codebook search or multipulse search so as to reduce the power of the weighting value.
【0010】さらに、第3の発明によれば、第2の発明
の音声符号化装置において、帯域分割された信号に量子
化ビットを割当てるビット割当部と、前記割当ビットに
応じてコードブックのビット数、あるいはマルチパルス
の個数を切り替える切り替え部とを有することを特徴と
する音声符号化装置が得られる。Further, according to the third invention, in the speech coding apparatus according to the second invention, a bit allocation section for allocating a quantization bit to a band-divided signal, and a bit of a codebook according to the allocation bit. It is possible to obtain a speech coder having a switching unit for switching the number or the number of multi-pulses.
【0011】[0011]
【作用】本発明による音声符号化装置の作用を示す。The operation of the speech coder according to the present invention will be described.
【0012】本発明では、フレームを分割したサブフレ
ーム毎に、適応コードブックの探索あるいは、音源コー
ドックの探索あるいはマルチパルスの計算において、前
記適応コードブックあるいは前記コードブックあるいは
前記マルチパルスにより再生した信号と、入力音声信号
との誤差信号に対して、聴覚のマスキング特性をもとに
計算した聴覚重み付けを施す。聴覚のマスキング特性を
もとにマスキングしきい値を求め、周波数軸上で前記し
きい値をもとにパワスペクトルに変換し、さらにこれを
フィルタ係数に変換し、前記誤差信号を、前記フィルタ
係数から構成される聴覚重み付けフィルタにより重み付
けて重み付け誤差尺度を求め、前記誤差尺度を小さくす
るように前記コードブックから最適なコードベクトルを
求めることを特徴とする。つまり下式のように重み付け
た誤差電力を最小にする。According to the present invention, in each subframe obtained by dividing a frame, in the adaptive codebook search, the excitation codec search or the multipulse calculation, the signal reproduced by the adaptive codebook, the codebook or the multipulse. And the error signal with respect to the input audio signal are weighted by the auditory sense calculated based on the auditory masking characteristics. A masking threshold value is obtained based on the auditory masking characteristic, and is converted into a power spectrum based on the threshold value on the frequency axis, and further converted into a filter coefficient, and the error signal is converted into the filter coefficient. It is characterized in that a weighting error measure is obtained by weighting with a perceptual weighting filter composed of, and an optimum code vector is obtained from the codebook so as to reduce the error measure. That is, the error power weighted by the following equation is minimized.
【0013】今、音源コードブックの探索を例にして説
明すると、下式を最小化するように最適音源コードベク
トルを音源コードブックから探索する。Explaining the search of the sound source codebook as an example, the optimum sound source code vector is searched from the sound source codebook so as to minimize the following equation.
【0014】[0014]
【数2】 [Equation 2]
【0015】ここでx(n)は適応コードブックによる
長期予測信号を除去したあとの音声信号、cj (n)は
音源コードブック中のj番目のコードベクトル(但し、
j=0〜2B −1:Bはコードブックのビット数)、γ
j は最適ゲインである。h(n)はスペクトルパラメー
タにより構成した合成フィルタのインパルス応答であ
る。また、wm (n)は、聴覚のマスキングしきい値か
ら変換して求めたフィルタ係数により重み付けを行う聴
覚重み付けフィルタのインパルス応答である。Here, x (n) is the speech signal after the long-term prediction signal by the adaptive codebook is removed, and c j (n) is the j-th code vector in the excitation codebook (however,
j = 0 to 2 B −1: B is the number of bits in the codebook), γ
j is the optimum gain. h (n) is the impulse response of the synthesis filter composed of spectral parameters. Further, w m (n) is an impulse response of an auditory weighting filter that performs weighting with a filter coefficient obtained by conversion from an auditory masking threshold value.
【0016】ここでマスキングしきい値を求めるには、
例えば、音声信号をFFTしてパワスペクトル|X
(k)|2 を求め、これを臨界帯域フィルタ、あるいは
聴覚モデルにより分析して、各臨界帯域毎のパワあるい
はRMSを計算し、これらの値から各臨界帯域における
マスキングしきい値を求める。マスキングしきい値の求
め方は、例えば聴覚心理学実験により得られた値を用い
る方法が知られており、詳細は、Johnston氏に
よる”Transform coding ofaud
io signals using perceptu
al noisecriteria”(IEEE J.
Sel.Areas on Commun.,pp31
4−323,1988)と題した論文(文献4)や、
R.Drogo de Iacovo氏らによる”Ve
ctor quantzationand perce
ptual criteria in SVD bas
ed CELP ceders”と題した論文(ICA
SSP,pp.33−36,1990年)(文献5)等
を参照できる。また、臨界帯域フィルタあるいは臨界帯
域分析については、例えば、J.Tobias氏によ
る”Foundation of modern au
ditory theory”と題した単行本の第5章
(文献6)等を参照できる。また、聴覚モデルについて
は、例えばSeneff氏による”A computa
tional model for the peri
pheral auditory system:Ap
plication to speech recog
nition research”と題した論文(Pr
oc.ICASSP,pp.1983−1986,19
86年)(文献7)等を参照できる。Here, to obtain the masking threshold value,
For example, FFT an audio signal to obtain a power spectrum | X
(K) | 2 asking, which was analyzed by a critical band filter or auditory model, the power or RMS of each critical band is calculated to determine the masking threshold in each critical band from these values. As a method of obtaining the masking threshold value, for example, a method using a value obtained by an auditory psychology experiment is known, and details are described in "Transform coding offaud" by Johnston.
io signals using perceptu
al noisecriteria "(IEEE J.
Sel. Areas on Commun. , Pp31
4-323, 1988) and a paper (reference 4),
R. "Ve by Drgo de Iacovo and others
center quantitation and perce
ptu terrier in SVD bas
ed CELP ceders ”(ICA
SSP, pp. 33-36, 1990) (Reference 5) and the like. For the critical band filter or the critical band analysis, see, for example, J. "Foundation of modern au" by Tobias
You can refer to Chapter 5 (reference 6) of the book titled "Theory theory." For the auditory model, see "A computer" by Seneff.
regional model for the peri
general audio system: Ap
application to speech recog
"state research" (Pr
oc. ICASSP, pp. 1983-1986, 19
1986) (reference 7) and the like.
【0017】次に、各臨界帯域毎に求めたマスキングし
きい値をパワに変換し、パワのセットを逆FFTするこ
とにより自己相関関数を求める。Next, the masking threshold value obtained for each critical band is converted into power, and the autocorrelation function is obtained by inverse FFT of the set of power.
【0018】自己相関関数から、周知の線形予測分析を
用いることにより、フィルタ係数を計算する。そしてこ
のフィルタ係数により構成される聴覚重み付けフィルタ
のインパルス応答wm (n)を計算して、(2)式に適
用し(2)式を最小にするコードベクトルを選択する。The filter coefficients are calculated from the autocorrelation function by using the well-known linear prediction analysis. Then, the impulse response w m (n) of the perceptual weighting filter composed of these filter coefficients is calculated and applied to the equation (2) to select the code vector that minimizes the equation (2).
【0019】第2の発明では、第1の発明において、入
力音声をあらかじめ帯域分割する帯域分割部を有してい
る。今、簡単のために帯域分割の個数を2とし、入力音
声の周波数帯域幅をfw (Hz)とするとすると、帯域
分割部での帯域分割は、低減側を0−fw /2、高域側
をfw /2−fw と分割することができる。帯域分割に
は、信号を一旦FFTして、FFT上で周波数分割した
後に、逆FFTする方法や、QMFフィルタを用いて帯
域分割する方法が知られている。後者の方法は、例え
ば、Crochiere et al.,氏らによる”
Multirate Signal Processi
ng”と題した単行本(Prentice−Hall,
1983年)(文献8)等を参照することができる。According to a second aspect of the present invention, in the first aspect of the present invention, there is provided a band division section for preliminarily band-dividing the input voice. Assuming that the number of band divisions is 2 and the frequency bandwidth of the input voice is f w (Hz) for simplification, the band division in the band division unit is 0-f w / 2 on the reduction side and is high. the frequency band may be divided f w / 2-f w. For band division, a method is known in which a signal is once FFT, frequency-divided on the FFT, and then inverse FFT, or a method using a QMF filter for band division. The latter method is described, for example, in Crochiere et al. , By them ”
Multirate Signal Processi
ng "(Prentice-Hall,
1983) (reference 8) and the like.
【0020】帯域分割した各帯域の音声信号に対して、
第1の発明の方法で聴覚重み付けフィルタの係数を計算
し、聴覚重み付けを行った後に、コードブック、あるい
はマルチパルスの探索を行う。With respect to the voice signal of each band divided into bands,
After the auditory weighting filter coefficient is calculated by the method of the first aspect of the present invention and the auditory weighting is performed, a codebook or multi-pulse search is performed.
【0021】第3の発明では、第2の発明において、帯
域分割された各帯域の音声信号に対して量子化ビットを
割り当てるビット割当部を有する。ビット割当部でのビ
ット割当の方法としては、例えば、帯域分割された低減
側の信号と高域側の信号とのパワ比を用いてビット割当
を行う方法や、マスキングしきい値計算部においてマス
キングしき値を計算する際に、低減側のマスキングしき
い値の平均値あるいは最小値と、高域側のマスキングし
きい値の平均値あるいは最小値との比を用いてビット割
当を行うこともできる。In a third invention, in the second invention, there is provided a bit allocation section for allocating a quantization bit to the band-divided audio signal of each band. As a method of bit allocation in the bit allocation unit, for example, a method of performing bit allocation using a power ratio between a band-divided reduction-side signal and a high-frequency side signal, or a masking threshold calculation unit When calculating the threshold value, bit allocation can be performed by using the ratio of the average value or minimum value of the masking threshold value on the reduction side to the average value or minimum value of the masking threshold value on the high frequency side. .
【0022】[0022]
【実施例】図1は本発明による音声符号化装置の一実施
例を示すブロック図である。ここでは、簡単のために、
音源コードブックの探索において、マスキングしきい値
に基づく聴覚重み付けフィルタを用いて行う例について
示すが、適応コードブックの探索においてもこの重み付
けフィルタを用いることができる。1 is a block diagram showing an embodiment of a speech coder according to the present invention. Here for simplicity,
An example is shown in which a perceptual weighting filter based on a masking threshold is used in the search of the excitation codebook, but this weighting filter can also be used in the search of the adaptive codebook.
【0023】図において、送信側では、入力端子100
から音声信号を入力し、1フレーム分(例えば20m
s)の音声信号をバッファメモリ110に格納する。In the figure, on the transmitting side, the input terminal 100
Input the audio signal from 1 frame (for example, 20m
The audio signal of s) is stored in the buffer memory 110.
【0024】LPC分析回路130は、フレームの音声
信号のスペクトル特性を表すパラメータとして、LSP
パラメータを前記フレームの音声信号から衆知のLPC
分析を行いあらかじめ定められた次数Lだけ計算する。The LPC analysis circuit 130 uses the LSP as a parameter indicating the spectral characteristic of the voice signal of the frame.
Parameters from the voice signal of the frame to the known LPC
An analysis is performed and only a predetermined order L is calculated.
【0025】次にLSP量子化回路140は、LSPパ
ラメータを予め定められた量子化ビット数で量子化し、
得た符号lk をマルチプレクサ260へ出力するととも
に、これを復号化してさらに線形予測係数ai ’(i=
1〜L)に変換して重み付け回路200、インパルス応
答計算回路170、合成フィルタ281へ出力する。L
SPパラメータの符号化、LSPパラメータと線形予測
係数との変換の方法についてはSugamura氏らに
よる”Quantizer design in LS
P speech analysis−synthes
is”と題した論文(IEEE J.Sel.Area
s Common.,pp.432−440,1988
年)(文献9)等を参照することができる。またLSP
パラメータをさらに効率的に量子化するためには、ベク
トルースカラ量子化や、他の衆知なベクトル量子化法を
用いることもできる。LSPのベクトルースカラ量子化
については、Moriya氏らによる”Transfo
rm Coding ofSpeech using
a Weighted Vector Quantiz
er,”と題した論文(IEEE J.Sel.Are
as,Commun.,pp.425−431,198
8年)(文献10)等を参照できる。Next, the LSP quantization circuit 140 quantizes the LSP parameter with a predetermined number of quantization bits,
The obtained code l k is output to the multiplexer 260, and the code is decoded to further obtain the linear prediction coefficient a i ′ (i =
1 to L) and outputs to the weighting circuit 200, the impulse response calculation circuit 170, and the synthesis filter 281. L
For the method of encoding the SP parameter and converting the LSP parameter and the linear prediction coefficient, see "Quantizer design in LS" by Sugamura et al.
P speech analysis-synthes
a paper entitled "is" (IEEE J. Sel. Area
s Common. , Pp. 432-440, 1988
(Year) (Reference 9) and the like can be referred to. Also LSP
In order to quantize the parameters more efficiently, vector scalar quantization or other popular vector quantization methods can be used. For vector scalar scalar quantization of LSP, see "Transfo by Moriya et al.
rm Coding of Speech using
a Weighted Vector Quantiz
er, ”(IEEE J. Sel. Are
as, Commun. , Pp. 425-431,198
8 years) (Reference 10) and the like can be referred to.
【0026】サブフレーム分割回路150は、フレーム
の音声信号をサブフレームに分割する。ここで例えばサ
ブフレーム長は5msとする。The subframe division circuit 150 divides the audio signal of the frame into subframes. Here, for example, the subframe length is 5 ms.
【0027】減算器190は、信号から合成フィルタ2
81の出力を減算して出力する。The subtracter 190 uses the signal to synthesize the filter 2
The output of 81 is subtracted and output.
【0028】適応コードブック210は合成フィルタ2
81の入力信号v(n)を遅延回路206を介して入力
し、さらにインパルス応答出力回路170から重み付け
インパルス応答hw (n)、減算器190から重み付け
信号を入力し、長期相関にもとづくピッチ予測を行い、
ピッチパラメータとして遅延Mとゲインβを計算する。
以下の説明では適応コードブックの予測次数は1とする
が、2次以上の高次とすることもできる。適応コードブ
ックにおける遅延Mの計算は、前記文献1、2等を参照
することができる。さらに、ゲインβを求め、下式によ
り、適応コードベクトルxz (n)を求めて、190の
出力から減算する。The adaptive codebook 210 is the synthesis filter 2
81 input signal v (n) via delay circuit 206, weighted impulse response h w (n) from impulse response output circuit 170, and weighted signal from subtractor 190, and pitch prediction based on long-term correlation And then
The delay M and the gain β are calculated as pitch parameters.
In the following description, the prediction order of the adaptive codebook is 1, but it may be higher than 2nd order. For the calculation of the delay M in the adaptive codebook, it is possible to refer to the documents 1 and 2 mentioned above. Further, the gain β is calculated, the adaptive code vector x z (n) is calculated by the following equation, and the adaptive code vector x z (n) is subtracted from the output of 190.
【0029】 xz =x(n)−β・v(n−M)*h(n) (3) ここで、x(n)は減算器190の出力信号、v(n)
は過去の合成フィルタ駆動信号、h(n)は合成フィル
タのインパルス応答である。X z = x (n) −β · v (n−M) * h (n) (3) where x (n) is the output signal of the subtractor 190 and v (n)
Is a past synthesis filter drive signal, and h (n) is an impulse response of the synthesis filter.
【0030】次に、マスキングしきい値計算回路205
は、入力音声信号x(n)に対してN点のFFT変換を
行いスペクトルX(k)(k=0〜N−1)を求め、さ
らにパワスペクトル|X(k)|2 を求め、これを臨界
帯域フィルタあるいは聴覚モデルにより分析して各臨界
帯域毎のパワあるいはRMSを計算する。ここでパワを
計算するには下式に従う。Next, the masking threshold value calculation circuit 205
Is an N-point FFT transform on the input speech signal x (n) to obtain a spectrum X (k) (k = 0 to N-1), and a power spectrum | X (k) | 2. Is analyzed by a critical band filter or an auditory model to calculate power or RMS for each critical band. To calculate the power here, follow the formula below.
【0031】[0031]
【数3】 [Equation 3]
【0032】ここでbli 、hbi は、それぞれi番目
の臨界帯域の下限周波数、上限周波数を示す。Rは音声
信号帯域に含まれる臨界帯域の個数である(4)式の値
から各臨界帯域におけるマスキングしきい値C(i)を
求め出力する。マスキングしきい値の求め方は文献4等
を参照できる。また、聴覚モデルについては、前記文献
7等を参照できる。臨界帯域については前記文献6等を
参照できる。さらに、マスキングしきい値c(i)をパ
ワに変換し、パワスペクトルを求め、これらを逆FFT
することにより、自己相関関数r(j)(j=0...
N−1)を求める。つぎに、P+1個の自己相関関数に
対して、周知の線形予測分析を行うことにより、フィル
タ係数bi (i=1...P)を計算する。Here, bl i and hb i indicate the lower limit frequency and the upper limit frequency of the i-th critical band, respectively. R is the number of critical bands included in the voice signal band, and the masking threshold value C (i) in each critical band is calculated and output from the value of equation (4). Reference 4 and the like can be referred to for obtaining the masking threshold value. Regarding the auditory model, reference can be made to Document 7 and the like. For the critical band, reference can be made to Document 6 and the like. Further, the masking threshold c (i) is converted into power, a power spectrum is obtained, and these are subjected to inverse FFT.
By doing so, the autocorrelation function r (j) (j = 0.
N-1) is calculated. Next, the filter coefficient b i (i = 1 ... P) is calculated by performing a known linear prediction analysis on the P + 1 autocorrelation functions.
【0033】聴覚重み付け回路220は、適応コードブ
ック210において(2)式に従い求めた誤差信号xz
(n)に対して、フィルタ係数bi を用いて下式により
重み付けを行ない、重み付け信号xz m (n)を得る。The perceptual weighting circuit 220 has an error signal x z obtained by the adaptive codebook 210 according to the equation (2).
The weighting signal x zm (n) is obtained by weighting (n) by the following equation using the filter coefficient b i .
【0034】 xz m (n)=xz (n)*wm (n) (4) ここで、wm (n)は、フィルタ係数bi により構成さ
れる聴覚重み付けフィルタのインパルス応答である。X zm (n) = x z (n) * w m (n) (4) where w m (n) is the impulse response of the auditory weighting filter formed by the filter coefficients b i .
【0035】ここで、聴覚重み付けフィルタは下式の伝
達関数を有するものを用いることができる。Here, as the auditory weighting filter, one having a transfer function of the following equation can be used.
【0036】[0036]
【数4】 [Equation 4]
【0037】ここで0<r2 <r1 <1なる定数であ
る。Here, the constant is 0 <r 2 <r 1 <1.
【0038】音源コードブック探索回路230は、下式
を最小化するように、音源コードベクトルを選択する。The source codebook search circuit 230 selects a source code vector so as to minimize the following equation.
【0039】[0039]
【数5】 [Equation 5]
【0040】ただし、γj は、コードベクトルc
j (n)(j=0....2B −1;Bは音源コードブ
ックのビット数)に対する最適ゲインである。音源コー
ドブックは例えば、あらかじめ学習して構成しておく。
学習によるコードブックの構成法は、例えばLinde
らによる”An Algorithmfor Vect
or Quantization Design”と題
した論文(IEEE Trans.COM−28,pp
84−95,1980年)(文献11)等を参照でき
る。Where γ j is the code vector c
j (n) (j = 0 .... 2 B -1; B is the number of bits of the excitation code book) is optimal gain for. The sound source codebook is, for example, learned and configured in advance.
A method of constructing a codebook by learning is, for example, Linde
Et al. “An Algorithmic Vect
or Quantization Design ”(IEEE Trans. COM-28, pp.
84-95, 1980) (Reference 11) and the like.
【0041】ゲイン量子化回路282は、適応コードブ
ック音源コードブックのゲインを、ゲインコードブック
285を用いて量子化する。The gain quantization circuit 282 quantizes the gain of the adaptive codebook excitation codebook using the gain codebook 285.
【0042】加算器290は、適応コードブック210
の出力音源と音源コードブック探索回路230の出力音
源を下式により加算し出力する。The adder 290 is used by the adaptive codebook 210.
And the output sound source of the sound source codebook search circuit 230 are added by the following equation and output.
【0043】 v(n)=β’・v(n−M)+γ’j cj (n) (7) 合成フィルタ281は、加算器290の出力v(n)を
入力し、下式により合成音声を1フレーム分求め、さら
にもう1フレーム分は0の系列をフィルタに入力して応
答信号系列を求め、1フレーム分の応答信号系列を減算
器190に出力する。V (n) = β ′ · v (n−M) + γ ′ j c j (n) (7) The synthesizing filter 281 inputs the output v (n) of the adder 290 and synthesizes by the following equation. For one frame of voice, a sequence of 0 is input to the filter for another frame to obtain a response signal sequence, and the response signal sequence for one frame is output to the subtractor 190.
【0044】[0044]
【数6】 [Equation 6]
【0045】マルチプレクサ260は、LSP量子化器
140、適応コードブック210、音源コードブック探
索回路230の出力符号系列を組みあわせて出力する。Multiplexer 260 combines and outputs the output code sequences of LSP quantizer 140, adaptive codebook 210 and excitation codebook search circuit 230.
【0046】以上で本発明の実施例の説明を終える。This is the end of the description of the embodiment of the present invention.
【0047】図2は、第2の発明の一実施例を示すブロ
ック図である。図において、図1と同一の番号を付した
構成要素は、図1と同一の動作を行うので、説明は省略
する。FIG. 2 is a block diagram showing an embodiment of the second invention. In the figure, the components having the same numbers as in FIG. 1 perform the same operations as in FIG.
【0048】図2において、帯域分割回路300は、入
力音声信号の帯域を分割する。ここでは、簡単のため
に、分割の個数は2とする。分割の方法は、作用の項で
述べた方法のうち、QMFフィルタを使用する方法を用
いる。そして、低域側の信号と高域側の信号を出力す
る。In FIG. 2, the band dividing circuit 300 divides the band of the input audio signal. Here, for the sake of simplicity, the number of divisions is 2. The method of division uses the method using the QMF filter among the methods described in the section of action. Then, the low-frequency side signal and the high-frequency side signal are output.
【0049】スイッチ310は、低域側の信号について
処理を行うときは、上側にたおし、高域側の信号につい
て処理を行うときは、下側に倒す。The switch 310 is tilted upward when processing a low-frequency signal, and is tilted downward when processing a high-frequency signal.
【0050】以上で第2の発明の実施例の説明を終え
る。This is the end of the description of the second embodiment of the invention.
【0051】図3は、第3の発明の一実施例を示すブロ
ック図である。図において、図1、図2と同一の番号を
付した構成要素は、それぞれ図1、図2と同一の動作を
行うので、説明は省略する。FIG. 3 is a block diagram showing an embodiment of the third invention. In the figure, the constituent elements denoted by the same numbers as in FIG. 1 and FIG. 2 perform the same operations as in FIG. 1 and FIG.
【0052】図3において、スイッチ320−1、32
0−2は、低域側、高域側に応じてスイッチを切り替
え、低域信号、高域信号を出力する。また、スイッチ3
20−2は、出力した信号が低域か高域かの情報をコー
ドブック切り替え回路350へ出力する。In FIG. 3, the switches 320-1, 32 are shown.
0-2 switches the switch according to the low frequency side and the high frequency side, and outputs the low frequency signal and the high frequency signal. Also, switch 3
20-2 outputs information to the codebook switching circuit 350 whether the output signal is a low frequency band or a high frequency band.
【0053】マスキングしきい値計算回路360は、帯
域分割する前の信号に対して、全帯域でマスキングしき
い値の計算を行ない、それらを低域側、高域側にわけ
る。次に、低域側、高域側各々に対して、第1の発明と
同様な方法により、聴覚重み付けフィルタの係数を計算
し、聴覚重み付け回路220に出力する。The masking threshold value calculation circuit 360 calculates the masking threshold value in the entire band for the signal before band division, and divides them into the low band side and the high band side. Next, for each of the low band side and the high band side, the coefficient of the perceptual weighting filter is calculated by the same method as in the first aspect of the invention, and is output to the perceptual weighting circuit 220.
【0054】ビット割当計算回路340は、マスキング
しきい値計算回路360の出力を用いて、作用で述べた
方法により、低域側と高域側の量子化ビット数の割当を
行い、コードブック切り替え回路350に出力する。The bit allocation calculation circuit 340 uses the output of the masking threshold value calculation circuit 360 to allocate the quantization bit numbers on the low band side and the high band side by the method described in the operation, and switches the codebook. Output to the circuit 350.
【0055】コードブック切り替え回路350は、量子
化ビット数をビット割当回路340から入力し、低域、
高域情報をスイッチ320−2から入力し、音源コード
ブック及びゲインコードブックを切り替える。ここで、
コードブックは、あらかじめトレーニングデータを用い
て学習して構成しておいてもよいし、あらかじめ定めら
れた統計的性質を有する乱数コードブックでもよい。The codebook switching circuit 350 inputs the quantization bit number from the bit allocation circuit 340,
The high frequency information is input from the switch 320-2 to switch between the sound source codebook and the gain codebook. here,
The codebook may be preliminarily constructed by learning using training data, or may be a random number codebook having predetermined statistical properties.
【0056】以上で、第3の発明の実施例の説明を終え
る。This is the end of the description of the third embodiment of the present invention.
【0057】第2の発明において、コードブックは低域
側、高域側と切り替えるようにすることもできる。In the second invention, the codebook can be switched between the low frequency side and the high frequency side.
【0058】臨界帯域分析フィルタは、等価な動作を行
う他の周知な構成のフィルタを用いることができる。As the critical band analysis filter, another well-known filter having an equivalent operation can be used.
【0059】マスキングしきい値の計算法には、他の衆
知な方法を用いることができる。As the method of calculating the masking threshold value, other known methods can be used.
【0060】また、音源コードブックとしては、他の衆
知な構成を用いることができる。音源コードブックの構
成法については、例えばC.Laflamme氏らによ
る”On reducing computation
al complexityof codebook
search in CELP coder thro
ugh the use of algebraic
codes”と題した論文(Proc.ICASSP,
pp.177−180,1990)(文献12)や、
I.Trancoso氏等による”CELP:A ca
ndidatefor GSM half−rate
coding”と題した論文(Proc.ICASS
P,pp.469−472,1990年)(文献13)
等を参照できる。Further, as the tone generator codebook, another well-known structure can be used. Regarding the method of constructing the sound source codebook, for example, C.I. "On reducing computerization" by Laflamme et al.
al complexity of codebook
search in CELP coder thro
uugh the use of algebraic
Codes ”(Proc. ICASSP,
pp. 177-180, 1990) (Reference 12),
I. "CELP: A ca by Mr. Trancoso
ndatefor GSM half-rate
Coding ”(Proc. ICAS
P, pp. 469-472, 1990) (Reference 13)
Etc. can be referred to.
【0061】音源コードブックとして、より効率のよい
コードブック、例えば、マトリクス量子化、有限状態ベ
クトル量子化、トレリス量子化、Delayed De
cision量子化などによるコードブックを用いると
さらに特性を改善できる。これらの方法の詳細は、例え
ばGray氏による”Vector quantiza
tion”(IEEE ASSP Magazine,
pp.4−29,1984年)と題した論文(文献1
4)等を参照できる。As a sound source codebook, a more efficient codebook, for example, matrix quantization, finite state vector quantization, trellis quantization, Delayed De
The characteristics can be further improved by using a codebook based on the decision quantization. For more information on these methods, see, for example, Gray's "Vector Quantiza."
section "(IEEE ASSP Magazine,
pp. 4-29, 1984) (Reference 1
4) etc. can be referred to.
【0062】また、上記実施例では、音源コードブック
が1段の場合について説明したが、音源コードブックは
多段としてもよい。例えば2段とすることもできる。こ
のようにした方がコードブック探索に要する演算量を低
減できる。また、音源コードブックとして、マルチパル
スを用いることもできる。In the above embodiment, the case where the tone generator codebook has one stage has been described, but the tone generator codebook may have multiple stages. For example, the number of stages can be two. By doing so, the calculation amount required for the codebook search can be reduced. Also, a multi-pulse can be used as the sound source codebook.
【0063】また、適応コードブックは1次としたが、
2次以上の高次あるいは、遅延を整数値ではなく、小数
値とすることによりさらに音質を改善できる。詳細は、
P.Kroon氏らによる”Pitch predic
tors with high temporal r
esolution”(Proc.ICASSP,p
p.661−664,1990年)と題した論文(文献
15)を等を参照できる。Although the adaptive codebook is the primary,
The sound quality can be further improved by setting the second or higher order or the delay to a decimal value instead of an integer value. Detail is,
P. "Pitch predict" by Mr. Kroon and others
tors with high temporal r
"Esolution" (Proc. ICASSP, p
p. 661-664, 1990) and the like (Reference 15) can be referred to.
【0064】また、上記の実施例では、スペクトルパラ
メータとしてLSPパラメータを符号化し、その分析法
としてLPC分析を用いたが、スペクトルパラメータと
しては他の衆知なパラメータ、例えばLPCケプストラ
ム、ケプストラム、改良ケプストラム、一般化ケプスト
ラム、メルケプストラムなどを用いることもできる。ま
た各パラメータに最適な分析法を用いることができる。In the above embodiment, the LSP parameter is coded as the spectral parameter and the LPC analysis is used as the analysis method. However, as the spectral parameter, other well-known parameters such as LPC cepstrum, cepstrum, improved cepstrum, Generalized cepstrum, mel cepstrum, etc. can also be used. In addition, an optimal analysis method can be used for each parameter.
【0065】また、LSPパラメータのベクトル量子化
において、LSPパラメータに聴覚特性に対応した非線
形変換を施した後にベクトル量子化するようにしてもよ
い。非線形変換としては、例えばメル変換が知られてい
る。In the vector quantization of the LSP parameter, the LSP parameter may be vector-quantized after the nonlinear transformation corresponding to the auditory characteristic. As the non-linear transformation, for example, Mel transformation is known.
【0066】また、フレームで求めたLPC係数をLS
P上や線形予測係数上でサブフレーム毎に補間し、補間
した係数を用いて適応コードブック、音源コードブック
の探索を行う構成としてもよい。このような構成とする
ことにより、音質がさらに改善される。Further, the LPC coefficient obtained in the frame is set to LS.
The configuration may be such that interpolation is performed for each subframe on P or a linear prediction coefficient, and the adaptive codebook and excitation codebook are searched using the interpolated coefficient. With such a configuration, the sound quality is further improved.
【0067】実施例に示したマスキングしきい値にもと
づく聴覚重み付けは、適応コードブックノ音源コードブ
ックとゲインコードブックの少なくとも1つの探索に用
いることができる。また、スペクトルパラメータ、例え
ばLSPの量子化の際にも使用することができる。The perceptual weighting based on the masking threshold shown in the embodiment can be used for searching at least one of adaptive codebook source codebook and gain codebook. It can also be used when quantizing spectral parameters, eg LSP.
【0068】実施例では、コードブックの探索にマスキ
ングしきい値から求めた聴覚重み付けフィルタを用いる
場合について説明したが、マルチパルスの計算にも適用
することができる。In the embodiment, the case where the auditory weighting filter obtained from the masking threshold value is used for the search of the codebook has been described, but it can be applied to the calculation of multipulse.
【0069】また、聴覚重み付けフィルタを求めるとき
に、同時マスキンによるマスキングしきい値のみなら
ず、継時マスキングによるマスキングしきい値も併用す
るこもできる。When obtaining the perceptual weighting filter, not only the masking threshold value by the simultaneous masking but also the masking threshold value by the successive masking can be used together.
【0070】さらに、マスキングしきい値から直接、聴
覚重み付けフィルタの係数を求めずに、マスキングしき
い値に重み係数を乗じた後に、聴覚重みフィルタの係数
に変換することもできる。また、聴覚重み付けフィルタ
は他の周知な構成を用いることができる。Further, it is also possible to multiply the masking threshold value by the weighting coefficient and then convert it into the coefficient of the auditory weighting filter without directly obtaining the coefficient of the auditory weighting filter from the masking threshold value. Further, the auditory weighting filter can use another known configuration.
【0071】第3の発明で、ビット割当は他の衆知な方
法、例えば、低域と高域のパワ比、等を用いることもで
きる。In the third invention, other well-known methods for bit allocation, for example, power ratio between low frequency band and high frequency band, can be used.
【0072】[0072]
【発明の効果】以上述べたように、本発明によれば、適
応コードブックの探索あるいは、音源コードブックの探
索あるいは、マルチパルスの計算において、前記適応コ
ードブック、あるいは前記音源コードブック、あるいは
前記マルチパルスにより再生した信号と、入力音声信号
との誤差信号に対して、入力音声の各臨界帯域毎にマス
キングしきい値を計算し、前記マスキングしきい値をも
とに聴覚重み付けフィルタのフィルタ係数を計算し、前
記重み付けフィルタを用いて誤差信号に重み付けを行っ
た重み付け誤差尺度を用いているので、より聴感に対応
した符号化が可能となり、同程度の音質を保ちながら従
来方式に比べよりビットレートを低減することができる
という大きな効果がある。As described above, according to the present invention, in the adaptive codebook search, the excitation codebook search, or the multipulse calculation, the adaptive codebook, the excitation codebook, or the For the error signal between the signal reproduced by multi-pulse and the input voice signal, a masking threshold value is calculated for each critical band of the input voice, and the filter coefficient of the auditory weighting filter is calculated based on the masking threshold value. Is calculated and the weighted error scale is used by weighting the error signal using the weighting filter. There is a great effect that the rate can be reduced.
【図1】第1の発明の一実施例を示すブロック図であ
る。FIG. 1 is a block diagram showing an embodiment of a first invention.
【図2】第2の発明の一実施例を示すブロック図であ
る。FIG. 2 is a block diagram showing an embodiment of the second invention.
【図3】第3の発明の一実施例を示すブロック図であ
る。FIG. 3 is a block diagram showing an embodiment of a third invention.
110 バッファメモリ 130 LPC計算回路 140 LSP量子化回路 150 サブフレーム分割回路 190、195 減算器 220 聴覚重み付け回路 205、360 マスキングしきい値計算回路 210 適応コードブック 230 音源コードブック探索回路 235 音源コードブック 282 ゲイン量子化回路 260 マルチプレクサ 281 合成フィルタ 285 ゲインコードブック 340 ビット割当回路 350 コードブック切り替え回路 110 buffer memory 130 LPC calculation circuit 140 LSP quantization circuit 150 sub-frame division circuit 190, 195 subtractor 220 auditory weighting circuit 205, 360 masking threshold calculation circuit 210 adaptive codebook 230 excitation codebook search circuit 235 excitation codebook 282 Gain quantization circuit 260 multiplexer 281 synthesis filter 285 gain codebook 340 bit allocation circuit 350 codebook switching circuit
Claims (3)
れた時間長フレームに分割し、前記音声信号のスペクト
ル包絡を表すスペクトルパラメータを求めて出力するス
ペクトルパラメータ計算部と、前記フレームを予め定め
られた時間長の小区間に分割し、過去の音源信号からな
る適応コードブックをもとに再生した信号が前記音声信
号に近くなるようにピッチパラメータを求める適応コー
ドブック部と、前記音声信号の音源信号を予め構成した
複数種類のコードベクトルからなるコードブックあるい
はマルチパルスにより表して出力する音源探索部とを有
する音声符号化装置において、前記音声信号から聴覚の
マスキング特性をもとにマスキングしきい値を求めるマ
スキング計算部と、前記しきい値をもとに聴覚重み付け
フィルタの係数を求め、前記適応コードブックあるいは
前記コードブックあるいは前記マルチパルスにより再生
した信号と前記音声信号との誤差信号に対して、前記重
み付けフィルタにより重み付けを施す聴覚重み付け部
と、前記重み付け値の電力を小さくするように前記コー
ドブックから最適なコードベクトルを求めるかあるいは
マルチパルスを求めて出力する探索部とを有することを
特徴とする音声符号化装置。1. A spectrum parameter calculation unit that divides an input discrete voice signal into predetermined time length frames, obtains and outputs a spectrum parameter that represents a spectrum envelope of the voice signal, and the frame is predetermined. An adaptive codebook section for obtaining a pitch parameter so that a signal reproduced based on an adaptive codebook consisting of past sound source signals is divided into small sections of a given time length, and the speech signal. In a speech coding apparatus having a sound source search unit that outputs a sound source signal by expressing it as a codebook or a multi-pulse that is composed of a plurality of types of pre-configured code vectors, a masking threshold based on auditory masking characteristics of the sound signal. A masking calculation unit for obtaining a value and a coefficient for the auditory weighting filter are obtained based on the threshold value. Therefore, an auditory weighting unit that weights the error signal between the audio signal and the signal reproduced by the adaptive codebook or the codebook or the multipulse by the weighting filter, and reduces the power of the weighting value. Thus, the speech coding apparatus is characterized in that it has a search unit for obtaining an optimum code vector from the codebook or obtaining and outputting a multipulse.
と、帯域分割された信号について、前記聴覚重み付けフ
ィルタを用いて重み付けを施す聴覚重み付け部と、前記
重み付け値の電力を小さくするようにコードブックの探
索、あるいはマルチパルスの探索を行う探索部とを有す
ることを特徴とする請求項1記載の音声符号化装置。2. A band dividing unit for band-dividing an input audio signal, an auditory weighting unit for weighting the band-divided signal using the auditory weighting filter, and a code for reducing the power of the weighting value. The speech coding apparatus according to claim 1, further comprising a search unit that searches for a book or searches for multiple pulses.
当てるビット割当て部と、前記割当ビットに応じてコー
ドブックのビット数、あるいはマルチパルスの個数を切
り替える切り替え部とを有することを特徴とする請求項
2記載の音声符号化装置。3. A bit allocation section for allocating a quantization bit to a band-divided signal, and a switching section for switching the number of bits of a codebook or the number of multipulses according to the allocation bit. The speech encoding apparatus according to claim 2.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5310522A JP3024467B2 (en) | 1993-12-10 | 1993-12-10 | Audio coding device |
DE69426860T DE69426860T2 (en) | 1993-12-10 | 1994-12-09 | Speech coder and method for searching codebooks |
CA002137756A CA2137756C (en) | 1993-12-10 | 1994-12-09 | Voice coder and a method for searching codebooks |
EP94119533A EP0657874B1 (en) | 1993-12-10 | 1994-12-09 | Voice coder and a method for searching codebooks |
US08/355,313 US5633980A (en) | 1993-12-10 | 1994-12-12 | Voice cover and a method for searching codebooks |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5310522A JP3024467B2 (en) | 1993-12-10 | 1993-12-10 | Audio coding device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH07160295A true JPH07160295A (en) | 1995-06-23 |
JP3024467B2 JP3024467B2 (en) | 2000-03-21 |
Family
ID=18006247
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP5310522A Expired - Fee Related JP3024467B2 (en) | 1993-12-10 | 1993-12-10 | Audio coding device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3024467B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2008108083A1 (en) * | 2007-03-02 | 2010-06-10 | パナソニック株式会社 | Speech coding apparatus and speech coding method |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3063668B2 (en) | 1997-04-04 | 2000-07-12 | 日本電気株式会社 | Voice encoding device and decoding device |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04177300A (en) * | 1990-11-09 | 1992-06-24 | Matsushita Electric Ind Co Ltd | Sound range dividing and coding device |
JPH05232998A (en) * | 1991-06-28 | 1993-09-10 | Sip Soc It Per Esercizio Delle Telecommun Pa | Improvement of speech coder based on analysis technology by synthesis |
-
1993
- 1993-12-10 JP JP5310522A patent/JP3024467B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04177300A (en) * | 1990-11-09 | 1992-06-24 | Matsushita Electric Ind Co Ltd | Sound range dividing and coding device |
JPH05232998A (en) * | 1991-06-28 | 1993-09-10 | Sip Soc It Per Esercizio Delle Telecommun Pa | Improvement of speech coder based on analysis technology by synthesis |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2008108083A1 (en) * | 2007-03-02 | 2010-06-10 | パナソニック株式会社 | Speech coding apparatus and speech coding method |
Also Published As
Publication number | Publication date |
---|---|
JP3024467B2 (en) | 2000-03-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2746039B2 (en) | Audio coding method | |
JP3346765B2 (en) | Audio decoding method and audio decoding device | |
EP0657874B1 (en) | Voice coder and a method for searching codebooks | |
JP3143956B2 (en) | Voice parameter coding method | |
JPH0990995A (en) | Speech coding device | |
JPH08272395A (en) | Voice encoding device | |
JP3582589B2 (en) | Speech coding apparatus and speech decoding apparatus | |
JP3089769B2 (en) | Audio coding device | |
JP2624130B2 (en) | Audio coding method | |
JPH0944195A (en) | Voice encoding device | |
JP3308764B2 (en) | Audio coding device | |
JP3353852B2 (en) | Audio encoding method | |
JPH04344699A (en) | Audio encoding/decoding method | |
JP3179291B2 (en) | Audio coding device | |
JP3003531B2 (en) | Audio coding device | |
JP3024467B2 (en) | Audio coding device | |
JP3153075B2 (en) | Audio coding device | |
JP3299099B2 (en) | Audio coding device | |
JP3144284B2 (en) | Audio coding device | |
JP3192051B2 (en) | Audio coding device | |
JP3252285B2 (en) | Audio band signal encoding method | |
JP2001142499A (en) | Speech encoding device and speech decoding device | |
JP3092436B2 (en) | Audio coding device | |
JP2000029499A (en) | Voice coder and voice encoding and decoding apparatus | |
JP2808841B2 (en) | Audio coding method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080121 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090121 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100121 Year of fee payment: 10 |
|
LAPS | Cancellation because of no payment of annual fees |