JPH07210198A - Sound information processor - Google Patents
Sound information processorInfo
- Publication number
- JPH07210198A JPH07210198A JP6002754A JP275494A JPH07210198A JP H07210198 A JPH07210198 A JP H07210198A JP 6002754 A JP6002754 A JP 6002754A JP 275494 A JP275494 A JP 275494A JP H07210198 A JPH07210198 A JP H07210198A
- Authority
- JP
- Japan
- Prior art keywords
- linear prediction
- threshold value
- power
- interpolation
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
(57)【要約】
【目的】フレーム毎の音声パワーにもとづいて、補間・
無補間のいずれかにするかの判定を行うことにより、演
算量を低減した、音声符号化・復号化器装置等を提供す
ること。
【構成】現フレームの音声パワーを入力し、前もって記
憶しておいた前フレームのパワーとの差分値を演算する
手段と、差分値と、予め指定した、あるいは、現フレー
ムのパワーに基づいて計算した、閾値とを比較する比較
手段と、演算された差分値が、閾値以下のとき、現フレ
ームでは補間された係数を使用し、差分値が閾値以上で
あれば、無補間の係数を使用する手段を有して構成され
る。
(57) [Summary] [Purpose] Interpolation based on the audio power of each frame.
To provide a speech coder / decoder device or the like in which the amount of calculation is reduced by determining whether to perform non-interpolation. [Structure] A means for calculating the difference value between the voice power of the current frame and the power of the previous frame stored in advance, and a calculation based on the difference value and the power of the current frame specified in advance. If the calculated difference value is less than or equal to the threshold value, the interpolated coefficient is used in the current frame, and if the difference value is greater than or equal to the threshold value, the non-interpolation coefficient is used. It is configured to have means.
Description
【0001】[0001]
【産業上の利用分野】本発明は、符号長励起線形予測符
号化(CELP)系音声符号復号器および該符号の復号
器を備えて構成される自動車電話システム等の通信機器
に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a code length excitation linear predictive coding (CELP) system speech code decoder and a communication device such as a car telephone system including the decoder for the code.
【0002】[0002]
【従来の技術】日本国内におけるデジタル方式の自動車
電話システム用フルレート音声符号復号器においては、
ベクトル和励起線形予測符号化方式(VSELP:Ve
ctor Sum Excite Linear Pr
ediction)が一般に使用されているが、かかる
方式に関する標準規格は、例えば、「ディジタル方式自
動車電話システム標準規格 RCR STD−27B
(RCR規格と称する)」にて述べらている。2. Description of the Related Art A digital full-rate speech codec for a car telephone system in Japan
Vector sum excitation linear predictive coding (VSELP: Ve)
center Sum Excite Linear Pr
However, the standard relating to such a system is, for example, “Digital Car Telephone System Standard RCR STD-27B.
(Referred to as RCR standard) ”.
【0003】さて、従来技術について図17を参照して
説明する。A conventional technique will be described with reference to FIG.
【0004】VSELP方式では、入力されたアナログ
音声信号は、8(kHz)の周波数でサンプリングされ、
サンプリングされた信号は、A/D変換器(図示せず)
を介して、デジタル信号へと変換される。このデジタル
信号は、線形予測分析器20に入力される。In the VSELP system, the input analog audio signal is sampled at a frequency of 8 (kHz),
The sampled signal is an A / D converter (not shown)
Is converted into a digital signal via. This digital signal is input to the linear prediction analyzer 20.
【0005】線形予測分析器20内では、公知、公用の
技術、例えば、共分散法(例えば、「音声信号処理の基
礎(オーム社)」等に記載されている)により、反射係
数(線形予測係数と1意に対応する係数)を求め、レビ
ンソン・ダービンの再帰法(例えば、「ディジタル音声
処理(東海大学出版)」等に記載されている)等で、所
定時間であるフレーム(20(ms))ごとに、線形予
測係数を計算する。そして、音声品質改善のため、該線
形予測係数についての補間処理を行い、フレームを細分
化したサブフレーム(5ms)ごとの線形予測係数を求
めている。In the linear prediction analyzer 20, a reflection coefficient (linear prediction) is obtained by a publicly-known or publicly-known technique, for example, a covariance method (for example, described in "Basics of Speech Signal Processing (Ohmsha)"). A coefficient (corresponding to a coefficient) is obtained, and a frame of a predetermined time (20 (ms) is calculated by the Levinson-Durbin recursive method (for example, described in "Digital Speech Processing (Tokai University Press)"). )) For each, the linear prediction coefficient is calculated. Then, in order to improve the voice quality, interpolation processing is performed on the linear prediction coefficient to obtain the linear prediction coefficient for each subframe (5 ms) obtained by subdividing the frame.
【0006】なお、従来のVSELP方式に使用される
線形予測係数補間処理は、例えば、特開平4−2329
99号公報「スペクトラム・パラメータのソフト補間判
定を用いる音声エンコーダーに用いられる信号符号化方
法」に述べられている。The linear prediction coefficient interpolation process used in the conventional VSELP system is disclosed in, for example, Japanese Patent Laid-Open No. 4-23329.
No. 99 publication, "Signal Encoding Method Used for Speech Encoder Using Soft Interpolation Determination of Spectrum Parameter".
【0007】さて、前記RCR規格では、図17に示す
無補間係数演算部101は、無補間線形予測係数αn
(k,i)(0≦k<Ns:Nsは、サブフレーム数、例えば
「4」、0≦i<Np:Npは、予測係数の次数、例えば
「10」)を、次式1から式3を使用して、サブフレー
ムごとに計算し求める。In the RCR standard, the non-interpolation coefficient calculation unit 101 shown in FIG.
(k, i) (0 ≦ k <Ns: Ns is the number of subframes, for example, “4”, 0 ≦ i <Np: Np is the order of the prediction coefficient, for example, “10”) 3 is used and calculated for each subframe.
【0008】[0008]
【数1】 [Equation 1]
【0009】[0009]
【数2】 [Equation 2]
【0010】[0010]
【数3】 [Equation 3]
【0011】ここで、α(i)は、現フレームの線形予測
係数、αpr(i)は、前フレームの線形予測係数である。Here, α (i) is the linear prediction coefficient of the current frame, and αpr (i) is the linear prediction coefficient of the previous frame.
【0012】また、補間係数αi(k,i)は、次式4から
式7を使用して、サブフレームごとに、補間係数演算部
102によって計算され、求められる。Further, the interpolation coefficient αi (k, i) is calculated and obtained by the interpolation coefficient calculation unit 102 for each subframe using the following expressions 4 to 7.
【0013】[0013]
【数4】 [Equation 4]
【0014】[0014]
【数5】 [Equation 5]
【0015】[0015]
【数6】 [Equation 6]
【0016】[0016]
【数7】 [Equation 7]
【0017】なお、補間係数αi(k,i)を、反射係数ri
(k,i)に変換すると以下のようになる。The interpolation coefficient .alpha.i (k, i) is converted into the reflection coefficient ri.
Converting to (k, i) gives:
【0018】まず、あるサブフレームkについて、初期
値をri10=αi(k,i)としておく(なおriの右上のサフ
ィックスの括弧は省略している)。j=10、9、8、
…、2、に対して、次式8に従って計算すればよい。First, for a certain sub-frame k, the initial value is set to ri 10 = αi (k, i) (note that the suffix parenthesis at the upper right of ri is omitted). j = 10, 9, 8,
... 2 may be calculated according to the following equation 8.
【0019】[0019]
【数8】 [Equation 8]
【0020】この反射係数の絶対値が1以下であれば、
前述の補間係数を用いたフィルタは、「安定」状態にあ
ると考えられ、次に示す、逆フィルタ演算を行なう。但
し、前記反射係数の絶対値が1以上であるものが、1つ
でも存在すれば、前述のフィルタは、「不安定」状態に
あると考えられ、無補間係数を使用し、ソフト補間フラ
グに「0」を設定する。If the absolute value of this reflection coefficient is 1 or less,
The filter using the above-described interpolation coefficient is considered to be in a “stable” state, and the following inverse filter operation is performed. However, if at least one of the reflection coefficients has an absolute value of 1 or more, the filter is considered to be in an “unstable” state, and the non-interpolation coefficient is used, and the soft interpolation flag is set. Set "0".
【0021】ここで、ソフト補間フラグとは、各フレー
ムが無補間係数を使用しているか、補間係数を使用して
いるかを表現するフラグであり、本方式を採用して復号
処理を行うための復号化部を備える機器に送信するデー
タの一つである。Here, the soft interpolation flag is a flag expressing whether each frame uses a non-interpolation coefficient or an interpolation coefficient, and is used to perform decoding processing by adopting this method. It is one of the data transmitted to the device including the decryption unit.
【0022】次に、無補間係数については、上記αn(k,
i)を使用して、逆フィルタ部103で、次式9で示され
る伝達関数Hn(z)を使用した、いわゆる逆フィルタ処理
を行う。Next, regarding the non-interpolation coefficient, the above αn (k,
Using i), the inverse filter unit 103 performs so-called inverse filter processing using the transfer function Hn (z) represented by the following Expression 9.
【0023】[0023]
【数9】 [Equation 9]
【0024】さらに、出力残差信号Z_n(k,i)のパワー
ENE_Nを、次式10にて求める。Further, the power ENE_N of the output residual signal Z_n (k, i) is calculated by the following equation 10.
【0025】[0025]
【数10】 [Equation 10]
【0026】同様に、逆フィルタ部104で、係数αi
(k,i)を使用して、次式11で示される逆フィルタ処
理、さらに、次式12で示される残差信号パワーENE
_Iを求める。Similarly, in the inverse filter unit 104, the coefficient αi
(k, i) is used to perform the inverse filtering process shown in the following formula 11, and the residual signal power ENE shown in the following formula 12.
Ask for _I.
【0027】[0027]
【数11】 [Equation 11]
【0028】[0028]
【数12】 [Equation 12]
【0029】ここで、Z_iは、Hi(z)による出力残差信
号を示す。Here, Z_i represents the output residual signal by Hi (z).
【0030】前述のENE_NとENE_Iを、残差パワー
比較部105において比較し、より小さい残差エネルギ
ーを与える線形予測係数を使用するようにする。すなわ
ち、 ENE_N>ENE_Iの時 … αi(k,i)を使用し、 ENE_N≦ENE_Iの時 … αn(k,i)を使用する。The above-mentioned ENE_N and ENE_I are compared in the residual power comparing section 105, and a linear prediction coefficient giving a smaller residual energy is used. That is, when ENE_N> ENE_I ... αi (k, i) is used, and when ENE_N ≦ ENE_I ... αn (k, i) is used.
【0031】このような判定処理を判定部106で行
い、補間後の線形予測係数を端子90に出力するととも
に、 ENE_N>ENE_Iの時 … ソフト補間フラグ=0 ENE_N≦ENE_Iの時 … ソフト補間フラグ=1 とし、ソフト補間フラグの値を、本方式を採用して復号
処理を行うための復号化部を備える機器に送信する。The determination unit 106 performs such determination processing, outputs the linear prediction coefficient after interpolation to the terminal 90, and when ENE_N> ENE_I ... Soft interpolation flag = 0 When ENE_N ≦ ENE_I ... Soft interpolation flag = 1, and the value of the soft interpolation flag is transmitted to a device equipped with a decoding unit for performing the decoding process using this method.
【0032】[0032]
【発明が解決しようとする課題】上述の従来の技術にお
いては、補間・無補間用の両方の係数を求めるための演
算処理を行い、さらに、逆フィルタ処理を行い、処理結
果である出力の総和を求め、比較処理を行なっているた
め、前記RCR規格において、逆フィルタ処理を行うだ
けでも、サブフレームごとに、1200回程度の、積和
演算処理を行なっており、多大な演算量と処理時間を必
要としていた。In the above-mentioned conventional technique, arithmetic processing for obtaining both interpolation and non-interpolation coefficients is performed, and further inverse filtering processing is performed to obtain a sum of outputs as processing results. And the comparison process is performed, the product-sum calculation process is performed about 1200 times for each sub-frame in the RCR standard even if only the inverse filter process is performed, resulting in a large calculation amount and processing time. Was needed.
【0033】このため、携帯用端末として要求される装
置の小型化や、小電力化等を実現することが極めて困難
であった。For this reason, it has been extremely difficult to reduce the size and power consumption of the device required as a portable terminal.
【0034】[0034]
【課題を解決するための手段】上記課題を解決するため
に、以下の手段が考えられる。In order to solve the above problems, the following means are considered.
【0035】一定時間間隔(フレーム)毎の、音声信号
の線形予測係数を算出する線形予測係数算出手段と、フ
レームを複数に分割した時間間隔(サブフレーム)の、
少なくとも1つにおいて、前フレームおよび現フレーム
における線形予測係数の重み付け加算値を、当該サブフ
レームの線形予測係数とする補間処理を行う補間処理手
段と、線形予測係数に基づいて、現サブフレーム毎に、
ラグ、雑音源(コードブック)、ゲインを含むパラメー
タを求める処理手段を具備させる。さらに、音声信号の
パワーを測定する測定手段と、測定した音声信号のパワ
ーを記憶する記憶手段と、該記憶手段に記憶される前フ
レームの音声信号のパワーおよび前記測定手段で測定さ
れた現フレームの音声信号のパワーとの差分値を演算す
る演算手段と、該差分値と予め定めた閾値との大小関係
を比較する比較手段と、前記差分値が予め定めた閾値以
上の場合には前記補間処理を行わず、逆に前記差分値が
予め定めた閾値より小さな場合には前記補間処理を行う
線形予測係数補正手段を備えた構成にする。The linear prediction coefficient calculation means for calculating the linear prediction coefficient of the audio signal for each fixed time interval (frame) and the time interval (subframe) obtained by dividing the frame into a plurality of
At least one interpolation processing unit that performs an interpolation process using the weighted addition value of the linear prediction coefficients in the previous frame and the current frame as the linear prediction coefficient of the subframe, and for each current subframe based on the linear prediction coefficient. ,
Processing means for determining parameters including lag, noise source (codebook), and gain is provided. Furthermore, measuring means for measuring the power of the audio signal, storage means for storing the measured power of the audio signal, power of the audio signal of the previous frame stored in the storage means and the current frame measured by the measuring means. Calculation means for calculating the difference value with the power of the audio signal, comparison means for comparing the difference value with a predetermined threshold value, and if the difference value is greater than or equal to the predetermined threshold value, the interpolation is performed. On the contrary, when the difference value is smaller than a predetermined threshold value without performing the processing, a linear prediction coefficient correction means for performing the interpolation processing is provided.
【0036】また、さらに、前記閾値を更新するための
閾値更新手段と、予め定めた規則に従って、更新する閾
値を求める閾値計算手段とを備える構成でも良い。この
場合、前記予め定めた規則は、更新前に定められている
閾値と現フレームの音声信号のパワーとの平均値である
音声情報処理装置が好ましい。Further, it may be configured to further include a threshold value updating means for updating the threshold value and a threshold value calculating means for obtaining the threshold value to be updated according to a predetermined rule. In this case, it is preferable that the predetermined rule is a voice information processing device that is an average value of a threshold value determined before updating and the power of the voice signal of the current frame.
【0037】また、上記音声信号の線形予測係数の代わ
りに、音声信号の反射係数(声門から口唇までを、音波
が伝送する伝送路でモデル化したときの、該伝送路にお
ける音波の反射の度合いを定めるパラメータ)を算出す
る反射係数算出手段を採用した構成でも良い。Further, instead of the linear prediction coefficient of the audio signal, the reflection coefficient of the audio signal (the degree of reflection of the sound wave in the transmission path when modeling the part from the glottal to the lip on the transmission path through which the sound wave is transmitted) It is also possible to adopt a configuration in which a reflection coefficient calculation means for calculating a parameter that determines the
【0038】[0038]
【作用】まず、音声信号が入力されると、音声パワー測
定器にて、1フレーム分の音声パワーが求められる。次
に、格納してある前フレームの音声パワーを呼び出し、
現フレームの音声パワーとの差が演算される。First, when a voice signal is input, the voice power measuring device determines the voice power for one frame. Next, recall the stored voice power of the previous frame,
The difference from the voice power of the current frame is calculated.
【0039】入力音声が、立上り時のものであれば、前
フレームの音声パワーは比較的小さく、現フレームの音
声パワーとの差が大きくなる。この差が、予め指定して
おいた閾値以上となれば、無補間処理をすべき旨の無補
間判定が行われ、無補間係数で構成される線形予測係数
が選択される。If the input voice is at the time of rising, the voice power of the previous frame is relatively small and the difference from the voice power of the current frame is large. If this difference is equal to or greater than a threshold value designated in advance, a non-interpolation determination that non-interpolation processing should be performed is performed, and a linear prediction coefficient composed of non-interpolation coefficients is selected.
【0040】また、入力音声が発声中音声の一部であれ
ば、前フレームの音声パワーと現フレームの音声パワー
とは近い値となり、そのパワー差は、小さくなる。した
がって、パワーの差分値が、前記閾値以下となり、補間
処理をすべき旨の補間判定が行われ、補間係数で構成さ
れる補間線形予測係数が選択される。If the input voice is a part of the voice being uttered, the voice power of the previous frame and the voice power of the current frame are close to each other, and the power difference is small. Therefore, the power difference value becomes equal to or smaller than the threshold value, the interpolation determination that the interpolation process should be performed is performed, and the interpolation linear prediction coefficient configured by the interpolation coefficient is selected.
【0041】次に、音の立ち下がり、つまり発声の終り
に対応するフレームが入力されたとき、前フレームとの
パワーの差が負の値になる。したがって、パワーの差分
値が前記閾値以下となり、補間処理をすべき旨の補間判
定が行われる。Next, when the frame corresponding to the trailing edge of the sound, that is, the end of utterance, is input, the power difference from the previous frame becomes a negative value. Therefore, the power difference value becomes equal to or less than the threshold value, and the interpolation determination that the interpolation process should be performed is performed.
【0042】その他の場合、例えば、立上り時の音声で
あっても、その音声パワーが小さいならば、すなわち、
小さい声で話し始めたならば、前フレームの音声パワー
との差分値が、前記閾値以上とはならずに、補間判定が
される。一方、発声中の音声の一部であっても、小さな
声から急に大きな声を出す場合等は、無補間判定され
る。しかしながら、前記閾値が更新される構成にしてお
けば、上記のような場合でも、前フレームの音声パワー
が十分小さければ、パワーの差分値が、閾値以上にな
り、無補間判定される。In other cases, for example, even at the time of rising voice, if the voice power is low, that is,
If the user starts speaking in a small voice, the difference between the voice power of the previous frame and the voice power of the previous frame does not exceed the threshold value, and the interpolation determination is performed. On the other hand, even if it is a part of the voice being uttered, no interpolation is determined when a loud voice suddenly becomes loud. However, with the configuration in which the threshold value is updated, even in the above case, if the audio power of the previous frame is sufficiently small, the power difference value becomes equal to or greater than the threshold value, and no interpolation is determined.
【0043】また、雑音の入力時等は、非常に突発的な
雑音でない限り、前フレームの音声パワーは、現フレー
ムの音声パワーとほぼ同じ値となり、補間判定される。
このような場合、音の大きさ自体が小さいので、補間係
数を使用しようが、無補間係数を使用しようが、さほど
の音質的な変化は発生しない。Also, when noise is input, the voice power of the previous frame becomes almost the same value as the voice power of the current frame, and the interpolation determination is performed, unless the noise is very sudden noise.
In such a case, since the volume of the sound itself is small, whether the interpolation coefficient is used or the non-interpolation coefficient is used, the sound quality does not change so much.
【0044】以上のように、フレームごとの入力音声パ
ワーを測定し、前フレームの入力音声パワーとの差分
が、予め定めた閾値以上である場合に、無補間線形予測
係数を使用し、それ以外の場合には、補間線形予測係数
を使用することにより、本発明の目的は達成される。As described above, the input voice power is measured for each frame, and when the difference from the input voice power of the previous frame is equal to or more than a predetermined threshold value, the non-interpolation linear prediction coefficient is used, and other than that. In this case, the object of the present invention is achieved by using interpolated linear prediction coefficients.
【0045】[0045]
【実施例】以下、図面を参照して本発明の実施例につい
て説明する。Embodiments of the present invention will be described below with reference to the drawings.
【0046】図1に、本発明にかかる線形予測係数の補
間判定を行う手段の一実施例を示す。FIG. 1 shows an embodiment of a means for performing interpolation judgment of a linear prediction coefficient according to the present invention.
【0047】本実施例は、線形予測分析器20と、音声
パワー測定器130と、メモリ40と、音声パワー差分
計算部50と、比較部70と、線形予測係数補正部80
とを、有して構成される。さらに、閾値(E)60を、
比較部70に入力するための端子を備えている。In the present embodiment, the linear prediction analyzer 20, the voice power measuring device 130, the memory 40, the voice power difference calculation unit 50, the comparison unit 70, and the linear prediction coefficient correction unit 80.
And is configured. Furthermore, the threshold (E) 60 is
A terminal for inputting to the comparison unit 70 is provided.
【0048】また、各構成要素は、信号線を介して接続
されている。Further, each component is connected via a signal line.
【0049】ここで各構成要素について説明する。Here, each component will be described.
【0050】線形予測分析器20は、音声入力信号をA
/D変換(アナログ/ディジタル変換)した、ディジタ
ル音声信号10から、線形予測分析を行い、線形予測係
数を求める手段であり、例えば、CPU、ROM、RA
M等の電子デバイスにて実現される。なお、前記A/D
変換を行う機能を有するA/D変換器は図示していな
い。The linear predictive analyzer 20 converts the voice input signal into A
A means for performing linear prediction analysis from the D / D converted (analog / digital converted) digital audio signal 10 to obtain a linear prediction coefficient. For example, CPU, ROM, RA
It is realized by an electronic device such as M. The A / D
An A / D converter having a function of performing conversion is not shown.
【0051】音声パワー測定器130は、前記ディジタ
ル音声信号10から、入力音声のパワーを測定する手段
であり、例えば、CPU、ROM、RAM等の電子デバ
イスにて実現される。The voice power measuring device 130 is a means for measuring the power of the input voice from the digital voice signal 10 and is realized by an electronic device such as a CPU, a ROM, a RAM and the like.
【0052】パワーは、例えば所定時間のディジタル音
声信号の2乗値を求めて算出すれば良い。The power may be calculated, for example, by obtaining the square value of the digital audio signal for a predetermined time.
【0053】また、メモリ40は、前フレームで、同様
に測定された音声パワーを記憶しておく手段であり、例
えば、RAM等の電子デバイスにて実現される。The memory 40 is a means for storing similarly measured audio power in the previous frame, and is realized by an electronic device such as a RAM.
【0054】音声パワー差分計算部50は、音声パワー
測定器130の出力と、メモリ40に格納されているパ
ワーの値から、2フレーム間のパワーの差分値を計算す
る手段であり、例えば、CPU、ROM、RAM等の電
子デバイスにて実現される。The voice power difference calculation unit 50 is means for calculating a power difference value between two frames from the output of the voice power measuring device 130 and the power value stored in the memory 40. For example, a CPU , ROM, RAM and other electronic devices.
【0055】比較部70は、音声パワーの差分と、別途
に入力される閾値E60とを比較し、差分値がE以上で
あるか否かを判断する手段であり、例えば、各種CMO
S等の電子デバイスにて実現される。The comparing section 70 is means for comparing the difference between the voice powers and a threshold value E60 which is separately input, and determining whether or not the difference value is equal to or more than E. For example, various CMOs are used.
It is realized by an electronic device such as S.
【0056】線形予測係数補正部80は、比較部70の
結果に応じて、線形予測分析器20の出力である線形予
測係数の補正を行う手段であり、例えば、CPU、RO
M、RAM等の電子デバイスによって実現される。な
お、90は、線形予測係数補正部80から出力された線
形予測係数を示す。The linear prediction coefficient correction unit 80 is means for correcting the linear prediction coefficient which is the output of the linear prediction analyzer 20 according to the result of the comparison unit 70. For example, CPU, RO
It is realized by an electronic device such as M and RAM. Note that 90 indicates the linear prediction coefficient output from the linear prediction coefficient correction unit 80.
【0057】次に、本実施例における動作を、図2を参
照して説明する。Next, the operation of this embodiment will be described with reference to FIG.
【0058】まず、ステップ10において、線形予測分
析器20と音声パワー測定器130が、iフレーム目の
ディジタル音声信号Sij(例えば、0≦j<160)の取
り込みを行う。First, in step 10, the linear prediction analyzer 20 and the audio power measuring device 130 take in the digital audio signal Sij (for example, 0≤j <160) of the i-th frame.
【0059】次に、ステップ20において、線形予測分
析器20が、ディジタル入力音声の線形予測係数α(i)
(0≦i<Np)を、線形予測係数を求める公知公用であ
る方法を使用して計算する。Next, in step 20, the linear prediction analyzer 20 causes the linear prediction coefficient α (i) of the digital input speech.
(0 ≦ i <Np) is calculated by using a publicly known method for obtaining a linear prediction coefficient.
【0060】次に、ステップ130において、音声パワ
ー測定器130が、入力音声の2乗の総和を演算するこ
とによって(次式13)、音声パワーPiを計算し、音
声パワー差分演算部50に出力する。Next, in step 130, the voice power measuring device 130 calculates the voice power Pi by calculating the sum of the squares of the input voices (Equation 13), and outputs the voice power Pi to the voice power difference calculating section 50. To do.
【0061】[0061]
【数13】 [Equation 13]
【0062】次に、ステップ40において、メモリ40
から前フレームの音声パワーPi-1を、音声パワー差分
演算部50に取り込む。Next, in step 40, the memory 40
The audio power Pi-1 of the preceding frame is taken into the audio power difference calculation unit 50.
【0063】次に、ステップ50において、音声パワー
差分演算部50が、現フレームの音声パワーと前フレー
ムの音声パワーとの差εを求める(式14)。Next, in step 50, the voice power difference calculation unit 50 obtains the difference ε between the voice power of the current frame and the voice power of the previous frame (equation 14).
【0064】[0064]
【数14】 [Equation 14]
【0065】次に、ステップ70において、比較部70
が、予め定めた閾値Eと、音声パワーの差分εとの比較
を行い、ε<Eの場合には、ステップ71に、ε≧Eの
場合にはステップ72へとブランチする。Next, in step 70, the comparison section 70
Compares the predetermined threshold value E with the sound power difference ε, and branches to step 71 if ε <E and to step 72 if ε ≧ E.
【0066】次に、ステップ71においては、「補間判
定」を、また、ステップ72においては、「無補間判
定」を行なう。Next, in step 71, "interpolation determination" is performed, and in step 72, "no interpolation determination" is performed.
【0067】最後に、ステップ80において、前ステッ
プの結果から、線形予測係数補正部80が、線形予測係
数を第kサブフレームの補間係数αi(k,i)、もしくは、
無補間係数αn(k,i)(0≦k<Ns、0≦i<Np)に補
正し、出力する。但し、補間/無補間係数の算出方法
は、公知公用の技術と同様とする。Finally, in step 80, from the result of the previous step, the linear prediction coefficient correction unit 80 sets the linear prediction coefficient to the interpolation coefficient αi (k, i) of the k-th subframe, or
The non-interpolation coefficient αn (k, i) (0 ≦ k <Ns, 0 ≦ i <Np) is corrected and output. However, the calculation method of the interpolation / non-interpolation coefficient is the same as the publicly known technique.
【0068】本実施例により、既存の技術では不可欠で
あった、逆フィルタの演算が不要になり、演算量の大幅
な削減と、装置の小型化、低電力化が可能となり、もち
ろん、従来と同等の音質が得られる。According to the present embodiment, the calculation of the inverse filter, which is indispensable in the existing technology, becomes unnecessary, the calculation amount can be greatly reduced, the device can be downsized and the power consumption can be reduced. The same sound quality can be obtained.
【0069】以上は、線形予測係数を補正する実施例で
あるが、図9に反射係数を補正する実施例を示す。ここ
で反射係数とは、線形予測係数と一意に対応する係数で
あり、本方式において使用される定数である(以下同
じ)。The above is an embodiment for correcting the linear prediction coefficient, and FIG. 9 shows an embodiment for correcting the reflection coefficient. Here, the reflection coefficient is a coefficient that uniquely corresponds to the linear prediction coefficient, and is a constant used in this method (the same applies hereinafter).
【0070】図9に示す実施例は、線形予測分析器20
と、音声パワー測定器130と、メモリ40と、音声パ
ワー差分計算部50と、比較部70と、線形予測係数補
正部80と、変換部100とを有して構成される。さら
に、閾値(E)60を、比較部70に入力するための端
子を備えている。また、各構成要素は、信号線を介して
接続されている。The embodiment shown in FIG. 9 is a linear prediction analyzer 20.
The audio power measuring device 130, the memory 40, the audio power difference calculation unit 50, the comparison unit 70, the linear prediction coefficient correction unit 80, and the conversion unit 100. Furthermore, a terminal for inputting the threshold value (E) 60 to the comparison unit 70 is provided. Moreover, each component is connected via a signal line.
【0071】ここでの構成要素で、図1と同一符号を付
したものは同一の構成要素であるので説明は省略する。
したがって、図9を参照して分かるように、変換部10
0のみが新たに備えらた構成になっている。Since the constituent elements here designated by the same reference numerals as those in FIG. 1 are the same constituent elements, description thereof will be omitted.
Therefore, as can be seen with reference to FIG.
Only 0 is newly provided.
【0072】変換部100は、反射係数を線形予測係数
に変換するための手段であり、例えば、各種CMOS等
によって実現できる。The conversion section 100 is means for converting the reflection coefficient into a linear prediction coefficient, and can be realized by various CMOSs or the like.
【0073】本実施における動作を、図10を参照して
説明する。The operation of this embodiment will be described with reference to FIG.
【0074】ステップ10、130、40、50、7
0、71、80における処理は、図1の対応するステッ
プにおける処理と殆ど同様な処理なので、説明は省略す
る。すなわち、「線形予測係数」を「反射係数」と置き
換えて、同様な処理を行えば良い。Steps 10, 130, 40, 50, 7
The processes at 0, 71, and 80 are almost the same as the processes at the corresponding steps in FIG. That is, the “linear prediction coefficient” may be replaced with the “reflection coefficient” and similar processing may be performed.
【0075】ステップ100においては、求められた反
射係数にもとづき、例えば、式8により補間係数を求
め、求められた補間係数を使用して線形予測係数を補正
すれば良い。In step 100, based on the reflection coefficient thus obtained, for example, the interpolation coefficient may be obtained by the equation 8 and the linear prediction coefficient may be corrected using the obtained interpolation coefficient.
【0076】図9に示す実施例においても、図1と同様
に装置の小型化、低電力化等が可能となる。Also in the embodiment shown in FIG. 9, the device can be downsized and the power consumption can be reduced as in the case of FIG.
【0077】次に、図3に、本発明にかかる他の実施例
を示す。Next, FIG. 3 shows another embodiment according to the present invention.
【0078】本実施例は、線形予測分析器20と、音声
振幅測定器230と、メモリ41と、音声振幅差分演算
部51、比較部75と、線形予測係数補正部80とを有
して構成される。This embodiment comprises a linear prediction analyzer 20, a voice amplitude measuring unit 230, a memory 41, a voice amplitude difference calculating unit 51, a comparing unit 75, and a linear prediction coefficient correcting unit 80. To be done.
【0079】さらに、閾値(D)を、比較部75に入力
するための端子61を備えている。すなわち、本実施例
は、図1に示す実施例中の、音声パワー測定器130の
代わりに、音声振幅測定器230を、また、音声パワー
差分計算部50の代わりに、音声振幅差分演算部51を
構成要素としている。また、メモリ40は、メモリ41
となっているが全く同様なものと考えて良く、比較部7
0は、比較部75となっているが全く同様なものと考え
てよい。また、各構成要素は、信号線を介して接続され
ている。Further, a terminal 61 for inputting the threshold value (D) to the comparing section 75 is provided. That is, in this embodiment, a voice amplitude measuring device 230 is used instead of the voice power measuring device 130 in the embodiment shown in FIG. 1, and a voice amplitude difference calculating unit 51 is used instead of the voice power difference calculating unit 50. Is a component. In addition, the memory 40 is a memory 41.
However, the comparison section 7
0 corresponds to the comparison unit 75, but can be considered to be exactly the same. Moreover, each component is connected via a signal line.
【0080】ここでの構成要素で、図1と同一符号を付
したものは同一の構成要素であるので説明は省略する。
したがって、図3を参照して分かるように、音声振幅差
分演算部51、音声振幅測定器230が新たに備えらた
構成になっている。Since the constituent elements here designated by the same reference numerals as those in FIG. 1 are the same constituent elements, the description thereof will be omitted.
Therefore, as understood with reference to FIG. 3, the voice amplitude difference calculation unit 51 and the voice amplitude measuring device 230 are newly provided.
【0081】音声振幅測定器230は、音声入力信号を
A/D変換したディジタル音声信号を入力とし、音声信
号の振幅の絶対値を取り、フレーム分の総和を演算する
ための手段であり、例えば、CPU、RAM、ROM等
の電子デバイスによって実現される。すなわち、音声振
幅測定器230は、パワーを測定する機能を有してい
る。The voice amplitude measuring unit 230 is a means for taking the absolute value of the amplitude of the voice signal as an input, and for calculating the total sum of the frames, by inputting the digital voice signal obtained by A / D converting the voice input signal. , CPU, RAM, ROM and other electronic devices. That is, the voice amplitude measuring device 230 has a function of measuring power.
【0082】音声振幅差分演算部51は、2つの音声の
絶対値の総和の差分を求める手段であり、例えば、CP
U、RAM、ROM等の電子デバイスによって実現され
る。The voice amplitude difference calculation unit 51 is means for obtaining the difference between the total sums of the absolute values of two voices.
It is realized by an electronic device such as U, RAM, or ROM.
【0083】次に、本実施例における動作を、図4を参
照して説明する。Next, the operation of this embodiment will be described with reference to FIG.
【0084】まず、ステップ10において、線形予測分
析器20と音声振幅測定器230が、iフレーム目のデ
ィジタル音声信号Sij(例えば、0≦j<160)を取り
込む。First, in step 10, the linear prediction analyzer 20 and the voice amplitude measuring device 230 take in the digital voice signal Sij of the i-th frame (for example, 0≤j <160).
【0085】次に、ステップ20において、線形予測分
析器20がディジタル入力音声の線形予測係数α(i)
(0≦i<Np)を、公知、公用手法に従って計算する。Next, in step 20, the linear prediction analyzer 20 causes the linear prediction coefficient α (i) of the digital input speech.
(0 ≦ i <Np) is calculated according to a publicly known method.
【0086】次に、ステップ230において、音声振幅
測定器230が、入力音声の絶対値の総和Siを計算し
(式15)、音声振幅差分演算部51に出力する。Next, in step 230, the voice amplitude measuring unit 230 calculates the total sum Si of the absolute values of the input voice (Equation 15) and outputs it to the voice amplitude difference calculating section 51.
【0087】[0087]
【数15】 [Equation 15]
【0088】次に、ステップ41において、メモリ41
から、格納されている前フレームの音声振幅の絶対値の
総和Si-1を、音声振幅差分演算部51に取り込む。Next, in step 41, the memory 41
From the above, the total sum Si−1 of the absolute values of the audio amplitudes of the previous frame stored is fetched into the audio amplitude difference calculation unit 51.
【0089】次に、ステップ51において、音声振幅差
分演算部51が、現フレームと前フレームの音声振幅の
絶対値の総和の差δを、次式16によって求める。Next, in step 51, the voice amplitude difference calculation unit 51 obtains the difference δ of the total sum of the absolute values of the voice amplitudes of the current frame and the previous frame by the following equation 16.
【0090】[0090]
【数16】 [Equation 16]
【0091】次に、ステップ75において、比較部75
が、予め定めた閾値Dと、音声振幅の絶対値の総和の差
分δとの比較を行い、δ<Dの場合にはステップ71
に、δ≧Dの場合には、ステップ72へブランチする。Next, in step 75, the comparison section 75
Compares the predetermined threshold value D with the difference δ of the total sum of the absolute values of the voice amplitude. If δ <D, step 71
If δ ≧ D, the process branches to step 72.
【0092】次に、ステップ71においては、補間判定
を、ステップ72においては、無補間判定を行なう。Next, in step 71, interpolation judgment is made, and in step 72, no interpolation judgment is made.
【0093】最後に、ステップ80において、前ステッ
プの結果から、線形予測係数補正部80が、線形予測係
数を第mサブフレームの補間係数αi(k,i)、もしくは、
無補間係数αn(k,i)(0≦k<Ns、0≦i<Np)に補
正し、出力する。但し、補間/無補間係数の算出方法
は、補間/無補間係数を算出するための、公知公用の技
術を使用すれば良い。Finally, in step 80, from the result of the previous step, the linear prediction coefficient correction unit 80 sets the linear prediction coefficient to the interpolation coefficient αi (k, i) of the m-th subframe, or
The non-interpolation coefficient αn (k, i) (0 ≦ k <Ns, 0 ≦ i <Np) is corrected and output. However, as a method of calculating the interpolation / non-interpolation coefficient, a publicly known and publicly known technique for calculating the interpolation / non-interpolation coefficient may be used.
【0094】本実施例により、既存の技術では不可欠で
あった逆フィルタの演算が不要になり、演算量の削減
と、装置の小型化、低電力化が可能となり、さらに、既
知の技術と同等の音質が得られる。According to the present embodiment, the calculation of the inverse filter, which is indispensable in the existing technology, becomes unnecessary, the calculation amount can be reduced, the device can be downsized, and the power consumption can be reduced. Further, it is equivalent to the known technology. The sound quality of is obtained.
【0095】また、前記実施例でのパワーの演算にある
2乗の計算を削除することにより、比較部で処理の精度
を向上することができる。Further, by deleting the square calculation in the power calculation in the above-mentioned embodiment, it is possible to improve the processing accuracy in the comparison section.
【0096】以上は、線形予測係数を補正する実施例で
あるが、図11に反射係数を補正する実施例を示す。The above is an embodiment for correcting the linear prediction coefficient, and FIG. 11 shows an embodiment for correcting the reflection coefficient.
【0097】図11に示す実施例は、線形予測分析器2
0と、音声振幅測定器230と、メモリ41と、音声パ
ワー差分計算部51、比較部75と、線形予測係数補正
部80と、変換部100とを有して構成される。さら
に、閾値(D)を、比較部75に入力するための端子6
1を備えている。また、各構成要素は、信号線を介して
接続されている。In the embodiment shown in FIG. 11, the linear prediction analyzer 2 is used.
0, a voice amplitude measuring unit 230, a memory 41, a voice power difference calculation unit 51, a comparison unit 75, a linear prediction coefficient correction unit 80, and a conversion unit 100. Further, the terminal 6 for inputting the threshold value (D) to the comparison unit 75.
1 is provided. Moreover, each component is connected via a signal line.
【0098】ここでの構成要素で、図3と同一符号を付
したものは同一の構成要素であるので説明は省略する。
したがって、図11を参照して分かるように、変換部1
00のみが新たに備えらた構成になっている。Since the constituent elements here designated by the same reference numerals as those in FIG. 3 are the same constituent elements, the description thereof will be omitted.
Therefore, as can be seen with reference to FIG.
Only 00 is newly provided.
【0099】変換部100は、反射係数を線形予測係数
に変換するための手段であり、例えば、各種CMOS等
によって実現できる。The conversion unit 100 is means for converting the reflection coefficient into a linear prediction coefficient, and can be realized by various CMOSs or the like.
【0100】本実施における動作を、図12を参照して
説明する。The operation of this embodiment will be described with reference to FIG.
【0101】ステップ10、230、41、51、7
5、71、72、80における処理は、図3の対応する
ステップにおける処理と殆ど同様な処理なので、説明は
省略する。すなわち、「線形予測係数」を「反射係数」
と置き換えて、同様な処理を行えば良い。Steps 10, 230, 41, 51, 7
Since the processes in 5, 71, 72 and 80 are almost the same as the processes in the corresponding steps in FIG. 3, the description thereof will be omitted. That is, "linear prediction coefficient" is replaced by "reflection coefficient"
, And similar processing may be performed.
【0102】ステップ100においては、求められた反
射係数にもとづき、例えば、式8により補間係数を求
め、求められた補間係数を使用して線形予測係数を補正
すれば良い。In step 100, based on the reflection coefficient thus obtained, for example, the interpolation coefficient may be obtained by the equation 8 and the linear prediction coefficient may be corrected using the obtained interpolation coefficient.
【0103】図11に示す実施例においても、図3と同
様に装置の小型化、低電力化等が、可能となる。Also in the embodiment shown in FIG. 11, the device can be downsized and the power consumption can be reduced as in the case of FIG.
【0104】次に、図5に、本発明による他の実施例を
示す。Next, FIG. 5 shows another embodiment according to the present invention.
【0105】本実施例は、線形予測分析器20と、音声
パワー測定器130と、メモリ40と、音声パワー差分
計算部50、比較部70と、線形予測係数補正部80
と、閾値計算部61とを有して構成される。In this embodiment, the linear prediction analyzer 20, the voice power measuring device 130, the memory 40, the voice power difference calculating section 50, the comparing section 70, and the linear prediction coefficient correcting section 80 are used.
And a threshold calculation unit 61.
【0106】ここでの構成要素で、図1と同一符号を付
したものは同一の構成要素であるので説明は省略する。Since the constituent elements here designated by the same reference numerals as those in FIG. 1 are the same constituent elements, the description thereof will be omitted.
【0107】すなわち、本実施例は、最初の実施例の構
成に閾値計算部61を備えて構成している。That is, the present embodiment is configured by including the threshold value calculation unit 61 in the configuration of the first embodiment.
【0108】閾値計算部61は、前フレームで使用した
閾値E_prを記憶し、さらに、現フレームでの音声パワ
ーPiを受け付け、この二つの値の平均値を、新しい閾
値Eとする手段であり、例えば、CPU、RAM、RO
M等の電子デバイスによって実現される。The threshold calculation unit 61 is means for storing the threshold E_pr used in the previous frame, further accepting the voice power Pi in the current frame, and setting the average value of these two values as the new threshold E. For example, CPU, RAM, RO
It is realized by an electronic device such as M.
【0109】次に、本実施例における動作を図6を参照
して説明する。Next, the operation of this embodiment will be described with reference to FIG.
【0110】まず、ステップ10において、線形予測分
析器20と音声パワー測定器130が、iフレーム目の
ディジタル音声信号Sij(例えば、0≦j<160)を取
り込む。First, in step 10, the linear prediction analyzer 20 and the audio power measuring device 130 take in the digital audio signal Sij of the i-th frame (for example, 0≤j <160).
【0111】次に、ステップ20において、線形予測分
析器20がディジタル入力音声の線形予測係数α(i)
(0≦i<Np)を、線形予測係数を求める公知、公用の
方法に従って計算する。Next, in step 20, the linear prediction analyzer 20 causes the linear prediction coefficient α (i) of the digital input speech.
(0 ≦ i <Np) is calculated according to a known and publicly known method for obtaining a linear prediction coefficient.
【0112】次に、ステップ130において、音声パワ
ー測定器130が、入力音声の2乗の総和を演算するこ
とによって(式13)、音声パワーPiを計算し、音声
パワー差分演算部50と、閾値計算器61に出力する。Next, in step 130, the voice power measuring unit 130 calculates the voice power Pi by calculating the sum of the squares of the input voices (Equation 13), and the voice power difference calculator 50 and the threshold value are calculated. Output to the calculator 61.
【0113】次に、ステップ40において、メモリ40
から前フレームの音声パワーPi-1を音声パワー差分演
算部50に取り込む。Next, in step 40, the memory 40
The audio power Pi-1 of the previous frame is taken into the audio power difference calculation unit 50.
【0114】次に、ステップ50において、音声パワー
差分演算部50が、現フレームの音声パワーと前フレー
ムの音声パワーとの差εを求める(式14による)。Next, in step 50, the voice power difference calculation unit 50 obtains the difference ε between the voice power of the current frame and the voice power of the previous frame (according to equation 14).
【0115】次に、ステップ61において、閾値計算部
61が、前フレームの閾値E_prと現フレームの音声パ
ワーPiとの平均を、次式17にしたがって計算し、こ
れを現フレームの閾値Eとする。Next, in step 61, the threshold value calculation unit 61 calculates the average of the threshold value E_pr of the previous frame and the voice power Pi of the current frame according to the following expression 17, and sets this as the threshold value E of the current frame. .
【0116】[0116]
【数17】 [Equation 17]
【0117】次に、ステップ70において、比較部70
が、上記の閾値Eと音声パワーの差分εとの比較を行
い、ε<Eの場合には、ステップ71に、ε≧Eの場合
には、ステップ72へブランチする。Next, in step 70, the comparison unit 70
Compares the threshold value E with the voice power difference ε, and branches to step 71 if ε <E and branches to step 72 if ε ≧ E.
【0118】次に、ステップ71においては補間判定
を、ステップ72においては無補間判定を行なう。Next, in step 71, interpolation determination is performed, and in step 72, no interpolation determination is performed.
【0119】最後に、ステップ80において、前ステッ
プの結果から、線形予測係数補正部80が、線形予測係
数を第kサブフレームの補間係数αi(k,i)、もしくは、
無補間係数αn(k,i)(0≦k<Ns、0≦i<Np)に補
正し、出力する。但し、補間/無補間係数の算出は、公
知、公用の方法に従って計算する。Finally, in step 80, from the result of the previous step, the linear prediction coefficient correction unit 80 uses the linear prediction coefficient as the interpolation coefficient αi (k, i) of the k-th subframe, or
The non-interpolation coefficient αn (k, i) (0 ≦ k <Ns, 0 ≦ i <Np) is corrected and output. However, the calculation of the interpolation / non-interpolation coefficient is performed according to a publicly known method.
【0120】本実施例により、既存の技術では不可欠で
あった逆フィルタの演算が不要になり、演算量の削減
と、装置の小型化、低電力化が可能となり、さらに、音
質は維持できる。また、最初の実施例に比較して、閾値
が可変であることから、より明瞭な音声が得られること
になる。According to the present embodiment, the calculation of the inverse filter, which is indispensable in the existing technology, becomes unnecessary, the calculation amount can be reduced, the device can be downsized and the power consumption can be reduced, and the sound quality can be maintained. Further, as compared with the first embodiment, since the threshold value is variable, clearer voice can be obtained.
【0121】以上は、線形予測係数を補正する実施例で
あるが、図13に反射係数を補正する実施例を示す。The above is an embodiment for correcting the linear prediction coefficient, and FIG. 13 shows an embodiment for correcting the reflection coefficient.
【0122】図13に示す実施例は、線形予測分析器2
0と、音声パワー測定器130と、メモリ40と、音声
パワー差分計算部50と、比較部70と、線形予測係数
補正部80と、閾値計算器61、変換部100とを有し
て構成される。また、各構成要素は、信号線を介して接
続されている。The embodiment shown in FIG. 13 is a linear prediction analyzer 2.
0, an audio power measuring unit 130, a memory 40, an audio power difference calculating unit 50, a comparing unit 70, a linear prediction coefficient correcting unit 80, a threshold value calculating unit 61, and a converting unit 100. It Moreover, each component is connected via a signal line.
【0123】ここでの構成要素で、図5と同一符号を付
したものは同一の構成要素であるので説明は省略する。
したがって、図13を参照して分かるように、変換部1
00のみが新たに備えらた構成になっている。Since the constituent elements here designated by the same reference numerals as those in FIG. 5 are the same constituent elements, description thereof will be omitted.
Therefore, as can be seen with reference to FIG.
Only 00 is newly provided.
【0124】変換部100は、反射係数を線形予測係数
に変換するための手段であり、例えば、各種CMOS等
によって実現できる。The conversion section 100 is means for converting the reflection coefficient into a linear prediction coefficient, and can be realized by various CMOSs, for example.
【0125】本実施例における動作を、図14を参照し
て説明する。The operation of this embodiment will be described with reference to FIG.
【0126】ステップ10、130、40、61、5
0、70、71、72、80における処理は、図6の対
応するステップにおける処理と殆ど同様な処理なので、
説明は省略する。すなわち、「線形予測係数」を「反射
係数」と置き換えて、同様な処理を行えば良い。Steps 10, 130, 40, 61 and 5
Since the processing at 0, 70, 71, 72, 80 is almost the same as the processing at the corresponding steps in FIG. 6,
The description is omitted. That is, the “linear prediction coefficient” may be replaced with the “reflection coefficient” and similar processing may be performed.
【0127】ステップ100においては、求められた反
射係数にもとづき、例えば、式8により補間係数を求
め、求められた補間係数を使用して線形予測係数を補正
すれば良い。In step 100, based on the reflection coefficient thus obtained, for example, the interpolation coefficient may be obtained by the equation 8 and the linear prediction coefficient may be corrected using the obtained interpolation coefficient.
【0128】図14に示す実施例においても、図5と同
様に装置の小型化、低電力化、音質の維持等が可能とな
る。Also in the embodiment shown in FIG. 14, as in the case of FIG. 5, it is possible to downsize the device, reduce the power consumption, maintain the sound quality, and the like.
【0129】次に、図7に、本発明による他の実施例を
示す。Next, FIG. 7 shows another embodiment according to the present invention.
【0130】本実施例は、線形予測分析器20と、音声
振幅測定器230と、メモリ41と、音声振幅差分演算
部51、比較部75と、線形予測係数補正部80と、閾
値計算器62とを有して構成される。また、各構成要素
は、信号線を介して接続されている。In this embodiment, the linear prediction analyzer 20, the voice amplitude measuring unit 230, the memory 41, the voice amplitude difference calculating unit 51, the comparing unit 75, the linear prediction coefficient correcting unit 80, and the threshold calculator 62 are used. And is configured. Moreover, each component is connected via a signal line.
【0131】ここでの構成要素で、図3と同一符号を付
したものは同一の構成要素であるので説明は省略する。
したがって、図3を参照して分かるように、閾値計算器
62が新たに備えられた構成になっている。Since the constituent elements here designated by the same reference numerals as those in FIG. 3 are the same constituent elements, the description thereof will be omitted.
Therefore, as can be seen with reference to FIG. 3, the threshold calculator 62 is newly provided.
【0132】閾値計算器62は、現フレームでのディジ
タル音声信号の振幅の絶対値の総和と、前フレームでの
閾値との平均を取り、それを現フレームでの閾値とする
手段であり、例えば、CPU、RAM、ROM等の電子
デバイスによって実現される。The threshold calculator 62 is a means for taking the average of the sum of the absolute values of the amplitudes of the digital audio signals in the current frame and the threshold in the previous frame and setting it as the threshold in the current frame. , CPU, RAM, ROM and other electronic devices.
【0133】次に、本実施例における動作を図8を参照
して説明する。Next, the operation of this embodiment will be described with reference to FIG.
【0134】まず、ステップ10において、線形予測分
析器20と音声振幅測定器230が、iフレーム目のデ
ィジタル音声信号Sij(例えば、0≦j<160)を取り
込む。First, in step 10, the linear prediction analyzer 20 and the voice amplitude measuring device 230 take in the digital voice signal Sij of the i-th frame (for example, 0≤j <160).
【0135】次に、ステップ20において、線形予測分
析器20がディジタル入力音声の線形予測係数α(i)
(0≦i<Np)を、線形予測係数を求める公知、公用の
方法に従って計算する。Next, in step 20, the linear prediction analyzer 20 causes the linear prediction coefficient α (i) of the digital input speech.
(0 ≦ i <Np) is calculated according to a known and publicly known method for obtaining a linear prediction coefficient.
【0136】次に、ステップ230において、音声振幅
測定器230が、入力音声の絶対値の総和Siを計算し
(式15)、音声振幅差分演算部51と閾値計算器62
に出力する。Next, in step 230, the voice amplitude measuring unit 230 calculates the total sum Si of the absolute values of the input voice (Equation 15), and the voice amplitude difference calculating unit 51 and the threshold value calculating unit 62.
Output to.
【0137】次に、ステップ41において、メモリ41
から、格納されている、前フレームの音声振幅の絶対値
の総和Si-1を、音声振幅差分演算部51に取り込む。Next, in step 41, the memory 41
From the above, the stored sum total Si-1 of the absolute values of the voice amplitudes of the previous frame is fetched into the voice amplitude difference calculation unit 51.
【0138】次に、ステップ51において、音声振幅差
分演算部51が、現フレームと前フレームの音声振幅の
絶対値の総和の差δを、式16に従って求める。Next, in step 51, the voice amplitude difference calculation unit 51 obtains the difference δ of the total sum of the absolute values of the voice amplitudes of the current frame and the previous frame according to the equation (16).
【0139】次に、ステップ62において、閾値計算器
62が、現フレームの音声信号の絶対値の総和Siと前
フレームの閾値D_prとの平均を、次式18にしたがっ
て求めることにより、現フレームでの閾値Dを算出す
る。Next, in step 62, the threshold value calculator 62 obtains the average of the sum Si of the absolute values of the audio signals of the current frame and the threshold value D_pr of the previous frame according to the following expression 18 The threshold value D of is calculated.
【0140】[0140]
【数18】 [Equation 18]
【0141】次に、ステップ75において、比較部75
が、上記の閾値Dと音声振幅の絶対値の総和の差分δと
の比較を行い、δ<Dの場合にはステップ71に、δ≧
Dの場合にはステップ72へブランチする。Next, in step 75, the comparison unit 75
Compares the threshold value D with the difference δ of the total sum of the absolute values of the voice amplitude, and when δ <D, the process proceeds to step 71, where δ ≧
If D, branch to step 72.
【0142】次に、ステップ71においては補間判定
を、ステップ72においては無補間判定を行なう。Next, in step 71, an interpolation judgment is made, and in step 72, no interpolation judgment is made.
【0143】最後に、ステップ80において、前ステッ
プの結果から、線形予測係数補正部80が、線形予測係
数を第kサブフレームの補間係数αi(k,i)、もしくは、
無補間係数αn(k,i)(0≦k<Ns、0≦i<Np)に補
正し、出力する。但し、補間/無補間係数の算出方法
は、公知、公用の手法を使用すればよい。Finally, in step 80, from the result of the previous step, the linear prediction coefficient correction unit 80 sets the linear prediction coefficient to the interpolation coefficient αi (k, i) of the k-th subframe, or
The non-interpolation coefficient αn (k, i) (0 ≦ k <Ns, 0 ≦ i <Np) is corrected and output. However, as a method of calculating the interpolation / non-interpolation coefficient, a publicly known or publicly used method may be used.
【0144】本実施例により、既存の技術では不可欠で
あった逆フィルタの演算が不要になり、演算量の削減と
装置の、小型化、低電力化が可能となり、さらに、音質
の維持も図れる。また、前記実施例でのパワーの演算に
存在する、2乗の計算を削除することにより、比較部で
の演算処理精度を向上することができる。さらに、閾値
が可変となる構成によって、より明瞭な音声を得ること
ができる。According to this embodiment, the calculation of the inverse filter, which is indispensable in the existing technology, becomes unnecessary, the amount of calculation can be reduced, the device can be downsized and the power consumption can be reduced, and the sound quality can be maintained. . Further, by deleting the squared calculation existing in the power calculation in the above-mentioned embodiment, the calculation processing accuracy in the comparison section can be improved. Furthermore, a clearer voice can be obtained by the configuration in which the threshold value is variable.
【0145】以上は、線形予測係数を補正する実施例で
あるが、図11に反射係数を補正する実施例を示す。The above is the embodiment for correcting the linear prediction coefficient, and FIG. 11 shows an embodiment for correcting the reflection coefficient.
【0146】図15に示す実施例は、線形予測分析器2
0と、音声振幅測定器230と、メモリ41と、音声パ
ワー差分計算部51、比較部75と、線形予測係数補正
部80と、閾値計算器62と、変換部100とを有して
構成される。また、各構成要素は、信号線を介して接続
されている。The embodiment shown in FIG. 15 is a linear prediction analyzer 2.
0, a voice amplitude measuring unit 230, a memory 41, a voice power difference calculating unit 51, a comparing unit 75, a linear prediction coefficient correcting unit 80, a threshold calculator 62, and a converting unit 100. It Moreover, each component is connected via a signal line.
【0147】ここでの構成要素で、図7と同一符号を付
したものは同一の構成要素であるので説明は省略する。
したがって、図11を参照して分かるように、変換部1
00のみが新たに備えらた構成になっている。Since the constituent elements here designated by the same reference numerals as those in FIG. 7 are the same constituent elements, the description thereof will be omitted.
Therefore, as can be seen with reference to FIG.
Only 00 is newly provided.
【0148】変換部100は、反射係数を線形予測係数
に変換するための手段であり、例えば、各種CMOS等
によって実現できる。The conversion section 100 is means for converting the reflection coefficient into a linear prediction coefficient, and can be realized by various CMOSs, for example.
【0149】本実施における動作を、図16を参照して
説明する。The operation of this embodiment will be described with reference to FIG.
【0150】ステップ10、230、41、62、5
1、75、71、72、80における処理は、図8の対
応するステップにおける処理と殆ど同様な処理なので、
説明は省略する。すなわち、「線形予測係数」を「反射
係数」と置き換えて、同様な処理を行えば良い。Steps 10, 230, 41, 62 and 5
Since the processes at 1, 75, 71, 72, 80 are almost the same as the processes at the corresponding steps in FIG.
The description is omitted. That is, the “linear prediction coefficient” may be replaced with the “reflection coefficient” and similar processing may be performed.
【0151】ステップ100においては、求められた反
射係数にもとづき、例えば、式8により補間係数を求
め、求められた補間係数を使用して線形予測係数を補正
すれば良い。In step 100, based on the reflection coefficient thus obtained, for example, the interpolation coefficient may be obtained by the equation 8 and the linear prediction coefficient may be corrected using the obtained interpolation coefficient.
【0152】図15に示す実施例においても、図7と同
様に装置の小型化、低電力化等が、可能となる。Also in the embodiment shown in FIG. 15, the device can be downsized and the power consumption can be reduced as in the case of FIG.
【0153】また、以上のように線形予測係数、あるい
は、線形予測係数の代わりに反射係数、の補正を行っ
て、演算量の低減、装置の小型化等が可能となり、VS
ELP方式に好適な音声処理装置を提供することが可能
となる。As described above, the linear prediction coefficient or the reflection coefficient instead of the linear prediction coefficient is corrected to reduce the amount of calculation and downsize the device.
It is possible to provide a voice processing device suitable for the ELP method.
【0154】[0154]
【発明の効果】本発明によれば、補間および無補間線形
予測係数を計算する前に、補間・無補間のいずれを行う
かを判定できるので、補間および無補間線形予測係数の
一方を計算するだけでよいことになり、さらに、残差エ
ネルギーの計算も不要のため、計算量が大幅に削減さ
れ、プログラム規模やメモリ量等も低減可能となる。こ
れにより、装置の小型化、軽量化が可能となり、電力消
費量も減るようになる。According to the present invention, it is possible to determine whether to perform interpolation or no interpolation before calculating an interpolation or non-interpolation linear prediction coefficient. Therefore, one of interpolation and non-interpolation linear prediction coefficient is calculated. Moreover, since the calculation of residual energy is not necessary, the calculation amount can be significantly reduced, and the program scale and the memory amount can be reduced. As a result, the size and weight of the device can be reduced and the power consumption can be reduced.
【0155】さらに、前記閾値を音声パワーの履歴に基
づいて可変とすることにより、入力音声信号の大小に拘
らず、音声信号の音質の保持が可能となる。Further, by making the threshold variable based on the history of the audio power, it is possible to maintain the sound quality of the audio signal regardless of the size of the input audio signal.
【図1】本発明の一実施例の構成図である。FIG. 1 is a configuration diagram of an embodiment of the present invention.
【図2】本発明の一実施例における処理を示すフローチ
ャートである。FIG. 2 is a flowchart showing a process in one embodiment of the present invention.
【図3】本発明の他の実施例の構成図である。FIG. 3 is a configuration diagram of another embodiment of the present invention.
【図4】本発明の他の実施例における処理を示すフロー
チャートである。FIG. 4 is a flowchart showing processing in another embodiment of the present invention.
【図5】本発明の他の実施例の構成図である。FIG. 5 is a configuration diagram of another embodiment of the present invention.
【図6】本発明の他の実施例における処理を示すフロー
チャートである。FIG. 6 is a flowchart showing a process in another embodiment of the present invention.
【図7】本発明の他の実施例の構成図である。FIG. 7 is a configuration diagram of another embodiment of the present invention.
【図8】本発明の他の実施例における処理を示すフロー
チャートである。FIG. 8 is a flowchart showing a process in another embodiment of the present invention.
【図9】本発明の他の実施例の構成図である。FIG. 9 is a configuration diagram of another embodiment of the present invention.
【図10】本発明の他の実施例における処理を示すフロ
ーチャートである。FIG. 10 is a flowchart showing a process in another embodiment of the present invention.
【図11】本発明の他の実施例の構成図である。FIG. 11 is a configuration diagram of another embodiment of the present invention.
【図12】本発明の他の実施例における処理を示すフロ
ーチャートである。FIG. 12 is a flowchart showing a process in another embodiment of the present invention.
【図13】本発明の他の実施例の構成図である。FIG. 13 is a configuration diagram of another embodiment of the present invention.
【図14】本発明の他の実施例における処理を示すフロ
ーチャートである。FIG. 14 is a flowchart showing a process in another embodiment of the present invention.
【図15】本発明の他の実施例の構成図である。FIG. 15 is a configuration diagram of another embodiment of the present invention.
【図16】本発明の他の実施例における処理を示すフロ
ーチャートである。FIG. 16 is a flowchart showing a process in another embodiment of the present invention.
【図17】従来の技術の一例を示す構成図である。FIG. 17 is a configuration diagram showing an example of a conventional technique.
10…音声信号、20…線形予測分析器、40…メモ
リ、41…メモリ、50…音声パワー差分計算部、60
…閾値、61…閾値計算部、70…比較部、100…変
換部、101…無補間係数演算部、102…補間係数演
算部、103…逆フィルタ部(無補間係数)、104…
逆フィルタ部(補間係数)、105…残差パワー比較
部、106…補間/無補間判定部、130…音声パワー
測定器、230…音声振幅測定器10 ... Voice signal, 20 ... Linear prediction analyzer, 40 ... Memory, 41 ... Memory, 50 ... Voice power difference calculation unit, 60
... Threshold value, 61 ... Threshold value calculation section, 70 ... Comparison section, 100 ... Conversion section, 101 ... Non-interpolation coefficient calculation section, 102 ... Interpolation coefficient calculation section, 103 ... Inverse filter section (non-interpolation coefficient), 104 ...
Inverse filter unit (interpolation coefficient) 105 ... Residual power comparison unit 106 ... Interpolation / non-interpolation determination unit 130 ... Voice power measuring device 230 ... Voice amplitude measuring device
Claims (6)
の線形予測係数を算出する線形予測係数算出手段と、フ
レームを複数に分割した時間間隔(サブフレーム)の、
少なくとも1つにおいて、前フレームおよび現フレーム
における線形予測係数の重み付け加算値を、当該サブフ
レームの線形予測係数とする補間処理を行う補間処理手
段と、線形予測係数に基づいて、現サブフレーム毎に、
ラグ、雑音源(コードブック)、ゲインを含むパラメー
タを求める処理手段を具備し、さらに、 音声信号のパワーを測定する測定手段と、測定した音声
信号のパワーを記憶する記憶手段と、該記憶手段に記憶
される前フレームの音声信号のパワーおよび前記測定手
段で測定された現フレームの音声信号のパワーとの差分
値を演算する演算手段と、該差分値と予め定めた閾値と
の大小関係を比較する比較手段と、前記差分値が予め定
めた閾値以上の場合には前記補間処理を行わず、逆に、
前記差分値が予め定めた閾値より小さな場合には前記補
間処理を行う線形予測係数補正手段を備えることを特徴
とする音声情報処理装置。1. A linear prediction coefficient calculation means for calculating a linear prediction coefficient of an audio signal for each fixed time interval (frame), and a time interval (subframe) obtained by dividing a frame into a plurality of parts.
At least one interpolation processing unit that performs an interpolation process using the weighted addition value of the linear prediction coefficients in the previous frame and the current frame as the linear prediction coefficient of the subframe, and for each current subframe based on the linear prediction coefficient. ,
A processing means for determining parameters including a lag, a noise source (codebook), and a gain is provided, and further, measuring means for measuring the power of the audio signal, storage means for storing the measured power of the audio signal, and the storage means. Comparing the difference value between the power of the audio signal of the previous frame and the power of the audio signal of the current frame measured by the measuring device, the magnitude relationship between the difference value and a predetermined threshold value. When comparing means for comparing and the difference value is equal to or more than a predetermined threshold value, the interpolation process is not performed, and conversely,
An audio information processing apparatus comprising: a linear prediction coefficient correction unit that performs the interpolation process when the difference value is smaller than a predetermined threshold value.
の線形予測係数を算出する線形予測係数算出手段と、フ
レームを複数に分割した時間間隔(サブフレーム)の、
少なくとも1つにおいて、前フレームおよび現フレーム
における線形予測係数の重み付け加算値を、当該サブフ
レームの線形予測係数とする補間処理を行う補間処理手
段と、線形予測係数に基づいて、現サブフレーム毎に、
ラグ、雑音源(コードブック)、ゲインを含むパラメー
タを求める処理手段を具備し、さらに、 フレーム内で音声信号をサンプリングするサンプリング
手段と、サンプリングされた各音声信号の振幅の絶対値
の総和を求める振幅絶対値演算手段と、求めた音声信号
の振幅の絶対値の総和を記憶する記憶手段と、該記憶手
段に記憶される前フレームの音声信号の振幅の絶対値の
総和および前記振幅絶対値演算手段で求められた現フレ
ームの音声信号の振幅の絶対値の総和との差分値を演算
する演算手段と、該差分値と予め定めた閾値との大小関
係を比較する比較手段と、前記差分値が予め定めた閾値
以上の場合には前記補間処理を行わず、逆に、前記差分
値が予め定めた閾値より小さな場合には前記補間処理を
行う線形予測係数補正手段を備えることを特徴とする音
声情報処理装置。2. A linear prediction coefficient calculation means for calculating a linear prediction coefficient of an audio signal for each fixed time interval (frame), and a time interval (subframe) obtained by dividing a frame into a plurality of parts.
At least one interpolation processing unit that performs an interpolation process using the weighted addition value of the linear prediction coefficients in the previous frame and the current frame as the linear prediction coefficient of the subframe, and for each current subframe based on the linear prediction coefficient. ,
A processing means for obtaining parameters including a lag, a noise source (codebook), and a gain is provided, and further, a sampling means for sampling a voice signal in a frame and a sum of absolute values of amplitudes of the sampled voice signals are obtained. Amplitude absolute value calculation means, storage means for storing the calculated sum of absolute values of the amplitude of the audio signal, sum of absolute values of the amplitude of the audio signal of the previous frame stored in the storage means, and the amplitude absolute value calculation Calculating means for calculating the difference value between the sum of the absolute values of the amplitudes of the audio signals of the current frame obtained by the means, comparing means for comparing the difference between the difference value and a predetermined threshold value, and the difference value If the difference value is smaller than a predetermined threshold value, the interpolation process is not performed, and conversely, if the difference value is smaller than the predetermined threshold value, a linear prediction coefficient correction means is provided. A voice information processing device characterized by the following.
らに、前記閾値を更新するための閾値更新手段と、予め
定めた規則に従って、更新する閾値を求める閾値計算手
段とを備えることを特徴とする音声情報処理装置。3. The method according to claim 1, further comprising threshold updating means for updating the threshold, and threshold calculating means for obtaining a threshold to be updated according to a predetermined rule. Voice information processing device.
は、更新前に定められている閾値と現フレームの音声信
号のパワーとの平均値であることを特徴とする音声情報
処理装置。4. The audio information processing apparatus according to claim 3, wherein the predetermined rule is an average value of a threshold value set before updating and the power of the audio signal of the current frame.
の反射係数(声門から口唇までを、音波が伝送する伝送
路でモデル化したときの、該伝送路における音波の反射
の度合いを定めるパラメータ)を算出する反射係数算出
手段と、フレームを複数に分割した時間間隔(サブフレ
ーム)の、少なくとも1つにおいて、前フレームおよび
現フレームにおける反射係数の重み付け加算値を、当該
サブフレームの反射係数とする補間処理を行う補間処理
手段と、反射係数と一意に対応する線形予測係数に基づ
いて、現サブフレーム毎に、ラグ、雑音源(コードブッ
ク)、ゲインを含むパラメータを求める処理手段を具備
し、さらに、 音声信号のパワーを測定する測定手段と、測定した音声
信号のパワーを記憶する記憶手段と、該記憶手段に記憶
される前フレームの音声信号のパワーおよび前記測定手
段で測定された現フレームの音声信号のパワーとの差分
値を演算する演算手段と、該差分値と予め定めた閾値と
の大小関係を比較する比較手段と、前記差分値が予め定
めた閾値以上の場合には前記補間処理を行わず、逆に、
前記差分値が予め定めた閾値より小さな場合には前記補
間処理を行う反射係数補正手段を備えることを特徴とす
る音声情報処理装置。5. A reflection coefficient of an audio signal at a constant time interval (frame) (when the model from the glottal to the lip is modeled on a transmission path for transmitting sound waves, the degree of reflection of the sound waves on the transmission path is determined. Parameter) and at least one of the time intervals (subframes) obtained by dividing the frame into a plurality of frames, the weighted addition value of the reflection coefficients in the previous frame and the current frame is used as the reflection coefficient of the subframe. And interpolation processing means for performing an interpolation processing, and processing means for obtaining parameters including a lag, a noise source (codebook), and a gain for each current subframe based on a linear prediction coefficient uniquely corresponding to the reflection coefficient. Further, a measuring unit for measuring the power of the audio signal, a storage unit for storing the measured power of the audio signal, and a storage unit for storing the measured power of the audio signal. Comparing means for computing the difference value between the power of the voice signal of the previous frame and the power of the voice signal of the current frame measured by the measuring means, and comparing the magnitude relationship between the difference value and a predetermined threshold value. And the difference value is equal to or greater than a predetermined threshold value, the interpolation processing is not performed, and conversely,
An audio information processing apparatus comprising reflection coefficient correction means for performing the interpolation process when the difference value is smaller than a predetermined threshold value.
新するための閾値更新手段と、更新する閾値を、更新前
に定められている閾値と現フレームの音声信号のパワー
との平均値として求める閾値計算手段とを備えることを
特徴とする音声情報処理装置。6. The threshold value updating means for updating the threshold value according to claim 5, and the threshold value to be updated is an average value of the threshold value determined before the update and the power of the audio signal of the current frame. A voice information processing apparatus, comprising: a threshold value calculating unit for obtaining.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6002754A JPH07210198A (en) | 1994-01-14 | 1994-01-14 | Sound information processor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6002754A JPH07210198A (en) | 1994-01-14 | 1994-01-14 | Sound information processor |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH07210198A true JPH07210198A (en) | 1995-08-11 |
Family
ID=11538141
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP6002754A Pending JPH07210198A (en) | 1994-01-14 | 1994-01-14 | Sound information processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH07210198A (en) |
-
1994
- 1994-01-14 JP JP6002754A patent/JPH07210198A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP0673013B1 (en) | Signal encoding and decoding system | |
JP3653826B2 (en) | Speech decoding method and apparatus | |
KR100304682B1 (en) | Fast Excitation Coding for Speech Coders | |
JP4213243B2 (en) | Speech encoding method and apparatus for implementing the method | |
US6691085B1 (en) | Method and system for estimating artificial high band signal in speech codec using voice activity information | |
KR20090076964A (en) | Parameter Decoding Device, Parameter Coding Device, and Parameter Decoding Method | |
JPH08328591A (en) | Method for adaptation of noise masking level to synthetic analytical voice coder using short-term perception weightingfilter | |
JPH06125281A (en) | Voice decoder | |
JP3180786B2 (en) | Audio encoding method and audio encoding device | |
JP3483853B2 (en) | Application criteria for speech coding | |
JP2645465B2 (en) | Low delay low bit rate speech coder | |
JPH07210198A (en) | Sound information processor | |
CN116052700A (en) | Voice coding and decoding method, and related device and system | |
JP3785363B2 (en) | Audio signal encoding apparatus, audio signal decoding apparatus, and audio signal encoding method | |
JP3552201B2 (en) | Voice encoding method and apparatus | |
JP3089967B2 (en) | Audio coding device | |
EP1359567A1 (en) | Gradient descent optimization of linear prediction coefficients for speech coders | |
JP3192051B2 (en) | Audio coding device | |
JP4230550B2 (en) | Speech encoding method and apparatus, and speech decoding method and apparatus | |
JP3102017B2 (en) | Audio coding method | |
KR100205060B1 (en) | Pitch detection method of celp vocoder using normal pulse excitation method | |
JPH08160996A (en) | Speech coding device | |
JPH11500837A (en) | Signal prediction method and apparatus for speech coder | |
JPH09269799A (en) | Voice coding circuit provided with noise suppression function | |
JPH06222796A (en) | Audio encoding system |