JP2711737B2 - Linear predictive analysis / synthesis decoder - Google Patents
Linear predictive analysis / synthesis decoderInfo
- Publication number
- JP2711737B2 JP2711737B2 JP1260199A JP26019989A JP2711737B2 JP 2711737 B2 JP2711737 B2 JP 2711737B2 JP 1260199 A JP1260199 A JP 1260199A JP 26019989 A JP26019989 A JP 26019989A JP 2711737 B2 JP2711737 B2 JP 2711737B2
- Authority
- JP
- Japan
- Prior art keywords
- output
- pitch
- signal
- noise
- outputs
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000015572 biosynthetic process Effects 0.000 title claims description 17
- 238000003786 synthesis reaction Methods 0.000 title claims description 17
- 238000004458 analytical method Methods 0.000 title claims description 15
- 238000000034 method Methods 0.000 claims description 12
- 238000001228 spectrum Methods 0.000 claims description 9
- 238000000926 separation method Methods 0.000 claims description 5
- 230000002194 synthesizing effect Effects 0.000 claims description 2
- 230000003595 spectral effect Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 230000005236 sound signal Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000005311 autocorrelation function Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 210000004704 glottis Anatomy 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000001308 synthesis method Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Description
【発明の詳細な説明】 (発明の属する技術分野) 本発明は、音声符号化方式のうち線形予測分析符号化
(LPC:Linear Predictive Coding)方式によって符号化
されたディジタル信号を合成してもとの音声信号に復号
変換する線形予測分析・合成方式の復号器に関するもの
である。DETAILED DESCRIPTION OF THE INVENTION (Technical Field to Which the Invention Belongs) The present invention relates to a method of synthesizing a digital signal encoded by a linear predictive coding (LPC) method among speech coding methods. The present invention relates to a linear prediction analysis / synthesis type decoder that decodes and converts into a speech signal.
(従来技術とその問題点) 第1図は、従来の線形予測分析合成符号化方式による
音声符復号器の原理系統図であり、(a)は符号器、
(b)は復号器である。図において、入力音声信号A
は、線形予測分析される。すなわち、線形予測分析器お
よび音源強度抽出器11によって線形予測分析係数および
音源強度情報aが抽出され、有声無声識別器12によって
有声無声識別信号cが抽出され、有声音の時のピッチ周
期bがピッチ周期抽出器13によって抽出され、これらの
パラメータa,b,cを符号化器14によって符号化して伝送
信号Bとして送出する。復号器は、入力信号Cを分離回
路21によって各パラメータの信号d,e,fに分離し、ピッ
チ周期eによりピッチパルス発生器22の周期を制御し、
有声・無声識別信号及び音源強度情報fによって、ピッ
チパルス発生器22の出力と雑音発生器23の出力とを切換
器24によって選択した後、強度を決定し、その出力信号
を駆動信号として線形予測分析係数dに基づく合成フィ
ルタ25を駆動することにより復元された音声信号Dをと
り出す。この場合の音声信号Dの音声品質の限界とし
て、合成フィルタ25の駆動信号をピッチパルス発生器22
の出力か雑音発生器23の出力かのいずれかを2者選択し
ていることが指摘され、第3の駆動信号として両者の混
合されたものが必要とされていた。(Prior Art and Problems Thereof) FIG. 1 is a principle system diagram of a speech codec according to a conventional linear prediction analysis / synthesis coding method, and FIG.
(B) is a decoder. In the figure, an input audio signal A
Is subjected to linear prediction analysis. That is, the linear prediction analysis coefficient and the sound source strength information a are extracted by the linear prediction analyzer and the sound source strength extractor 11, the voiced unvoiced discrimination signal c is extracted by the voiced unvoiced discriminator 12, and the pitch period b at the time of voiced sound is The parameters a, b, and c extracted by the pitch period extractor 13 are encoded by the encoder 14 and transmitted as the transmission signal B. The decoder separates the input signal C into signals d, e, and f of the respective parameters by the separation circuit 21 and controls the cycle of the pitch pulse generator 22 according to the pitch cycle e.
After the output of the pitch pulse generator 22 and the output of the noise generator 23 are selected by the switch 24 according to the voiced / unvoiced discrimination signal and the sound source strength information f, the strength is determined, and the output signal is used as a drive signal to perform linear prediction. The audio signal D restored by driving the synthesis filter 25 based on the analysis coefficient d is extracted. In this case, as a limit of the audio quality of the audio signal D, the drive signal of the synthesis filter 25 is converted to a pitch pulse generator 22.
It has been pointed out that either one of the output of the noise generator 23 and the output of the noise generator 23 is selected, and a mixed signal of both is required as the third drive signal.
即ち、従来の方式では、有声音のときはピッチパルス
発生器22の出力を選択し、無声音のときは雑音発生器23
の出力を選択して駆動信号とするモデルでは、無声音か
ら有声音への移行時の両者の混じり合った駆動信号をモ
デル化することが出来ないという問題点があり、復号化
音声の音声品質が悪いという欠点があった。That is, in the conventional method, the output of the pitch pulse generator 22 is selected for voiced sound, and the output of the noise generator 23 is selected for unvoiced sound.
In the model that selects the output of the above as a drive signal, there is a problem that it is not possible to model a drive signal in which both are mixed at the transition from unvoiced sound to voiced sound, and the voice quality of the decoded voice is low. There was a disadvantage that it was bad.
(発明の目的) 本発明の目的は、上述のような線形予測分析・合成技
術を用いた音声の符復号化方式において、符号器側に特
別な操作を施す必要なく、例えば伝送する情報を増やす
ことなく、復号器側のみにおいて、音声を復元するため
の合成フィルタを駆動するための第3の信号として、ピ
ッチパルス発生器出力と雑音信号を混合した信号を作り
出すことが出来る信号処理方式の復号器を提供すること
にある。(Object of the Invention) An object of the present invention is to increase the information to be transmitted, for example, without performing any special operation on the encoder side in the speech codec using the linear prediction analysis / synthesis technique as described above. A signal processing method capable of producing a signal obtained by mixing a pitch pulse generator output and a noise signal as a third signal for driving a synthesis filter for restoring audio only on the decoder side without using the decoder. To provide equipment.
(発明の構成及び作用) 第2図は、本発明の実施例を示す回路ブロック図であ
る。送信側の符号器は従来のものと同じであるのでここ
では省略している。符号器からのデータEは、分離回路
31によってそれぞれのパラメータg,h,iに分離される。
各パラメータのうち線形予測係数gは処理制御回路34と
合成フィルタ38に入力され、有声,無声識別信号及び音
源強度情報hは処理制御回路34に入力され、ピッチ周期
iはピッチパルス発生器32に入力される。FIG. 2 is a circuit block diagram showing an embodiment of the present invention. The encoder on the transmitting side is the same as the conventional one, and is omitted here. Data E from the encoder is separated by a separation circuit.
31 separates them into respective parameters g, h, i.
Among the parameters, the linear prediction coefficient g is input to the processing control circuit 34 and the synthesis filter 38, the voiced / unvoiced identification signal and the sound source intensity information h are input to the processing control circuit 34, and the pitch period i is input to the pitch pulse generator 32. Is entered.
処理制御回路34は、線形予測係数gをもとにして、駆
動信号を、周波数軸上でピッチパルス発生器32からの出
力を使用する周波数範囲と、雑音発生器33の出力を使用
する周波数の範囲とに分け、これら周波数範囲の制御信
号j及びkをピッチパルス発生器32及び雑音発生33の出
力にそれぞれ備えた出力制御回路35及び36に加える。こ
れらの出力制御回路35,36は、それぞれの発生器32及び3
3の出力を所望の周波数範囲に分割して出力し、合成器3
7で合成した後に合成フィルタ38の駆動信号とする。合
成フィルタ38の出力Fは復元された音声信号となる。Based on the linear prediction coefficient g, the processing control circuit 34 converts the drive signal into a frequency range using the output from the pitch pulse generator 32 on the frequency axis and a frequency using the output of the noise generator 33. The control signals j and k in these frequency ranges are applied to output control circuits 35 and 36 provided at the outputs of the pitch pulse generator 32 and the noise generator 33, respectively. These output control circuits 35 and 36 are provided with respective generators 32 and 3
3 is divided into a desired frequency range and output.
After being synthesized in step 7, the driving signal of the synthesis filter 38 is used. The output F of the synthesis filter 38 is a restored audio signal.
次に、処理制御回路34が線形予測係数gから如何に、
駆動信号を周波数軸上で、ピッチパルス発生器32の出力
であるピッチ成分と雑音発生器33の出力である雑音成分
とに分けることができるかを説明する。Next, the processing control circuit 34 determines how the linear prediction coefficient g
It will be described whether the drive signal can be divided on the frequency axis into a pitch component output from the pitch pulse generator 32 and a noise component output from the noise generator 33.
音声信号は、一般に有声音と無声音とに分けられる。
有声音の周波数スペクトルは包絡線とピッチの高調波で
ある微細構造から構成される。第3図はこれらのスペク
トルを示す波形図である。第3図(a)の実線はピッチ
の高調波成分であり、点線はスペクトル包絡線である。
スペクトル包絡線は複数のフォルマントと呼ばれる共振
峰から成る。微細構造はピッチの高調波成分でモデル化
されるが、必ずしも高調波成分だけで構成されるわけで
はなく、スペクトル包絡線のレベルが小さい部分は白色
雑音でモデル化する方法が妥当である。本発明は、この
白色雑音でモデル化される部分の周波数範囲を決める方
法を与えるものである。この白色雑音でモデル化される
周波数範囲は第3図(a)のG,Hで示される範囲であ
り、この部分はスペクトル包絡線の谷の部分であること
がわかる。従って、スペクトル包絡線が求まれば、これ
を閾値と比較することによって、閾値以下の部分の周波
数範囲が、求めるピッチの高調波成分を白色雑音に置き
換える部分である。Audio signals are generally divided into voiced and unvoiced sounds.
The frequency spectrum of a voiced sound is composed of an envelope and a fine structure that is a harmonic of pitch. FIG. 3 is a waveform diagram showing these spectra. The solid line in FIG. 3 (a) is the harmonic component of the pitch, and the dotted line is the spectral envelope.
The spectral envelope consists of a plurality of resonance peaks called formants. Although the fine structure is modeled by harmonic components of the pitch, it is not necessarily composed only of harmonic components, and a method of modeling a portion where the level of the spectral envelope is small by white noise is appropriate. The present invention provides a method for determining the frequency range of the part modeled by the white noise. The frequency range modeled by this white noise is the range indicated by G and H in FIG. 3A, and it can be seen that this portion is the valley portion of the spectral envelope. Therefore, when the spectrum envelope is obtained, it is compared with the threshold value, and the frequency range below the threshold value is the part that replaces the harmonic component of the desired pitch with white noise.
次に、スペクトル包絡線を求める方法を述べる。スペ
クトル包絡線は先に述べたように、フォルマントの合成
で与えられる。1つのフォルマントは単同調共振回路で
表現することができることは理論的にも実験的にもよく
知られている。従って、フォルマントの中心周波数と3d
B帯域幅(又は共振のQ)及びフォルマントの振幅が求
まれば、これらをもとに単同調共振回路の周波数特性の
合成としてスペクトル包絡線を記述することができる。
この様子を第3図(b)に示す。ここで、J,Kの点線で
示した部分は単同調共振回路の周波数特性であり、実線
はそれらの合成の周波数特性である。従って、これらの
それぞれの共振周波数特性と閾値とを比較した結果を重
ね合わせた共通の部分が求める範囲であり、これを第3
図(c)に示す。第3図(c)において、1は閾値より
大きい部分を示し、0は閾値より小さい部分を示す。Next, a method for obtaining the spectrum envelope will be described. The spectral envelope is given by the formant synthesis, as described above. It is well known both theoretically and experimentally that one formant can be represented by a single-tuned resonant circuit. Therefore, the formant center frequency and 3d
If the B bandwidth (or resonance Q) and the formant amplitude are determined, the spectral envelope can be described as a combination of the frequency characteristics of the single-tuned resonance circuit based on these.
This is shown in FIG. 3 (b). Here, the portions indicated by the dotted lines of J and K are the frequency characteristics of the single-tuned resonance circuit, and the solid line is the combined frequency characteristics. Therefore, a common part obtained by superimposing the results of comparing these respective resonance frequency characteristics with the threshold value is the range to be obtained.
It is shown in FIG. In FIG. 3 (c), 1 indicates a portion larger than the threshold, and 0 indicates a portion smaller than the threshold.
このようにして得られた周波数の関数としての閾値よ
り大きい部分の関数をもとにして、ピッチの高調波成分
と白色雑音とを混合した信号を得る方法は、まず、ピッ
チの高調波成分発生器の出力と第3図(c)の関数を周
波数領域で乗算することによって得られる。即ち、第2
図のピッチパルス発生器32の出力と処理制御回路34の出
力j、すなわち第3図(c)の関数信号jの積である。
周波数領域で乗算する処理としては帯域除去フィルタ,
低域通過フィルタ,高域通過フィルタ又は帯域通過フィ
ルタの組合せで実現することができる。また、帯域制限
された白色雑音フィルタは、同様にして第3図(c)の
関数の1を0に、0を1に置き換えたもの(第2図の信
号k)と白色雑音発生器33の出力とを出力制御回路36に
よって周波数領域で乗算することによって得られる。The method of obtaining a signal in which the harmonic component of the pitch and the white noise are mixed based on the function of the portion larger than the threshold value as a function of the frequency obtained in this way, firstly generates the harmonic component of the pitch. 3 (c) in the frequency domain. That is, the second
This is the product of the output of the pitch pulse generator 32 and the output j of the processing control circuit 34, that is, the function signal j of FIG. 3 (c).
The processing to multiply in the frequency domain is a band elimination filter,
It can be realized by a combination of a low-pass filter, a high-pass filter or a band-pass filter. Similarly, the band-limited white noise filter is obtained by replacing the function 1 in FIG. 3 (c) with 0 and replacing 0 with 1 (signal k in FIG. 2) and the white noise generator 33 in FIG. And the output is multiplied by the output control circuit 36 in the frequency domain.
以上の方法によって、ピッチ高調波と帯域制限された
白色雑音の混合された微細構造をもつ駆動信号が得られ
る。According to the above method, a drive signal having a fine structure in which pitch harmonics and band-limited white noise are mixed can be obtained.
次に、フォルマントの中心周波数,3dB帯域幅及びフォ
ルマントの振幅は、線形予測分析の結果得られるパラメ
ータと密接な関係があり、全てそのパラメータから得ら
れる。詳しくは(注)として後述する。Next, the center frequency of the formant, the 3 dB bandwidth, and the amplitude of the formant are closely related to the parameters obtained as a result of the linear prediction analysis, and are all obtained from the parameters. Details will be described later as (Note).
従って、本発明の方法によれば、線形予測音声合成器
において、有声音の時にピッチの高調波のみで近似して
いた駆動音源を、ピッチの高調波と帯域制限された白色
雑音の合成された駆動音源とすることができ、しかも、
その処理は分析器(送信の符号器側)に対しては一切の
処理をする必要がなく、全ての処理を合成器側(受信の
復号器側)のみで行うため、分析器から合成器への伝送
すべき情報量を増す必要がない。Therefore, according to the method of the present invention, in the linear predictive speech synthesizer, the driving sound source which was approximated only by the pitch harmonic at the time of the voiced sound was synthesized with the pitch harmonic and the band-limited white noise. It can be a driving sound source, and
It is not necessary to perform any processing on the analyzer (encoder side for transmission), and all the processing is performed only on the synthesizer side (decoder side on reception). It is not necessary to increase the amount of information to be transmitted.
(注) ここでは線形予測分析パラメータとフォルマントの物
理量(中心周波数,帯域幅,振幅)の関係を示す。線形
予測分析して得られたパラメータは、符号器から復号器
への伝送はそのままの形ではなく、反射係数,PARCOR係
数又はLAR係数等に変換されて行われるが、それらはも
とのパラメータと容易に変換することが可能である。(Note) The relationship between the linear prediction analysis parameters and the physical quantities of formants (center frequency, bandwidth, amplitude) is shown here. The parameters obtained by linear prediction analysis are not transmitted as they are from the encoder to the decoder, but are converted to reflection coefficients, PARCOR coefficients or LAR coefficients, etc. It can be easily converted.
線形予測分析により同定された全極形システム関数H
(z)は、1/A(z)と表され、A(z)=0の根が極
を与え、これはフォルマントに対応する。線形予測パラ
メータを{αi}i=1,2,…,pとすれば、 A(z)=1+α1Z-1+α2Z-2+…+αpZ-p=0 の根 から、フォルマントの中心周波数と帯域幅は次ように求
められる。All-pole system function H identified by linear predictive analysis
(Z) is expressed as 1 / A (z), and the root of A (z) = 0 gives a pole, which corresponds to a formant. Assuming that the linear prediction parameters are {α i } i = 1, 2,..., P , the root of A (z) = 1 + α 1 Z −1 + α 2 Z −2 +... + Α p Z −p = 0 Therefore, the center frequency and the bandwidth of the formant are obtained as follows.
また、フォルマント振幅は、PARCOR係数{ki}
i=1,2,…,pによって定まる擬声道モデルの声門での損
失を無損失化することにより、全極形システム関数H
(z)を線スペクトル化して求められる。線スペクトル
化された全極形システム関数Hp+1(z)の極を与える根
は、 となり、λiは線スペクトル周波数を与える。その振幅
は、全極形システム関数Hp+1(z)のλiにおける留数
計算から求めることができる。留数計算の結果、全極形
システム関数は次の式で表すことができる。 Also, the formant amplitude is determined by the PARCOR coefficient {k i }
By making the loss at the glottis of the pseudovocal tract model determined by i = 1, 2,..., p lossless, the all-pole system function H
It is obtained by converting (z) into a line spectrum. The root that gives the pole of the line-spectralized all-pole system function H p + 1 (z) is And λ i gives the line spectral frequency. The amplitude can be obtained from the residue calculation at λ i of the all-pole system function H p + 1 (z). As a result of the residue calculation, the all-pole system function can be expressed by the following equation.
パワー伝達関数Pp+1(λ)=Hp+1(λ)Hp+1 *(λ)の
逆フーリエ変換は、自己相関関数Pτとなるので、次式
のように展開することができる。 Since the inverse Fourier transform of the power transfer function P p + 1 (λ) = H p + 1 (λ) H p + 1 * (λ) becomes the autocorrelation function Pτ, it can be expanded as the following equation. .
これより、Pτの実測値を用いて連立方程式を解くこと
により、線スペクトル振幅miを求めることができる。 Than this, by solving the simultaneous equations using measured values of Ptau, it is possible to obtain a line spectral amplitude m i.
(発明の効果) 以上詳細に説明したように、本発明を線形予測分析・
合成方式による符号化音声信号の復号器として適用する
ことによって、合成音声の自然性を高めることができ
る。(Effects of the Invention) As described in detail above, the present invention is applied to linear prediction analysis
By applying the present invention as a decoder for an encoded speech signal by a synthesis method, the naturalness of the synthesized speech can be enhanced.
第1図は従来の線形予測分析・合成方式の符号器および
復号器のブロック図、第2図は本発明の実施例を示す復
号器の回路ブロック図、第3図はスペクトル特性図であ
る。 11……線形予測分析器と音源強度抽出器、12……有声無
声識別器、13……ピッチ周期抽出器、14……符号化器、
21,31……分離回路、22,32……ピッチパルス発生器、2
3,33……雑音発生器、24……切換器、25,38……合成フ
ィルタ、34……処理制御回路、35,36……出力制御回
路、37……合成器。FIG. 1 is a block diagram of a conventional linear prediction analysis / synthesis type encoder and decoder, FIG. 2 is a circuit block diagram of a decoder showing an embodiment of the present invention, and FIG. 3 is a spectrum characteristic diagram. 11 ………………………………………………………………………………………………………………………………………………………………………………………………………………………………… Pitch period extractor
21,31 ... Separation circuit, 22,32 ... Pitch pulse generator, 2
3, 33 noise generator, 24 switcher, 25, 38 synthesis filter, 34 processing control circuit, 35, 36 output control circuit, 37 synthesizer.
Claims (1)
音声信号が分析符号化された受信ディジタル信号に含ま
れる線形予測係数,有声無声識別信号及び音源強度情
報,ピッチ周期情報の各パラメータを分離出力する分離
回路と、前記ピッチ周期情報によって制御されたピッチ
パルスを出力するピッチパルス発生器と、白色雑音を出
力する雑音発生器と、前記ピッチパルス発生器の出力と
前記雑音発生器の出力とを駆動音源として前記線形予測
係数に従って復号化した音声信号を出力する合成フィル
タとを備えた線形予測分析・合成方式の復号器におい
て、 前記分離回路からの線形予測係数と有声無声識別信号及
び音源強度情報とが入力され、有声音のホルマントの合
成による周波数軸上のスペクトル包絡線を求めて予め定
めた閾値と比較し、該スペクトル包絡線のレベルが閾値
より大きい周波数領域を表すピッチ成分関数信号と、該
スペクトル包絡線のレベルが閾値より小さい周波数領域
を表す雑音成分関数信号とを出力する処理制御回路と、 前記ピッチパルス発生器の出力と前記ピッチ成分関数信
号とを乗算して前記閾値より大きい周波数領域のピッチ
パルスを出力する第1の出力制御回路と、 前記雑音発生器からの白色雑音と前記雑音成分関数信号
とを乗算して前記閾値より小さい周波数領域の白色雑音
を出力する第2の出力制御回路と、 前記第1の出力制御回路の出力と前記第2の出力制御回
路の出力とを合成して前記合成フィルタに対する駆動音
源として出力する合成器と を備えたことを特徴とする線形予測分析・合成方式の復
号器。1. A method for separating a linear prediction coefficient, a voiced / unvoiced discrimination signal, sound source intensity information, and pitch period information contained in a received digital signal in which a speech signal is analyzed and coded by a linear prediction analysis / synthesis type encoder. An output separation circuit, a pitch pulse generator that outputs a pitch pulse controlled by the pitch period information, a noise generator that outputs white noise, an output of the pitch pulse generator, and an output of the noise generator. And a synthesis filter that outputs a speech signal decoded according to the linear prediction coefficient as a driving sound source. A linear prediction coefficient and a voiced unvoiced identification signal and a sound source intensity from the separation circuit, Information is input, and a spectrum envelope on the frequency axis is obtained by synthesizing a voiced formant, and is compared with a predetermined threshold. A processing control circuit that outputs a pitch component function signal representing a frequency domain in which the level of the spectrum envelope is larger than a threshold, and a noise component function signal representing a frequency domain in which the level of the spectrum envelope is smaller than the threshold; A first output control circuit for multiplying an output of a pulse generator by the pitch component function signal to output a pitch pulse in a frequency region larger than the threshold, a white noise from the noise generator and the noise component function signal And a second output control circuit that outputs white noise in a frequency region smaller than the threshold value by multiplying the output of the first output control circuit and the output of the second output control circuit. A linear predictive analysis / synthesis type decoder, comprising: a synthesizer that outputs a driving sound source to the synthesis filter.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP1260199A JP2711737B2 (en) | 1989-10-06 | 1989-10-06 | Linear predictive analysis / synthesis decoder |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP1260199A JP2711737B2 (en) | 1989-10-06 | 1989-10-06 | Linear predictive analysis / synthesis decoder |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPH03123400A JPH03123400A (en) | 1991-05-27 |
| JP2711737B2 true JP2711737B2 (en) | 1998-02-10 |
Family
ID=17344710
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP1260199A Expired - Fee Related JP2711737B2 (en) | 1989-10-06 | 1989-10-06 | Linear predictive analysis / synthesis decoder |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2711737B2 (en) |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6377915B1 (en) * | 1999-03-17 | 2002-04-23 | Yrp Advanced Mobile Communication Systems Research Laboratories Co., Ltd. | Speech decoding using mix ratio table |
| JP5085700B2 (en) * | 2010-08-30 | 2012-11-28 | 株式会社東芝 | Speech synthesis apparatus, speech synthesis method and program |
Family Cites Families (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS56149100A (en) * | 1980-04-22 | 1981-11-18 | Casio Computer Co Ltd | Sound source circuit for voice synthesizer |
| JPS5722297A (en) * | 1980-07-15 | 1982-02-05 | Matsushita Electric Works Ltd | Voice synthesizing system |
| JPS6053999A (en) * | 1983-09-05 | 1985-03-28 | 日本電気株式会社 | Voice synthesizer |
-
1989
- 1989-10-06 JP JP1260199A patent/JP2711737B2/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| JPH03123400A (en) | 1991-05-27 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4843124B2 (en) | Codec and method for encoding and decoding audio signals | |
| US5581652A (en) | Reconstruction of wideband speech from narrowband speech using codebooks | |
| JP3557662B2 (en) | Speech encoding method and speech decoding method, and speech encoding device and speech decoding device | |
| JPS62261238A (en) | Methode of encoding voice signal | |
| EP1037197A2 (en) | Voicing analysis in a linear predictive speech coder | |
| EP0640952A2 (en) | Voiced-unvoiced discrimination method | |
| US6023671A (en) | Voiced/unvoiced decision using a plurality of sigmoid-transformed parameters for speech coding | |
| JPH09258795A (en) | Digital filter and acoustic coding / decoding device | |
| JP2711737B2 (en) | Linear predictive analysis / synthesis decoder | |
| JPH07199997A (en) | Audio signal processing method in audio signal processing system and method for reducing processing time in the processing | |
| JP2001508197A (en) | Method and apparatus for audio reproduction of speech encoded according to the LPC principle by adding noise to a constituent signal | |
| Copperi et al. | Vector quantization and perceptual criteria for low-rate coding of speech | |
| JP3398968B2 (en) | Speech analysis and synthesis method | |
| JPH06202695A (en) | Speech signal processor | |
| JP3297750B2 (en) | Encoding method | |
| JP3063087B2 (en) | Audio encoding / decoding device, audio encoding device, and audio decoding device | |
| JPS58188000A (en) | Voice recognition synthesizer | |
| JPH0876799A (en) | Wideband audio signal restoration method | |
| JPH05507796A (en) | Method and apparatus for low-throughput encoding of speech | |
| JP3218680B2 (en) | Voiced sound synthesis method | |
| JPH0690638B2 (en) | Speech analysis method | |
| JPH07114396A (en) | Pitch detection method | |
| JPH05281995A (en) | Speech encoding method | |
| JP3271966B2 (en) | Encoding device and encoding method | |
| JPH0738119B2 (en) | Speech waveform coding / decoding device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| LAPS | Cancellation because of no payment of annual fees |