JP2707564B2 - Audio coding method - Google Patents
Audio coding methodInfo
- Publication number
- JP2707564B2 JP2707564B2 JP62315621A JP31562187A JP2707564B2 JP 2707564 B2 JP2707564 B2 JP 2707564B2 JP 62315621 A JP62315621 A JP 62315621A JP 31562187 A JP31562187 A JP 31562187A JP 2707564 B2 JP2707564 B2 JP 2707564B2
- Authority
- JP
- Japan
- Prior art keywords
- sound source
- frame
- voiced
- residual
- unvoiced
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/10—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Description
【発明の詳細な説明】
〔産業上の利用分野〕
本発明は、音声符号化方式に関し、特に音声情報を8K
bps前後に圧縮する際に符号化音声の品質を向上させる
ための方式に関するものである。
〔従来の技術〕
音声信号を広帯域ケーブルで伝送するためには、音声
信号をサンプリングし、量子化して、2進のディジタル
符号に変換することにより、PCM伝送する。
一方、専用ディジタル回線を用いて通信ネットワーク
を構築する場合、通信コストの低減は非常に重要な課題
であり、60Kbpsにも及ぶ音声信号の情報量は多過ぎるた
め、そのままでは伝送できない。そこで、伝送のための
音声信号の情報圧縮(つまり低ビットレート符号化)が
必要となった。
音声信号を8Kbps前後で圧縮する音声符号化方式とし
ては、音声をスペクトル包絡情報と音源情報とに分離し
て、各々を符号化する方法が知られている。その中で、
音源情報を単一パルス列と白色雑音でモデル化したもの
が、いわゆるPARCOR(Partial Autocorrelation:偏自己
相関)法であり、この方法では、低ビットレートで符号
化できるが、その反面、品質の劣化が大きい。これに対
して、音源を複数のパルス列で表現する方式として、マ
ルチパルス法(例えば、小沢,他『マルチパルス駆動形
音声符号化法の品質改善』日本音響学会音声研究会資料
S83−78(1984.1)参照)や、あるいは残差圧縮法(浅
川,他『残差情報を利用した音声合成法の検討』日本音
響学会講演論文集3−1−7(昭和59.10)参照)等が
ある。
残差圧縮法としては、例えば特開昭61−296398号公報
に記載された方法が提案されており、また特願昭60−24
1419号,特願昭61−35148号の各明細書にも記載されて
いる。
これらの方式では、音源の表現が精密化する分だけ、
PARCOR法に比べて品質が向上している。
〔発明が解決しようとする問題点〕
前述の従来技術においては、音源である複数のパルス
列を、フレームごとに独立して一定の基準で生成する。
ここで、フレームとは、音声を分析する時間単位であっ
て、通常は20ms程度に設定される。
ところで、音声波形は、サンプリングされてサンプル
値xiの系列に変換されているものとする。現在をxtと
し、それから過去にさかのぼるp個のサンプル値を{x
t-i},(i=1,・・・,p)とする。ここで、音声波形
は近似的に過去のp個のサンプルから予測できると仮定
する。予測の中で最も簡単なものは線形予測であるか
ら、過去のサンプル値の各々にある一定の係数を乗じて
加え合わせたもので、現在の値が近似されるものと考え
る。このとき、現在点tでの実現値xtと予測値ytとの差
を、予測誤差εとする。この予測誤差εを、予測残差ま
たは単に残差と呼ぶ。音声波形の予測残差波形は、2種
類の波形の和と考えられる。その1つは、いわゆる誤差
成分であり、その振幅は余り大きくなく、ランダムな雑
音波形に近い。また、他の1つは、入力に声帯振動によ
るパルスが加わったときの誤差であって、予測が大きく
狂い、振幅の大きな残差波形となる。この残差成分は、
音源の周期性に対応して、繰り返し周期的に現われる。
音声は、周期性を有する区間(有声音)と、周期性が
顕著でない区間(無声音)とに大別されるので、それに
対応して、予測残差波形も、有声音部では周期性を有し
ている。
一方、マルチパルス法や残差圧縮法において生成され
るパルス列は、残差の近似とみなすことができるので、
有声音部では周期性を有するはずである。ところが、こ
れらのパルス列は前後のフレームとは独立して生成され
るために、パルス列の相対的な位置関係がフレームごと
にずれてしまい、周期性が乱れる場合がある。
このようなパルス列を音源として音声を合成すると、
『ゴロゴロ』という音質劣化が生じるという問題があっ
た。
本発明の目的は、このような従来の問題を改善し、マ
ルチパルス法や残差圧縮法で生成されるパルス列に対し
て、フレームごとの周期性の乱れによる音質の劣化を防
止することができる音声符号化方式を提供することにあ
る。
〔問題点を解決するための手段〕
上記目的を達成するため、本発明の音声符号化方式
は、有声フレームが無声フレームから切り替わった直後
か、有声フレームが連続したか、あるいは無声フレーム
であるかのいずれかを判定する手段と、上記無声フレー
ムから有声フレームに切り替わった直後に、音源パルス
を生成する第1の音源パルス生成手段と、上記有声フレ
ームが連続するときに、音源パルスを生成する第2の音
源パルス生成手段と、上記無声フレームのときに、音源
パルスを生成する第3の音源パルス生成手段とを具備す
ることに特徴がある。
〔作用〕
本発明においては、最初に生成されたパルス列を基準
として、ピッチ周期により次のフレームのパルス列の位
置を推定し、その推定された位置の近傍で新たなパルス
列を生成し、周期性を保持する。すなわち、有声音にお
ける音声の周期は、声の高さであるピッチ周波数の逆数
であるピッチ周期に対応している。音の高さの変化は比
較的ゆるやかであるから、1フレームの中ではほぼ一定
とみなすことができる。そこで、最初の基準となるフレ
ーム、例えば、無声音から有声音に切り替わった最初の
フレームでは、従来技術により一定の基準で音源パルス
列を生成した後、順次、生成された音源パルス列を基準
に次のフレームにおける音源パルス列の位置を推定し
て、音源パルス列を生成する方法を用いる。
マルチパルス法や残差圧縮法では、音源パルス数が少
ないので、一般に生成される音源パルス列はピッチ周期
ごとに一塊のまとまったものとなる。従って、フレーム
の最後のピッチ周期における音源パルス列を基準とし
て、ピッチ周期だけ時間軸方向に進めた位置を次のフレ
ームの先頭のパルス列の位置とするのである。このよう
にすれば、2フレーム間でのパルス列の周期性が保持さ
れる。次フレームにおいては、この位置を基準として、
この位置の近傍に最初の音源パルス列を生成する。それ
により、フレーム間での周期性の乱れは無くなり、音質
の劣化も防止でき、かつパルス列生成の基準に基づいた
最適な音源パルス列が得られることになる。
〔実施例〕
以下、本発明の実施例を、図面により詳細に説明す
る。
第1図は、本発明の音声符号化方式を残差圧縮法を用
いた音声符号化装置(音声CODEC)に適用した場合のブ
ロック構成図であって、(a)が符号化部であり、
(b)が復号化部である。
本発明の符号化部は、第1図(a)に示すように、デ
ィジタル音声信号を格納するバッファメモリ1と、線形
予測を行う線形予測回路3と、パラメータ4を用いて制
御される逆フィルタ5と、残差相関法等を用いてピッチ
を抽出するピッチ抽出回路7と、有声無声判定回路9
と、有声無声判定結果に応じて音源パルスを生成する音
源生成部11と、量子化符号化回路13とを具備している。
また、本発明の復号化部は、第1図(b)に示すよう
に、入力信号を4種のパラメータに分離する復号回路16
と、復号化されたスペクトルパラメータを格納するバッ
ファメモリ19と、ピッチ周期と有声無声判定結果と音源
情報を入力として、音源パルスを生成する音源パルス再
生回路17と、音源パルス再生回路17での遅延を補正し
て、これを係数とする合成フィルタ20とを具備してい
る。
第1図(a)において、符号化時には、ディジタル化
された音声信号は、バッファメモリ1に1フレーム分格
納され、よく知られている線形予測回路3により、スペ
クトル包絡を表わすパラメータ(例えば、偏自己相関係
数)4に変換される。次に、このパラメータ4を係数に
用いて逆フィルタ5を構成し、これに音声信号2を入力
することにより、残差信号6を得る。ピッチ抽出回路7
は、残差相関法やAMDF(Average Magnitude Differenti
al Function)法等のよく知られた手法を用いており、
残差信号6を入力としてフレームのピッチ周期8を抽出
する。有声無声判定回路9は、そのフレームが有声フレ
ームであるか無声フレームであるかの判定結果10a、お
よび無声フレームから有声フレームに切り替わったこと
を示す信号10bを出力する。音源生成部11は、本発明に
より新たに設けられたものであって、音声無声判定結果
10aおよび切り替え信号10bに応じて音源パルスを生成
し、その情報12を出力する。
量子化符号化回路13は、スペクトルパラメータ4とピ
ッチ周期8と有声無声判定結果10aと音源情報12とを受
け取り、所定のビット数に量子化して、所定の書式に変
換された結果14をディジタル回線15に送出する。
第1図(b)において、復号化時には、ディジタル回
線15から受信されたディジタル・データ14が復号回路16
に入力されると、(a)に示す4種のパラメータ(ピッ
チ周期8′,音源情報12′,有声無声判定結果10a′,
スペクトルパラメータ4′)に分離される。上記4種の
パラメータのうちの3種のパラメータ(復号化さたピッ
チ周期8′,有声無声判定結果10a′,音源情報12′)
を入力とする音源パルス再生回路17により、目的とする
音源パルス18を得る。
一方、4種のパラメータのうちの1種のパラメータ
(復号化されたスペクトルパラメータ4′)のみは、バ
ッファメモリ19に格納され、音源パルス再生回路17での
遅延を補正した後、そのバッファメモリ19の出力を合成
フィルタ20の係数として用いる。音源パルス18をこの合
成フィルタ20に入力することにより、その出力として合
成音声21を得ることができる。
第2図は、第1図における音源生成部の機能ブロック
図である。
音源生成部11は、第2図に示すように、無声から有声
に切り替わったことにより制御を切り替えるための切替
制御部31と、残差信号を格納するバッファメモリ111
と、無声から有声に切り替わったとき、パルスの抽出位
置を決定するためのパルス抽出位置決定部112と、前フ
レームで決定された代表残差の先頭アドレスがバッファ
メモリ111のアドレスに変換されて格納されている先頭
位置メモリ30と、有声フレームが連続しているとき、パ
ルス抽出位置を決定するためのパルス抽出位置決定部32
と、先頭アドレスおよびバッファメモリ111から音源を
抽出するための音源抽出部115と、無声音源を生成する
ための無声音源生成部116とから構成されている。
本実施例の音声符号化方式は、有声フレームの音源生
成に関するものであるため、有声無声判定結果10aは有
声を示しており、ピッチ周期8は値が確定しているもの
とする(以下、ピッチ周期の値をNPTCHとする)。
先ず、有声無声切換信号10bが無声から有声に切り替
わった直後であることを示しているときには、切替制御
部31からの信号で制御がパルス抽出位置決定部(I)11
2に移る。ここで制御される場合の音源生成部11の機能
は、従来の残差圧縮法(例えば、前述の公報(特開昭61
−296398号公報)に第2の方法として記載されている残
差圧縮法)と同一である。すなわち、代表的なピッチ区
間に対して、連続したLN本の残差パルスを抽出する(こ
こで、LN本とは、抽出パルス数113の値で示される本数
である)。
また、前述の特願昭60−241419号明細書に記載されて
いるように、復号時に、前フレームの復号残差と現フレ
ームの代表残差を補間する場合には、代表ピッチ区間は
現フレームの最後の点を含むように定める。つまり、パ
ルス抽出位置決定部(I)112においては、次式を算出
する。 ただし、iは次の条件式を満足する。
iFRM−NPTCH+1≦i≦iFRM ……(2)
ここで、xjは、アドレスjの残差パルス振幅であり、
バッファメモリ111から読み出される。なお、バッファ
メモリ111はリングバッファであって、前フレームと現
フレームの残差が格納されている。また、iFRMはフレー
ム長であり、LNは抽出パルス数113の値である。
例えば、パルス抽出位置検定部112が、補間すべき次
の残差パルスの振幅情報と位置情報を求るるため、上式
(1),(2)式で先ず振幅累計値を求めている。い
ま、バッファメモリ111に、現フレーム長として0〜159
のアドレスが割付けられ、代表的ピッチ区間に対して連
続した20本の残差パルスがある場合には、次の代表ピッ
チ区間は現フレームの最後の点を含むようにして決定さ
れ、上式(2)よりフレーム長より小さく、かつフレー
ム長よりピッチ周期だけ小さい区間より大きい区間内に
求める位置iを定める。そして、上記(1)式で算出さ
れた振幅累計値から先頭アドレスを求め、そのアドレス
から20本分の残差パルスをバッファメモリ111から取り
出すことにより補間するのである。
上式(1)で算出されたAMP(i)の最大値を与える
iをi0とすると、i0が代表残差の先頭アドレス114aであ
る。先頭アドレス114aが音源抽出部115に送られると、
先頭アドレスからLN本の残差をバッファメモリ111から
読み出し、これらを音源情報12として後段に送出する。
次に、有声無声切替信号10bが無声から有声への切り
替わり直後でないとき、つまり有声フレームが連続して
いることを示す場合について、詳述する。
このときには、切替制御部31からの信号で、制御がパ
ルス抽出位置決定部(II)32に移る。
バッファメモリ111には、2フレームの残差が格納さ
れている。アドレス−iFRM+1〜0までが前フレーム分
であり、1〜iFRMまでが現フレーム分である。また、先
頭位置メモリ30には、前フレームで決定された代表残差
の先頭アドレスi0がバッファメモリ111上のアドレスに
変換され(i0′=i0−IFRM)、これが格納されている。
現フレームの代表残差の先頭位置は、i0′を基準とし
て、次のように決定する。
なお、上式(3)において、STADRS1,・・・・・・ST
ADRSNは、復号時に代表残差を補間するための先頭アド
レスに対応したものであって、STADRSNは現フレームに
おける最後のピッチ区間内のもの、つまり代表残差の先
頭アドレスであり、次のようになる。
i0=STADRSN ……(4)
このようにすれば、前フレームの代表残差先頭アドレ
スから現フレームの代表残差先頭アドレスを、極めて簡
単に求めることができる。
しかし、ピッチ周期NPTCHは、現フレームの平均的な
ピッチ周期であるため、実際のピッチ位置とは誤差を持
つ可能性がある。そこで、より精密に位置を決めるため
に、次のようにする。
先ず、(5)式により、短区間相互相関値を定義す
る。
i0′+NPTCH−D≦i≦i0′+NPTCH+D ……(6)
ここで、D(>0)は、ピッチのゆらぎ等で決まる値
であり、CORは相互相関値を表わす。上式(6)では、
現フレームの最初の音源パルス列の先頭アドレスの存在
範囲が前フレームの代表残差の先頭アドレスにピッチ周
期のゆらぎを考慮して加算した範囲にあることを示して
おり、上式(5)では、先頭アドレスから抽出パルス数
LN本分の残差パルスの振幅累積値を求めるもので、位相
が一致していれば相関値は最大値となる。
次の式により、第1のスタートアドレスを求める。
上式(7)では、前フレームの代表残差とNPTCH離れ
た位置の近傍で、最も相関値が高くなる位置iを検出し
たことになる。以下、i0′をSTADRS1に置き換えて、同
じ手順でSTADRS2を求め、順次、STADRSN(=i0)まで求
めればよい。
また、STADRSnの決定には、上式(1)を利用するこ
とも可能である(ここで、nは任意の整数)。すなわ
ち、上式(1)におけるiの範囲を(6)式として、下
記(8)式を導く。
以下、同じ手順で、STADRSN(=i0)まで求める。
以上に述べたうちのいずれかの方法で決定した代表残
差の先頭アドレス(i0)114bを、音源抽出部115に送出
する。
復号時には、従来の方法(例えば、前述の特願昭60−
241419号明細書参照)により、代表残差と前フレームの
復号残差とを補間しながら音源パルスを再生する。この
とき、補間対応点アドレスは、前フレームの代表残差位
置そのものであるから、改めて伝送する必要がない。
本実施例に示す音源パルス生成部11は、以上詳述した
ように、加算器、相関器および比較器等により簡単に実
現することができる。また、汎用のマイクロプロセッサ
により、同じ機能を実現することも可能である。
なお、現フレームにおいて、音声無声判定結果10aが
無声となっているときには、切替制御部31からの制御信
号により、制御が無声音源生成部116に切り替えられ
る。無声音源生成部116の動作は、例えば、従来提案さ
れている方法(例えば、特願昭61−35148号明細書参
照)のように、ピッチ周期とは無関係に音源パルスを生
成するものである。
第3図は、本発明の効果を説明するためのタイムチャ
ートである。
第3図(a)は従来の方法による入力音源波形41、残
差波形42、代表残差波形43a、および合成波形44aを示す
波形図であり、第3図(b)は本実施例による入力音声
波形41、残差波形42、代表残差43b、および合成波形44b
を示す波形図である。
入力音声波形41は(a)(b)ともに同一波形であっ
て、逆フィルタ5の残差信号の波形42も同一波形とな
る。従来の方法では、代表残差(復号後)をフレームご
とに独立に抽出しているので、波形43aに示すように、
フレーム#3において代表残差の位置ずれが生じてお
り、周期性が乱れている。矢印で、そのずれ幅を示して
いる。その結果、第3図(a)に示すように、合成波形
44aは位置ずれが生じた位置で振幅の減衰が生じ、音質
の劣化を招いている。
本実施例の場合には、第3図(b)に示すように、有
声フレームが連続したとき、前フレームの代表残差位置
を基準として従属的に抽出した代表残差(復号後)43b
となる。この代表残差43bには位置ずれがなく、従って
合成波形44bも減衰がなく、自然であって、第3図
(a)の従来方式に比較して音質が向上している。
〔発明の効果〕
以上説明したように、本発明によれば、有声音が連続
するときには、本来の音声が有する周期性を乱すことな
く音源パルス列を生成するので、周期性の乱れにより生
じていた音質の劣化を防ぐことができ、符号化音声の品
質を向上させることが可能である。Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a speech coding method, and
The present invention relates to a method for improving the quality of encoded audio when compressing to around bps. [Prior Art] In order to transmit an audio signal through a broadband cable, the audio signal is sampled, quantized, and converted into a binary digital code, thereby performing PCM transmission. On the other hand, when constructing a communication network using a dedicated digital line, reduction of communication cost is a very important issue, and the amount of information of a voice signal reaching 60 Kbps is too large, so that it cannot be transmitted as it is. Therefore, information compression (that is, low bit rate encoding) of the audio signal for transmission has become necessary. As an audio encoding method for compressing an audio signal at around 8 Kbps, a method is known in which audio is separated into spectral envelope information and sound source information, and each is encoded. inside that,
The so-called PARCOR (Partial Autocorrelation: Partial Autocorrelation) method, in which the sound source information is modeled by a single pulse train and white noise, can be encoded at a low bit rate, but on the other hand, the quality deteriorates. large. On the other hand, the multipulse method (for example, Ozawa, et al., "Quality Improvement of Multipulse Driven Speech Coding", Speech Research Meeting of the Acoustical Society of Japan)
S83-78 (1984.1), or residual compression method (see Asakawa, et al., "Speech synthesis method using residual information," Proceedings of the Acoustical Society of Japan, 3-1-7 (Showa 59.10)) There is. As a residual compression method, for example, a method described in JP-A-61-296398 has been proposed.
No. 1419 and Japanese Patent Application No. 61-35148. In these methods, as the expression of the sound source is refined,
The quality is improved compared to the PARCOR method. [Problems to be Solved by the Invention] In the above-described conventional technique, a plurality of pulse trains as sound sources are generated independently for each frame on a fixed basis.
Here, the frame is a time unit for analyzing the voice, and is usually set to about 20 ms. By the way, it is assumed that the audio waveform has been sampled and converted into a series of sample values x i . Let x t be the present and then p sample values going back to the past are {x
ti }, (i = 1,..., p). Here, it is assumed that the speech waveform can be approximately predicted from the past p samples. Since the simplest prediction is linear prediction, it is considered that current values are approximated by multiplying each of past sample values by a certain coefficient and adding them. In this case, the difference between the realized value x t at the current point t and the predicted value y t, and the prediction error epsilon. This prediction error ε is called a prediction residual or simply a residual. The predicted residual waveform of the speech waveform is considered to be the sum of two types of waveforms. One of them is a so-called error component, the amplitude of which is not so large, and is close to a random noise waveform. The other one is an error when a pulse due to vocal cord vibration is applied to the input, and the prediction is largely out of order, resulting in a residual waveform having a large amplitude. This residual component is
It appears periodically and repeatedly according to the periodicity of the sound source. Speech is roughly classified into a section having periodicity (voiced sound) and a section having no remarkable periodicity (unvoiced sound), and accordingly, the prediction residual waveform also has periodicity in the voiced sound portion. doing. On the other hand, the pulse train generated in the multi-pulse method or the residual compression method can be regarded as an approximation of the residual,
The voiced part should have periodicity. However, since these pulse trains are generated independently of the preceding and succeeding frames, the relative positional relationship of the pulse trains is shifted for each frame, and the periodicity may be disturbed. When speech is synthesized using such a pulse train as a sound source,
There was a problem that the sound quality was degraded, called "gorogoro." An object of the present invention is to improve such a conventional problem and prevent deterioration of sound quality due to disturbance in periodicity of each frame with respect to a pulse train generated by a multi-pulse method or a residual compression method. It is to provide a speech coding system. [Means for Solving the Problems] In order to achieve the above object, the speech coding method of the present invention is to determine whether a voiced frame is switched from an unvoiced frame, immediately after a voiced frame is continuous, or is a voiceless frame. A first sound source pulse generating means for generating a sound source pulse immediately after switching from the unvoiced frame to a voiced frame, and a second sound source pulse generating means for generating a sound source pulse when the voiced frame continues. It is characterized by comprising: a second sound source pulse generating means; and a third sound source pulse generating means for generating a sound source pulse in the case of the unvoiced frame. [Operation] In the present invention, the position of the pulse train of the next frame is estimated based on the pitch period based on the first generated pulse train, and a new pulse train is generated in the vicinity of the estimated position. Hold. That is, the voice cycle of the voiced sound corresponds to the pitch cycle that is the reciprocal of the pitch frequency that is the pitch of the voice. Since the change in pitch is relatively gentle, it can be regarded as substantially constant within one frame. Therefore, in the first reference frame, for example, in the first frame in which voice is switched from unvoiced sound to voiced sound, after generating a sound source pulse train based on a certain standard according to the related art, the next frame is sequentially generated based on the generated sound source pulse train. The method of estimating the position of the sound source pulse train in and generating the sound source pulse train is used. In the multi-pulse method and the residual compression method, since the number of sound source pulses is small, generally generated sound source pulse trains are grouped together for each pitch period. Therefore, the position advanced in the time axis direction by the pitch period with respect to the sound source pulse train in the last pitch period of the frame is set as the position of the leading pulse train of the next frame. In this way, the periodicity of the pulse train between two frames is maintained. In the next frame, based on this position,
A first sound source pulse train is generated near this position. As a result, the disturbance of the periodicity between the frames is eliminated, the deterioration of the sound quality can be prevented, and the optimum sound source pulse train based on the pulse train generation standard can be obtained. EXAMPLES Hereinafter, examples of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram showing a case where the speech coding method of the present invention is applied to a speech coding device (speech CODEC) using a residual compression method, wherein (a) is a coding unit;
(B) is a decoding unit. As shown in FIG. 1 (a), the encoding unit of the present invention includes a buffer memory 1 for storing a digital audio signal, a linear prediction circuit 3 for performing linear prediction, and an inverse filter controlled using parameters 4. 5, a pitch extraction circuit 7 for extracting a pitch using a residual correlation method or the like, and a voiced / unvoiced determination circuit 9
A sound source generating unit 11 for generating a sound source pulse in accordance with a voiced / unvoiced determination result; and a quantization encoding circuit 13.
Further, as shown in FIG. 1 (b), the decoding unit of the present invention comprises a decoding circuit 16 for separating an input signal into four types of parameters.
And a buffer memory 19 for storing the decoded spectral parameters, a pitch pulse, a voiced / unvoiced determination result, and a sound source information as input, a sound source pulse reproducing circuit 17 for generating a sound source pulse, and a delay in the sound source pulse reproducing circuit 17. And a synthesizing filter 20 that uses the result as a coefficient. In FIG. 1 (a), at the time of encoding, a digitized audio signal is stored in a buffer memory 1 for one frame, and a parameter (for example, a partial (Autocorrelation coefficient) 4. Next, an inverse filter 5 is configured using the parameter 4 as a coefficient, and the audio signal 2 is input to the inverse filter 5 to obtain a residual signal 6. Pitch extraction circuit 7
Is based on the residual correlation method or AMDF (Average Magnitude Differenti
al Function) method and other well-known methods,
A pitch period 8 of a frame is extracted using the residual signal 6 as an input. The voiced / unvoiced determination circuit 9 outputs a determination result 10a indicating whether the frame is a voiced frame or an unvoiced frame, and a signal 10b indicating that the frame has been switched from an unvoiced frame to a voiced frame. The sound source generation unit 11 is newly provided according to the present invention, and includes a voice unvoiced determination result.
A sound source pulse is generated according to 10a and the switching signal 10b, and the information 12 is output. The quantization encoding circuit 13 receives the spectrum parameter 4, the pitch period 8, the voiced / unvoiced determination result 10a, and the sound source information 12, quantizes it to a predetermined number of bits, and converts the result 14 converted into a predetermined format into a digital line. Send to 15. In FIG. 1 (b), at the time of decoding, digital data 14 received from a digital line 15 is decoded.
, The four parameters shown in (a) (pitch period 8 ', sound source information 12', voiced / unvoiced judgment result 10a ',
It is separated into spectral parameters 4 '). Three of the above four parameters (decoded pitch period 8 ', voiced / unvoiced determination result 10a', sound source information 12 ')
A target sound source pulse 18 is obtained by a sound source pulse reproducing circuit 17 having the input as an input. On the other hand, only one of the four parameters (decoded spectrum parameter 4 ') is stored in the buffer memory 19, and after correcting the delay in the excitation pulse reproducing circuit 17, the buffer memory 19 Is used as a coefficient of the synthesis filter 20. By inputting the sound source pulse 18 to the synthesis filter 20, a synthesized speech 21 can be obtained as the output. FIG. 2 is a functional block diagram of a sound source generation unit in FIG. As shown in FIG. 2, the sound source generation unit 11 includes a switching control unit 31 for switching control when voice is switched from unvoiced to voiced, and a buffer memory 111 for storing a residual signal.
When the voice is switched from unvoiced to voiced, the pulse extraction position determination unit 112 for determining the pulse extraction position, and the head address of the representative residual determined in the previous frame is converted to the address of the buffer memory 111 and stored. And a pulse extraction position determination unit 32 for determining a pulse extraction position when voiced frames are continuous.
And a sound source extraction unit 115 for extracting a sound source from the head address and buffer memory 111, and an unvoiced sound source generation unit 116 for generating an unvoiced sound source. Since the speech coding method according to the present embodiment is related to the generation of a voiced frame sound source, the voiced / unvoiced determination result 10a indicates voiced, and the pitch period 8 is assumed to have a fixed value (hereinafter referred to as pitch The value of the cycle is NPTCH). First, when the voiced / unvoiced switching signal 10b indicates that it is immediately after switching from unvoiced to voiced, control is performed by a signal from the switching control unit 31 to control the pulse extraction position determining unit (I) 11
Move on to 2. The function of the sound source generation unit 11 when controlled here is the same as that of the conventional residual compression method (for example, the above-mentioned publication (Japanese Unexamined Patent Publication No.
No. 296398), which is the same as the residual compression method described as the second method. That is, consecutive LN residual pulses are extracted for a representative pitch section (here, LN is the number indicated by the value of the number of extracted pulses 113). Further, as described in the above-mentioned Japanese Patent Application No. 60-241419, when the decoding residual of the previous frame and the representative residual of the current frame are interpolated at the time of decoding, the representative pitch section is the current frame. To include the last point of That is, the pulse extraction position determination unit (I) 112 calculates the following equation. Here, i satisfies the following conditional expression. iFRM−NPTCH + 1 ≦ i ≦ iFRM (2) where x j is the residual pulse amplitude at address j,
It is read from the buffer memory 111. Note that the buffer memory 111 is a ring buffer and stores the residual of the previous frame and the current frame. Also, iFRM is the frame length, and LN is the value of the number of extracted pulses 113. For example, in order to obtain the amplitude information and the position information of the next residual pulse to be interpolated, the pulse extraction position test unit 112 first obtains the cumulative amplitude value using the above equations (1) and (2). Now, the current frame length is stored in the buffer memory 111 as 0 to 159.
Is assigned, and if there are 20 consecutive residual pulses for the representative pitch section, the next representative pitch section is determined to include the last point of the current frame, and the above equation (2) The position i to be determined is determined within a section smaller than the frame length and larger than a section smaller by the pitch period than the frame length. Then, the head address is obtained from the accumulated amplitude value calculated by the above equation (1), and interpolation is performed by taking out 20 residual pulses from the address from the buffer memory 111. Assuming that i which gives the maximum value of AMP (i) calculated by the above equation (1) is i 0 , i 0 is the head address 114a of the representative residual. When the head address 114a is sent to the sound source extraction unit 115,
The LN residuals are read from the buffer memory 111 from the start address, and are transmitted to the subsequent stage as sound source information 12. Next, a case where the voiced / unvoiced switching signal 10b is not immediately after switching from unvoiced to voiced, that is, a case where voiced frames are indicated as being continuous will be described in detail. At this time, the control is transferred to the pulse extraction position determination unit (II) 32 by the signal from the switching control unit 31. The buffer memory 111 stores the residual of two frames. Addresses -iFRM + 1 to 0 correspond to the previous frame, and 1 to iFRM correspond to the current frame. Also, in the start position memory 30, the start address i 0 of the representative residual determined in the previous frame is converted into an address on the buffer memory 111 (i 0 ′ = i 0 −IFRM) and stored.
The leading position of the representative residual of the current frame is determined as follows based on i 0 ′. In the above equation (3), STADRS 1 ,..., ST
ADRS N corresponds to the head address for interpolating the representative residual at the time of decoding, and STADRS N is the one in the last pitch section in the current frame, that is, the head address of the representative residual, and Become like i 0 = STADRSN N (4) In this way, the representative residual start address of the current frame can be obtained very easily from the representative residual start address of the previous frame. However, since the pitch cycle NPTCH is an average pitch cycle of the current frame, there is a possibility that the pitch cycle NPTCH has an error from the actual pitch position. Therefore, in order to determine the position more precisely, the following is performed. First, a short-term cross-correlation value is defined by equation (5). i 0 ′ + NPTCH−D ≦ i ≦ i 0 ′ + NPTCH + D (6) Here, D (> 0) is a value determined by pitch fluctuation and the like, and COR represents a cross-correlation value. In the above equation (6),
This shows that the existence range of the head address of the first excitation pulse train of the current frame is in the range obtained by adding the head address of the representative residual of the previous frame in consideration of the fluctuation of the pitch period. Number of pulses extracted from start address
This is to calculate the amplitude accumulated value of LN residual pulses, and the correlation value becomes the maximum value if the phases match. The first start address is obtained by the following equation. In the above equation (7), a position i where the correlation value becomes highest is detected near the position distant from the representative residual of the previous frame by NPTCH. Hereinafter, it is sufficient to replace i 0 ′ with STADRS 1 and obtain STADRS 2 in the same procedure, and sequentially obtain up to STADRS N (= i 0 ). The above equation (1) can also be used to determine STADRS n (where n is an arbitrary integer). That is, assuming that the range of i in the above equation (1) is the equation (6), the following equation (8) is derived. Hereinafter, the same procedure is used to obtain up to STADRS N (= i 0 ). The head address (i 0 ) 114b of the representative residual determined by one of the methods described above is sent to the sound source extraction unit 115. At the time of decryption, the conventional method (for example, the aforementioned Japanese Patent Application No.
Thus, the excitation pulse is reproduced while interpolating the representative residual and the decoding residual of the previous frame. At this time, since the interpolation corresponding point address is the representative residual position itself of the previous frame, it is not necessary to transmit the address again. The sound source pulse generation unit 11 shown in the present embodiment can be easily realized by an adder, a correlator, a comparator, and the like, as described in detail above. The same function can be realized by a general-purpose microprocessor. In the current frame, when the voice unvoiced determination result 10a is unvoiced, the control is switched to the unvoiced sound source generating unit 116 by the control signal from the switching control unit 31. The operation of the unvoiced sound source generation unit 116 generates a sound source pulse irrespective of the pitch period, for example, as in a method proposed in the past (for example, see Japanese Patent Application No. 61-35148). FIG. 3 is a time chart for explaining the effect of the present invention. FIG. 3A is a waveform diagram showing an input sound source waveform 41, a residual waveform 42, a representative residual waveform 43a, and a composite waveform 44a according to a conventional method, and FIG. 3B is an input waveform according to the present embodiment. Audio waveform 41, residual waveform 42, representative residual 43b, and composite waveform 44b
FIG. The input voice waveform 41 has the same waveform in both (a) and (b), and the waveform 42 of the residual signal of the inverse filter 5 also has the same waveform. In the conventional method, since the representative residual (after decoding) is extracted independently for each frame, as shown in the waveform 43a,
In the frame # 3, the displacement of the representative residual occurs, and the periodicity is disturbed. Arrows indicate the shift width. As a result, as shown in FIG.
In the case of 44a, the amplitude is attenuated at the position where the displacement has occurred, resulting in deterioration of the sound quality. In the case of the present embodiment, as shown in FIG. 3 (b), when voiced frames are consecutive, the representative residual (after decoding) 43b extracted subordinately with reference to the representative residual position of the previous frame.
Becomes The representative residual 43b has no displacement, and therefore the composite waveform 44b has no attenuation, is natural, and has improved sound quality as compared with the conventional system shown in FIG. 3 (a). [Effects of the Invention] As described above, according to the present invention, when a voiced sound is continuous, a sound source pulse train is generated without disturbing the periodicity of the original sound, so that the periodicity is caused by disturbance. Deterioration of sound quality can be prevented, and the quality of encoded sound can be improved.
【図面の簡単な説明】
第1図は本発明の一実施例を示す音声符号化システムの
ブロック図、第2図は第1図における音源生成部のブロ
ック図、第3図は本発明の効果を説明する波形タイムチ
ャートである。
1,19,111:バッファメモリ、3:線形予測回路、5:逆フィ
ルタ、7:ピッチ抽出回路、9:有声無声判別器、11:音源
生成部、17:音源パルス再生器、20:合成フィルタ、31:
切替制御部、112,32:パルス抽出位置決定回路、30:先頭
位置メモリ、116:無声音源生成部、115:音源抽出部、6:
残差信号、12:音源情報、21:合成音声、43a,b:代表残差
波形、44a,b:合成波形、42:残差波形、41:入力音声波
形。BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram of a speech encoding system showing one embodiment of the present invention, FIG. 2 is a block diagram of a sound source generation unit in FIG. 1, and FIG. 3 is an effect of the present invention. 7 is a waveform time chart for explaining the present invention. 1, 19, 111: buffer memory, 3: linear prediction circuit, 5: inverse filter, 7: pitch extraction circuit, 9: voiced / unvoiced discriminator, 11: sound source generator, 17: sound source pulse reproducer, 20: synthesis filter, 31 :
Switching control unit, 112, 32: pulse extraction position determination circuit, 30: head position memory, 116: unvoiced sound source generation unit, 115: sound source extraction unit, 6:
Residual signal, 12: sound source information, 21: synthesized voice, 43a, b: representative residual waveform, 44a, b: synthesized waveform, 42: residual waveform, 41: input voice waveform.
───────────────────────────────────────────────────── フロントページの続き (72)発明者 鈴木 俊郎 東京都国分寺市東恋ケ窪1丁目280番地 株式会社日立製作所中央研究所内 (56)参考文献 特開 昭59−65897(JP,A) 特開 昭60−162300(JP,A) 特開 昭60−235200(JP,A) 特開 昭61−7899(JP,A) 特開 昭62−38500(JP,A) ────────────────────────────────────────────────── ─── Continuation of front page (72) Inventor Toshiro Suzuki 1-280 Higashi Koikebo, Kokubunji-shi, Tokyo Central Research Laboratory, Hitachi, Ltd. (56) References JP-A-59-65897 (JP, A) JP-A-60-162300 (JP, A) JP-A-60-235200 (JP, A) JP-A-61-7899 (JP, A) JP-A-62-38500 (JP, A)
Claims (1)
包絡情報と音源情報とに分離し、また該音声信号が有声
か無声かを判定して、有声フレームでは音源として1ピ
ッチ周期当り複数本のパルスを用いた音声符号化方式に
おいて、 上記有声フレームが無声フレームから切り替わった直後
か、有声フレームが連続しているか、のいずれかを判定
する手段と、 上記無声フレームから有声フレームに切り替わった直後
に、音源パルスを生成する第1の音源パルス生成手段
と、 上記有声フレームが連続するときに、音源パルスを生成
する第2の音源パルス生成手段と、 上記無声フレームのときに、音源パルスを生成する第3
の音源パルス生成手段とを具備し、 上記第2の音源パルス生成手段は、現在の有声フレーム
の直前の有声フレームの音源パルス位置を基準に、ピッ
チ周期により現在の有声フレームの音源パルス位置を決
定し、決定された位置の近傍に音源パルス列を生成する
ことを特徴とする音声符号化方式。 2.前記現在の有声フレームの音源パルス位置の決定の
ため、相関法を用いることを特徴とする特許請求の範囲
第1項記載の音声符号化方式。(57) [Claims] The audio signal is analyzed for each frame, and is separated into spectral envelope information and sound source information, and it is determined whether the audio signal is voiced or unvoiced. In a voiced frame, a plurality of pulses are used as a sound source for one pitch period. Means for determining whether the voiced frame is switched from an unvoiced frame or whether voiced frames are continuous, and a sound source pulse immediately after switching from the unvoiced frame to a voiced frame. First sound source pulse generating means for generating a sound source pulse, second sound source pulse generating means for generating a sound source pulse when the voiced frame is continuous, and third sound source pulse generating for the unvoiced frame.
Sound source pulse generating means, wherein the second sound source pulse generating means determines the sound source pulse position of the current voiced frame by the pitch cycle based on the sound source pulse position of the voiced frame immediately before the current voiced frame. And generating an excitation pulse train near the determined position. 2. 2. The speech coding method according to claim 1, wherein a correlation method is used to determine a sound source pulse position of the current voiced frame.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP62315621A JP2707564B2 (en) | 1987-12-14 | 1987-12-14 | Audio coding method |
| US07/282,497 US5119424A (en) | 1987-12-14 | 1988-12-12 | Speech coding system using excitation pulse train |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP62315621A JP2707564B2 (en) | 1987-12-14 | 1987-12-14 | Audio coding method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPH01155400A JPH01155400A (en) | 1989-06-19 |
| JP2707564B2 true JP2707564B2 (en) | 1998-01-28 |
Family
ID=18067568
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP62315621A Expired - Lifetime JP2707564B2 (en) | 1987-12-14 | 1987-12-14 | Audio coding method |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US5119424A (en) |
| JP (1) | JP2707564B2 (en) |
Families Citing this family (21)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2596143B2 (en) * | 1989-11-15 | 1997-04-02 | 日本電気株式会社 | Audio coding method |
| US5884253A (en) * | 1992-04-09 | 1999-03-16 | Lucent Technologies, Inc. | Prototype waveform speech coding with interpolation of pitch, pitch-period waveforms, and synthesis filter |
| JP2906968B2 (en) * | 1993-12-10 | 1999-06-21 | 日本電気株式会社 | Multipulse encoding method and apparatus, analyzer and synthesizer |
| US5574825A (en) * | 1994-03-14 | 1996-11-12 | Lucent Technologies Inc. | Linear prediction coefficient generation during frame erasure or packet loss |
| JPH08254993A (en) * | 1995-03-16 | 1996-10-01 | Toshiba Corp | Speech synthesizer |
| US5664054A (en) * | 1995-09-29 | 1997-09-02 | Rockwell International Corporation | Spike code-excited linear prediction |
| US6240384B1 (en) | 1995-12-04 | 2001-05-29 | Kabushiki Kaisha Toshiba | Speech synthesis method |
| DE69819460T2 (en) * | 1997-07-11 | 2004-08-26 | Koninklijke Philips Electronics N.V. | TRANSMITTER WITH IMPROVED VOICE ENCODER AND DECODER |
| US6260017B1 (en) * | 1999-05-07 | 2001-07-10 | Qualcomm Inc. | Multipulse interpolative coding of transition speech frames |
| US6584438B1 (en) * | 2000-04-24 | 2003-06-24 | Qualcomm Incorporated | Frame erasure compensation method in a variable rate speech coder |
| US7243295B2 (en) * | 2001-06-12 | 2007-07-10 | Intel Corporation | Low complexity channel decoders |
| JP2003255976A (en) * | 2002-02-28 | 2003-09-10 | Nec Corp | Speech synthesizer and method compressing and expanding phoneme database |
| WO2004094937A2 (en) * | 2003-04-01 | 2004-11-04 | The Perfect Measuring Tape Co. | Measuring tape |
| FI118704B (en) * | 2003-10-07 | 2008-02-15 | Nokia Corp | Method and apparatus for carrying out source coding |
| KR100956525B1 (en) * | 2005-04-01 | 2010-05-07 | 퀄컴 인코포레이티드 | Method and apparatus for split band encoding of speech signal |
| US8892448B2 (en) * | 2005-04-22 | 2014-11-18 | Qualcomm Incorporated | Systems, methods, and apparatus for gain factor smoothing |
| US8145477B2 (en) * | 2005-12-02 | 2012-03-27 | Sharath Manjunath | Systems, methods, and apparatus for computationally efficient, iterative alignment of speech waveforms |
| WO2008007616A1 (en) * | 2006-07-13 | 2008-01-17 | Nec Corporation | Non-audible murmur input alarm device, method, and program |
| PT2102619T (en) * | 2006-10-24 | 2017-05-25 | Voiceage Corp | Method and device for coding transition frames in speech signals |
| KR101356733B1 (en) * | 2007-03-07 | 2014-02-05 | 삼성전자주식회사 | Method and apparatus for Context Adaptive Binary Arithmetic Coding and decoding |
| TWI327230B (en) * | 2007-04-03 | 2010-07-11 | Ind Tech Res Inst | Sound source localization system and sound soure localization method |
Family Cites Families (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| GB2102254B (en) * | 1981-05-11 | 1985-08-07 | Kokusai Denshin Denwa Co Ltd | A speech analysis-synthesis system |
| JPS58143394A (en) * | 1982-02-19 | 1983-08-25 | 株式会社日立製作所 | Detection/classification system for voice section |
| JPH0756600B2 (en) * | 1982-10-07 | 1995-06-14 | 松下電器産業株式会社 | Residual signal coding method |
| US4696038A (en) * | 1983-04-13 | 1987-09-22 | Texas Instruments Incorporated | Voice messaging system with unified pitch and voice tracking |
| JPH0632030B2 (en) * | 1984-02-02 | 1994-04-27 | 日本電気株式会社 | Speech coding method |
| CA1252568A (en) * | 1984-12-24 | 1989-04-11 | Kazunori Ozawa | Low bit-rate pattern encoding and decoding capable of reducing an information transmission rate |
| US4720861A (en) * | 1985-12-24 | 1988-01-19 | Itt Defense Communications A Division Of Itt Corporation | Digital speech coding circuit |
| US4802221A (en) * | 1986-07-21 | 1989-01-31 | Ncr Corporation | Digital system and method for compressing speech signals for storage and transmission |
| US4873723A (en) * | 1986-09-18 | 1989-10-10 | Nec Corporation | Method and apparatus for multi-pulse speech coding |
| JP2586043B2 (en) * | 1987-05-14 | 1997-02-26 | 日本電気株式会社 | Multi-pulse encoder |
-
1987
- 1987-12-14 JP JP62315621A patent/JP2707564B2/en not_active Expired - Lifetime
-
1988
- 1988-12-12 US US07/282,497 patent/US5119424A/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| US5119424A (en) | 1992-06-02 |
| JPH01155400A (en) | 1989-06-19 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2707564B2 (en) | Audio coding method | |
| KR100679382B1 (en) | Variable rate speech coding | |
| KR100615113B1 (en) | Periodic speech coding | |
| EP0409239B1 (en) | Speech coding/decoding method | |
| EP1202251B1 (en) | Transcoder for prevention of tandem coding of speech | |
| US6389006B1 (en) | Systems and methods for encoding and decoding speech for lossy transmission networks | |
| US4821324A (en) | Low bit-rate pattern encoding and decoding capable of reducing an information transmission rate | |
| JPH07319496A (en) | Method for change of speed of input audio signal | |
| EP1235204A2 (en) | Method and apparatus for selecting an excitation coding mode for speech coding | |
| EP1096476A2 (en) | Speech decoding gain control for noisy signals | |
| US5027405A (en) | Communication system capable of improving a speech quality by a pair of pulse producing units | |
| JPH07129195A (en) | Sound decoding device | |
| KR100499047B1 (en) | Apparatus and method for transcoding between CELP type codecs with a different bandwidths | |
| JP3255190B2 (en) | Speech coding apparatus and its analyzer and synthesizer | |
| JP2615548B2 (en) | Highly efficient speech coding system and its device. | |
| JP3303580B2 (en) | Audio coding device | |
| JPS61148500A (en) | Method and apparatus for encoding voice signal | |
| JPH0258100A (en) | Voice encoding and decoding method, voice encoder, and voice decoder | |
| JP2001142499A (en) | Speech encoding device and speech decoding device | |
| JP3055901B2 (en) | Audio signal encoding / decoding method and audio signal encoding device | |
| JPH05224698A (en) | Method and apparatus for smoothing pitch cycle waveform | |
| JP2004020676A (en) | Audio encoding / decoding method and audio encoding / decoding device | |
| JPH043878B2 (en) | ||
| JPH01261700A (en) | Voice coding system | |
| JPH034300A (en) | Voice encoding and decoding system |