[go: up one dir, main page]

JPH0511799A - 音声符号化方式 - Google Patents

音声符号化方式

Info

Publication number
JPH0511799A
JPH0511799A JP3167270A JP16727091A JPH0511799A JP H0511799 A JPH0511799 A JP H0511799A JP 3167270 A JP3167270 A JP 3167270A JP 16727091 A JP16727091 A JP 16727091A JP H0511799 A JPH0511799 A JP H0511799A
Authority
JP
Japan
Prior art keywords
vector
speech
synthesized
thinning
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP3167270A
Other languages
English (en)
Inventor
Masako Kato
雅子 加藤
Yoshiaki Tanaka
良紀 田中
Tomohiko Taniguchi
智彦 谷口
Hideaki Kurihara
秀明 栗原
Fumio Amano
文雄 天野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP3167270A priority Critical patent/JPH0511799A/ja
Publication of JPH0511799A publication Critical patent/JPH0511799A/ja
Withdrawn legal-status Critical Current

Links

Abstract

(57)【要約】 【目的】 本発明は、合成音声の品質の劣化を最小限に
抑えつつ誤差評価時の演算量を削減することにより音声
符号化処理の高速化を図ることを目的とする。 【構成】 コードブック記憶手段101からは励振ベク
トル102が選択される。音声合成処理手段103は、
励振ベクトル102を入力として線形予測分析に基づく
音声合成処理を行う。間引き手段106は、入力音声ベ
クトル105の要素値と合成音声ベクトル104の要素
値の各々につき一定の間隔の間引き処理を行う。誤差評
価手段109は、間引き入力音声ベクトル107及び間
引き合成音声ベクトル108について二乗誤差の評価を
行う。以上の処理が、励振ベクトル102毎に繰り返さ
れ、二乗誤差が最小(相関値が最大)となる合成音声ベ
クトルを生じさせたパラメータに基づき入力音声ベクト
ル105が符号化される。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、音声信号の情報圧縮伝
送を行うための音声符号化方式に係り、更に詳しくは、
コード駆動LPC符号化(CELP)方式などを用いた
音声符号化方式における入力音声ベクトルと合成音声ベ
クトル間の誤差評価方式に関する。
【0002】
【従来の技術】音声は人間のコミュニケーションにおけ
る重要な手段であることより、社会における音声情報の
役割も非常に大きなものがある。OA化の進んだ現代に
おいては、数字、文字と共に、電話での音声通信は必要
不可欠な通信手段である。特に近年、ディジタル信号処
理技術とLSI技術に支えられたハードの驚異的な高性
能化、小型化に伴い、ディジタル通信路の拡大及びIS
DN(サービス総合ディジタル網)などを用いた各種サ
ービスのディジタル統合化が、我が国を初め諸外国で急
速に進んでいる。
【0003】ディジタル通信では、その基本尺度は使用
回線の単位時間あたりの情報の伝送量(ビットレート)
で決まるため、ネットワークの効率的かつ経済的利用と
通信需要に対応するためにも、通信情報の圧縮技術の早
急な開発が必要である。そして、人間の通信手段として
の音声が、速報性・指示性・警報性といった機能を要求
され、社会においては多くの場合、事務連絡・活動指示
といった通信に使用されることを考えると、特に、ディ
ジタル移動無線システムや企業内通信システムなどにお
いて、音声信号を4〜16 Kbits/secの低・中ビットレー
トで高能率な情報圧縮を実現できる音声符号化方式が望
まれている。
【0004】高能率音声符号化方式の代表的な方式とし
て、音声信号を音声生成モデルに基いて分析してパラメ
ータを抽出し、符号化を行う分析合成符号化方式があ
る。音声信号の大幅な情報圧縮を行うためには、音声信
号からの音声情報の効率の良い抽出が必要であり、その
ためには音声生成モデルの導入が不可欠である。音声生
成モデルに基いた代表的かつ実用的な分析合成方式とし
て線形予測モデルに基く分析合成方式があり、LPC
(線形予測符号化)方式と呼ばれている。
【0005】この方式は、音声波形の標本値間に高い相
関があることを利用し、現在の信号xi を過去のK個
(10個程度)の標本の線形結合である予測値と、その
時の誤差信号の和として表そうとするものであり、
【0006】
【数1】
【0007】という式に帰着できる。ここでaj は線形
予測係数(LPC係数),ei は予測誤差信号と呼ば
れ、この予測誤差信号ei の一定区間の平均2乗誤差を
最小にするという条件でLPC係数を求めることを線形
予測分析(LPC分析)という。原音声信号(符号化す
べき音声信号)に対してLPC分析を行うことは、全極
モデルに基く音声生成システムを仮定したのと等価であ
り、その極は人間の主に声道の周波数特性におけるホル
マントと呼ばれるスペクトルのピークに対応する。そし
て、LPC係数は、原音声信号の周波数特性が定常と考
えられる一定区間(例えば数十ミリ秒の区間)で、原音
声信号を全極モデルによる音声生成モデルで近似した時
のシステムパラメ−タとなっており、上記各区間毎にL
PC分析によってLPC係数を演算しそれらを符号化す
ることにより、音声の高能率符号化を実現できる。
【0008】ここで、上述の数1式において、右辺第1
項は、K個のLPC係数aj をフィルタ係数とする音声
合成フィルタの演算を表わしており、右辺第2項の予測
誤差信号ei は、上記音声合成フィルタの出力xi を得
るための系への入力、即ち音源と考えることができる。
即ち、LPC方式において音声を合成するためには、音
声合成フィルタを構成するためのLPC係数のほかに、
音声合成フィルタへの入力である音源信号が必要とな
る。従って、LPC方式に基づいて音声を符号化する場
合には、LPC係数を符号化すると共に、予測誤差信号
i を効率的に符号化する必要がある。
【0009】ここで、前述の数1式は、
【0010】
【数2】
【0011】と書き直すことができ、これより予測誤差
信号ei は原音声信号xi を、LPC分析によってモデ
ル化された線形システムの逆特性を有する逆フィルタに
通すことによって得ることができる。この予測誤差信号
は残差信号とも呼ばれる。
【0012】図7は、残差信号の時間域の波形の例を原
音声信号と対比させて示した図である。LPC分析にお
いてもし音声信号の予測が完全に行われれば、残差信号
は値の小さい平坦なパワースペクトルを有する完全なラ
ンダム信号となる。しかし実際には、特に音声の大部分
を占める有声音部分では、LPC分析による音声信号の
予測が完全に行われず、残差信号には図7に示すよう
に、周期的なパルスの時系列が現れる。また、パルス時
系列の間には雑音時系列が現れる。一方、無声音部分で
は、残差信号は周波数的にほぼ白色な雑音時系列とな
る。
【0013】このように残差信号には、マクロ的にみれ
ば有声音部分でパルス時系列の成分が含まれ、ミクロ的
にみれば雑音時系列の成分が含まれる。そして、パルス
時系列は人間の喉の声帯が振動することにより生ずるパ
ルス列空気流に同期することが知られており、そのパル
スの繰り返し周期はピッチ周期と呼ばれている。また、
雑音時系列は、一定サンプル(例えば8 kHz サンプリン
グで64サンプル)毎に、統計的に複数種類に分類され
た典型的な雑音時系列の候補の何れかによって近似的に
表現可能である。
【0014】このような事実を利用して、移動無線等に
適用可能な4〜16 kbits/secの低・中ビットレートの音
声伝送システムにおいて、残差信号を効率的かつ忠実に
符号化することのできる音声符号化方式として、コード
駆動LPC符号化(CELP、以下同じ)方式がある。
【0015】CELP方式では、送信装置において、次
のような符号化処理が行われる。即ち、まず、伝送され
るべき入力音声信号が所定サンプルに区切られたそれぞ
れの部分(これをフレームと呼ぶ)について、LPC分
析によって主に声道特性に対応するLPC係数が演算さ
れ、そのLPC係数の組が現在のフレームに対応する声
道情報として符号化され、受信装置に伝送される。次
に、入力音声信号からLPC係数で表現される成分を除
いて得られる残差信号を表現する成分のうち、パルス時
系列の成分と残りの雑音時系列の成分とが別々に符号化
され、復号側の受信装置に伝送される。受信装置では、
送信装置から伝送されてきた残差信号に関する各符号デ
ータに基づき、雑音時系列の成分が復号されると共にパ
ルス時系列の成分が復号され、両者が加算されることに
よって残差信号が復号される。そして、送信装置から伝
送されてきたLPC係数によってLPC合成フィルタが
構成され、それに上述の復号された残差信号が入力され
ることによって、出力音声信号が合成される。
【0016】このように、CELP方式では、音声の声
道特性に相当する成分をLPC係数として符号化すると
共に、音声の音源特性に相当する残差信号をパルス時系
列の成分と雑音時系列の成分とに分離して符号化するこ
とによって、高能率かつ高品質な音声の符号化を可能と
している。
【0017】ここで、パルス時系列の候補を記憶したコ
ードブックと、雑音時系列の候補を記憶したコードブッ
クのそれぞれが、送信装置と受信装置の両方に用意され
る。送信装置と受信装置とでは、それぞれ同じパルス時
系列のコードブック、同じ雑音時系列のコードブックが
用意される。
【0018】そして、送信装置では、フレーム単位の残
差信号を最適に近似するパルス時系列がパルス時系列の
コードブック中の候補の中から探索され、コードブック
上での当該パルス時系列の位置を示す番号(インデック
ス)が受信装置に伝送される。この時、最適なパルス時
系列の振幅を残差信号の振幅に適合させるための最適な
ゲインも演算・符号化されて受信装置に伝送される。次
に、残差信号から上述の最適なパルス時系列に最適なゲ
インを乗算した成分が除かれ、フレーム単位の残差誤差
信号が得られる。そして、このフレーム単位の残差誤差
信号を最適に近似する雑音時系列が、パルス時系列の候
補の探索の場合と同様にして、雑音時系列のコードブッ
ク中の候補の中から探索され、そのインデックスが受信
装置に伝送される。また、最適な雑音時系列の振幅を上
記残差誤差信号の振幅に適合させるための最適なゲイン
も演算・符号化されて受信装置に伝送される。
【0019】上述の送信装置側の動作に対応して、受信
装置では、送信装置から送られてきた雑音時系列につい
てのインデックスで雑音時系列のコードブックが参照さ
れ、対応する雑音時系列が読み出される。そして、その
雑音時系列に送信装置から送られてきた最適なゲインが
乗算されることにより、残差誤差信号が復号される。続
いて、送信装置から送られてきたパルス時系列について
のインデックスでパルス時系列のコードブックが参照さ
れ、対応するパルス時系列が読み出される。そして、そ
のパルス時系列に送信装置から送られてきた最適なゲイ
ンが乗算され、この結果得られたパルス時系列信号に上
述の残差誤差信号が加算されることにより、残差信号が
復号される。
【0020】ここで、送信装置において、パルス時系列
のコードブックから残差信号を近似する最適なパルス時
系列と最適なゲインを探索し、また、雑音時系列のコー
ドブックから残差誤差信号を近似する最適な雑音時系列
と最適なゲインを探索するCELP処理につき、図8の
原理構成図を用いて説明する。図8において、801が
上述の前者の処理を行う部分、802が後者の処理を行
う部分である。
【0021】まず、パルス時系列のコードブック中の候
補の中からフレーム単位の残差信号を最適に近似するパ
ルス時系列を探索するためには、単純には入力音声信号
に対するLPC分析に基づいて得られる各フレームの残
差信号(数2式参照)と、コードブック中の各パルス時
系列の候補との誤差を計算し、それが最小となるものを
選択すればよい。しかし、実際には人間の聴覚上の誤差
が最小となるパルス時系列を選択すべきであるため、音
声信号のレベルで誤差評価が行われる。しかもその場合
に、そのままの音声信号ではなく、人間の聴覚に合うよ
うに周波数特性に重み付けがなされた音声信号のレベル
で誤差評価が行われる。
【0022】即ち、図8の部分801において、まず、
聴覚重み付け部803は、1フレーム分の入力音声ベク
トルs(複数サンプルからなる入力音声信号)に対し
て、人間の聴覚に合うようにその周波数特性に重み付け
がなされる処理を実行することによって、重み付入力音
声ベクトルx(複数サンプルからなる重み付入力音声信
号)を出力する。
【0023】一方、パルスベクトルコードブック807
(パルス時系列のコードブック)には、それぞれ複数サ
ンプルからなる複数組のパルスベクトル(パルス時系
列)が記憶されている。ここで、1組のパルスベクトル
をp(m) とする。mはパルスベクトルコードブック80
7上にある複数組のパルスベクトルのインデックスを表
わし、組の数をαとすれば1≦m≦αである。
【0024】今、誤差評価部804が読出し部806に
対してm=1である1組目のパルスベクトルを読み出す
よう指示する。これにより、読出し部806によりパル
スベクトルコードブック807(パルス時系列のコード
ブック)から読み出された1組目のパルスベクトル(パ
ルス時系列)p(1) が、重み付短期予測部805に入力
される。
【0025】重み付短期予測部805は、LPC係数a
j (1≦j≦K)で構成されるLPC合成フィルタの処
理を聴覚重み付けを考慮した上で実行することにより、
1組目のパルスベクトルp(1) に対応する合成音声ベク
トルy(1) (複数サンプルからなる合成音声信号)を演
算する。このLPC係数aj (1≦j≦K)は、前述し
た入力音声ベクトルsに対して特には図示しないK次の
LPC分析処理が実行されることによって得られる。
【0026】誤差評価部804は、上述の1組目のパル
スベクトルp(1) に対応する合成音声ベクトルy(1) と
重み付入力音声ベクトルxとの誤差を計算する。そし
て、誤差評価部804は、1組目の誤差評価を終了した
ら、mの値を更新して2とし、読出し部806に、パル
スベクトルコードブック807からm=2に対応する次
の組のパルスベクトルp(2) を読み出させる。
【0027】このようにして、誤差評価部804は、m
の値を1からαまで更新しながら、パルスベクトルコー
ドブック807から順次読み出されるパルスベクトルp
(m)に対応する合成音声ベクトルy(m) について、聴覚
重み付け部803で求められている同じ重み付入力音声
ベクトルxとの誤差を演算し、全てのパルスベクトルp
(m) (1≦m≦α)についての誤差評価を終了した時点
で、誤差が最も小さかったパルスベクトルに対応するイ
ンデックスmの値mopt と最適なゲインgを出力する。
【0028】以上のように、音声信号(音声ベクトル)
を合成しながら誤差評価を行う方式は、一般に、合成に
よる分析手法(Analysis-by-Synthesis:A-b-S法)と呼ば
れている。A-b-S 法では、入力音声信号から残差信号を
直接求める必要はないが、コードブックの探索を行う毎
に音声合成処理を実行する必要がある。
【0029】ここで、誤差評価部804におけるゲイン
を考慮した誤差評価方式について説明する。まず、重み
付入力音声ベクトルxと合成音声ベクトルy(m) との誤
差電力Edは、次式で表わされる。
【0030】
【数3】
【0031】ここで、合成音声ベクトルy(m) は重み付
短期予測部805において、
【0032】
【数4】
【0033】なるフィルタ演算で合成される。なお、重
み付入力音声ベクトルxと合成音声ベクトルy(m) の各
添え字iは、Nサンプルからなる1フレーム(1組)分
の音声サンプルの各要素の番号を示しており、1≦i≦
Nである。
【0034】上述の数3式の誤差電力Ed を最小にする
ゲインgは、数3式をgで微分して零とおくことにより
得られる。即ち、次式の通りである。
【0035】
【数5】
【0036】この時の誤差電力Ed は、数5式を数3式
に代入することにより、次式のようになる。
【0037】
【数6】
【0038】数6式の右辺第1項は、重み付入力音声ベ
クトルxの電力を表わしており、各パルスベクトルp
(m) の組が変更されることによって合成音声ベクトルy
(m) の組が変更されても一定である。従って、誤差電力
Ed を最小にするパルスベクトルp(m) の組は、数6式
の右辺第2項、即ち、
【0039】
【数7】
【0040】を最大にするパルスベクトルp(m) の組と
して求めることができる。この数7式は、重み付入力音
声ベクトルxと合成音声ベクトルy(m) の一種の相関を
求める演算である。従って、数7式を最大にするパルス
ベクトルp(m) を求めることは、2つの音声ベクトルの
相関が最大なものを求めることにほぼ等価である。
【0041】以上の誤差評価の原理に基づいて、図8の
誤差評価部804は、各パルスベクトルp(m) の組に対
応する合成音声ベクトルy(m) について数7式を演算
し、その値Aが最終的に最も大きくなる組に対応するイ
ンデックスmの値をmopt として出力する。即ち、数7
式の値を最大にする最適なパルスベクトル及び合成音声
ベクトルは、p(mopt ) 及びy(mopt ) である。
【0042】そして、誤差評価部804は、最適合成音
声ベクトルy(mopt ) を用いて数5式を演算することに
より、最適ゲインgを出力する。以上の処理の結果、誤
差評価部804から乗算部808に上述の最適合成音声
ベクトルy(mopt ) が出力される。そして、乗算部80
8においてy(mopt ) に最適ゲインgが乗算され、更
に、減算部809において上述の乗算結果が重み付入力
音声ベクトルxi から減算されることにより、重み付入
力音声誤差ベクトルexが得られる。
【0043】次に、雑音時系列のコードブック中の候補
の中からフレーム単位の残差誤差信号を最適に近似する
雑音時系列を探索する場合にも、聴覚重み付けがなされ
た音声信号のレベルで誤差評価が行われる。
【0044】即ち、図8の部分802において、雑音ベ
クトルコードブック813(雑音時系列のコードブッ
ク)には、それぞれ複数サンプルからなる複数組の雑音
ベクトル(雑音時系列)が記憶されている。ここで、1
組の雑音ベクトルをc(n) とする。nは雑音ベクトルコ
ードブック813上にある複数組の雑音ベクトルのイン
デックスを表わし、組の数をβとすれば1≦n≦βであ
る。
【0045】誤差評価部810による制御動作は、前述
した誤差評価部804の場合とほとんど同じである。即
ち、誤差評価部810は、nの値を1からβまで更新し
ながら、雑音ベクトルコードブック813から順次読み
出される雑音ベクトルc(n)に対応して重み付短期予測
部811で合成される合成音声誤差ベクトルey(n)に
ついて、重み付入力音声誤差ベクトルexとの誤差を演
算し、全ての雑音ベクトルc(n) (1≦n≦β)につい
ての誤差評価を終了した時点で、誤差が最も小さかった
雑音ベクトルに対応するインデックスnの値nopt と最
適なゲインbを出力する。
【0046】そして、誤差評価部810におけるゲイン
を含めた誤差評価は、前述した数3式〜数7式に対応す
る以下の数8式〜数12に基づいて行われる。
【0047】
【数8】
【0048】
【数9】
【0049】
【数10】
【0050】
【数11】
【0051】
【数12】
【0052】即ち、誤差評価部810は、読出し部81
2によって雑音ベクトルコードブック813から読み出
される各雑音ベクトルc(n) の組に対応して重み付短期
予測部811で数9式に基づいて合成される合成音声誤
差ベクトルey(n) について数12式を演算し、その値
Aが最終的に最も大きくなる組に対応するインデックス
nの値をnopt として出力する。更に、誤差評価部81
0は、最適合成音声誤差ベクトルey(nopt ) を用いて
数10式を演算することにより、最適ゲインbを出力す
る。
【0053】以上に示される送信装置側の動作に対応し
て、受信装置では、送信装置から送られてきたインデッ
クスnopt で図8の813と全く同じ構成の受信装置内
の雑音ベクトルコードブックが参照され、対応する最適
雑音ベクトルc(nopt ) が読み出される。そして、それ
に送信装置から送られてきた最適ゲインbが乗算される
ことにより、残差誤差信号が復号される。続いて、送信
装置から送られてきたインデックスmopt で図8の80
7と全く同じ構成の受信装置内のパルスベクトルコード
ブックが参照され、対応する最適パルスベクトルp(m
opt ) が読み出される。そして、それに送信装置から送
られてきた最適ゲインgが乗算され、この結果得られた
パルスベクトルに上述の残差誤差信号が加算されること
により、残差信号が復号される。
【0054】
【発明が解決しようとする課題】以上に示したA-b-S 法
を基本とするCELP方式の従来例においては、コード
ブックの探索を行う毎に音声合成処理を実行する必要が
あるため、最適なインデックスmopt 、nopt 及び最適
ゲインg、bを得るまでに、非常に多くの演算量を必要
とする。
【0055】特に、優れた合成音声の品質を得るために
は、図8の雑音ベクトルコードブック813のサイズβ
を大きくする必要がある。これは、次のような理由によ
る。即ち、残差信号を近似すべきパルスベクトルの種類
はそれほど多くはないのに対して、残差信号からパルス
ベクトルの成分を除いた残差誤差信号は、周波数特性が
白色に近く、時間領域のベクトルパターンとしても非常
に多くの種類のパターンが出現し得る。従って、このよ
うな残差誤差信号を正確に近似するためには、多くのパ
ターンの雑音ベクトルが必要となるためである。
【0056】このように、大きなサイズの雑音ベクトル
コードブック813が必要となる結果、図8の誤差評価
部810が数12式を演算する回数が増加し、全体的に
膨大な演算量となってしまうという問題点を有してい
る。
【0057】上述のような問題点は、CELP方式に限
られることなく、例えば残差信号の符号化方式の1つで
あるマルチパルス符号化方式において、A-b-S 法に基づ
いて入力音声と合成された音声の二乗誤差の評価を繰り
返す処理などにおいても、同様に発生する。
【0058】本発明は、合成音声の品質の劣化を最小限
に抑えつつ、誤差評価時の演算量を削減することによっ
て、音声符号化処理の高速化を図ることを目的とする。
【0059】
【課題を解決するための手段】図1は、本発明のブロッ
ク図である。本発明は、音声合成処理を行ってそれによ
り得られる合成音声ベクトルと入力音声ベクトルとの二
乗誤差の評価処理を繰り返しながら入力音声ベクトルの
符号化を行う音声符号化方式を前提とする。より具体的
には、例えばコード駆動線形予測方式に基づく音声符号
化方式が適用される。この方式では、まず、入力音声ベ
クトル105が線形予測分析されてその線形予測係数が
符号化される。この処理と共に、コードブック記憶手段
101から励振ベクトル102が選択され、その励振ベ
クトルと上述の線形予測係数に基づいて音声合成処理手
段103において音声合成処理が実行され、それにより
得られる合成音声ベクトル104と入力音声ベクトル1
05との二乗誤差の評価処理が繰り返されながら、入力
音声ベクトル105の残差信号のベクトル量子化が行わ
れる。その他、音声合成方式として、残差信号の符号化
方式の1つであるマルチパルス符号化方式なども採用で
きる。
【0060】そして、まず、入力音声ベクトル105の
要素値と合成音声ベクトル104の要素値のそれぞれに
ついて、一定の間隔の間引き処理を行う間引き手段10
6を有する。
【0061】次に、間引き手段106によって入力音声
ベクトル105及び合成音声ベクトル104の各要素値
を間引いて得られる間引き入力音声ベクトル107及び
間引き合成音声ベクトル108について二乗誤差の評価
処理を実行する誤差評価手段109を有する。同手段
は、例えば、間引き入力音声ベクトル107及び間引き
合成音声ベクトル108について両ベクトル間の相関値
を演算する。
【0062】上述の二乗誤差の評価処理が繰り返される
ことにより、二乗誤差が最小(相関値が最大)となる合
成音声ベクトルを生じさせたパラメータに基づいて入力
音声ベクトル105が符号化される。
【0063】上述の本発明の構成において、二乗誤差の
評価処理は聴覚特性に基づく重み付け処理を行った上で
実行されるように構成することができる。具体的には、
入力音声ベクトル105について聴覚重み付けが行わ
れ、また、音声合成処理手段103が聴覚重み付けを考
慮した音声合成処理を行うことによって聴覚重み付けさ
れた合成音声ベクトル104が生成される。そして、こ
れら両ベクトルについて間引き手段106による間引き
処理、誤差評価手段109による誤差評価が実行され
る。
【0064】
【作用】音声合成処理を行ってそれにより得られる合成
音声ベクトル104と入力音声ベクトル105との二乗
誤差の評価処理を繰り返しながら入力音声ベクトル10
5の符号化を行う音声符号化方式では、1回の二乗誤差
の評価処理において、合成音声ベクトル104と入力音
声ベクトル105の各要素間の乗算演算等が必要とな
る。そして、例えばコード駆動線形予測方式において、
復号音声の音質を向上させるためにコードブック記憶手
段101に記憶される励振ベクトル102の種類が増え
ると、その全ての励振ベクトルについて二乗誤差の評価
処理を行わねばならないため、全体的に膨大な演算量が
必要となる。
【0065】そこで、本発明では、音声信号は隣接する
数サンプル間では近接相関が高いことを利用して、間引
き手段106によって入力音声ベクトル105及び合成
音声ベクトル104の各要素値を間引いて得られる間引
き入力音声ベクトル107及び間引き合成音声ベクトル
108について誤差評価手段109で誤差評価が行われ
る。
【0066】これにより、復号装置側での合成音声の品
質の劣化を最小限に抑えつつ、誤差評価のための演算量
を数分の1にすることができ、音声符号化装置を高速化
することができ、回路規模の縮小が可能となる。
【0067】
【実施例】以下、図面を参照しながら本発明の実施例に
つき詳細に説明する。本発明は、大きく分けて、図2の
LPC符号化部と図3の残差符号化部とで構成される。
【0068】なお、本発明の実施例では、後述する図3
の誤差評価部310の構成と動作に特徴がある。 <LPC符号化部の説明>図2は、LPC符号化部の構
成図である。
【0069】サンプリング周波数8 kHz でサンプリング
された入力音声信号は、バッファ部201に、入力音声
ベクトルsとして例えば1フレーム=320サンプルず
つ保持される。そして、320サンプルの入力音声ベク
トルsに対する符号化処理が、320サンプリング周期
の間にリアルタイムで実行される。
【0070】LPC分析部202は、上述の320サン
プルの入力音声ベクトルsに対してLPC分析を実行
し、1組のLPC係数aj (1≦j≦K)を出力する。
LPC分析の具体的手法としては、例えばPARCOR
分析法、LSP分析法等が適用でき、LPC分析の次数
Kは例えば10次である。
【0071】入力音声ベクトルsの320サンプル毎に
LPC分析部202で求まる1組の10次のLPC係数
j は、符号化部203で符号化された後、特には図示
しない音声復号装置に伝送される。
【0072】また、この符号化されたLPC係数a
j は、復号部204において音声復号装置における復号
処理と同じ処理によって復号され、後述する残差符号化
部での処理に使用される。このように、復号したLPC
係数aj が用いられるのは、LPC係数aj を符号化す
るときに発生する量子化誤差を残差信号に含めてしまい
そのような残差信号を符号化することによって、LPC
係数aj の符号化により発生する復号時の音声の品質劣
化を最小限に抑えるためである。 <残差符号化部の説明>次に、図3は、残差符号化部の
構成図である。
【0073】図3において、301〜313の参照番号
が付された各部は、その番号順に、「従来の技術」の項
で前述した図8のCELP方式の原理構成における80
1〜813の各部に対応している。そして、図3におい
ては、その基本的な構成は図8のCELP方式の原理構
成と同様だが、CELP方式を実際の残差符号化装置と
して実現するための構成が付加されている。
【0074】即ち、まず、図2のLPC符号化部のバッ
ファ部201から出力されている1フレーム(=320
サンプル)分の入力音声ベクトルsに対して、聴覚重み
付け部303で、人間の聴覚に合うようにその周波数特
性に重み付けがなされ、そこから得られる64サンプル
の重み付入力音声ベクトルxは、バッファ部314に保
持される。そして、バッファ部314に保持された64
サンプルの重み付入力音声ベクトルxに対して、301
及び302の部分の処理が連続的に実行される。
【0075】ここで、聴覚重み付け部303、301及
び302の各部分における1サブフレーム=64サンプ
ルに対する処理が5サブフレーム分連続して実行される
ことにより、1フレーム=320サンプルの入力音声ベ
クトルsに対する処理が実行されたことになる。
【0076】従って、符号化装置から特には図示しない
復号装置に対しては、図2のLPC符号化部から320
サンプルに1組の割合で10次のLPC係数aj が出力
され、また、図3の残差符号化部から320サンプルに
5組の割合で最適インデックスmopt と最適ゲインgの
組が、同様に、320サンプルに5組の割合で最適イン
デックスnopt と最適ゲインbの組が出力されることに
なる。第1段目の残差符号化処理の説明 より具体的には、まず、301の部分において、バッフ
ァ部314に保持された64サンプルの重み付入力音声
ベクトルxのる各サブフレームについて、以下のような
誤差評価処理が実行される。
【0077】図3の誤差評価部304の構成を図4に示
す。誤差評価部304は、評価値演算部410、最大評
価値記憶部402、合成音声ベクトル記憶部403、イ
ンデックス記憶部404、インデックスカウンタ部40
5及びゲイン演算部406から構成される。以下、図3
と図4を用いて説明する。
【0078】始めに、アダプディブコードブック307
は、図8のパルスベクトルコードブック807と同様で
あり、そこにはα組のパルスベクトルp(m)(1≦m≦
α)が記憶されている。ここで、各組のパルスベクトル
の要素の数(サンプル数)は上述の例では64サンプ
ル、即ち、p(m) =pi(m) (1≦i≦64)である。
また、本実施例においては、パルスベクトルp(m) は、
後述する更新部327によって更新される。
【0079】今、誤差評価部304内の評価値演算部4
01が、インデックスカウンタ部405に初期値1をセ
ットし、インデックスカウンタ部405から読出し部3
06に対してm=1が出力される。これにより、読出し
部306は、アダプディブコードブック307から1組
目のパルスベクトルp(1) を読み出し、それを重み付短
期予測部305に出力する。
【0080】重み付短期予測部305は、LPC係数a
j (1≦j≦K)で構成される前述した数4式に基づく
LPC合成フィルタの処理を、聴覚重み付けを考慮した
上で実行することにより、1組目のパルスベクトルp
(1)に対応する合成音声ベクトルy(1) を演算する。こ
のLPC係数aj (1≦j≦K)は、図2の符号化部2
03から供給されている。
【0081】誤差評価部304内の評価値演算部401
は、上述の1組目のパルスベクトルp(1) に対応する合
成音声ベクトルy(1) (=yi (1),1≦i≦64)とバ
ッファ部314から読み込んだ1サブフレーム(=64
サンプル)分の重み付入力音声ベクトルx(=xi , 1
≦i≦64)とについて、前述した数7式の評価値Aを
演算する。
【0082】評価値演算部401は、1組目の誤差評価
を終了したら、評価値A、1組目の合成音声ベクトルy
(m) 及びインデックスm=1を、それぞれ最大評価値記
憶部402、合成音声ベクトル記憶部403及びインデ
ックス記憶部404に記憶する。
【0083】続いて、インデックスカウンタ部405
は、評価値演算部401からの指示に基づいて、カウン
タ値であるインデックスmの値を1から2にインクリメ
ントする。これにより、読出し部306は、アダプディ
ブコードブック307から2組目のパルスベクトルp
(2) を読み出し、それを重み付短期予測部305に出力
する。
【0084】評価値演算部401は、上述のようにイン
デックスカウンタ部405に対してmの値を1からαま
で更新させながら、次のような制御処理を行う。即ち、
評価値演算部401は、アダプディブコードブック30
7から読み出されるパルスベクトルp(m) に対応する合
成音声ベクトルy(m) (=yi (m),1≦i≦64)とバ
ッファ部314から出力されている1サブフレーム分の
重み付入力音声ベクトルx(=xi , 1≦i≦64)と
につき、前述した数7式の評価値Aを演算する。そし
て、評価値演算部401は、その評価値Aを最大評価値
記憶部402に記憶されている評価値と比較し、今回演
算された評価値Aの方が大きければ、最大評価値記憶部
402の内容を今回の評価値Aで置き換え、また、合成
音声ベクトル記憶部402及びインデックス記憶部40
4の各内容を、それぞれ今回の合成音声ベクトルy(m)
及び今回のインデックスmの値で置き換える。今回演算
された評価値Aが最大評価値記憶部402に記憶されて
いる評価値以下の場合には、上述の各置き換えは行われ
ない。
【0085】このようにして、全てのインデックス値m
(1≦m≦α)に対する誤差評価が終了した時点におい
て、インデックス記憶部404には数7式の評価値Aを
最大にしたパルスベクトルのインデックス値m=mopt
が記憶されており、また、合成音声ベクトル記憶部40
3にはそのときの最適合成音声ベクトルy(mopt ) が記
憶されていることになる。
【0086】この後、評価値演算部401は、バッファ
部314から出力されている重み付入力音声ベクトルx
(=xi , 1≦i≦64)と、合成音声ベクトル記憶部
403から読み出した最適合成音声ベクトルy(mopt )
(=yi (mopt ),1≦i≦64)をゲイン演算部406
に出力する。ゲイン演算部406は、上述の2組のベク
トルに基づいて前述した数5式を演算することによって
最適ゲインgを出力する。そして、最適ゲインgは、符
号化部318で符号化される。
【0087】以上のようにして、評価値演算部401か
らは最適インデックスmopt が、また、符号化部318
からは符号化された最適ゲインgが、それぞれ特には図
示しない音声復号装置へ送出される。
【0088】なお、評価値演算部401は、インデック
ス記憶部404から読み出した最適インデックスmopt
を読出し部306へ出力する。読出し部306は、最適
インデックスmopt に対応する最適パルスベクトルp(m
opt ) (=pi (mopt ),1≦i≦64)を、アダプディ
ブコードブック307から読み出し、バッファ部322
へ出力する。このバッファ部322のデータは、アダプ
ディブコードブック307の後述する更新処理に使用さ
れる。
【0089】上述の処理に続き、評価値演算部401
は、合成音声ベクトル記憶部403から読み出した最適
合成音声ベクトルy(mopt ) (=yi (mopt ),1≦i≦
64)を図3の乗算部308へ出力する。また、符号化
部318によって符号化された最適ゲインgは、復号部
319において特には図示しない音声復号装置における
復号処理と同じ復号処理によって復号された後に、乗算
部308に入力される。このように、復号した最適ゲイ
ンが用いられるのは、復号部204で説明したのと同
様、符号化による量子化誤差の影響を除去するためであ
る。そして、乗算部308において、最適合成音声ベク
トルy(mopt ) に最適ゲインgを復号部319で復号し
た値が乗算され、更に、減算部309において上述の乗
算結果がバッファ部314から出力されている1サブフ
レーム分の重み付入力音声ベクトルx(=xi , 1≦i
≦64)から減算されることにより、1サブフレーム分
の重み付入力音声誤差ベクトルex(=exi , 1≦i
≦64)が得られる。第2段目の残差符号化処理の説明 次に、図3の302の部分において、バッファ部316
に保持された64サンプルの重み付入力音声誤差ベクト
ルexの各サブフレームについて、以下のような誤差評
価処理が実行される。
【0090】図3の誤差評価部310の構成を図5に示
す。誤差評価部310は、図4の誤差評価部304にお
ける401〜406の構成に対応して、評価値演算部5
01、最大評価値記憶部502、合成音声ベクトル記憶
部503、インデックス記憶部504、インデックスカ
ウンタ部505及びゲイン演算部506を有するが、更
に、間引き部507及び508を有することが本実施例
の最も大きな特徴である。以下、図3と図5を用いて説
明する。
【0091】始めに、ストカスティックコードブック3
13は、図8の雑音ベクトルコードブック813と同様
であり、そこにはβ組の雑音ベクトルc(n)(1≦n≦
β)が記憶されている。ここで、各組の雑音ベクトルの
要素の数(サンプル数)は本実施例では64サンプル、
即ち、c(n) =ci (n) (1≦i≦64)である。
【0092】そして、評価値演算部501は、図4の4
01と同様に、インデックスカウンタ部505に対して
nの値を1からβまで更新させながら、以下のような制
御処理を行う。即ち、評価値演算部501は、読出し部
512によってストカスティックコードブック313か
ら読み出される各雑音ベクトルc(n)の組に対応して重
み付短期予測部311で数9式に基づいて合成されバッ
ファ部317を介して入力される合成音声誤差ベクトル
ey(n) (=eyi (n),1≦i≦64)と、バッファ部
316から出力されている1サブフレーム分の重み付入
力音声誤差ベクトルex(=exi , 1≦i≦64)と
につき、誤差の評価値を演算する。そして、評価値演算
部501は、その評価値を最大評価値記憶部502に記
憶されている評価値と比較して、今回演算された評価値
の方が大きければ、最大評価値記憶部502の内容を今
回の評価値で置き換え、また、合成音声誤差ベクトル記
憶部503及びインデックス記憶部504の各内容を、
それぞれ今回の合成音声誤差ベクトルey(n)及び今回
のインデックスnの値で置き換える。今回演算された評
価値が最大評価値記憶部502に記憶されている評価値
以下の場合には、上述の各置き換えは行われない。
【0093】ここで、評価値演算部501における評価
値の演算式は、図4の評価値演算部401における評価
値の演算式である数7式が数3式〜数6式に基づいて決
定されたのに対応して、前述した数8式〜数11式に基
づいて決定される。そして、これらの式に基づいて基本
的に導出される評価値の演算式は、従来例でも使用して
いた数12式である。本実施例では、この数12式を以
下に示す数13式のように変形した点が大きな特徴であ
る。
【0094】
【数13】
【0095】即ち従来例では、数12式のように、1サ
ブフレーム分の重み付入力音声誤差ベクトルex(=e
i , 1≦i≦64)と1組分の合成音声誤差ベクトル
ey(n) (=eyi (n),1≦i≦64)の、それぞれの
全ての要素値(信号サンプル値)を使用して評価値Aが
演算された。これに対して本実施例では、数13式のよ
うに、各ベクトルの要素値が一定間隔Mで間引かれなが
ら評価値Aが演算される。一般に、音声信号及び合成音
声信号は、8乃至10次程度の近接相関を有しているこ
とが良く知られている。そこで、数13式のように間引
き処理を行いながら評価値Aを演算しても、数12式の
ように間引き処理を行わないで評価値Aを演算した場合
に比較して、評価値Aは大きくは変化しないことが期待
されるのである。ここで、数13式の“N(step M) ”
は、ベクトルの要素値を示す番号iが1から値Mずつ値
Nまでインクリメントされることを示している。
【0096】本実施例では、M=4程度までの数13式
に基づく間引き演算では、数12式の演算を行った場合
に比較して、復号された音声において、ほとんど遜色の
ないS/N(若しくはセグメンタルS/N)を得られる
ことが、実験的に確認されている。
【0097】ここで、数12式及び数13式のそれぞれ
によって評価値Aを演算した場合の演算量を比較する
と、図6のようになる。これより、例えば1サブフレー
ムのサンプル数N=64、間引き間隔M=4とした場合
に、数13式で評価値Aを演算した方が、約1/4の加
算及び乗算の回数で済むことがわかる。
【0098】以上の原理に基づいて、図3又は図4の誤
差評価部310では、次のような評価値Aの演算処理が
行われる。即ち、まず、バッファ部316から出力され
る1サブフレーム分の重み付入力音声誤差ベクトルex
(=exi , 1≦i≦64)は、間引き部507におい
てサンプル間隔Mで間引かれて、評価値演算部501に
入力される。また、バッファ部317から出力される1
組の合成音声誤差ベクトルey(n) (=eyi (n),1≦
i≦64)は、間引き部508においてやはりサンプル
間隔Mで間引かれて、評価値演算部501に入力され
る。これらの処理は、数13式において、ベクトルの要
素値を示す番号iが1から値Mずつ値Nまでインクリメ
ントされる処理に相当する。そして、評価値演算部50
1は、数13式における上述の動作以外の残りの演算処
理を実行するのである。
【0099】なお、合成音声誤差ベクトル記憶部503
には、間引かれた合成音声誤差ベクトルではなく、間引
かれていない合成音声誤差ベクトルey(n)(=ey
i (n),1≦i≦64)が記憶される。これは、後述する
最適ゲインの演算は間引き処理なしに実行された方が、
音声復号装置で合成される音声の音質を向上させること
ができ、また、最適ゲインの演算は1サブフレームに1
回実行されるだけなので間引き処理をしなくても演算量
はそれほど増大しないからである。
【0100】以上のような評価値Aの演算処理を基本と
して、全てのインデックス値n(1≦n≦β)に対する
誤差評価が終了した時点で、インデックス記憶部504
には数13式の評価値Aを最大にした雑音ベクトルのイ
ンデックス値n=nopt が記憶されており、また、合成
音声誤差ベクトル記憶部503にはそのときの最適合成
音声誤差ベクトルey(nopt ) (=eyi (n),1≦i≦
64)が記憶されていることになる。
【0101】この後、評価値演算部501は、バッファ
部316から出力されている重み付入力音声誤差ベクト
ルexi (=exi , 1≦i≦64)と、合成音声ベク
トル記憶部403から読み出した最適合成音声誤差ベク
トルey(nopt ) (=eyi (nopt ),1≦i≦64)を
ゲイン演算部506に出力する。ゲイン演算部506
は、上述の2組のベクトルに基づいて従来例と同様の数
10式を演算することによって最適ゲインbを出力す
る。そして、最適ゲインbは、符号化部320で符号化
される。
【0102】以上のようにして、評価値演算部501か
らは最適インデックスnopt が、また、符号化部320
からは符号化された最適ゲインbが、それぞれ特には図
示しない音声復号装置へ送出される。アダプディブコードブック307の更新処理の説明 最後に、アダプディブコードブック307の更新処理に
ついて説明する。
【0103】評価値演算部501は、1サブフレーム
(=64サンプル)の上述した誤差評価処理を終了した
後に、インデックス記憶部504から読み出した最適イ
ンデックスnopt を読出し部312へ出力する。読出し
部312は、この最適インデックスnopt に対応する最
適雑音ベクトルc(nopt ) (=ci (nopt ),1≦i≦6
4)をストカスティックコードブック313から読み出
して、乗算部324へ出力する。一方、バッファ部32
2から乗算部323へは、64サンプルの最適パルスベ
クトルp(mopt ) (=pi (mopt ),1≦i≦64)のう
ちの上記64サンプルの最適雑音ベクトルc(nopt ) に
対応する部分が出力される。乗算部323では最適パル
スベクトルp(mopt ) に最適ゲインgを復号部319で
復号した値が乗算され、乗算部324では最適雑音ベク
トルc(nopt ) に最適ゲインbを復号部321で復号し
た値が乗算される。ここで、復号した最適ゲインが用い
られるのは、復号部204で説明したのと同様、符号化
による量子化誤差の影響を除去するためである。そし
て、これら2つの乗算結果が加算部325で加算され、
バッファ部326に格納される。
【0104】このようにしてバッファ部326に得られ
る64サンプル分の更新データは、現在の64サンプル
の区間において特には図示しない音声復号装置において
得られるであろう最適な残差信号を表現していることに
なる。そして、この最適な残差信号が、更新部327に
よって、アダプディブコードブック307に新たなパル
スベクトルの組として書き込まれる。このとき、コード
ブック上の最も古い1組のパルスベクトルが捨てられ
る。
【0105】以上のようにアダプディブコードブック3
07には、図3の301での処理における現フレームま
でに求まった最適な残差信号の組が新しい順に記憶さ
れ、これらのデータが次のサブフレームにおけるパルス
ベクトルの探索に使用される。これは、残差信号は隣接
するサブフレーム間では同じような形状が繰り返される
ため、これらのデータを残差信号の第1段目の近似に使
用することにより、より高精度な残差信号の符号化を行
うことができるからである。なお、特には図示しない音
声復号装置の側でも、全く同じようにしてアダプディブ
コードブックの更新が行われるため、データに矛盾が発
生することはない。
【0106】以上の記載では、本発明を音声符号化方式
の1方式であるCELP方式に適用した実施例について
説明したが、本発明はこれに限られることなく、例えば
残差信号の符号化方式の1つであるマルチパルス符号化
方式において、A-b-S 法に基づいて入力音声と合成され
た音声の二乗誤差の評価を繰り返す処理などについて
も、同様に適用することができる。
【0107】
【発明の効果】本発明によれば、音声信号は隣接する数
サンプル間では近接相関が高いことを利用して、間引き
手段により入力音声ベクトル及び合成音声ベクトルの各
要素値を間引いて得られる間引き入力音声ベクトル及び
間引き合成音声ベクトルについて誤差評価手段109で
誤差評価が行われることにより、復号装置側での合成音
声の品質の劣化を最小限に抑えつつ、誤差評価のための
演算量を数分の1にすることが可能となり、音声符号化
装置の高速化・回路規模の縮小が可能となる。
【図面の簡単な説明】
【図1】本発明のブロック図である。
【図2】本発明による音声符号化装置におけるLPC符
号化部の構成図である。
【図3】本発明による音声符号化装置における残差符号
化部の構成図である
【図4】本発明による音声符号化装置における誤差評価
部304の構成図である。
【図5】本発明による音声符号化装置における誤差評価
部310の構成図である。
【図6】数12式と数13式の演算量を比較した図であ
る。
【図7】音声信号と残差信号を示した図である。
【図8】CELP方式の原理構成図である。
【符号の説明】
101 コードブック記憶手段 102 励振ベクトル 103 音声合成処理手段 104 合成音声ベクトル 105 入力音声ベクトル 106 間引き手段 107 間引き入力音声ベクトル 108 間引き合成音声ベクトル 109 誤差評価手段
───────────────────────────────────────────────────── フロントページの続き (72)発明者 栗原 秀明 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内 (72)発明者 天野 文雄 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】 音声合成処理を行ってそれにより得られ
    る合成音声ベクトルと入力音声ベクトルとの二乗誤差の
    評価処理を繰り返しながら該入力音声ベクトルの符号化
    を行う音声符号化方式において、 前記入力音声ベクトルの要素値と前記合成音声ベクトル
    の要素値のそれぞれについて、一定の間隔の間引き処理
    を行う間引き手段と、 該間引き手段によって前記入力音声ベクトル及び前記合
    成音声ベクトルの各要素値を間引いて得られる間引き入
    力音声ベクトル及び間引き合成音声ベクトルについて二
    乗誤差の評価処理を実行する誤差評価手段と、 を有することを特徴とする音声符号化方式。
  2. 【請求項2】 コードブック記憶手段(101)から励
    振ベクトル(102)を選択し、該励振ベクトルに基づ
    いて線形予測分析に基づく音声合成処理(103)を行
    い、それにより得られる合成音声ベクトル(104)と
    入力音声ベクトル(105)との二乗誤差の評価処理を
    繰り返しながら、該入力音声ベクトルの残差信号のベク
    トル量子化を行う処理を含むコード駆動線形予測方式に
    基づく音声符号化方式において、 前記入力音声ベクトル(105)の要素値と前記合成音
    声ベクトル(104)の要素値のそれぞれについて、一
    定の間隔の間引き処理を行う間引き手段(106)と、 該間引き手段によって前記入力音声ベクトル(105)
    及び前記合成音声ベクトル(104)の各要素値を間引
    いて得られる間引き入力音声ベクトル(107)及び間
    引き合成音声ベクトル(108)について二乗誤差の評
    価処理を実行する誤差評価手段(109)と、 を有することを特徴とする音声符号化方式。
  3. 【請求項3】 コードブック記憶手段から励振ベクトル
    を選択し、該励振ベクトルに基づいて線形予測分析に基
    づく音声合成処理を行い、それにより得られる合成音声
    ベクトルと入力音声ベクトルとの二乗誤差の評価処理を
    聴覚特性に基づく重み付け処理を行った上で繰り返しな
    がら、該入力音声ベクトルの残差信号のベクトル量子化
    を行う処理を含むコード駆動線形予測方式に基づく音声
    符号化方式において、 前記入力音声ベクトルの要素値と前記合成音声ベクトル
    の要素値のそれぞれについて、一定の間隔の間引き処理
    を行う間引き手段と、 該間引き手段によって前記入力音声ベクトル及び前記合
    成音声ベクトルの各要素値を間引いて得られる間引き入
    力音声ベクトル及び間引き合成音声ベクトルについて二
    乗誤差の評価処理を実行する誤差評価手段と、 を有することを特徴とする音声符号化方式。
  4. 【請求項4】 前記誤差評価手段は、前記間引き入力音
    声ベクトル及び前記間引き合成音声ベクトルについて該
    両ベクトル間の相関値を演算し、 該相関値が最大となる合成音声ベクトルを生じさせたパ
    ラメータに基づいて前記入力音声ベクトルが符号化され
    る、 ことを特徴とする請求項1乃至3の何れか1項に記載の
    音声符号化方式。
JP3167270A 1991-07-08 1991-07-08 音声符号化方式 Withdrawn JPH0511799A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3167270A JPH0511799A (ja) 1991-07-08 1991-07-08 音声符号化方式

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3167270A JPH0511799A (ja) 1991-07-08 1991-07-08 音声符号化方式

Publications (1)

Publication Number Publication Date
JPH0511799A true JPH0511799A (ja) 1993-01-22

Family

ID=15846632

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3167270A Withdrawn JPH0511799A (ja) 1991-07-08 1991-07-08 音声符号化方式

Country Status (1)

Country Link
JP (1) JPH0511799A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6988065B1 (en) 1999-08-23 2006-01-17 Matsushita Electric Industrial Co., Ltd. Voice encoder and voice encoding method
JP2007226252A (ja) * 1999-04-28 2007-09-06 Lucent Technol Inc ボコーダの動作方法
WO2010067800A1 (ja) * 2008-12-09 2010-06-17 日本電信電話株式会社 符号化方法、復号方法、それらの装置、プログラム及び記録媒体

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007226252A (ja) * 1999-04-28 2007-09-06 Lucent Technol Inc ボコーダの動作方法
JP4690356B2 (ja) * 1999-04-28 2011-06-01 アルカテル−ルーセント ユーエスエー インコーポレーテッド ボコーダの動作方法
US6988065B1 (en) 1999-08-23 2006-01-17 Matsushita Electric Industrial Co., Ltd. Voice encoder and voice encoding method
US7289953B2 (en) 1999-08-23 2007-10-30 Matsushita Electric Industrial Co., Ltd. Apparatus and method for speech coding
US7383176B2 (en) 1999-08-23 2008-06-03 Matsushita Electric Industrial Co., Ltd. Apparatus and method for speech coding
WO2010067800A1 (ja) * 2008-12-09 2010-06-17 日本電信電話株式会社 符号化方法、復号方法、それらの装置、プログラム及び記録媒体
JP4848049B2 (ja) * 2008-12-09 2011-12-28 日本電信電話株式会社 符号化方法、復号方法、それらの装置、プログラム及び記録媒体

Similar Documents

Publication Publication Date Title
US6732070B1 (en) Wideband speech codec using a higher sampling rate in analysis and synthesis filtering than in excitation searching
JP3094908B2 (ja) 音声符号化装置
JPH0990995A (ja) 音声符号化装置
JP3628268B2 (ja) 音響信号符号化方法、復号化方法及び装置並びにプログラム及び記録媒体
JP2002268686A (ja) 音声符号化装置及び音声復号化装置
JPH0944195A (ja) 音声符号化装置
JP3308764B2 (ja) 音声符号化装置
JPH086597A (ja) 音声の励振信号符号化装置および方法
JP2003044099A (ja) ピッチ周期探索範囲設定装置及びピッチ周期探索装置
JPH0511799A (ja) 音声符号化方式
JP3003531B2 (ja) 音声符号化装置
JP3319396B2 (ja) 音声符号化装置ならびに音声符号化復号化装置
JPH0830299A (ja) 音声符号化装置
JP3144284B2 (ja) 音声符号化装置
JP3299099B2 (ja) 音声符号化装置
JPH0258100A (ja) 音声符号化復号化方法及び音声符号化装置並びに音声復号化装置
JP3153075B2 (ja) 音声符号化装置
JPH08234795A (ja) 音声符号化装置
JP3192051B2 (ja) 音声符号化装置
JPH07168596A (ja) 音声符号化装置
JPH08320700A (ja) 音声符号化装置
JPH0519796A (ja) 音声の励振信号符号化・復号化方法
JP3166697B2 (ja) 音声符号化・復号装置及びシステム
JPH06130994A (ja) 音声符号化方法
JPH05165497A (ja) コード励振線形予測符号化器及び復号化器

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 19981008