[go: up one dir, main page]

JP4517262B2 - 音声処理装置および音声処理方法、学習装置および学習方法、並びに記録媒体 - Google Patents

音声処理装置および音声処理方法、学習装置および学習方法、並びに記録媒体 Download PDF

Info

Publication number
JP4517262B2
JP4517262B2 JP2000346675A JP2000346675A JP4517262B2 JP 4517262 B2 JP4517262 B2 JP 4517262B2 JP 2000346675 A JP2000346675 A JP 2000346675A JP 2000346675 A JP2000346675 A JP 2000346675A JP 4517262 B2 JP4517262 B2 JP 4517262B2
Authority
JP
Japan
Prior art keywords
tap
code
class
prediction
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000346675A
Other languages
English (en)
Other versions
JP2002149175A (ja
Inventor
哲二郎 近藤
勉 渡辺
正明 服部
裕人 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2000346675A priority Critical patent/JP4517262B2/ja
Application filed by Sony Corp filed Critical Sony Corp
Priority to DE60143327T priority patent/DE60143327D1/de
Priority to DE60140020T priority patent/DE60140020D1/de
Priority to EP08003539A priority patent/EP1944760B1/en
Priority to PCT/JP2001/006708 priority patent/WO2002013183A1/ja
Priority to DE60134861T priority patent/DE60134861D1/de
Priority to KR1020027004559A priority patent/KR100819623B1/ko
Priority to EP01956800A priority patent/EP1308927B9/en
Priority to EP08003538A priority patent/EP1944759B1/en
Priority to TW090119402A priority patent/TW564398B/zh
Priority to NO20021631A priority patent/NO326880B1/no
Publication of JP2002149175A publication Critical patent/JP2002149175A/ja
Priority to US11/903,550 priority patent/US7912711B2/en
Priority to NO20082401A priority patent/NO20082401L/no
Priority to NO20082403A priority patent/NO20082403L/no
Application granted granted Critical
Publication of JP4517262B2 publication Critical patent/JP4517262B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、音声処理装置および音声処理方法、学習装置および学習方法、並びに記録媒体に関し、特に、例えば、CELP(Code Excited Liner Prediction coding)方式で符号化された音声を、高音質の音声に復号することができるようにする音声処理装置および音声処理方法、学習装置および学習方法、並びに記録媒体に関する。
【0002】
【従来の技術】
図1および図2は、従来の携帯電話機の一例の構成を示している。
【0003】
この携帯電話機では、音声を、CELP方式により所定のコードに符号化して送信する送信処理と、他の携帯電話機から送信されてくるコードを受信して、音声に復号する受信処理とが行われるようになっており、図1は、送信処理を行う送信部を、図2は、受信処理を行う受信部を、それぞれ示している。
【0004】
図1に示した送信部では、ユーザが発話した音声が、マイク(マイクロフォン)1に入力され、そこで、電気信号としての音声信号に変換され、A/D(Analog/Digital)変換部2に供給される。A/D変換部2は、マイク1からのアナログの音声信号を、例えば、8kHz等のサンプリング周波数でサンプリングすることにより、ディジタルの音声信号にA/D変換し、さらに、所定のビット数で量子化を行って、演算器3とLPC(Liner Prediction Coefficient)分析部4に供給する。
【0005】
LPC分析部4は、A/D変換部2からの音声信号を、例えば、160サンプル分の長さのフレームごとにLPC分析し、P次の線形予測係数α1,α2,・・・,αPを求める。そして、LPC分析部4は、このP次の線形予測係数αp(p=1,2,・・・,P)を要素とするベクトルを、音声の特徴ベクトルとして、ベクトル量子化部5に供給する。
【0006】
ベクトル量子化部5は、線形予測係数を要素とするコードベクトルとコードとを対応付けたコードブックを記憶しており、そのコードブックに基づいて、LPC分析部4からの特徴ベクトルαをベクトル量子化し、そのベクトル量子化の結果得られるコード(以下、適宜、Aコード(A_code)という)を、コード決定部15に供給する。
【0007】
さらに、ベクトル量子化部5は、Aコードに対応するコードベクトルα’を構成する要素となっている線形予測係数α1’,α2’,・・・,αP’を、音声合成フィルタ6に供給する。
【0008】
音声合成フィルタ6は、例えば、IIR(Infinite Impulse Response)型のディジタルフィルタで、ベクトル量子化部5からの線形予測係数αp’(p=1,2,・・・,P)をIIRフィルタのタップ係数とするとともに、演算器14から供給される残差信号eを入力信号として、音声合成を行う。
【0009】
即ち、LPC分析部4で行われるLPC分析は、現在時刻nの音声信号(のサンプル値)sn、およびこれに隣接する過去のP個のサンプル値sn-1,sn-2,・・・,sn-Pに、式
n+α1n-1+α2n-2+・・・+αPn-P=en
・・・(1)
で示す線形1次結合が成立すると仮定し、現在時刻nのサンプル値snの予測値(線形予測値)sn’を、過去のP個の標本値sn-1,sn-2,・・・,sn-Pを用いて、式
n’=−(α1n-1+α2n-2+・・・+αPn-P
・・・(2)
によって線形予測したときに、実際のサンプル値snと線形予測値sn’との間の自乗誤差を最小にする線形予測係数αpを求めるものである。
【0010】
ここで、式(1)において、{en}(・・・,en-1,en,en+1,・・・)は、平均値が0で、分散が所定値σ2の互いに無相関な確率変数である。
【0011】
式(1)から、サンプル値snは、式
n=en−(α1n-1+α2n-2+・・・+αPn-P
・・・(3)
で表すことができ、これを、Z変換すると、次式が成立する。
【0012】
S=E/(1+α1-1+α2-2+・・・+αP-P
・・・(4)
但し、式(4)において、SとEは、式(3)におけるsnとenのZ変換を、それぞれ表す。
【0013】
ここで、式(1)および(2)から、enは、式
n=sn−sn
・・・(5)
で表すことができ、実際のサンプル値snと線形予測値sn’との間の残差信号と呼ばれる。
【0014】
従って、式(4)から、線形予測係数αpをIIRフィルタのタップ係数とするとともに、残差信号enをIIRフィルタの入力信号とすることにより、音声信号snを求めることができる。
【0015】
そこで、音声合成フィルタ6は、上述したように、ベクトル量子化部5からの線形予測係数αp’をタップ係数とするとともに、演算器14から供給される残差信号eを入力信号として、式(4)を演算し、音声信号(合成音信号)ssを求める。
【0016】
なお、音声合成フィルタ6では、LPC分析部4によるLPC分析の結果得られる線形予測係数αpではなく、そのベクトル量子化の結果得られるコードに対応するコードベクトルとしての線形予測係数αp’が用いられるため、音声合成フィルタ6が出力する合成音信号は、A/D変換部2が出力する音声信号とは、基本的に同一にはならない。
【0017】
音声合成フィルタ6が出力する合成音信号ssは、演算器3に供給される。演算器3は、音声合成フィルタ6からの合成音信号ssから、A/D変換部2が出力する音声信号sを減算し、その減算値を、自乗誤差演算部7に供給する。自乗誤差演算部7は、演算器3からの減算値の自乗和(第kフレームのサンプル値についての自乗和)を演算し、その結果得られる自乗誤差を、自乗誤差最小判定部8に供給する。
【0018】
自乗誤差最小判定部8は、自乗誤差演算部7が出力する自乗誤差に対応付けて、ラグを表すコードとしてのLコード(L_code)、ゲインを表すコードとしてのGコード(G_code)、および符号語(励起コードブック)を表すコードとしてのIコード(I_code)を記憶しており、自乗誤差演算部7が出力する自乗誤差に対応するLコード、Gコード、およびLコードを出力する。Lコードは、適応コードブック記憶部9に、Gコードは、ゲイン復号器10に、Iコードは、励起コードブック記憶部11に、それぞれ供給される。さらに、Lコード、Gコード、およびIコードは、コード決定部15にも供給される。
【0019】
適応コードブック記憶部9は、例えば7ビットのLコードと、所定の遅延時間(ラグ)とを対応付けた適応コードブックを記憶しており、演算器14から供給される残差信号eを、自乗誤差最小判定部8から供給されるLコードに対応付けられた遅延時間だけ遅延して、演算器12に出力する。
【0020】
ここで、適応コードブック記憶部9は、残差信号eを、Lコードに対応する時間だけ遅延して出力することから、その出力信号は、その遅延時間を周期とする周期信号に近い信号となる。この信号は、線形予測係数を用いた音声合成において、主として、有声音の合成音を生成するための駆動信号となる。
【0021】
ゲイン復号器10は、Gコードと、所定のゲインβおよびγとを対応付けたテーブルを記憶しており、自乗誤差最小判定部8から供給されるGコードに対応付けられたゲインβおよびγを出力する。ゲインβとγは、演算器12と13に、それぞれ供給される。ここで、ゲインβは、長期フィルタ状態出力ゲインと呼ばれるものであり、また、ゲインγは、励起コードブックゲインと呼ばれるものである。
【0022】
励起コードブック記憶部11は、例えば9ビットのIコードと、所定の励起信号とを対応付けた励起コードブックを記憶しており、自乗誤差最小判定部8から供給されるIコードに対応付けられた励起信号を、演算器13に出力する。
【0023】
ここで、励起コードブックに記憶されている励起信号は、例えば、ホワイトノイズ等に近い信号であり、線形予測係数を用いた音声合成において、主として、無声音の合成音を生成するための駆動信号となる。
【0024】
演算器12は、適応コードブック記憶部9の出力信号と、ゲイン復号器10が出力するゲインβとを乗算し、その乗算値lを、演算器14に供給する。演算器13は、励起コードブック記憶部11の出力信号と、ゲイン復号器10が出力するゲインγとを乗算し、その乗算値nを、演算器14に供給する。演算器14は、演算器12からの乗算値lと、演算器13からの乗算値nとを加算し、その加算値を、残差信号eとして、音声合成フィルタ6に供給する。
【0025】
音声合成フィルタ6では、以上のようにして、演算器14から供給される残差信号eを入力信号が、ベクトル量子化部5から供給される線形予測係数αp’をタップ係数とするIIRフィルタでフィルタリングされ、その結果得られる合成音信号が、演算器3に供給される。そして、演算器3および自乗誤差演算部7において、上述の場合と同様の処理が行われ、その結果得られる自乗誤差が、自乗誤差最小判定部8に供給される。
【0026】
自乗誤差最小判定部8は、自乗誤差演算部7からの自乗誤差が最小(極小)になったかどうかを判定する。そして、自乗誤差最小判定部8は、自乗誤差が最小になっていないと判定した場合、上述のように、その自乗誤差に対応するLコード、Gコード、およびLコードを出力し、以下、同様の処理が繰り返される。
【0027】
一方、自乗誤差最小判定部8は、自乗誤差が最小になったと判定した場合、確定信号を、コード決定部15に出力する。コード決定部15は、ベクトル量子化部5から供給されるAコードをラッチするとともに、自乗誤差最小判定部8から供給されるLコード、Gコード、およびIコードを順次ラッチするようになっており、自乗誤差最小判定部8から確定信号を受信すると、そのときラッチしているAコード、Lコード、Gコード、およびIコードを、チャネルエンコーダ16に供給する。チャネルエンコーダ16は、コード決定部15からのAコード、Lコード、Gコード、およびIコードを多重化し、コードデータとして出力する。このコードデータは、伝送路を介して送信される。
【0028】
なお、以下では、説明を簡単にするため、Aコード、Lコード、Gコード、およびIコードは、フレームごとに求められるものとする。但し、例えば、1フレームを、4つのサブフレームに分割し、Lコード、Gコード、およびIコードは、サブフレームごとに求めるようにすること等が可能である。
【0029】
ここで、図1(後述する図2、図11、および図12においても同様)では、各変数に、[k]が付され、配列変数とされている。このkは、フレーム数を表すが、明細書中では、その記述は、適宜省略する。
【0030】
次に、以上のようにして、他の携帯電話機の送信部から送信されてくるコードデータは、図2に示した受信部のチャネルデコーダ21で受信される。チャネルデコーダ21は、コードデータから、Lコード、Gコード、Iコード、Aコードを分離し、それぞれを、適応コードブック記憶部22、ゲイン復号器23、励起コードブック記憶部24、フィルタ係数復号器25に供給する。
【0031】
適応コードブック記憶部22、ゲイン復号器23、励起コードブック記憶部24、演算器26乃至28は、図1の適応コードブック記憶部9、ゲイン復号器10、励起コードブック記憶部11、演算器12乃至14とそれぞれ同様に構成されるもので、図1で説明した場合と同様の処理が行われることにより、Lコード、Gコード、およびIコードが、残差信号eに復号される。この残差信号eは、音声合成フィルタ29に対して、入力信号として与えられる。
【0032】
フィルタ係数復号器25は、図1のベクトル量子化部5が記憶しているのと同一のコードブックを記憶しており、Aコードを、線形予測係数αp’に復号し、音声合成フィルタ29に供給する。
【0033】
音声合成フィルタ29は、図1の音声合成フィルタ6と同様に構成されており、フィルタ係数復号器25からの線形予測係数αp’をタップ係数とするとともに、演算器28から供給される残差信号eを入力信号として、式(4)を演算し、これにより、図1の自乗誤差最小判定部8において自乗誤差が最小と判定されたときの合成音信号を生成する。この合成音信号は、D/A(Digital/Analog)変換部30に供給される。D/A変換部30は、音声合成フィルタ29からの合成音信号を、ディジタル信号からアナログ信号にD/A変換し、スピーカ31に供給して出力させる。
【0034】
【発明が解決しようとする課題】
以上のように、携帯電話機の送信部では、受信部の音声合成フィルタ29に与えられるフィルタデータとしての残差信号と線形予測係数がコード化されて送信されてくるため、受信部では、そのコードが、残差信号と線形予測係数に復号される。しかしながら、この復号された残差信号や線形予測係数(以下、適宜、それぞれを、復号残差信号または復号線形予測係数という)には、量子化誤差等の誤差が含まれるため、音声をLPC分析して得られる残差信号と線形予測係数には一致しない。
【0035】
このため、受信部の音声合成フィルタ29が出力する合成音信号は、歪みを有する、音質の劣化したものとなる。
【0036】
本発明は、このような状況に鑑みてなされたものであり、高音質の合成音が得られるようにするものである。
【0037】
【課題を解決するための手段】
本発明の第1の側面の音声処理装置、又は、記録媒体は、予測値を求めようとしている高音質の音声を注目音声として、その注目音声を予測するのに用いる予測タップを、合成音と、コードまたはコードから得られる情報とから抽出する予測タップ抽出手段と、注目音声を、幾つかのクラスのうちのいずれかにクラス分類するのに用いるクラスタップを、合成音と、コードまたはコードから得られる情報とから抽出するクラスタップ抽出手段と、クラスタップに基づいて、注目音声のクラスを求めるクラス分類を行うクラス分類手段と、学習を行うことにより求められた、クラスごとのタップ係数の中から、注目音声のクラスに対応するタップ係数を取得する取得手段と、予測タップと、注目音声のクラスに対応するタップ係数を用いて、注目音声の予測値を求める予測手段とを備える音声処理装置、又は、音声処理装置として、コンピュータを機能させるためのプログラムが記録されている記録媒体である。
【0038】
本発明の第1の側面の音声処理方法は、予測値を求めようとしている高音質の音声を注目音声として、その注目音声を予測するのに用いる予測タップを、合成音と、コードまたはコードから得られる情報とから抽出する予測タップ抽出ステップと、注目音声を、幾つかのクラスのうちのいずれかにクラス分類するのに用いるクラスタップを、合成音と、コードまたはコードから得られる情報とから抽出するクラスタップ抽出ステップと、クラスタップに基づいて、注目音声のクラスを求めるクラス分類を行うクラス分類ステップと、学習を行うことにより求められた、クラスごとのタップ係数の中から、注目音声のクラスに対応するタップ係数を取得する取得ステップと、予測タップと、注目音声のクラスに対応するタップ係数を用いて、注目音声の予測値を求める予測ステップとを備える音声処理方法である。
【0040】
本発明の第2の側面の学習装置、又は、記録媒体は、予測値を求めようとしている高音質の音声を注目音声として、その注目音声を予測するのに用いる予測タップを、合成音と、コードまたはコードから得られる情報とから抽出する予測タップ抽出手段と、注目音声を、幾つかのクラスのうちのいずれかにクラス分類するのに用いるクラスタップを、合成音と、コードまたはコードから得られる情報とから抽出するクラスタップ抽出手段と、クラスタップに基づいて、注目音声のクラスを求めるクラス分類を行うクラス分類手段と、タップ係数および予測タップを用いて予測演算を行うことにより得られる高音質の音声の予測値の予測誤差が統計的に最小になるように、学習を行い、クラスごとのタップ係数を求める学習手段とを備える学習装置、又は、学習装置として、コンピュータを機能させるためのプログラムが記録されている記録媒体である。
【0041】
本発明の第2の側面の学習方法は、予測値を求めようとしている高音質の音声を注目音声として、その注目音声を予測するのに用いる予測タップを、合成音と、コードまたはコードから得られる情報とから抽出する予測タップ抽出ステップと、注目音声を、幾つかのクラスのうちのいずれかにクラス分類するのに用いるクラスタップを、合成音と、コードまたはコードから得られる情報とから抽出するクラスタップ抽出ステップと、クラスタップに基づいて、注目音声のクラスを求めるクラス分類を行うクラス分類ステップと、タップ係数および予測タップを用いて予測演算を行うことにより得られる高音質の音声の予測値の予測誤差が統計的に最小になるように、学習を行い、クラスごとのタップ係数を求める学習ステップとを備える学習方法である。
【0043】
本発明の第1の側面においては、予測値を求めようとしている高音質の音声を注目音声として、その注目音声を予測するのに用いる予測タップが、合成音と、コードまたはコードから得られる情報とから抽出されるとともに、注目音声を、幾つかのクラスのうちのいずれかにクラス分類するのに用いるクラスタップが、合成音と、コードまたはコードから得られる情報とから抽出される。そして、クラスタップに基づいて、注目音声のクラスを求めるクラス分類が行われ、予測タップと、注目音声のクラスに対応するタップ係数を用いて、注目音声の予測値が求められる。
【0044】
本発明の第2の側面においては、予測値を求めようとしている高音質の音声を注目音声として、その注目音声を予測するのに用いる予測タップが、合成音と、コードまたはコードから得られる情報とから抽出される。また、注目音声を、幾つかのクラスのうちのいずれかにクラス分類するのに用いるクラスタップが、合成音と、コードまたはコードから得られる情報とから抽出され、そのクラスタップに基づいて、注目音声のクラスを求めるクラス分類が行われる。そして、タップ係数および予測タップを用いて予測演算を行うことにより得られる高音質の音声の予測値の予測誤差が統計的に最小になるように、学習が行われ、クラスごとのタップ係数が求められる。
【0045】
【発明の実施の形態】
図3は、本発明を適用した音声合成装置の一実施の形態の構成例を示している。
【0046】
この音声合成装置には、音声合成フィルタ44に与える残差信号と線形予測係数を、それぞれベクトル量子化等によってコード化した残差コードとAコードが多重化されたコードデータが供給されるようになっており、その残差コードとAコードから、それぞれ残差信号と線形予測係数を復号し、音声合成フィルタ44に与えることで、合成音が生成されるようになっている。さらに、この音声合成装置では、音声合成フィルタ44で生成された合成音と、学習により求めたタップ係数を用いた予測演算を行うことにより、その合成音の音質を向上させた高音質の音声(合成音)を求めて出力するようになっている。
【0047】
即ち、図3の音声合成装置では、例えば、クラス分類適応処理を利用して、合成音が、真の高音質の音声(の予測値)に復号される。
【0048】
クラス分類適応処理は、クラス分類処理と適応処理とからなり、クラス分類処理によって、データを、その性質に基づいてクラス分けし、各クラスごとに適応処理を施すものであり、適応処理は、以下のような手法のものである。
【0049】
即ち、適応処理では、例えば、合成音と、所定のタップ係数との線形結合により、真の高音質の音声の予測値が求められる。
【0050】
具体的には、例えば、いま、真の高音質の音声(のサンプル値)を教師データとするとともに、その真の高音質の音声を、CELP方式によって、Lコード、Gコード、Iコード、およびAコードに符号化し、それらのコードを、図2に示した受信部で復号することにより得られる合成音を生徒データとして、教師データである高音質の音声yの予測値E[y]を、幾つかの合成音(のサンプル値)x1,x2,・・・の集合と、所定のタップ係数w1,w2,・・・の線形結合により規定される線形1次結合モデルにより求めることを考える。この場合、予測値E[y]は、次式で表すことができる。
【0051】
E[y]=w11+w22+・・・
・・・(6)
【0052】
式(6)を一般化するために、タップ係数wjの集合でなる行列W、生徒データxijの集合でなる行列X、および予測値E[yj]の集合でなる行列Y’を、
【数1】
Figure 0004517262
で定義すると、次のような観測方程式が成立する。
【0053】
XW=Y’
・・・(7)
ここで、行列Xの成分xijは、i件目の生徒データの集合(i件目の教師データyiの予測に用いる生徒データの集合)の中のj番目の生徒データを意味し、行列Wの成分wjは、生徒データの集合の中のj番目の生徒データとの積が演算されるタップ係数を表す。また、yiは、i件目の教師データを表し、従って、E[yi]は、i件目の教師データの予測値を表す。なお、式(6)の左辺におけるyは、行列Yの成分yiのサフィックスiを省略したものであり、また、式(6)の右辺におけるx1,x2,・・・も、行列Xの成分xijのサフィックスiを省略したものである。
【0054】
そして、この観測方程式に最小自乗法を適用して、真の高音質の音声yに近い予測値E[y]を求めることを考える。この場合、教師データとなる真の高音質の音声yの集合でなる行列Y、および高音質の音声yに対する予測値E[y]の残差eの集合でなる行列Eを、
【数2】
Figure 0004517262
で定義すると、式(7)から、次のような残差方程式が成立する。
【0055】
XW=Y+E
・・・(8)
【0056】
この場合、真の高音質の音声yに近い予測値E[y]を求めるためのタップ係数wjは、自乗誤差
【数3】
Figure 0004517262
を最小にすることで求めることができる。
【0057】
従って、上述の自乗誤差をタップ係数wjで微分したものが0になる場合、即ち、次式を満たすタップ係数wjが、真の高音質の音声yに近い予測値E[y]を求めるため最適値ということになる。
【0058】
【数4】
Figure 0004517262
・・・(9)
【0059】
そこで、まず、式(8)を、タップ係数wjで微分することにより、次式が成立する。
【0060】
【数5】
Figure 0004517262
・・・(10)
【0061】
式(9)および(10)より、式(11)が得られる。
【0062】
【数6】
Figure 0004517262
・・・(11)
【0063】
さらに、式(8)の残差方程式における生徒データxij、タップ係数wj、教師データyi、および誤差eiの関係を考慮すると、式(11)から、次のような正規方程式を得ることができる。
【0064】
【数7】
Figure 0004517262
・・・(12)
【0065】
なお、式(12)に示した正規方程式は、行列(共分散行列)Aおよびベクトルvを、
【数8】
Figure 0004517262
で定義するとともに、ベクトルWを、数1で示したように定義すると、式
AW=v
・・・(13)
で表すことができる。
【0066】
式(12)における各正規方程式は、生徒データxijおよび教師データyiのセットを、ある程度の数だけ用意することで、求めるべきタップ係数wjの数Jと同じ数だけたてることができ、従って、式(13)を、ベクトルWについて解くことで(但し、式(13)を解くには、式(13)における行列Aが正則である必要がある)、最適なタップ係数(ここでは、自乗誤差を最小にするタップ係数)wjを求めることができる。なお、式(13)を解くにあたっては、例えば、掃き出し法(Gauss-Jordanの消去法)などを用いることが可能である。
【0067】
以上のようにして、最適なタップ係数wjを求めておき、さらに、そのタップ係数wjを用い、式(6)により、真の高音質の音声yに近い予測値E[y]を求めるのが適応処理である。
【0068】
なお、例えば、教師データとして、高いサンプリング周波数でサンプリングした音声信号、または多ビットを割り当てた音声信号を用いるとともに、生徒データとして、その教師データとしての音声信号を間引いたり、低ビットで再量子化したした音声信号をCELP方式により符号化し、その符号化結果を復号して得られる合成音を用いた場合、タップ係数としては、高いサンプリング周波数でサンプリングした音声信号、または多ビットを割り当てた音声信号を生成するのに、予測誤差が、統計的に最小となる高音質の音声が得られることになる。従って、この場合、より高音質の合成音を得ることが可能となる。
【0069】
図3の音声合成装置では、以上のようなクラス分類適応処理により、Aコードと残差コードでなるコードデータを、高音質の音声に復号するようになっている。
【0070】
即ち、デマルチプレクサ(DEMUX)41には、コードデータが供給されるようになっており、デマルチプレクサ41は、そこに供給されるコードデータから、フレームごとのAコードと残差コードを分離する。そして、デマルチプレクサは、Aコードを、フィルタ係数復号器42、並びにタップ生成部45および46に供給し、残差コードを、残差コードブック記憶部43、並びにタップ生成部45および46に供給する。
【0071】
ここで、図3におけるコードデータに含まれるAコードと残差コードは、音声をLPC分析して得られる線形予測係数と残差信号を、所定のコードブックを用いて、それぞれベクトル量子化することにより得られるコードとなっている。
【0072】
フィルタ係数復号器42は、デマルチプレクサ41から供給されるフレームごとのAコードを、そのAコードを得るときに用いられたのと同一のコードブックに基づいて、線形予測係数に復号し、音声合成フィルタ44に供給する。
【0073】
残差コードブック記憶部43は、デマルチプレクサ41から供給されるフレームごとの残差コードを、その残差コードを得るときに用いられたのと同一のコードブックに基づいて、残差信号に復号し、音声合成フィルタ44に供給する。
【0074】
音声合成フィルタ44は、例えば、図1の音声合成フィルタ29と同様に、IIR型のディジタルフィルタで、フィルタ係数復号器42からの線形予測係数をIIRフィルタのタップ係数とするとともに、残差コードブック記憶部43からの残差信号を入力信号として、その入力信号のフィルタリングを行うことにより、合成音を生成し、タップ生成部45および46に供給する。
【0075】
タップ生成部45は、音声合成フィルタ44から供給される合成音(のサンプル値)、並びにデマルチプレクサ41から供給される残差コードおよびAコードから、後述する予測部49における予測演算に用いられる予測タップとなるものを抽出する。即ち、タップ生成部45は、例えば、高音質の音声の予測値を求めようとしているフレームである注目フレームの合成音のサンプル値、残差コード、およびAコードすべてを、予測タップとする。そして、タップ生成部45は、予測タップを、予測部49に供給する。
【0076】
タップ生成部46は、音声合成フィルタ44から供給される合成音のサンプル値、並びにデマルチプレクサ41から供給されるフレーム(またはサブフレーム)ごとのAコードおよび残差コードから、クラスタップとなるものを抽出する。即ち、タップ生成部46は、例えば、タップ生成部46と同様に、注目フレームの合成音のサンプル値、並びにAコードおよび残差コードすべてを、クラスタップとする。そして、タップ生成部46は、クラスタップを、クラス分類部47に供給する。
【0077】
ここで、予測タップやクラスタップの構成パターンは、上述したパターンのものに限定されるものではない。また、上述の場合には、同一のクラスタップおよび予測タップを構成するようにしたが、クラスタップと予測タップとは、異なる構成とすることが可能である。
【0078】
さらに、タップ生成部45や46では、図3において点線で示すように、フィルタ係数復号器42が出力する、Aコードから得られる線形予測係数や、残差コードブック記憶部43が出力する、残差コードから得られる残差信号等の中からも、クラスタップや予測タップを抽出するようにすることができる。
【0079】
クラス分類部47は、タップ生成部46からのクラスタップに基づき、注目している注目フレームの音声(のサンプル値)についてクラス分類を行い、その結果得られるクラスに対応するクラスコードを、係数メモリ48に出力する。
【0080】
ここで、クラス分類部47には、例えば、クラスタップとしての注目フレームの合成音のサンプル値、並びにAコードおよび残差コードを構成するビットの系列そのものを、クラスコードとして出力させることが可能である。
【0081】
係数メモリ48は、後述する図6の学習装置において学習処理が行われることにより得られる、クラスごとのタップ係数を記憶しており、クラス分類部47が出力するクラスコードに対応するアドレスに記憶されているタップ係数を、予測部49に出力する。
【0082】
ここで、各フレームについて、Nサンプルの高音質の音声が求められるとすると、注目フレームについて、Nサンプルの音声を、式(6)の予測演算によって求めるには、Nセットのタップ係数が必要である。従って、この場合は、係数メモリ48には、1つのクラスコードに対応するアドレスに対して、Nセットのタップ係数が記憶されている。
【0083】
予測部49は、タップ生成部45が出力する予測タップと、係数メモリ48が出力するタップ係数とを取得し、その予測タップとタップ係数とを用いて、式(6)に示した線形予測演算(積和演算)を行い、注目フレームの高音質の音声(の予測値)を求めて、D/A変換部50に出力する。
【0084】
ここで、係数メモリ48は、上述したように、注目フレームの音声のNサンプルそれぞれを求めるためのNセットのタップ係数を出力するが、予測部49は、各サンプル値について、予測タップと、そのサンプル値に対応するタップ係数のセットとを用い、式(6)の積和演算を行う。
【0085】
D/A変換部50は、予測部49からの音声(の予測値)を、ディジタル信号からアナログ信号にD/A変換し、スピーカ51に供給して出力させる。
【0086】
次に、図4は、図3の音声合成フィルタ44の構成例を示している。
【0087】
図4において、音声合成フィルタ44は、P次の線形予測係数を用いるものとなっており、従って、1つの加算器61、P個の遅延回路(D)621乃至62P、およびP個の乗算器631乃至63Pから構成されている。
【0088】
乗算器631乃至63Pには、それぞれ、フィルタ係数復号器42から供給されるP次の線形予測係数α1,α2,・・・,αPがセットされ、これにより、音声合成フィルタ44では、式(4)にしたがって演算が行われ、合成音が生成される。
【0089】
即ち、残差コードブック記憶部43が出力する残差信号eは、加算器61を介して、遅延回路621に供給され、遅延回路62pは、そこへの入力信号を、残差信号の1サンプル分だけ遅延して、後段の遅延回路62p+1に出力するとともに、演算器63pに出力する。乗算器63pは、遅延回路62pの出力と、そこにセットされた線形予測係数αpとを乗算し、その乗算値を、加算器61に出力する。
【0090】
加算器61は、乗算器631乃至63Pの出力すべてと、残差信号eとを加算し、その加算結果を、遅延回路621に供給する他、音声合成結果(合成音)として出力する。
【0091】
次に、図5のフローチャートを参照して、図3の音声合成装置の処理(音声合成処理)について説明する。
【0092】
デマルチプレクサ41は、そこに供給されるコードデータから、フレームごとのAコードと残差コードを順次分離し、それぞれを、フィルタ係数復号器42と残差コードブック記憶部43に供給する。さらに、デマルチプレクサ41は、Aコードおよび残差コードを、タップ生成部45および46にも供給する。
【0093】
フィルタ係数復号器42は、デマルチプレクサ41から供給されるフレームごとのAコードを、線形予測係数に順次復号し、音声合成フィルタ44に供給する。また、残差コードブック記憶部43は、デマルチプレクサ41から供給されるフレームごとの残差コードを、残差信号に順次復号し、音声合成フィルタ44に供給する。
【0094】
音声合成フィルタ44では、そこに供給される残差信号および線形予測係数を用いて、式(4)の演算が行われることにより、注目フレームの合成音が生成される。この合成音は、タップ生成部45および46に供給される。
【0095】
タップ生成部45は、そこに供給される合成音のフレームを、順次、注目フレームとし、ステップS1において、音声合成フィルタ44から供給される合成音(のサンプル値)、並びにデマルチプレクサ41から供給されるAコードおよび残差コードから、予測タップを生成し、予測部49に出力する。さらに、ステップS1では、タップ生成部46が、音声合成フィルタ44から供給される合成音、並びにデマルチプレクサ41から供給されるAコードおよび残差コードから、クラスタップを生成し、クラス分類部47に出力する。
【0096】
そして、ステップS2に進み、クラス分類部47は、タップ生成部46から供給されるクラスタップに基づいて、クラス分類を行い、その結果得られるクラスコードを、係数メモリ48に供給して、ステップS3に進む。
【0097】
ステップS3では、係数メモリ48は、クラス分類部47から供給されるクラスコードに対応するアドレスから、タップ係数を読み出し、予測部49に供給する。
【0098】
そして、ステップS4に進み、予測部49は、係数メモリ48が出力するタップ係数を取得し、そのタップ係数と、タップ生成部45からの予測タップとを用いて、式(6)に示した積和演算を行い、注目フレームの高音質の音声(の予測値)を得る。この高音質の音声は、予測部49からD/A変換部50を介して、スピーカ51に供給されて出力される。
【0099】
予測部49において、注目フレームの高音質の音声が得られた後は、ステップS5に進み、まだ、注目フレームとして処理すべきフレームがあるかどうかが判定される。ステップS5において、まだ、注目フレームとして処理すべきフレームがあると判定された場合、ステップS1に戻り、次に注目フレームとすべきフレームを、新たに注目フレームとして、以下、同様の処理を繰り返す。また、ステップS5において、注目フレームとして処理すべきフレームがないと判定された場合、音声合成処理を終了する。
【0100】
次に、図6は、図3の係数メモリ48に記憶させるタップ係数の学習処理を行う学習装置の一実施の形態の構成例を示している。
【0101】
学習装置には、学習用の(高音質の)ディジタル音声信号が、所定のフレーム単位で供給されるようになっており、この学習用のディジタル音声信号は、LPC分析部71および予測フィルタ74に供給される。さらに、学習用のディジタル音声信号は、教師データとして、正規方程式加算回路81にも供給される。
【0102】
LPC分析部71は、そこに供給される音声信号のフレームを、順次、注目フレームとし、その注目フレームの音声信号をLPC分析することで、P次の線形予測係数を求め、ベクトル量子化部72および予測フィルタ74に供給する。
【0103】
ベクトル量子化部72は、線形予測係数を要素とするコードベクトルとコードとを対応付けたコードブックを記憶しており、そのコードブックに基づいて、LPC分析部71からの注目フレームの線形予測係数で構成される特徴ベクトルをベクトル量子化し、そのベクトル量子化の結果得られるAコードを、フィルタ係数復号器73、並びにタップ生成部78および79に供給する。
【0104】
フィルタ係数復号器73は、ベクトル量子化部72が記憶しているのと同一のコードブックを記憶しており、そのコードブックに基づいて、ベクトル量子化部72からのAコードを、線形予測係数に復号し、音声合成フィルタ77に供給する。ここで、図3のフィルタ係数復号器42と、図6のフィルタ係数復号器73とは、同一構成のものとなっている。
【0105】
予測フィルタ74は、そこに供給される注目フレームの音声信号と、LPC分析部71からの線形予測係数を用いて、例えば、式(1)にしたがった演算を行うことにより、注目フレームの残差信号を求め、ベクトル量子化部75に供給する。
【0106】
即ち、式(1)におけるsnとenのZ変換を、SとEとそれぞれ表すと、式(1)は、次式のように表すことができる。
【0107】
E=(1+α1-1+α2-2+・・・+αP-P)S
・・・(14)
式(14)から、残差信号eを求める予測フィルタ74は、FIR(Finite Impulse Response)型のディジタルフィルタで構成することができる。
【0108】
即ち、図7は、予測フィルタ74の構成例を示している。
【0109】
予測フィルタ74には、LPC分析部71から、P次の線形予測係数が供給されるようになっており、従って、予測フィルタ74は、P個の遅延回路(D)911乃至91P、P個の乗算器921乃至92P、および1つの加算器93から構成されている。
【0110】
乗算器921乃至92Pには、それぞれ、LPC分析部71から供給されるP次の線形予測係数α1,α2,・・・,αPがセットされる。
【0111】
一方、注目フレームの音声信号sは、遅延回路911と加算器93に供給される。遅延回路91pは、そこへの入力信号を、残差信号の1サンプル分だけ遅延して、後段の遅延回路91p+1に出力するとともに、演算器92pに出力する。乗算器92pは、遅延回路91pの出力と、そこにセットされた線形予測係数αpとを乗算し、その乗算値を、加算器93に出力する。
【0112】
加算器93は、乗算器921乃至92Pの出力すべてと、音声信号sとを加算し、その加算結果を、残差信号eとして出力する。
【0113】
図6に戻り、ベクトル量子化部75は、残差信号のサンプル値を要素とするコードベクトルとコードとを対応付けたコードブックを記憶しており、そのコードブックに基づいて、予測フィルタ74からの注目フレームの残差信号のサンプル値で構成される残差ベクトルをベクトル量子化し、そのベクトル量子化の結果得られる残差コードを、残差コードブック記憶部76、並びにタップ生成部78および79に供給する。
【0114】
残差コードブック記憶部76は、ベクトル量子化部75が記憶しているのと同一のコードブックを記憶しており、そのコードブックに基づいて、ベクトル量子化部75からの残差コードを、残差信号に復号し、音声合成フィルタ77に供給する。ここで、図3の残差コードブック記憶部43と、図6の残差コードブック記憶部76の記憶内容は同一になっている。
【0115】
音声合成フィルタ77は、図3の音声合成フィルタ44と同様に構成されるIIRフィルタで、フィルタ係数復号器73からの線形予測係数をIIRフィルタのタップ係数とするとともに、残差コードブック記憶部75からの残差信号を入力信号として、その入力信号のフィルタリングを行うことにより、合成音を生成し、タップ生成部78および79に供給する。
【0116】
タップ生成部78は、図3のタップ生成部45における場合と同様に、音声合成フィルタ77から供給される合成音、ベクトル量子化部72から供給されるAコード、およびベクトル量子化部75から供給される残差コードから、予測タップを構成し、正規方程式加算回路81に供給する。タップ生成部79は、図3のタップ生成部46における場合と同様に、音声合成フィルタ77から供給される合成音、ベクトル量子化部72供給されるAコード、およびベクトル量子化部75から供給される残差コードから、クラスタップを構成し、クラス分類部80に供給する。
【0117】
クラス分類部80は、図3のクラス分類部47における場合と同様に、そこに供給されるクラスタップに基づいて、クラス分類を行い、その結果得られるクラスコードを、正規方程式加算回路81に供給する。
【0118】
正規方程式加算回路81は、教師データとしての注目フレームの高音質の音声である学習用の音声と、タップ生成部78からの生徒データとしての予測タップを対象とした足し込みを行う。
【0119】
即ち、正規方程式加算回路81は、クラス分類部80から供給されるクラスコードに対応するクラスごとに、予測タップ(生徒データ)を用い、式(13)の行列Aにおける各コンポーネントとなっている、生徒データどうしの乗算(xinim)と、サメーション(Σ)に相当する演算を行う。
【0120】
さらに、正規方程式加算回路81は、やはり、クラス分類部80から供給されるクラスコードに対応するクラスごとに、生徒データおよび教師データを用い、式(13)のベクトルvにおける各コンポーネントとなっている、生徒データと教師データの乗算(xini)と、サメーション(Σ)に相当する演算を行う。
【0121】
正規方程式加算回路81は、以上の足し込みを、そこに供給される学習用の音声のフレームすべてを注目フレームとして行い、これにより、各クラスについて、式(13)に示した正規方程式をたてる。
【0122】
タップ係数決定回路82は、正規方程式加算回路81においてクラスごとに生成された正規方程式を解くことにより、クラスごとに、タップ係数を求め、係数メモリ83の、各クラスに対応するアドレスに供給する。
【0123】
なお、学習用の音声信号として用意した音声信号によっては、正規方程式加算回路81において、タップ係数を求めるのに必要な数の正規方程式が得られないクラスが生じる場合があり得るが、タップ係数決定回路82は、そのようなクラスについては、例えば、デフォルトのタップ係数を出力する。
【0124】
係数メモリ83は、タップ係数決定回路82から供給されるクラスごとのタップ係数を、そのクラスに対応するアドレスに記憶する。
【0125】
次に、図8のフローチャートを参照して、図6の学習装置の処理(学習処理)について説明する。
【0126】
学習装置には、学習用の音声信号が供給され、この学習用の音声信号は、LPC分析部71および予測フィルタ74に供給されるとともに、教師データとして、正規方程式加算回路81に供給される。そして、ステップS11において、学習用の音声信号から、生徒データが生成される。
【0127】
即ち、LPC分析部71は、学習用の音声信号のフレームを、順次、注目フレームとし、その注目フレームの音声信号をLPC分析することで、P次の線形予測係数を求め、ベクトル量子化部72に供給する。ベクトル量子化部72は、LPC分析部71からの注目フレームの線形予測係数で構成される特徴ベクトルをベクトル量子化し、そのベクトル量子化の結果得られるAコードを、生徒データとして、フィルタ係数復号器73、並びにタップ生成部78および79に供給する。フィルタ係数復号器73は、ベクトル量子化部72からのAコードを、線形予測係数に復号し、その線形予測係数を、音声合成フィルタ77に供給する。
【0128】
一方、LPC分析部71から注目フレームの線形予測係数を受信した予測フィルタ74は、その線形予測係数と、注目フレームの学習用の音声信号とを用いて、式(1)にしたがった演算を行うことにより、注目フレームの残差信号を求め、ベクトル量子化部75に供給する。ベクトル量子化部75は、予測フィルタ74からの注目フレームの残差信号のサンプル値で構成される残差ベクトルをベクトル量子化し、そのベクトル量子化の結果得られる残差コードを、生徒データとして、残差コードブック記憶部76、並びにタップ生成部78および79に供給する。残差コードブック記憶部76は、ベクトル量子化部75からの残差コードを、残差信号に復号し、音声合成フィルタ77に供給する。
【0129】
以上のようにして、音声合成フィルタ77は、線形予測係数と残差信号を受信すると、その線形予測係数と残差信号を用いて音声合成を行い、その結果得られる合成音を、生徒データとして、タップ生成部78および79に出力する。
【0130】
そして、ステップS12に進み、タップ生成部78が、音声合成フィルタ77から供給される合成音、ベクトル量子化部72から供給されるAコード、およびベクトル量子化部75から供給される残差コードから、予測タップとクラスタップをそれぞれ生成する。予測タップは、正規方程式加算回路81に供給され、クラスタップは、クラス分類部80に供給される。
【0131】
その後、ステップS13において、クラス分類部80が、タップ生成部79からのクラスタップに基づいて、クラス分類を行い、その結果得られるクラスコードを、正規方程式加算回路81に供給する。
【0132】
そして、ステップS14に進み、正規方程式加算回路81は、クラス分類部80から供給されるクラスについて、そこに供給される教師データとしての注目フレームの高音質の音声のサンプル値、およびタップ生成部78からの生徒データとしての予測タップを対象とした、式(13)の行列Aとベクトルvの、上述したような足し込みを行い、ステップS15に進む。
【0133】
ステップS15では、まだ、注目フレームとして処理すべきフレームの学習用の音声信号があるかどうかが判定される。ステップS15において、まだ、注目フレームとして処理すべきフレームの学習用の音声信号があると判定された場合、ステップS11に戻り、次のフレームを新たに注目フレームとして、以下、同様の処理が繰り返される。
【0134】
また、ステップS15において、注目フレームとして処理すべきフレームの学習用の音声信号がないと判定された場合、即ち、正規方程式加算回路81において、各クラスについて、正規方程式が得られた場合、ステップS16に進み、タップ係数決定回路82は、各クラスごとに生成された正規方程式を解くことにより、各クラスごとに、タップ係数を求め、係数メモリ83の、各クラスに対応するアドレスに供給して記憶させ、処理を終了する。
【0135】
以上のようにして、係数メモリ83に記憶された各クラスごとのタップ係数が、図3の係数メモリ48に記憶されている。
【0136】
従って、図3の係数メモリ48に記憶されたタップ係数は、線形予測演算を行うことにより得られる高音質の音声の予測値の予測誤差(ここでは、自乗誤差)が、統計的に最小になるように学習を行うことにより求められたものであるから、図3の予測部49が出力する音声は、音声合成フィルタ44で生成された合成音の歪みが低減(解消)された、高音質のものとなる。
【0137】
なお、図3の音声合成装置において、上述したように、例えば、タップ生成部46に、線形予測係数や残差信号等の中からも、クラスタップを抽出させるようにする場合には、図6のタップ生成部79にも、図中点線で示すように、フィルタ係数復号器73が出力する線形予測係数や、残差コードブック記憶部76が出力する残差信号の中から、同様のクラスタップを抽出させるようにする必要がある。図3のタップ生成部45と、図6のタップ生成部78で生成される予測タップについても同様である。
【0138】
また、上述の場合には、説明を簡単にするために、クラスタップを構成するビットの系列を、そのままクラスコードとするクラス分類を行うようにしたが、この場合、クラス数が膨大になることがある。そこで、クラス分類では、例えば、クラスタップをベクトル量子化等によって圧縮し、その圧縮の結果得られるビットの系列を、クラスコードとするようにすることが可能である。
【0139】
次に、図9は、本発明を適用した伝送システム(システムとは、複数の装置が論理的に集合した物をいい、各構成の装置が同一筐体中にあるか否かは問わない)の一実施の形態の構成を示している。
【0140】
この伝送システムでは、携帯電話機1011と1012が、基地局1021と1022それぞれとの間で、無線による送受信を行うとともに、基地局1021と1022それぞれが、交換局103との間で送受信を行うことにより、最終的には、携帯電話機1011と1012との間において、基地局1021および1022、並びに交換局103を介して、音声の送受信を行うことができるようになっている。なお、基地局1021と1022は、同一の基地局であっても良いし、異なる基地局であっても良い。
【0141】
ここで、以下、特に区別する必要がない限り、携帯電話機1011と1012を、携帯電話機101と記述する。
【0142】
図10は、図9の携帯電話機101の構成例を示している。
【0143】
アンテナ111は、基地局1021または1022からの電波を受信し、その受信信号を、変復調部112に供給するとともに、変復調部112からの信号を、電波で、基地局1021または1022に送信する。変復調部112は、アンテナ111からの信号を復調し、その結果得られる、図1で説明したようなコードデータを、受信部114に供給する。また、変復調部112は、送信部113から供給される、図1で説明したようなコードデータを変調し、その結果得られる変調信号を、アンテナ111に供給する。送信部113は、図1に示した送信部と同様に構成され、そこに入力されるユーザの音声を、コードデータに符号化して、変復調部112に供給する。受信部114は、変復調部112からのコードデータを受信し、そのコードデータから、図3の音声合成装置における場合と同様の高音質の音声を復号して出力する。
【0144】
即ち、図11は、図10の受信部114の構成例を示している。なお、図中、図2における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。
【0145】
タップ生成部121と122には、音声合成フィルタ29が出力する、フレームごとの合成音と、チャネルデコーダ21が出力する、フレーム(またはサブフレーム)ごとのLコード、Gコード、Iコード、およびAコードとが供給されるようになっている。タップ生成部121と122は、そこに供給される合成音、Lコード、Gコード、Iコード、およびAコードから、予測タップとするものとクラスタップとするものをそれぞれ抽出する。予測タップは、予測部125に供給され、クラスタップは、クラス分類部123に供給される。
【0146】
クラス分類部123は、タップ生成部122から供給されるクラスタップに基づいて、クラス分類を行い、そのクラス分類結果としてのクラスコードを、係数メモリ124に供給する。
【0147】
係数メモリ124は、後述する図12の学習装置において学習処理が行われることにより得られる、クラスごとのタップ係数を記憶しており、クラス分類部123が出力するクラスコードに対応するアドレスに記憶されているタップ係数を、予測部125に供給する。
【0148】
予測部125は、図3の予測部49と同様に、タップ生成部121が出力する予測タップと、係数メモリ124が出力するタップ係数とを取得し、その予測タップとタップ係数とを用いて、式(6)に示した線形予測演算を行う。これにより、予測部125は、注目フレームの高音質の音声(の予測値)を求めて、D/A変換部30に供給する。
【0149】
以上のように構成される受信部114では、基本的には、図5に示したフローチャートにしたがった処理と同様の処理が行われることで、高音質の合成音が、音声の復号結果として出力される。
【0150】
即ち、チャネルデコーダ21は、そこに供給されるコードデータから、Lコード、Gコード、Iコード、Aコードを分離し、それぞれを、適応コードブック記憶部22、ゲイン復号器23、励起コードブック記憶部24、フィルタ係数復号器25に供給する。さらに、Lコード、Gコード、Iコード、およびAコードは、タップ生成部121および122にも供給される。
【0151】
そして、適応コードブック記憶部22、ゲイン復号器23、励起コードブック記憶部24、演算器26乃至28では、図1の適応コードブック記憶部9、ゲイン復号器10、励起コードブック記憶部11、演算器12乃至14における場合と同様の処理が行われ、これにより、Lコード、Gコード、およびIコードが、残差信号eに復号される。この残差信号は、音声合成フィルタ29に供給される。
【0152】
さらに、フィルタ係数復号器25は、図1で説明したように、そこに供給されるAコードを、線形予測係数に復号し、音声合成フィルタ29に供給する。音声合成フィルタ29は、演算器28からの残差信号と、フィルタ係数復号器25からの線形予測係数を用いて音声合成を行い、その結果得られる合成音を、タップ生成部121と122に供給する。
【0153】
タップ生成部121は、音声合成フィルタ29が出力する合成音のフレームを注目フレームとし、ステップS1において、その注目フレームの合成音と、Lコード、Gコード、Iコード、およびAコードとから、予測タップを生成し、予測部125に供給する。さらに、ステップS1では、タップ生成部122は、やはり、注目フレームの合成音と、Lコード、Gコード、Iコード、およびAコードとから、クラスタップを生成し、クラス分類部123に供給する。
【0154】
そして、ステップS2に進み、クラス分類部123は、タップ生成部122から供給されるクラスタップに基づいて、クラス分類を行い、その結果得られるクラスコードを、係数メモリ124に供給して、ステップS3に進む。
【0155】
ステップS3では、係数メモリ124は、クラス分類部123から供給されるクラスコードに対応するアドレスから、タップ係数を読み出し、予測部125に供給する。
【0156】
そして、ステップS4に進み、予測部125は、係数メモリ124が出力するタップ係数を取得し、そのタップ係数と、タップ生成部121からの予測タップとを用いて、式(6)に示した積和演算を行い、注目フレームの高音質の音声(の予測値)を得る。
【0157】
以上のようにして得られた高音質の音声は、予測部125から、D/A変換部30を介して、スピーカ31に供給され、これにより、スピーカ31からは、高音質の音声が出力される。
【0158】
ステップS4の処理後は、ステップS5に進み、まだ、注目フレームとして処理すべきフレームがあるかどうかが判定され、あると判定された場合、ステップS1に戻り、次に注目フレームとすべきフレームを、新たに注目フレームとして、以下、同様の処理を繰り返す。また、ステップS5において、注目フレームとして処理すべきフレームがないと判定された場合、処理を終了する。
【0159】
次に、図12は、図11の係数メモリ124に記憶させるタップ係数の学習処理を行う学習装置の一実施の形態の構成例を示している。
【0160】
マイク201乃至コード決定部215は、図1のマイク1乃至コード決定部15とそれぞれ同様に構成される。マイク1には、学習用の音声信号が入力されるようになっており、従って、マイク201乃至コード決定部215では、その学習用の音声信号に対して、図1における場合と同様の処理が施される。
【0161】
そして、タップ生成部131と132には、自乗誤差最小判定部208において自乗誤差が最小になったと判定されたときの音声合成フィルタ206が出力する合成音が供給される。さらに、タップ生成部131と132には、コード決定部215が、自乗誤差最小判定部208から確定信号を受信したときに出力するLコード、Gコード、Iコード、およびAコードも供給される。また、正規方程式加算回路134には、A/D変換部202が出力する音声が、教師データとして供給される。
【0162】
タップ生成部131は、音声合成フィルタ206が出力する合成音と、コード決定部215が出力するLコード、Gコード、Iコード、およびAコードとから、図11のタップ生成部121と同一の予測タップを構成し、生徒データとして、正規方程式加算回路134に供給する。
【0163】
タップ生成部132も、音声合成フィルタ206が出力する合成音と、コード決定部215が出力するLコード、Gコード、Iコード、およびAコードとから、図11のタップ生成部122と同一のクラスタップを構成し、クラス分類部133に供給する。
【0164】
クラス分類部133は、タップ生成部132からのクラスタップに基づいて、図11のクラス分類部123における場合と同様のクラス分類を行い、その結果得られるクラスコードを、正規方程式加算回路134に供給する。
【0165】
正規方程式加算回路134は、A/D変換部202からの音声を、教師データとして受信するとともに、タップ生成部131からの予測タップを、生徒データとして受信し、その教師データおよび生徒データを対象として、クラス分類部133からのクラスコードごとに、図6の正規方程式加算回路81における場合と同様の足し込みを行うことにより、各クラスについて、式(13)に示した正規方程式をたてる。
【0166】
タップ係数決定回路135は、正規方程式加算回路134においてクラスごとに生成された正規方程式を解くことにより、クラスごとに、タップ係数を求め、係数メモリ136の、各クラスに対応するアドレスに供給する。
【0167】
なお、学習用の音声信号として用意する音声信号によっては、正規方程式加算回路134において、タップ係数を求めるのに必要な数の正規方程式が得られないクラスが生じる場合があり得るが、タップ係数決定回路135は、そのようなクラスについては、例えば、デフォルトのタップ係数を出力する。
【0168】
係数メモリ136は、タップ係数決定回路135から供給されるクラスごとの線形予測係数と残差信号についてのタップ係数を記憶する。
【0169】
以上のように構成される学習装置では、基本的には、図8に示したフローチャートにしたがった処理と同様の処理が行われることで、高音質の合成音を得るためのタップ係数が求められる。
【0170】
即ち、学習装置には、学習用の音声信号が供給され、ステップS11では、その学習用の音声信号から、教師データと生徒データが生成される。
【0171】
即ち、学習用の音声信号は、マイク201に入力され、マイク201乃至コード決定部215は、図1のマイク1乃至コード決定部15における場合とそれぞれ同様の処理を行う。
【0172】
その結果、A/D変換部202で得られるディジタル信号の音声は、教師データとして、正規方程式加算回路134に供給される。また、自乗誤差最小判定部208において自乗誤差が最小になったと判定されたときに、音声合成フィルタ206が出力する合成音は、生徒データとして、タップ生成部131と132に供給される。さらに、自乗誤差最小判定部208において自乗誤差が最小になったと判定されたときに、コード決定部215が出力するLコード、Gコード、Iコード、およびAコードも、生徒データとして、タップ生成部131と132に供給される。
【0173】
その後、ステップS12に進み、タップ生成部131は、音声合成フィルタ206から生徒データとして供給される合成音のフレームを注目フレームとして、その注目フレームの合成音と、Lコード、Gコード、Iコード、およびAコードとから、予測タップを生成し、正規方程式加算回路134に供給する。さらに、ステップS12では、タップ生成部132が、やはり、注目フレームの合成音と、Lコード、Gコード、Iコード、およびAコードとから、クラスタップを生成し、クラス分類部133に供給する。
【0174】
ステップS12の処理後は、ステップS13に進み、クラス分類部133が、タップ生成部132からのクラスタップに基づいて、クラス分類を行い、その結果得られるクラスコードを、正規方程式加算回路134に供給する。
【0175】
そして、ステップS14に進み、正規方程式加算回路134は、A/D変換器202からの教師データとしての注目フレームの高音質の音声である学習用の音声、およびタップ生成部132からの生徒データとしての予測タップを対象として、式(13)の行列Aとベクトルvの、上述したような足し込みを、クラス分類部133からのクラスコードごとに行い、ステップS15に進む。
【0176】
ステップS15では、まだ、注目フレームとして処理すべきフレームがあるかどうかが判定される。ステップS15において、まだ、注目フレームとして処理すべきフレームがあると判定された場合、ステップS11に戻り、次のフレームを新たに注目フレームとして、以下、同様の処理が繰り返される。
【0177】
また、ステップS15において、注目フレームとして処理すべきフレームがないと判定された場合、即ち、正規方程式加算回路134において、各クラスについて、正規方程式が得られた場合、ステップS16に進み、タップ係数決定回路135は、各クラスごとに生成された正規方程式を解くことにより、各クラスごとに、タップ係数を求め、係数メモリ136の、各クラスに対応するアドレスに供給して記憶させ、処理を終了する。
【0178】
以上のようにして、係数メモリ136に記憶された各クラスごとのタップ係数が、図11の係数メモリ124に記憶されている。
【0179】
従って、図11の係数メモリ124に記憶されたタップ係数は、線形予測演算を行うことにより得られる高音質の音声予測値の予測誤差(自乗誤差)が、統計的に最小になるように学習を行うことにより求められたものであるから、図11の予測部125が出力する音声は、高音質のものとなる。
【0180】
なお、例えば、図11および図12の実施の形態では、クラスタップを、音声合成フィルタ206が出力する合成音と、Lコード、Gコード、Iコード、およびAコードとから生成するようにしたが、クラスタップは、Lコード、Gコード、Iコード、またはAコードのうちの1以上と、音声合成フィルタ206が出力する合成音とから生成することが可能である。また、クラスタップは、図11および図12において点線で示すように、Aコードから得られる線形予測係数αpや、Gコードから得られるゲインβ,γ、その他の、Lコード、Gコード、Iコード、またはAコードから得られる情報(例えば、残差信号eや、残差信号eを得るためのl,n、さらには、l/β,n/γなど)をも用いて構成することが可能である。さらに、クラスタップは、音声合成フィルタ206が出力する合成音と、Lコード、Gコード、Iコード、またはAコードから得られる、上述したような情報とから生成することも可能である。また、CELP方式では、コードデータに、リスト補間ビットやフレームエネルギが含められる場合があるが、この場合、クラスタップは、ソフト補間ビットやフレームエネルギを用いて構成することが可能である。予測タップについても、同様である。
【0181】
ここで、図13に、図12の学習装置において、教師データとして用いられる音声データsと、生徒データとして用いられる合成音のデータss、残差信号e、残差信号を求めるのに用いられるnおよびlを示す。
【0182】
次に、上述した一連の処理は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。
【0183】
そこで、図14は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示している。
【0184】
プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク305やROM303に予め記録しておくことができる。
【0185】
あるいはまた、プログラムは、フロッピーディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体311に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体311は、いわゆるパッケージソフトウエアとして提供することができる。
【0186】
なお、プログラムは、上述したようなリムーバブル記録媒体311からコンピュータにインストールする他、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送し、コンピュータでは、そのようにして転送されてくるプログラムを、通信部308で受信し、内蔵するハードディスク305にインストールすることができる。
【0187】
コンピュータは、CPU(Central Processing Unit)302を内蔵している。CPU302には、バス301を介して、入出力インタフェース310が接続されており、CPU302は、入出力インタフェース310を介して、ユーザによって、キーボードや、マウス、マイク等で構成される入力部307が操作等されることにより指令が入力されると、それにしたがって、ROM(Read Only Memory)303に格納されているプログラムを実行する。あるいは、また、CPU302は、ハードディスク305に格納されているプログラム、衛星若しくはネットワークから転送され、通信部308で受信されてハードディスク305にインストールされたプログラム、またはドライブ309に装着されたリムーバブル記録媒体311から読み出されてハードディスク305にインストールされたプログラムを、RAM(Random Access Memory)304にロードして実行する。これにより、CPU302は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU302は、その処理結果を、必要に応じて、例えば、入出力インタフェース310を介して、LCD(Liquid CryStal Display)やスピーカ等で構成される出力部306から出力、あるいは、通信部308から送信、さらには、ハードディスク305に記録等させる。
【0188】
ここで、本明細書において、コンピュータに各種の処理を行わせるためのプログラムを記述する処理ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。
【0189】
また、プログラムは、1のコンピュータにより処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
【0190】
なお、本実施の形態においては、学習用の音声信号として、どのようなものを用いるかについては、特に言及しなかったが、学習用の音声信号としては、人が発話した音声の他、例えば、曲(音楽)等を採用することが可能である。そして、上述したような学習処理によれば、学習用の音声信号として、人の発話を用いた場合には、そのような人の発話の音声の音質を向上させるようなタップ係数が得られ、曲を用いた場合には、曲の音質を向上させるようなタップ係数が得られることになる。
【0191】
また、図11の実施の形態では、係数メモリ124には、タップ係数をあらかじめ記憶させておくようにしたが、係数メモリ124に記憶させるタップ係数は、携帯電話機101において、図9の基地局102(あるいは交換局103)や、図示しないWWW(World Wide Web)サーバ等からダウンロードするようにすることができる。即ち、上述したように、タップ係数は、人の発話用や曲用等のように、ある種類の音声信号に適したものを、学習によって得ることができる。さらに、学習に用いる教師データおよび生徒データによっては、合成音の音質に差が生じるタップ係数を得ることができる。従って、そのような各種のタップ係数を、基地局102等に記憶させておき、ユーザには、自身の所望するタップ係数をダウンロードさせるようにすることができる。そして、このようなタップ係数のダウンロードサービスは、無料で行うこともできるし、有料で行うこともできる。さらに、タップ係数のダウンロードサービスを有料で行う場合には、タップ係数のダウンロードに対する対価としての代金は、例えば、携帯電話機101の通話料等とともに請求するようにすることが可能である。
【0192】
また、係数メモリ124は、携帯電話機101に対して着脱可能なメモリカード等で構成することができる。この場合、上述したような各種のタップ係数それぞれを記憶させた、異なるメモリカードを提供するようにすれば、ユーザは、場合に応じて、所望のタップ係数が記憶されたメモリカードを、携帯電話機101に装着して使用することが可能となる。
【0193】
さらに、本発明は、例えば、VSELP(Vector Sum Excited Liner Prediction),PSI−CELP(Pitch Synchronous Innovation CELP),CS−ACELP(Conjugate Structure Algebraic CELP)等のCELP方式による符号化の結果得られるコードから合成音を生成する場合に、広く適用可能である。
【0194】
また、本発明は、CELP方式による符号化の結果得られるコードから合成音を生成する場合に限らず、あるコードから、残差信号と線形予測係数を得て、合成音を生成する場合に、広く適用可能である。
【0195】
さらに、本実施の形態では、タップ係数を用いた線形1次予測演算によって、残差信号や線形予測係数の予測値を求めるようにしたが、この予測値は、その他、2次以上の高次の予測演算によって求めることも可能である。
【0196】
また、本実施の形態では、クラスタップをベクトル量子化すること等によってクラス分類を行うようにしたが、クラス分類は、その他、例えば、ADRC処理を利用して行うこと等も可能である。
【0197】
ADRCを用いるクラス分類では、クラスタップを構成する要素(本実施の形態では、合成音のサンプル値や、Lコード、Gコード、Iコード、Aコード等)が、ADRC処理され、その結果得られるADRCコードにしたがって、クラスが決定される。
【0198】
ここで、KビットADRCにおいては、例えば、クラスタップを構成する要素の最大値MAXと最小値MINが検出され、DR=MAX-MINを、集合の局所的なダイナミックレンジとし、このダイナミックレンジDRに基づいて、クラスタップを構成する要素がKビットに再量子化される。即ち、クラスタップを構成する各要素から、最小値MINが減算され、その減算値がDR/2Kで除算(量子化)される。そして、以上のようにして得られる、クラスタップを構成する各要素のKビットの値を、所定の順番で並べたビット列が、ADRCコードとして出力される。
【0199】
なお、例えば、特開平8−202399号公報には、合成音を、高域強調フィルタに通すことによって、その音質を改善する方法が開示されているが、本発明は、タップ係数が学習により得られる点や、予測計算に用いられるタップ係数が、クラス分類結果によって適応的に決まる点等において、特開平8−202339号公報に記載の発明と異なる。
【0200】
【発明の効果】
本発明の第1及び第2の側面によれば高音質の合成音を生成することが可能となる。
【図面の簡単な説明】
【図1】従来の携帯電話機の送信部の一例の構成を示すブロック図である。
【図2】従来の携帯電話機の受信部の一例の構成を示すブロック図である。
【図3】本発明を適用した音声合成装置の一実施の形態の構成例を示すブロック図である。
【図4】音声合成フィルタ44の構成例を示すブロック図である。
【図5】図3の音声合成装置の処理を説明するフローチャートである。
【図6】本発明を適用した学習装置の一実施の形態の構成例を示すブロック図である。
【図7】予測フィルタ74の構成例を示すブロック図である。
【図8】図6の学習装置の処理を説明するフローチャートである。
【図9】本発明を適用した伝送システムの一実施の形態の構成例を示す図である。
【図10】携帯電話機101の構成例を示すブロック図である。
【図11】受信部114の構成例を示すブロック図である。
【図12】本発明を適用した学習装置の他の実施の形態の構成例を示すブロック図である。
【図13】教師データと生徒データを示す図である。
【図14】本発明を適用したコンピュータの一実施の形態の構成例を示すブロック図である。
【符号の説明】
21 チャンネルデコーダ, 22 適応コードブック記憶部, 23 ゲイン復号器, 24 励起コードブック記憶部, 25 フィルタ係数復号器, 26乃至28 演算器, 29 音声合成フィルタ, 30 D/A変換部, 31 スピーカ, 41 デマルチプレクサ, 42 フィルタ係数復号器, 43 残差コードブック記憶部, 44 音声合成フィルタ, 45,46 タップ生成部, 47 クラス分類部, 48 係数メモリ, 49 予測部, 50 D/A変換部, 51 スピーカ, 61 加算器, 621乃至62P 遅延回路, 631乃至63P 乗算器, 71 LPC分析部, 72 ベクトル量子化部, 73 フィルタ係数復号器, 74 予測フィルタ, 75 ベクトル量子化部, 76 残差コードブック記憶部, 77 音声合成フィルタ, 78,79 タップ生成部, 80 クラス分類部, 81 正規方程式加算回路, 82 タップ係数決定回路, 83 係数メモリ, 911乃至91P遅延回路, 921乃至72P 乗算器, 93 加算器, 1011,1012携帯電話機, 1021,1022 基地局, 103 交換局, 111 アンテナ, 112 変復調部, 113 送信部, 114 受信部, 121,122 タップ生成部, 123 クラス分類部, 124 係数メモリ, 125 予測部, 131,132 タップ生成部, 133 クラス分類部,134 正規方程式加算回路, 135 タップ係数決定回路, 136 係数メモリ, 201 マイク, 202 A/D変換部, 203 演算器, 204 LPC分析部, 205 ベクトル量子化部, 206 音声合成フィルタ, 207 自乗誤差演算部, 208 自乗誤差最小判定部, 209 適応コードブック記憶部, 210 ゲイン復号器, 211 励起コードブック記憶部, 212 乃至214 演算器, 215 コード決定部, 301バス, 302 CPU, 303 ROM, 304 RAM, 305 ハードディスク, 306 出力部, 307 入力部, 308 通信部, 309 ドライブ, 310 入出力インタフェース, 311 リムーバブル記録媒体

Claims (15)

  1. 所定のコードから生成される線形予測係数と残差信号を、音声合成フィルタに与えることによって得られる合成音から、その音質を向上させた高音質の音声の予測値を求める音声処理装置であって、
    前記予測値を求めようとしている前記高音質の音声を注目音声として、その注目音声を予測するのに用いる予測タップを、前記合成音と、前記コードまたは前記コードから得られる情報とから抽出する予測タップ抽出手段と、
    前記注目音声を、幾つかのクラスのうちのいずれかにクラス分類するのに用いるクラスタップを、前記合成音と、前記コードまたは前記コードから得られる情報とから抽出するクラスタップ抽出手段と、
    前記クラスタップに基づいて、前記注目音声のクラスを求めるクラス分類を行うクラス分類手段と、
    学習を行うことにより求められた、前記クラスごとの前記タップ係数の中から、前記注目音声のクラスに対応する前記タップ係数を取得する取得手段と、
    前記予測タップと、前記注目音声のクラスに対応する前記タップ係数を用いて、前記注目音声の予測値を求める予測手段と
    を備える音声処理装置
  2. 前記予測手段は、前記予測タップおよびタップ係数を用いて線形1次予測演算を行うことにより、前記注目音声の予測値を求める
    請求項1に記載の音声処理装置。
  3. 前記取得手段は、クラスごとの前記タップ係数を記憶している記憶手段から、前記注目音声に対応するクラスの前記タップ係数を取得する
    請求項1に記載の音声処理装置。
  4. 前記予測タップ抽出手段またはクラスタップ抽出手段は、前記予測タップまたはクラスタップを、前記合成音、前記コード、およびコードから得られる情報から抽出する
    請求項1に記載の音声処理装置。
  5. 前記タップ係数は、前記予測タップおよびタップ係数を用いて所定の予測演算を行うことにより得られる前記高音質の音声の予測値の予測誤差が、統計的に最小になるように、学習を行うことにより得られたものである
    請求項1に記載の音声処理装置。
  6. 前記音声合成フィルタをさらに備える
    請求項1に記載の音声処理装置。
  7. 前記コードは、音声を、CELP(Code Excited Liner Prediction coding)方式によって符号化することにより得られたものである
    請求項1に記載の音声処理装置。
  8. 所定のコードから生成される線形予測係数と残差信号を、音声合成フィルタに与えることによって得られる合成音から、その音質を向上させた高音質の音声の予測値を求める音声処理方法であって、
    前記予測値を求めようとしている前記高音質の音声を注目音声として、その注目音声を予測するのに用いる予測タップを、前記合成音と、前記コードまたは前記コードから得られる情報とから抽出する予測タップ抽出ステップと、
    前記注目音声を、幾つかのクラスのうちのいずれかにクラス分類するのに用いるクラスタップを、前記コード合成音と、前記コードまたは前記コードから得られる情報とから抽出するクラスタップ抽出ステップと、
    前記クラスタップに基づいて、前記注目音声のクラスを求めるクラス分類を行うクラス分類ステップと、
    学習を行うことにより求められた、前記クラスごとの前記タップ係数の中から、前記注目音声のクラスに対応する前記タップ係数を取得する取得ステップと、
    前記予測タップと、前記注目音声のクラスに対応する前記タップ係数を用いて、前記注目音声の予測値を求める予測ステップと
    を備える音声処理方法。
  9. 所定のコードから生成される線形予測係数と残差信号を、音声合成フィルタに与えることによって得られる合成音から、その音質を向上させた高音質の音声の予測値を求める音声処理を、コンピュータに行わせるプログラムが記録されている記録媒体であって、
    前記予測値を求めようとしている前記高音質の音声を注目音声として、その注目音声を予測するのに用いる予測タップを、前記合成音と、前記コードまたは前記コードから得られる情報とから抽出する予測タップ抽出手段と、
    前記注目音声を、幾つかのクラスのうちのいずれかにクラス分類するのに用いるクラスタップを、前記合成音と、前記コードまたは前記コードから得られる情報とから抽出するクラスタップ抽出手段と、
    前記クラスタップに基づいて、前記注目音声のクラスを求めるクラス分類を行うクラス分類手段と、
    学習を行うことにより求められた、前記クラスごとの前記タップ係数の中から、前記注目音声のクラスに対応する前記タップ係数を取得する取得手段と、
    前記予測タップと、前記注目音声のクラスに対応する前記タップ係数を用いて、前記注目音声の予測値を求める予測手段
    して、コンピュータを機能させるためのプログラムが記録されている記録媒体。
  10. 所定のコードから生成される線形予測係数と残差信号を、音声合成フィルタに与えることによって得られる合成音から、その音質を向上させた高音質の音声の予測値を、所定の予測演算によって求めるのに用いる所定のタップ係数を学習する学習装置であって、
    前記予測値を求めようとしている前記高音質の音声を注目音声として、その注目音声を予測するのに用いる予測タップを、前記合成音と、前記コードまたは前記コードから得られる情報とから抽出する予測タップ抽出手段と、
    前記注目音声を、幾つかのクラスのうちのいずれかにクラス分類するのに用いるクラスタップを、前記合成音と、前記コードまたは前記コードから得られる情報とから抽出するクラスタップ抽出手段と、
    前記クラスタップに基づいて、前記注目音声のクラスを求めるクラス分類を行うクラス分類手段と、
    前記タップ係数および予測タップを用いて予測演算を行うことにより得られる前記高音質の音声の予測値の予測誤差が統計的に最小になるように、学習を行い、前記クラスごとのタップ係数を求める学習手段と
    を備える習装置。
  11. 前記学習手段は、前記タップ係数および予測タップを用いて線形1次予測演算を行うことにより得られる前記高音質の音声の予測値の予測誤差が、統計的に最小になるように学習を行う
    求項10に記載の学習装置。
  12. 前記予測タップ抽出手段またはクラスタップ抽出手段は、前記予測タップまたはクラスタップを、前記合成音と、前記コード、および前記コードから得られる情報から抽出する
    求項10に記載の学習装置。
  13. 前記コードは、音声を、CELP(Code Excited Liner Prediction coding)方式によって符号化することにより得られたものである
    求項10に記載の学習装置。
  14. 所定のコードから生成される線形予測係数と残差信号を、音声合成フィルタに与えることによって得られる合成音から、その音質を向上させた高音質の音声の予測値を、所定の予測演算によって求めるのに用いる所定のタップ係数を学習する学習方法であって、
    前記予測値を求めようとしている前記高音質の音声を注目音声として、その注目音声を予測するのに用いる予測タップを、前記合成音と、前記コードまたは前記コードから得られる情報とから抽出する予測タップ抽出手段と、
    前記注目音声を、幾つかのクラスのうちのいずれかにクラス分類するのに用いるクラスタップを、前記合成音と、前記コードまたは前記コードから得られる情報とから抽出するクラスタップ抽出ステップと、
    前記クラスタップに基づいて、前記注目音声のクラスを求めるクラス分類を行うクラス分類ステップと、
    前記タップ係数および予測タップを用いて予測演算を行うことにより得られる前記高音質の音声の予測値の予測誤差が統計的に最小になるように、学習を行い、前記クラスごとのタップ係数を求める学習ステップと
    を備える習方法。
  15. 所定のコードから生成される線形予測係数と残差信号を、音声合成フィルタに与えることによって得られる合成音から、その音質を向上させた高音質の音声の予測値を、所定の予測演算によって求めるのに用いる所定のタップ係数を学習する学習処理を、コンピュータに行わせるプログラムが記録されている記録媒体であって、
    前記予測値を求めようとしている前記高音質の音声を注目音声として、その注目音声を予測するのに用いる予測タップを、前記合成音と、前記コードまたは前記コードから得られる情報とから抽出する予測タップ抽出手段と、
    前記注目音声を、幾つかのクラスのうちのいずれかにクラス分類するのに用いるクラスタップを、前記合成音と、前記コードまたは前記コードから得られる情報とから抽出するクラスタップ抽出手段と、
    前記クラスタップに基づいて、前記注目音声のクラスを求めるクラス分類を行うクラス分類手段と、
    前記タップ係数および予測タップを用いて予測演算を行うことにより得られる前記高音質の音声の予測値の予測誤差が統計的に最小になるように、学習を行い、前記クラスごとのタップ係数を求める学習手段
    して、コンピュータを機能させるためのプログラムが記録されている記録媒体
JP2000346675A 2000-08-09 2000-11-14 音声処理装置および音声処理方法、学習装置および学習方法、並びに記録媒体 Expired - Fee Related JP4517262B2 (ja)

Priority Applications (14)

Application Number Priority Date Filing Date Title
JP2000346675A JP4517262B2 (ja) 2000-11-14 2000-11-14 音声処理装置および音声処理方法、学習装置および学習方法、並びに記録媒体
DE60140020T DE60140020D1 (de) 2000-08-09 2001-08-03 Sprachdatenverarbeitungsvorrichtung und -verarbeitungsverfahren
EP08003539A EP1944760B1 (en) 2000-08-09 2001-08-03 Voice data processing device and processing method
PCT/JP2001/006708 WO2002013183A1 (fr) 2000-08-09 2001-08-03 Procede et dispositif de traitement de donnees vocales
DE60134861T DE60134861D1 (de) 2000-08-09 2001-08-03 Vorrichtung zur verarbeitung von sprachdaten und verfahren der verarbeitung
KR1020027004559A KR100819623B1 (ko) 2000-08-09 2001-08-03 음성 데이터의 처리 장치 및 처리 방법
EP01956800A EP1308927B9 (en) 2000-08-09 2001-08-03 Voice data processing device and processing method
EP08003538A EP1944759B1 (en) 2000-08-09 2001-08-03 Voice data processing device and processing method
DE60143327T DE60143327D1 (de) 2000-08-09 2001-08-03 Sprachdatenverarbeitungsvorrichtung und -verarbeitungsverfahren
TW090119402A TW564398B (en) 2000-08-09 2001-08-08 Device and method for processing sound data
NO20021631A NO326880B1 (no) 2000-08-09 2002-04-05 Fremgangsmate og anordning for taledata
US11/903,550 US7912711B2 (en) 2000-08-09 2007-09-21 Method and apparatus for speech data
NO20082401A NO20082401L (no) 2000-08-09 2008-05-26 Fremgangsmate og anordning for taledata
NO20082403A NO20082403L (no) 2000-08-09 2008-05-26 Fremgangsmate og anordning for taledata

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000346675A JP4517262B2 (ja) 2000-11-14 2000-11-14 音声処理装置および音声処理方法、学習装置および学習方法、並びに記録媒体

Publications (2)

Publication Number Publication Date
JP2002149175A JP2002149175A (ja) 2002-05-24
JP4517262B2 true JP4517262B2 (ja) 2010-08-04

Family

ID=18820509

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000346675A Expired - Fee Related JP4517262B2 (ja) 2000-08-09 2000-11-14 音声処理装置および音声処理方法、学習装置および学習方法、並びに記録媒体

Country Status (1)

Country Link
JP (1) JP4517262B2 (ja)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0683400A (ja) * 1992-06-04 1994-03-25 American Teleph & Telegr Co <Att> 音声メッセージ処理方法
JPH0750586A (ja) * 1991-09-10 1995-02-21 At & T Corp 低遅延celp符号化方法
JPH08248996A (ja) * 1995-03-10 1996-09-27 Nippon Telegr & Teleph Corp <Ntt> ディジタルフィルタのフィルタ係数決定方法
JPH08328591A (ja) * 1995-05-17 1996-12-13 Fr Telecom 短期知覚重み付けフィルタを使用する合成分析音声コーダに雑音マスキングレベルを適応する方法
JPH0990997A (ja) * 1995-09-26 1997-04-04 Mitsubishi Electric Corp 音声符号化装置、音声復号化装置、音声符号化復号化方法および複合ディジタルフィルタ
JPH09258795A (ja) * 1996-03-25 1997-10-03 Nippon Telegr & Teleph Corp <Ntt> ディジタルフィルタおよび音響符号化/復号化装置
JPH10242867A (ja) * 1997-02-25 1998-09-11 Nippon Telegr & Teleph Corp <Ntt> 音響信号符号化方法
JP2000066700A (ja) * 1998-08-17 2000-03-03 Oki Electric Ind Co Ltd 音声信号符号器、音声信号復号器
JP2001320277A (ja) * 2000-05-09 2001-11-16 Sony Corp データ処理装置およびデータ処理方法、並びに記録媒体
JP2001320587A (ja) * 2000-05-09 2001-11-16 Sony Corp データ処理装置およびデータ処理方法、並びに記録媒体

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0750586A (ja) * 1991-09-10 1995-02-21 At & T Corp 低遅延celp符号化方法
JPH0683400A (ja) * 1992-06-04 1994-03-25 American Teleph & Telegr Co <Att> 音声メッセージ処理方法
JPH08248996A (ja) * 1995-03-10 1996-09-27 Nippon Telegr & Teleph Corp <Ntt> ディジタルフィルタのフィルタ係数決定方法
JPH08328591A (ja) * 1995-05-17 1996-12-13 Fr Telecom 短期知覚重み付けフィルタを使用する合成分析音声コーダに雑音マスキングレベルを適応する方法
JPH0990997A (ja) * 1995-09-26 1997-04-04 Mitsubishi Electric Corp 音声符号化装置、音声復号化装置、音声符号化復号化方法および複合ディジタルフィルタ
JPH09258795A (ja) * 1996-03-25 1997-10-03 Nippon Telegr & Teleph Corp <Ntt> ディジタルフィルタおよび音響符号化/復号化装置
JPH10242867A (ja) * 1997-02-25 1998-09-11 Nippon Telegr & Teleph Corp <Ntt> 音響信号符号化方法
JP2000066700A (ja) * 1998-08-17 2000-03-03 Oki Electric Ind Co Ltd 音声信号符号器、音声信号復号器
JP2001320277A (ja) * 2000-05-09 2001-11-16 Sony Corp データ処理装置およびデータ処理方法、並びに記録媒体
JP2001320587A (ja) * 2000-05-09 2001-11-16 Sony Corp データ処理装置およびデータ処理方法、並びに記録媒体

Also Published As

Publication number Publication date
JP2002149175A (ja) 2002-05-24

Similar Documents

Publication Publication Date Title
US7912711B2 (en) Method and apparatus for speech data
JPH08179796A (ja) 音声符号化方法
JP3344962B2 (ja) オーディオ信号符号化装置、及びオーディオ信号復号化装置
JP4857468B2 (ja) データ処理装置およびデータ処理方法、並びにプログラムおよび記録媒体
JP4857467B2 (ja) データ処理装置およびデータ処理方法、並びにプログラムおよび記録媒体
JP4517262B2 (ja) 音声処理装置および音声処理方法、学習装置および学習方法、並びに記録媒体
JP2004302259A (ja) 音響信号の階層符号化方法および階層復号化方法
JP4736266B2 (ja) 音声処理装置および音声処理方法、学習装置および学習方法、並びにプログラムおよび記録媒体
JPH09127985A (ja) 信号符号化方法及び装置
JPH09127987A (ja) 信号符号化方法及び装置
JP3916934B2 (ja) 音響パラメータ符号化、復号化方法、装置及びプログラム、音響信号符号化、復号化方法、装置及びプログラム、音響信号送信装置、音響信号受信装置
US7283961B2 (en) High-quality speech synthesis device and method by classification and prediction processing of synthesized sound
JP2002062899A (ja) データ処理装置およびデータ処理方法、学習装置および学習方法、並びに記録媒体
JP3249144B2 (ja) 音声符号化装置
JPH09127998A (ja) 信号量子化方法及び信号符号化装置
JP4287840B2 (ja) 符号化装置
JPH09127994A (ja) 信号符号化方法及び装置
JPH09127986A (ja) 符号化信号の多重化方法及び信号符号化装置
JP2002229597A (ja) Lpcパラメータのベクトル量子化装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100422

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100505

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130528

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees