JPH10149199A - 音声符号化方法、音声復号化方法、音声符号化装置、音声復号化装置、電話装置、ピッチ変換方法及び媒体 - Google Patents
音声符号化方法、音声復号化方法、音声符号化装置、音声復号化装置、電話装置、ピッチ変換方法及び媒体Info
- Publication number
- JPH10149199A JPH10149199A JP8308259A JP30825996A JPH10149199A JP H10149199 A JPH10149199 A JP H10149199A JP 8308259 A JP8308259 A JP 8308259A JP 30825996 A JP30825996 A JP 30825996A JP H10149199 A JPH10149199 A JP H10149199A
- Authority
- JP
- Japan
- Prior art keywords
- pitch
- data
- speech
- sine wave
- wave analysis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 105
- 238000012545 processing Methods 0.000 claims abstract description 79
- 230000005236 sound signal Effects 0.000 claims abstract description 33
- 238000006243 chemical reaction Methods 0.000 claims description 159
- 238000004458 analytical method Methods 0.000 claims description 88
- 230000005540 biological transmission Effects 0.000 claims description 8
- 238000000638 solvent extraction Methods 0.000 abstract 1
- 238000003786 synthesis reaction Methods 0.000 description 38
- 230000015572 biosynthetic process Effects 0.000 description 37
- 238000013139 quantization Methods 0.000 description 33
- 238000001228 spectrum Methods 0.000 description 30
- 238000004364 calculation method Methods 0.000 description 14
- 230000005284 excitation Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 238000001914 filtration Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 238000001308 synthesis method Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 206010028735 Nasal congestion Diseases 0.000 description 1
- 238000002940 Newton-Raphson method Methods 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
Abstract
(57)【要約】
【課題】 音声信号を符号化や復号化する場合に、簡単
な処理や構成でピッチ制御ができるようにする。 【解決手段】 音声信号を時間軸上で所定の符号化単位
で区分した各符号化単位でサイン波分析符号化を行い、
音声信号の線形予測残差を取り出して音声符号化された
データを処理する場合に、サイン波分析符号化により符
号化された音声符号化データのピッチ成分を、ピッチ変
換部119での所定の演算処理で変更するようにした。
な処理や構成でピッチ制御ができるようにする。 【解決手段】 音声信号を時間軸上で所定の符号化単位
で区分した各符号化単位でサイン波分析符号化を行い、
音声信号の線形予測残差を取り出して音声符号化された
データを処理する場合に、サイン波分析符号化により符
号化された音声符号化データのピッチ成分を、ピッチ変
換部119での所定の演算処理で変更するようにした。
Description
【0001】
【発明の属する技術分野】本発明は、音声信号を高能率
符号化したり復号化する場合に適用される符号化方法及
び復号化方法と、この符号化方法及び復号化方法が適用
される符号化装置や復号化装置や電話装置、並びにこれ
らの符号化や復号化の処理データが記録される各種媒体
に関する。
符号化したり復号化する場合に適用される符号化方法及
び復号化方法と、この符号化方法及び復号化方法が適用
される符号化装置や復号化装置や電話装置、並びにこれ
らの符号化や復号化の処理データが記録される各種媒体
に関する。
【0002】
【従来の技術】オーディオ信号(ここでのオーディオ信
号には音声信号と音響信号の双方を含む)の時間領域や
周波数領域における統計的性質と人間の聴感上の特性を
利用して信号圧縮を行うような符号化方法が種々知られ
ている。この符号化方法としては、大別して時間領域で
の符号化、周波数領域での符号化、分析合成符号化等が
挙げられる。
号には音声信号と音響信号の双方を含む)の時間領域や
周波数領域における統計的性質と人間の聴感上の特性を
利用して信号圧縮を行うような符号化方法が種々知られ
ている。この符号化方法としては、大別して時間領域で
の符号化、周波数領域での符号化、分析合成符号化等が
挙げられる。
【0003】音声信号等の高能率符号化の例として、M
BE(Multiband Excitation:マルチバンド励起)符号
化、SBE(Singleband Excitation:シングルバンド励
起)あるいはサイン波合成符号化、ハーモニック(Harm
onic) 符号化、SBC(sub-band Coding:帯域分割符号
化)、LPC(Linear Predictive Coding:線形予測符
号化)、あるいはDCT(離散コサイン変換)、MDC
T(モデファイドDCT)、FFT(高速フーリエ変
換)等が知られている。
BE(Multiband Excitation:マルチバンド励起)符号
化、SBE(Singleband Excitation:シングルバンド励
起)あるいはサイン波合成符号化、ハーモニック(Harm
onic) 符号化、SBC(sub-band Coding:帯域分割符号
化)、LPC(Linear Predictive Coding:線形予測符
号化)、あるいはDCT(離散コサイン変換)、MDC
T(モデファイドDCT)、FFT(高速フーリエ変
換)等が知られている。
【0004】
【発明が解決しようとする課題】ところで、上述した各
種符号化方法で音声信号を符号化する場合や、その符号
化された音声信号を復号化する場合に、音声の音韻を変
えずにピッチを変化させたい場合がある。
種符号化方法で音声信号を符号化する場合や、その符号
化された音声信号を復号化する場合に、音声の音韻を変
えずにピッチを変化させたい場合がある。
【0005】しかしながら、従来の音声信号の高能率符
号化装置や高能率復号化装置では、ピッチ変化の考慮は
されてなく、別体のピッチコントロール装置を接続し
て、ピッチ変換を行う必要があり、構成が複雑化する不
都合があった。
号化装置や高能率復号化装置では、ピッチ変化の考慮は
されてなく、別体のピッチコントロール装置を接続し
て、ピッチ変換を行う必要があり、構成が複雑化する不
都合があった。
【0006】本発明はかかる点に鑑み、音声信号を符号
化処理や復号化処理する場合に、簡単な処理や構成で、
音韻を変えることなく的確に所望のピッチ制御ができる
ようにすることを目的とする。
化処理や復号化処理する場合に、簡単な処理や構成で、
音韻を変えることなく的確に所望のピッチ制御ができる
ようにすることを目的とする。
【0007】
【課題を解決するための手段】かかる問題点を解決する
ために本発明は、音声信号を時間軸上で所定の符号化単
位で区分して各符号化単位で線形予測残差を求め、その
線形予測残差をサイン波分析符号化して音声符号化され
たデータを処理する場合に、サイン波分析符号化により
符号化された音声符号化データのピッチ成分を、所定の
演算処理で変更するようにしたものである。
ために本発明は、音声信号を時間軸上で所定の符号化単
位で区分して各符号化単位で線形予測残差を求め、その
線形予測残差をサイン波分析符号化して音声符号化され
たデータを処理する場合に、サイン波分析符号化により
符号化された音声符号化データのピッチ成分を、所定の
演算処理で変更するようにしたものである。
【0008】本発明によると、サイン波分析符号化によ
り符号化された音声符号化データの演算処理で、音韻成
分を変えることなく、簡単にピッチ変換が行える。
り符号化された音声符号化データの演算処理で、音韻成
分を変えることなく、簡単にピッチ変換が行える。
【0009】
【発明の実施の形態】以下、本発明の一実施形態を、添
付図面を参照して説明する。
付図面を参照して説明する。
【0010】図1は、音声符号化装置の一例の基本構成
を示すブロック図で、図2はその詳細な構成を示すブロ
ック図である。
を示すブロック図で、図2はその詳細な構成を示すブロ
ック図である。
【0011】ここで、本発明の実施の形態となる音声処
理の基本的な考え方は、音声信号の符号化側において、
本件発明者等が先に提案した特開平6−51800号公
報に記載の次元変換あるいはデータ数変換の技術を用い
て、スペクトルエンベロープの振幅の量子化の際に、ハ
ーモニックスの本数を一定の個数、すなわち次元数にし
てベクトル量子化を行うようにしたもので、このように
スペクトルエンベロープの形状を変えないことで、音声
成分の内の音韻の成分は不変である。
理の基本的な考え方は、音声信号の符号化側において、
本件発明者等が先に提案した特開平6−51800号公
報に記載の次元変換あるいはデータ数変換の技術を用い
て、スペクトルエンベロープの振幅の量子化の際に、ハ
ーモニックスの本数を一定の個数、すなわち次元数にし
てベクトル量子化を行うようにしたもので、このように
スペクトルエンベロープの形状を変えないことで、音声
成分の内の音韻の成分は不変である。
【0012】図1の音声信号符号化装置の基本的な考え
方は、入力音声信号の短期予測残差例えばLPC(線形
予測符号化)残差を求めてサイン波分析(sinusoidal a
nalysis)符号化、例えばハーモニックスコーディング
(harmonic coding)を行う第1の符号化部110と、入
力音声信号に対して位相伝送を行う波形符号化により符
号化する第2の符号化部120とを有し、入力信号の有
声音(V:Voiced)の部分の符号化に第1の符号化部1
10を用い、入力信号の無声音(UV:Unvoiced)の部
分の符号化には第2の符号化部120を用いるようにす
ることである。
方は、入力音声信号の短期予測残差例えばLPC(線形
予測符号化)残差を求めてサイン波分析(sinusoidal a
nalysis)符号化、例えばハーモニックスコーディング
(harmonic coding)を行う第1の符号化部110と、入
力音声信号に対して位相伝送を行う波形符号化により符
号化する第2の符号化部120とを有し、入力信号の有
声音(V:Voiced)の部分の符号化に第1の符号化部1
10を用い、入力信号の無声音(UV:Unvoiced)の部
分の符号化には第2の符号化部120を用いるようにす
ることである。
【0013】第1の符号化部110には、例えばLPC
残差をハーモニックス符号化やマルチバンド励起(MB
E)符号化のようなサイン波分析符号化を行う構成が用
いられる。上記第2の符号化部120には、例えば合成
による分析法を用いて最適ベクトルのクローズドループ
サーチによるベクトル量子化を用いた符号励起線形予測
(CELP)符号化の構成が用いられる。
残差をハーモニックス符号化やマルチバンド励起(MB
E)符号化のようなサイン波分析符号化を行う構成が用
いられる。上記第2の符号化部120には、例えば合成
による分析法を用いて最適ベクトルのクローズドループ
サーチによるベクトル量子化を用いた符号励起線形予測
(CELP)符号化の構成が用いられる。
【0014】図1の例では、入力端子101に供給され
た音声信号が、第1の符号化部110のLPC逆フィル
タ111及びLPC分析・量子化部113に送られてい
る。LPC分析・量子化部113から得られたLPC係
数あるいはいわゆるαパラメータは、LPC逆フィルタ
111に送られて、このLPC逆フィルタ111により
入力音声信号の線形予測残差(LPC残差)が取り出さ
れる。また、LPC分析・量子化部113からは、後述
するようにLSP(線スペクトル対)の量子化出力が取
り出され、これが出力端子102に送られる。LPC逆
フィルタ111からのLPC残差は、サイン波分析符号
化部114に送られる。
た音声信号が、第1の符号化部110のLPC逆フィル
タ111及びLPC分析・量子化部113に送られてい
る。LPC分析・量子化部113から得られたLPC係
数あるいはいわゆるαパラメータは、LPC逆フィルタ
111に送られて、このLPC逆フィルタ111により
入力音声信号の線形予測残差(LPC残差)が取り出さ
れる。また、LPC分析・量子化部113からは、後述
するようにLSP(線スペクトル対)の量子化出力が取
り出され、これが出力端子102に送られる。LPC逆
フィルタ111からのLPC残差は、サイン波分析符号
化部114に送られる。
【0015】サイン波分析符号化部114では、ピッチ
検出やスペクトルエンベロープ振幅計算が行なわれると
共に、V(有声音)/UV(無声音)判定部115によ
りV/UVの判定が行なわれる。サイン波波分析符号化
部114からのスペクトルエンベロープ振幅データがベ
クトル量子化部116に送られる。スペクトルエンベロ
ープのベクトル量子化出力としてのベクトル量子化部1
16からのコードブックインデックスは、スイッチ11
7を介して出力端子103に送られ、サイン波分析符号
化部114からのピッチ成分のデータであるピッチデー
タの出力は、ピッチ変換部119とスイッチ118を介
して出力端子104に送られる。また、V/UV判定部
115からのV/UV判定出力は、出力端子105に送
られると共に、スイッチ117,118の制御信号とし
て送られており、上述した有声音(V)のとき上述した
インデックス及びピッチが選択されて各出力端子103
及び104からそれぞれ取り出される。
検出やスペクトルエンベロープ振幅計算が行なわれると
共に、V(有声音)/UV(無声音)判定部115によ
りV/UVの判定が行なわれる。サイン波波分析符号化
部114からのスペクトルエンベロープ振幅データがベ
クトル量子化部116に送られる。スペクトルエンベロ
ープのベクトル量子化出力としてのベクトル量子化部1
16からのコードブックインデックスは、スイッチ11
7を介して出力端子103に送られ、サイン波分析符号
化部114からのピッチ成分のデータであるピッチデー
タの出力は、ピッチ変換部119とスイッチ118を介
して出力端子104に送られる。また、V/UV判定部
115からのV/UV判定出力は、出力端子105に送
られると共に、スイッチ117,118の制御信号とし
て送られており、上述した有声音(V)のとき上述した
インデックス及びピッチが選択されて各出力端子103
及び104からそれぞれ取り出される。
【0016】ここで、ピッチ変換部119では、ピッチ
変換を行う指示があるとき、その指示に基づいた演算処
理で、ピッチデータの変更を行って、ピッチ変換を行う
ようにしてある。その詳細な処理については後述する。
変換を行う指示があるとき、その指示に基づいた演算処
理で、ピッチデータの変更を行って、ピッチ変換を行う
ようにしてある。その詳細な処理については後述する。
【0017】ベクトル量子化部116でのベクトル量子
化の際には、例えば、周波数軸上の有効帯域1ブロック
分の振幅データに対して、ブロック内の最終のデータか
らブロック内の最初のデータまでの値を補間するような
ダミーデータ、又は最後のデータ及び最初のデータを延
長するようなダミーデータを最後と最初に適当な数付加
してデータ個数をNF 個に拡大した後、帯域制限型のO
S 倍(例えば8倍)のオーバーサンプリングを施すこと
によりOS 倍の個数の振幅データを求め、このOS 倍の
個数((mMX+1)×OS 個)の振幅データを直線補間
してさらに多くのNM 個(例えば2048個)に拡張
し、このNM 個のデータを間引いて上記一定個数M(例
えば44個)のデータに変換した後、ベクトル量子化し
ている。
化の際には、例えば、周波数軸上の有効帯域1ブロック
分の振幅データに対して、ブロック内の最終のデータか
らブロック内の最初のデータまでの値を補間するような
ダミーデータ、又は最後のデータ及び最初のデータを延
長するようなダミーデータを最後と最初に適当な数付加
してデータ個数をNF 個に拡大した後、帯域制限型のO
S 倍(例えば8倍)のオーバーサンプリングを施すこと
によりOS 倍の個数の振幅データを求め、このOS 倍の
個数((mMX+1)×OS 個)の振幅データを直線補間
してさらに多くのNM 個(例えば2048個)に拡張
し、このNM 個のデータを間引いて上記一定個数M(例
えば44個)のデータに変換した後、ベクトル量子化し
ている。
【0018】第2の符号化部120は、この例ではCE
LP(符号励起線形予測)符号化構成を有しており、雑
音符号帳121からの出力を、重み付きの合成フィルタ
122により合成処理し、得られた重み付き合成音声を
減算器123に送り、入力端子101に供給された音声
信号を聴覚重み付けフィルタ125を介して得られた音
声との誤差を取り出し、この誤差を距離計算回路124
に送って距離計算を行ない、誤差が最小となるようなベ
クトルを雑音符号帳121でサーチするような、合成に
よる分析(Analysis by synthesis)法を用いたクローズ
ドループサーチを用いた時間軸波形のベクトル量子化を
行っている。このCELP符号化は、上述したように無
声音部分の符号化に用いられており、雑音符号帳121
からのUVデータとしてのコードブックインデックス
は、V/UV判定部115からのV/UV判定結果が無
声音(UV)のときオンとなるスイッチ127を介し
て、出力端子107より取り出される。
LP(符号励起線形予測)符号化構成を有しており、雑
音符号帳121からの出力を、重み付きの合成フィルタ
122により合成処理し、得られた重み付き合成音声を
減算器123に送り、入力端子101に供給された音声
信号を聴覚重み付けフィルタ125を介して得られた音
声との誤差を取り出し、この誤差を距離計算回路124
に送って距離計算を行ない、誤差が最小となるようなベ
クトルを雑音符号帳121でサーチするような、合成に
よる分析(Analysis by synthesis)法を用いたクローズ
ドループサーチを用いた時間軸波形のベクトル量子化を
行っている。このCELP符号化は、上述したように無
声音部分の符号化に用いられており、雑音符号帳121
からのUVデータとしてのコードブックインデックス
は、V/UV判定部115からのV/UV判定結果が無
声音(UV)のときオンとなるスイッチ127を介し
て、出力端子107より取り出される。
【0019】次に、図1の音声信号符号化装置で符号化
された音声符号化データを復号する音声信号復号化装置
の基本構成を、図2を参照して説明する。
された音声符号化データを復号する音声信号復号化装置
の基本構成を、図2を参照して説明する。
【0020】この図2において、入力端子202には図
1で説明した出力端子102からのLSP(線スペクト
ル対)の量子化出力としてのコードブックインデックス
が入力される。入力端子203,204,及び205に
は、図1の各出力端子103,104,及び105から
の各出力、すなわちエンベロープ量子化出力としてのイ
ンデックス、ピッチ、及びV/UV判定出力がそれぞれ
入力される。また、入力端子207には、図1の出力端
子107からのUV(無声音)用のデータとしてのイン
デックスが入力される。
1で説明した出力端子102からのLSP(線スペクト
ル対)の量子化出力としてのコードブックインデックス
が入力される。入力端子203,204,及び205に
は、図1の各出力端子103,104,及び105から
の各出力、すなわちエンベロープ量子化出力としてのイ
ンデックス、ピッチ、及びV/UV判定出力がそれぞれ
入力される。また、入力端子207には、図1の出力端
子107からのUV(無声音)用のデータとしてのイン
デックスが入力される。
【0021】入力端子203からのLPC残差のスペク
トルエンベロープ量子化出力としてのインデックスは、
逆ベクトル量子化器212に送られて逆ベクトル量子化
され、データ変換部270に送られる。また、データ変
換部270には、入力端子204からのピッチデータ
が、ピッチ変換部215を介して供給される。そして、
データ変換部270からは、LPC残差のスペクトルエ
ンベロープの設定ピッチに応じた個数の振幅データと、
変更されたピッチデータとが有声音合成部211に送ら
れる。ここで、ピッチ変換部215では、ピッチ変換を
行う指示があるとき、その指示に基づいた演算処理で、
ピッチデータの変更を行って、ピッチ変換を行うように
してある。その詳細な処理については後述する。
トルエンベロープ量子化出力としてのインデックスは、
逆ベクトル量子化器212に送られて逆ベクトル量子化
され、データ変換部270に送られる。また、データ変
換部270には、入力端子204からのピッチデータ
が、ピッチ変換部215を介して供給される。そして、
データ変換部270からは、LPC残差のスペクトルエ
ンベロープの設定ピッチに応じた個数の振幅データと、
変更されたピッチデータとが有声音合成部211に送ら
れる。ここで、ピッチ変換部215では、ピッチ変換を
行う指示があるとき、その指示に基づいた演算処理で、
ピッチデータの変更を行って、ピッチ変換を行うように
してある。その詳細な処理については後述する。
【0022】有声音合成部211は、サイン波合成によ
り有声音部分のLPC(線形予測符号化)残差を合成す
るものであり、この有音声合成部211には入力端子2
05からのV/UV判定出力も供給されている。有声音
合成部211からの有声音のLPC残差は、LPC合成
フィルタ214に送られる。また、入力端子207から
のUVデータのインデックスは、無声音合成部220に
送られて、雑音符号帳を参照することにより無声音部分
のLPC残差が取り出される。このLPC残差もLPC
合成フィルタ214に送られる。LPC合成フィルタ2
14では、上記有声音部分のLPC残差と無声音部分の
LPC残差とがそれぞれ独立に、LPC合成処理が施さ
れる。あるいは、有声音部分のLPC残差と無音声部分
のLPC残差とが加算されたものに対してLPC合成処
理を施すようにしてもよい。ここで入力端子202から
のLSPのインデックスは、LPCパラメータ再生部2
13に送られて、LPCのαパラメータが取り出され、
これがLPC合成フィルタ214に送られる。LPC合
成フィルタ214によりLPC合成されて得られた音声
信号は、出力端子201より取り出される。
り有声音部分のLPC(線形予測符号化)残差を合成す
るものであり、この有音声合成部211には入力端子2
05からのV/UV判定出力も供給されている。有声音
合成部211からの有声音のLPC残差は、LPC合成
フィルタ214に送られる。また、入力端子207から
のUVデータのインデックスは、無声音合成部220に
送られて、雑音符号帳を参照することにより無声音部分
のLPC残差が取り出される。このLPC残差もLPC
合成フィルタ214に送られる。LPC合成フィルタ2
14では、上記有声音部分のLPC残差と無声音部分の
LPC残差とがそれぞれ独立に、LPC合成処理が施さ
れる。あるいは、有声音部分のLPC残差と無音声部分
のLPC残差とが加算されたものに対してLPC合成処
理を施すようにしてもよい。ここで入力端子202から
のLSPのインデックスは、LPCパラメータ再生部2
13に送られて、LPCのαパラメータが取り出され、
これがLPC合成フィルタ214に送られる。LPC合
成フィルタ214によりLPC合成されて得られた音声
信号は、出力端子201より取り出される。
【0023】次に、図1に示した音声信号符号化装置の
より具体的な構成について、図3を参照しながら説明す
る。なお、図3において、図1に対応する部分には同一
符号を付している。
より具体的な構成について、図3を参照しながら説明す
る。なお、図3において、図1に対応する部分には同一
符号を付している。
【0024】この図3に示された音声信号符号化装置に
おいて、入力端子110に供給された音声信号は、ハイ
パスフィルタ(HPF)109にて不要な帯域の信号を
除去するフィルタ処理が施された後、LPC(線形予測
符号化)分析・量子化部113のLPC分析回路132
と、LPC逆フィルタ回路111とに送られる。
おいて、入力端子110に供給された音声信号は、ハイ
パスフィルタ(HPF)109にて不要な帯域の信号を
除去するフィルタ処理が施された後、LPC(線形予測
符号化)分析・量子化部113のLPC分析回路132
と、LPC逆フィルタ回路111とに送られる。
【0025】LPC分析・量子化部113のLPC分析
回路132は、入力信号波形の256サンプル程度の長
さを1ブロックとしてハミング窓をかけて、自己相関法
により線形予測係数、いわゆるαパラメータを求める。
データ出力の単位となるフレーミングの間隔は、160
サンプル程度とする。サンプリング周波数fS が例えば
8kHzのとき、1フレーム間隔は160サンプルで2
0msecとなる。
回路132は、入力信号波形の256サンプル程度の長
さを1ブロックとしてハミング窓をかけて、自己相関法
により線形予測係数、いわゆるαパラメータを求める。
データ出力の単位となるフレーミングの間隔は、160
サンプル程度とする。サンプリング周波数fS が例えば
8kHzのとき、1フレーム間隔は160サンプルで2
0msecとなる。
【0026】LPC分析回路132からのαパラメータ
は、α→LSP変換回路133に送られて、線スペクト
ル対(LSP)パラメータに変換される。これは、直接
型のフィルタ係数として求まったαパラメータを、例え
ば10個、すなわち5対のLSPパラメータに変換す
る。変換は例えばニュートン−ラプソン法等を用いて行
う。このLSPパラメータに変換するのは、αパラメー
タよりも補間特性に優れているからである。
は、α→LSP変換回路133に送られて、線スペクト
ル対(LSP)パラメータに変換される。これは、直接
型のフィルタ係数として求まったαパラメータを、例え
ば10個、すなわち5対のLSPパラメータに変換す
る。変換は例えばニュートン−ラプソン法等を用いて行
う。このLSPパラメータに変換するのは、αパラメー
タよりも補間特性に優れているからである。
【0027】α→LSP変換回路133からのLSPパ
ラメータは、LSP量子化器134によりマトリックス
あるいはベクトル量子化される。このとき、フレーム間
差分をとってからベクトル量子化してもよく、複数フレ
ーム分まとめてマトリックス量子化してもよい。ここで
は、20msecを1フレームとし、20msec毎に
算出されるLSPパラメータを2フレーム分まとめて、
マトリックス量子化及びベクトル量子化している。
ラメータは、LSP量子化器134によりマトリックス
あるいはベクトル量子化される。このとき、フレーム間
差分をとってからベクトル量子化してもよく、複数フレ
ーム分まとめてマトリックス量子化してもよい。ここで
は、20msecを1フレームとし、20msec毎に
算出されるLSPパラメータを2フレーム分まとめて、
マトリックス量子化及びベクトル量子化している。
【0028】このLSP量子化器134からの量子化出
力、すなわちLSP量子化のインデックスは、端子10
2を介して取り出され、また量子化済みのLSPベクト
ルは、LSP補間回路136に送られる。
力、すなわちLSP量子化のインデックスは、端子10
2を介して取り出され、また量子化済みのLSPベクト
ルは、LSP補間回路136に送られる。
【0029】LSP補間回路136は、上記20mse
cあるいは40msec毎に量子化されたLSPのベク
トルを補間し、8倍のレートにする。すなわち、2.5
msec毎にLSPベクトルが更新されるようにする。
これは、残差波形をハーモニック符号化復号化方法によ
り分析合成すると、この合成波形のエンベロープは非常
になだらかでスムーズな波形になるため、LPC係数が
20msec毎に急激に変化すると異音を発生すること
があるからである。すなわち、2.5msec毎にLP
C係数が徐々に変化してゆくようにすれば、このような
異音の発生を防ぐことができる。
cあるいは40msec毎に量子化されたLSPのベク
トルを補間し、8倍のレートにする。すなわち、2.5
msec毎にLSPベクトルが更新されるようにする。
これは、残差波形をハーモニック符号化復号化方法によ
り分析合成すると、この合成波形のエンベロープは非常
になだらかでスムーズな波形になるため、LPC係数が
20msec毎に急激に変化すると異音を発生すること
があるからである。すなわち、2.5msec毎にLP
C係数が徐々に変化してゆくようにすれば、このような
異音の発生を防ぐことができる。
【0030】このような補間が行われた2.5msec
毎のLSPベクトルを用いて入力音声の逆フィルタリン
グを実行するために、LSP→α変換回路137によ
り、LSPパラメータを例えば10次程度の直接型フィ
ルタの係数であるαパラメータに変換する。このLSP
→α変換回路137からの出力は、LPC逆フィルタ回
路111に送られ、このLPC逆フィルタ111では、
2.5msec毎に更新されるαパラメータにより逆フ
ィルタリング処理を行って、滑らかな出力を得るように
している。このLPC逆フィルタ111からの出力は、
サイン波分析符号化部114、具体的には例えばハーモ
ニック符号化回路、の直交変換回路145、例えばDF
T(離散フーリエ変換)回路に送られる。
毎のLSPベクトルを用いて入力音声の逆フィルタリン
グを実行するために、LSP→α変換回路137によ
り、LSPパラメータを例えば10次程度の直接型フィ
ルタの係数であるαパラメータに変換する。このLSP
→α変換回路137からの出力は、LPC逆フィルタ回
路111に送られ、このLPC逆フィルタ111では、
2.5msec毎に更新されるαパラメータにより逆フ
ィルタリング処理を行って、滑らかな出力を得るように
している。このLPC逆フィルタ111からの出力は、
サイン波分析符号化部114、具体的には例えばハーモ
ニック符号化回路、の直交変換回路145、例えばDF
T(離散フーリエ変換)回路に送られる。
【0031】LPC分析・量子化部113のLPC分析
回路132からのαパラメータは、聴覚重み付けフィル
タ算出回路139に送られて聴覚重み付けのためのデー
タが求められ、この重み付けデータが後述する聴覚重み
付きのベクトル量子化器116と、第2の符号化部12
0の聴覚重み付けフィルタ125及び聴覚重み付けの合
成フィルタ122とに送られる。
回路132からのαパラメータは、聴覚重み付けフィル
タ算出回路139に送られて聴覚重み付けのためのデー
タが求められ、この重み付けデータが後述する聴覚重み
付きのベクトル量子化器116と、第2の符号化部12
0の聴覚重み付けフィルタ125及び聴覚重み付けの合
成フィルタ122とに送られる。
【0032】ハーモニック符号化回路等のサイン波分析
符号化部114では、LPC逆フィルタ111からの出
力を、ハーモニック符号化の方法で分析する。すなわ
ち、ピッチ検出、各ハーモニックスの振幅Amの算出、
有声音(V)/無声音(UV)の判別を行ない、ピッチ
によって変化するハーモニックスのエンベロープあるい
は振幅Amの個数を次元変換して一定数にしている。
符号化部114では、LPC逆フィルタ111からの出
力を、ハーモニック符号化の方法で分析する。すなわ
ち、ピッチ検出、各ハーモニックスの振幅Amの算出、
有声音(V)/無声音(UV)の判別を行ない、ピッチ
によって変化するハーモニックスのエンベロープあるい
は振幅Amの個数を次元変換して一定数にしている。
【0033】図3に示すサイン波分析符号化部114の
具体例においては、一般のハーモニック符号化を想定し
ているが、特に、MBE(Multiband Excitation:マル
チバンド励起)符号化の場合には、同時刻(同じブロッ
クあるいはフレーム内)の周波数軸領域いわゆるバンド
毎に有声音(Voiced)部分と無声音(Unvoiced)部分と
が存在するという仮定でモデル化することになる。それ
以外のハーモニック符号化では、1ブロックあるいはフ
レーム内の音声が有声音か無声音かの択一的な判定がな
されることになる。なお、以下の説明の中のフレーム毎
のV/UVとは、MBE符号化に適用した場合には全バ
ンドがUVのときを当該フレームのUVとしている。
具体例においては、一般のハーモニック符号化を想定し
ているが、特に、MBE(Multiband Excitation:マル
チバンド励起)符号化の場合には、同時刻(同じブロッ
クあるいはフレーム内)の周波数軸領域いわゆるバンド
毎に有声音(Voiced)部分と無声音(Unvoiced)部分と
が存在するという仮定でモデル化することになる。それ
以外のハーモニック符号化では、1ブロックあるいはフ
レーム内の音声が有声音か無声音かの択一的な判定がな
されることになる。なお、以下の説明の中のフレーム毎
のV/UVとは、MBE符号化に適用した場合には全バ
ンドがUVのときを当該フレームのUVとしている。
【0034】図3のサイン波分析符号化部114のオー
プンループピッチサーチ部141には、上記入力端子1
01からの入力音声信号が、またゼロクロスカウンタ1
42には、上記HPF(ハイパスフィルタ)109から
の信号がそれぞれ供給されている。サイン波分析符号化
部114の直交変換回路145には、LPC逆フィルタ
111からのLPC残差あるいは線形予測残差が供給さ
れている。オープンループピッチサーチ部141では、
入力信号のLPC残差をとってオープンループによる比
較的ラフなピッチのサーチが行われ、抽出された粗ピッ
チデータは高精度ピッチサーチ146に送られて、後述
するようなクローズドループによる高精度のピッチサー
チ(ピッチのファインサーチ)が行われる。また、オー
プンループピッチサーチ部141からは、上記粗ピッチ
データと共にLPC残差の自己相関の最大値をパワーで
正規化した正規化自己相関最大値r(p)が取り出さ
れ、V/UV(有声音/無声音)判定部115に送られ
ている。
プンループピッチサーチ部141には、上記入力端子1
01からの入力音声信号が、またゼロクロスカウンタ1
42には、上記HPF(ハイパスフィルタ)109から
の信号がそれぞれ供給されている。サイン波分析符号化
部114の直交変換回路145には、LPC逆フィルタ
111からのLPC残差あるいは線形予測残差が供給さ
れている。オープンループピッチサーチ部141では、
入力信号のLPC残差をとってオープンループによる比
較的ラフなピッチのサーチが行われ、抽出された粗ピッ
チデータは高精度ピッチサーチ146に送られて、後述
するようなクローズドループによる高精度のピッチサー
チ(ピッチのファインサーチ)が行われる。また、オー
プンループピッチサーチ部141からは、上記粗ピッチ
データと共にLPC残差の自己相関の最大値をパワーで
正規化した正規化自己相関最大値r(p)が取り出さ
れ、V/UV(有声音/無声音)判定部115に送られ
ている。
【0035】直交変換回路145では例えばDFT(離
散フーリエ変換)等の直交変換処理が施されて、時間軸
上のLPC残差が周波数軸上のスペクトル振幅データに
変換される。この直交変換回路145からの出力は、高
精度ピッチサーチ部146及びスペクトル振幅あるいは
エンベロープを評価するためのスペクトル評価部148
に送られる。
散フーリエ変換)等の直交変換処理が施されて、時間軸
上のLPC残差が周波数軸上のスペクトル振幅データに
変換される。この直交変換回路145からの出力は、高
精度ピッチサーチ部146及びスペクトル振幅あるいは
エンベロープを評価するためのスペクトル評価部148
に送られる。
【0036】高精度(ファイン)ピッチサーチ部146
には、オープンループピッチサーチ部141で抽出され
た比較的ラフな粗ピッチデータと、直交変換部145に
より例えばDFTされた周波数軸上のデータとが供給さ
れている。この高精度ピッチサーチ部146では、粗ピ
ッチデータ値を中心に、0.2〜0.5きざみで±数サ
ンプルずつ振って、最適な少数点付き(フローティン
グ)のファインピッチデータの値へ追い込む。このとき
のファインサーチの手法として、いわゆる合成による分
析(Analysis by Synthesis)法を用い、合成されたパワ
ースペクトルが原音のパワースペクトルに最も近くなる
ようにピッチを選んでいる。このようなクローズドルー
プによる高精度のピッチサーチ部146からのピッチデ
ータについては、ピッチ変換部119とスイッチ118
を介して出力端子104に送っている。そして、ピッチ
変換が必要な場合には、ピッチ変換部119での後述す
る処理によりピッチ変換を行うようにしてある。
には、オープンループピッチサーチ部141で抽出され
た比較的ラフな粗ピッチデータと、直交変換部145に
より例えばDFTされた周波数軸上のデータとが供給さ
れている。この高精度ピッチサーチ部146では、粗ピ
ッチデータ値を中心に、0.2〜0.5きざみで±数サ
ンプルずつ振って、最適な少数点付き(フローティン
グ)のファインピッチデータの値へ追い込む。このとき
のファインサーチの手法として、いわゆる合成による分
析(Analysis by Synthesis)法を用い、合成されたパワ
ースペクトルが原音のパワースペクトルに最も近くなる
ようにピッチを選んでいる。このようなクローズドルー
プによる高精度のピッチサーチ部146からのピッチデ
ータについては、ピッチ変換部119とスイッチ118
を介して出力端子104に送っている。そして、ピッチ
変換が必要な場合には、ピッチ変換部119での後述す
る処理によりピッチ変換を行うようにしてある。
【0037】スペクトル評価部148では、LPC残差
の直交変換出力としてのスペクトル振幅及びピッチに基
づいて各ハーモニックスの大きさ及びその集合であるス
ペクトルエンベロープが評価され、高精度ピッチサーチ
部146、V/UV(有声音/無声音)判定部115及
び聴覚重み付きのベクトル量子化器116に送られる。
の直交変換出力としてのスペクトル振幅及びピッチに基
づいて各ハーモニックスの大きさ及びその集合であるス
ペクトルエンベロープが評価され、高精度ピッチサーチ
部146、V/UV(有声音/無声音)判定部115及
び聴覚重み付きのベクトル量子化器116に送られる。
【0038】V/UV(有声音/無声音)判定部115
は、直交変換回路145からの出力と、高精度ピッチサ
ーチ部146からの最適ピッチと、スペクトル評価部1
48からのスペクトル振幅データと、オープンループピ
ッチサーチ部141からの正規化自己相関最大値r
(p)と、ゼロクロスカウンタ412からのゼロクロス
カウント値とに基づいて、当該フレームのV/UV判定
が行われる。さらに、MBEの場合の各バンド毎のV/
UV判定結果の境界位置も当該フレームのV/UV判定
の一条件としてもよい。このV/UV判定部115から
の判定出力は、出力端子105を介して取り出される。
は、直交変換回路145からの出力と、高精度ピッチサ
ーチ部146からの最適ピッチと、スペクトル評価部1
48からのスペクトル振幅データと、オープンループピ
ッチサーチ部141からの正規化自己相関最大値r
(p)と、ゼロクロスカウンタ412からのゼロクロス
カウント値とに基づいて、当該フレームのV/UV判定
が行われる。さらに、MBEの場合の各バンド毎のV/
UV判定結果の境界位置も当該フレームのV/UV判定
の一条件としてもよい。このV/UV判定部115から
の判定出力は、出力端子105を介して取り出される。
【0039】ところで、スペクトル評価部148の出力
部あるいはベクトル量子化器116の入力部には、デー
タ数変換(一種のサンプリングレート変換)部が設けら
れている。このデータ数変換部は、ピッチに応じて周波
数軸上での分割帯域数が異なり、データ数が異なること
を考慮して、エンベロープの振幅データ|Am|を一定
の個数にするためのものである。すなわち、例えば有効
帯域を3400kHzまでとすると、この有効帯域がピ
ッチに応じて、8バンド〜63バンドに分割されること
になり、これらの各バンド毎に得られる振幅データ|A
m|の数個mMX+1も8〜63と変化することになる。
このためデータ数変換部119では、この可変個数mMX
+1の振幅データを一定個数M個、例えば44個、のデ
ータに変換している。
部あるいはベクトル量子化器116の入力部には、デー
タ数変換(一種のサンプリングレート変換)部が設けら
れている。このデータ数変換部は、ピッチに応じて周波
数軸上での分割帯域数が異なり、データ数が異なること
を考慮して、エンベロープの振幅データ|Am|を一定
の個数にするためのものである。すなわち、例えば有効
帯域を3400kHzまでとすると、この有効帯域がピ
ッチに応じて、8バンド〜63バンドに分割されること
になり、これらの各バンド毎に得られる振幅データ|A
m|の数個mMX+1も8〜63と変化することになる。
このためデータ数変換部119では、この可変個数mMX
+1の振幅データを一定個数M個、例えば44個、のデ
ータに変換している。
【0040】このスペクトル評価部148の出力部ある
いはベクトル量子化器116の入力部に設けられたデー
タ数変換部からの一定個数M個(例えば44個)の振幅
データあるいはエンベロープデータが、ベクトル量子化
器116により、所定個数、例えば44個のデータ毎に
まとめられてベクトルとされ、重み付きベクトル量子化
が施される。この重みは、聴覚重み付けフィルタ算出回
路139からの出力により与えられる。ベクトル量子化
器116からのエンベロープのインデックスは、スイッ
チ117を介して出力端子103より取り出される。な
お、重み付きベクトル量子化に先だって、所定個数のデ
ータから成るベクトルについて適当なリーク係数を用い
たフレーム間差分をとっておくようにしてもよい。
いはベクトル量子化器116の入力部に設けられたデー
タ数変換部からの一定個数M個(例えば44個)の振幅
データあるいはエンベロープデータが、ベクトル量子化
器116により、所定個数、例えば44個のデータ毎に
まとめられてベクトルとされ、重み付きベクトル量子化
が施される。この重みは、聴覚重み付けフィルタ算出回
路139からの出力により与えられる。ベクトル量子化
器116からのエンベロープのインデックスは、スイッ
チ117を介して出力端子103より取り出される。な
お、重み付きベクトル量子化に先だって、所定個数のデ
ータから成るベクトルについて適当なリーク係数を用い
たフレーム間差分をとっておくようにしてもよい。
【0041】次に、第2の符号化部120について説明
する。第2の符号化部120は、いわゆるCELP(符
号励起線形予測)符号化構成を有しており、特に、入力
音声信号の無声音部分の符号化のために用いられてい
る。この無声音部分用のCELP符号化構成において、
雑音符号帳、いわゆるストキャスティック・コードブッ
ク(stochastic code book)121からの代表値出力で
ある無声音のLPC残差に相当するノイズ出力を、ゲイ
ン回路126を介して、聴覚重み付きの合成フィルタ1
22に送っている。重み付きの合成フィルタ122で
は、入力されたノイズをLPC合成処理し、得られた重
み付き無声音の信号を減算器123に送っている。減算
器123には、入力端子101からHPF(ハイパスフ
ィルタ)109を介して供給された音声信号を聴覚重み
付けフィルタ125で聴覚重み付けした信号が入力され
ており、合成フィルタ122からの信号との差分あるい
は誤差を取り出している。この誤差を距離計算回路12
4に送って距離計算を行ない、誤差が最小となるような
代表値ベクトルを雑音符号帳121でサーチする。この
ような合成による分析(Analysis by synthesis)法を用
いたクローズドループサーチを用いた時間軸波形のベク
トル量子化を行っている。
する。第2の符号化部120は、いわゆるCELP(符
号励起線形予測)符号化構成を有しており、特に、入力
音声信号の無声音部分の符号化のために用いられてい
る。この無声音部分用のCELP符号化構成において、
雑音符号帳、いわゆるストキャスティック・コードブッ
ク(stochastic code book)121からの代表値出力で
ある無声音のLPC残差に相当するノイズ出力を、ゲイ
ン回路126を介して、聴覚重み付きの合成フィルタ1
22に送っている。重み付きの合成フィルタ122で
は、入力されたノイズをLPC合成処理し、得られた重
み付き無声音の信号を減算器123に送っている。減算
器123には、入力端子101からHPF(ハイパスフ
ィルタ)109を介して供給された音声信号を聴覚重み
付けフィルタ125で聴覚重み付けした信号が入力され
ており、合成フィルタ122からの信号との差分あるい
は誤差を取り出している。この誤差を距離計算回路12
4に送って距離計算を行ない、誤差が最小となるような
代表値ベクトルを雑音符号帳121でサーチする。この
ような合成による分析(Analysis by synthesis)法を用
いたクローズドループサーチを用いた時間軸波形のベク
トル量子化を行っている。
【0042】このCELP符号化構成を用いた第2の符
号化部120からのUV(無声音)部分用のデータとし
ては、雑音符号帳121からのコードブックのシェイプ
インデックスと、ゲイン回路126からのコードブック
のゲインインデックスとが取り出される。雑音符号帳1
21からのUVデータであるシェイプインデックスは、
スイッチ127sを介して出力端子107sに送られ、
ゲイン回路126のUVデータであるゲインインデック
スは、スイッチ127gを介して出力端子107gに送
られている。
号化部120からのUV(無声音)部分用のデータとし
ては、雑音符号帳121からのコードブックのシェイプ
インデックスと、ゲイン回路126からのコードブック
のゲインインデックスとが取り出される。雑音符号帳1
21からのUVデータであるシェイプインデックスは、
スイッチ127sを介して出力端子107sに送られ、
ゲイン回路126のUVデータであるゲインインデック
スは、スイッチ127gを介して出力端子107gに送
られている。
【0043】ここで、これらのスイッチ127s,12
7g及びスイッチ117,118は、V/UV判定部1
15からのV/UV判定結果によりオン/オフ制御さ
れ、スイッチ117,118は、現在伝送しようとする
フレームの音声信号のV/UV判定結果が有声音(V)
のときオンとなり、スイッチ127s,127gは、現
在伝送しようとするフレームの音声信号が無声音(U
V)のときオンとなる。
7g及びスイッチ117,118は、V/UV判定部1
15からのV/UV判定結果によりオン/オフ制御さ
れ、スイッチ117,118は、現在伝送しようとする
フレームの音声信号のV/UV判定結果が有声音(V)
のときオンとなり、スイッチ127s,127gは、現
在伝送しようとするフレームの音声信号が無声音(U
V)のときオンとなる。
【0044】次に、図4を参照して、図2に示した音声
信号復号化装置のより具体的な構成を説明する。この図
4において、図2に対応する部分には、同一符号を付し
ている。
信号復号化装置のより具体的な構成を説明する。この図
4において、図2に対応する部分には、同一符号を付し
ている。
【0045】この図4において、入力端子202には、
図1,図3の出力端子102からの出力に相当するLS
Pのベクトル量子化出力、いわゆるコードブックのイン
デックスが供給されている。
図1,図3の出力端子102からの出力に相当するLS
Pのベクトル量子化出力、いわゆるコードブックのイン
デックスが供給されている。
【0046】このLSPのインデックスは、LPCパラ
メータ再生部213のLSPの逆ベクトル量子化器23
1に送られてLSP(線スペクトル対)データに逆ベク
トル量子化され、LSP補間回路232,233に送ら
れてLSPの補間処理が施された後、LSP補間回路2
32及びLSP→α変換回路234は有声音(V)用で
あり、LSP補間回路233及びLSP→α変換回路2
35は無声音(UV)用である。またLPC合成フィル
タ214は、有声音部分のLPC合成フィルタ236
と、無声音部分のLPC合成フィルタ237とを分離し
ている。すなわち、有声音部分と無声音部分とでLPC
の係数補間を独立に行うようにして、有声音から無声音
への遷移部や、無声音から有声音への遷移部で、全く性
質の異なるLSP同士を補間することによる悪影響を防
止している。
メータ再生部213のLSPの逆ベクトル量子化器23
1に送られてLSP(線スペクトル対)データに逆ベク
トル量子化され、LSP補間回路232,233に送ら
れてLSPの補間処理が施された後、LSP補間回路2
32及びLSP→α変換回路234は有声音(V)用で
あり、LSP補間回路233及びLSP→α変換回路2
35は無声音(UV)用である。またLPC合成フィル
タ214は、有声音部分のLPC合成フィルタ236
と、無声音部分のLPC合成フィルタ237とを分離し
ている。すなわち、有声音部分と無声音部分とでLPC
の係数補間を独立に行うようにして、有声音から無声音
への遷移部や、無声音から有声音への遷移部で、全く性
質の異なるLSP同士を補間することによる悪影響を防
止している。
【0047】また、図4の入力端子203には、図1,
図3のエンコーダ側の端子103からの出力に対応する
スペクトルエンベロープ(Am)の重み付けベクトル量
子化されたコードインデックスデータが供給され、入力
端子204には、図1、図3の端子104からのピッチ
のデータが供給され、入力端子205には、図1,図3
の端子105からのV/UV判定データが供給されてい
る。
図3のエンコーダ側の端子103からの出力に対応する
スペクトルエンベロープ(Am)の重み付けベクトル量
子化されたコードインデックスデータが供給され、入力
端子204には、図1、図3の端子104からのピッチ
のデータが供給され、入力端子205には、図1,図3
の端子105からのV/UV判定データが供給されてい
る。
【0048】入力端子203からのスペクトルエンベロ
ープAmのベクトル量子化されたインデックスデータ
は、逆ベクトル量子化器212に送られて逆ベクトル量
子化が施される。この逆ベクトル量子化されたエンベロ
ープの振幅データの個数は、上述したように一定個数、
例えば44個とされており、ピッチデータに応じた本数
のハーモニックスとなるようにデータ数変換する。逆ベ
クトル量子化器212からデータ数変換部270に送ら
れるデータの個数は、一定個数のままでも、データ数変
換されていてもよい。
ープAmのベクトル量子化されたインデックスデータ
は、逆ベクトル量子化器212に送られて逆ベクトル量
子化が施される。この逆ベクトル量子化されたエンベロ
ープの振幅データの個数は、上述したように一定個数、
例えば44個とされており、ピッチデータに応じた本数
のハーモニックスとなるようにデータ数変換する。逆ベ
クトル量子化器212からデータ数変換部270に送ら
れるデータの個数は、一定個数のままでも、データ数変
換されていてもよい。
【0049】また、データ変換部270には、入力端子
204からのピッチデータがピッチ変換部215を介し
て供給されエンコードされたピッチが出力される。ここ
で、ピッチ変換が必要な場合には、ピッチ変換部215
での後述する処理によりピッチ変換を行うようにしてあ
る。そして、データ変換部270からのLPC残差のス
ペクトルエンベロープの設定ピッチに応じた個数の振幅
データと、変更されたピッチデータとが有声音合成部2
11のサイン波合成回路215に送られている。
204からのピッチデータがピッチ変換部215を介し
て供給されエンコードされたピッチが出力される。ここ
で、ピッチ変換が必要な場合には、ピッチ変換部215
での後述する処理によりピッチ変換を行うようにしてあ
る。そして、データ変換部270からのLPC残差のス
ペクトルエンベロープの設定ピッチに応じた個数の振幅
データと、変更されたピッチデータとが有声音合成部2
11のサイン波合成回路215に送られている。
【0050】ここで、データ変換部270でのLPC残
差のスペクトルエンベロープの振幅データの個数を変換
するには、種々の補間方法が考えられるが、例えば、周
波数軸上の有効帯域1ブロック分の振幅データに対し
て、ブロック内の最終のデータからブロック内の最初の
データまでの値を補間するようなダミーデータを付加し
てデータ個数をNF 個に拡大した後、あるいはブロック
内の左端及び右端(最初と最後)のデータを延長してダ
ミーデータとして帯域制限型のOS 倍(例えば8倍)の
オーバーサンプリングを施すことによりOS 倍の個数の
振幅データを求め、このOS 倍の個数((mMX+1)×
OS 倍)の振幅データを直線補間してさらに多くのNM
個(例えば2048個)に拡張し、このNM 個のデータ
を間引いて、設定するピッチに応じた個数Mのデータに
変換すればよい。
差のスペクトルエンベロープの振幅データの個数を変換
するには、種々の補間方法が考えられるが、例えば、周
波数軸上の有効帯域1ブロック分の振幅データに対し
て、ブロック内の最終のデータからブロック内の最初の
データまでの値を補間するようなダミーデータを付加し
てデータ個数をNF 個に拡大した後、あるいはブロック
内の左端及び右端(最初と最後)のデータを延長してダ
ミーデータとして帯域制限型のOS 倍(例えば8倍)の
オーバーサンプリングを施すことによりOS 倍の個数の
振幅データを求め、このOS 倍の個数((mMX+1)×
OS 倍)の振幅データを直線補間してさらに多くのNM
個(例えば2048個)に拡張し、このNM 個のデータ
を間引いて、設定するピッチに応じた個数Mのデータに
変換すればよい。
【0051】データ数変換部270においては、スペク
トルエンベロープの形状を変えないで、ハーモニックス
の立っている位置だけを変更するようにしている。この
ため、音韻は不変である。
トルエンベロープの形状を変えないで、ハーモニックス
の立っている位置だけを変更するようにしている。この
ため、音韻は不変である。
【0052】ここで、データ数変換部270における動
作の一例として、ピッチラグLのときの周波数F0 =f
S /Lを、Fxに変換する場合について説明する。fS
はサンプリング周波数であり、例えばfS =8kHz=
8000Hzとする。
作の一例として、ピッチラグLのときの周波数F0 =f
S /Lを、Fxに変換する場合について説明する。fS
はサンプリング周波数であり、例えばfS =8kHz=
8000Hzとする。
【0053】このとき、ピッチ周波数F0 =8000/
Lであり、ハーモニックスは4000Hzまでの間にn
=L/2本立っている。通常の音声帯域の3400Hz
幅では、約(L/2)×(3400/4000)であ
る。これを、上述したデータ数変換あるいは次元変換に
より一定の本数、例えば44本に変換した後、ベクトル
量子化を行う。
Lであり、ハーモニックスは4000Hzまでの間にn
=L/2本立っている。通常の音声帯域の3400Hz
幅では、約(L/2)×(3400/4000)であ
る。これを、上述したデータ数変換あるいは次元変換に
より一定の本数、例えば44本に変換した後、ベクトル
量子化を行う。
【0054】なお、エンコード時にスペクトルのベクト
ル量子化に先だってフレーム間差分をとっている場合に
は、ここでの逆ベクトル量子化後にフレーム間差分の復
号を行ってからデータ数変換を行ない、スペクトルエン
ベロープのデータを得る。
ル量子化に先だってフレーム間差分をとっている場合に
は、ここでの逆ベクトル量子化後にフレーム間差分の復
号を行ってからデータ数変換を行ない、スペクトルエン
ベロープのデータを得る。
【0055】サイン波合成回路215には、データ変換
部270からのLPC残差のスペクトルエンベロープ振
幅データやピッチデータの他にも、入力端子205から
の上記V/UV判定データが供給されている。サイン波
合成回路215からは、LPC残差データが取り出さ
れ、これが加算器218に送られている。
部270からのLPC残差のスペクトルエンベロープ振
幅データやピッチデータの他にも、入力端子205から
の上記V/UV判定データが供給されている。サイン波
合成回路215からは、LPC残差データが取り出さ
れ、これが加算器218に送られている。
【0056】また、逆ベクトル量子化器212からのエ
ンベロープのデータと、入力端子204,205からの
ピッチ、V/UV判定データとは、有声音(V)部分の
ノイズ加算のためのノイズ合成回路216に送られてい
る。このノイズ合成回路216からの出力は、重み付き
重畳加算回路217を介して加算器218に送ってい
る。これは、サイン波合成によって有声音のLPC合成
フィルタへの入力となるエクサイテイション(Excitati
on:励起、励振)を作ると、男声等の低いピッチの音で
鼻づまり感がある点、及びV(有声音)とUV(無声
音)とで音質が急激に変化し不自然に感じる場合がある
点を考慮し、有声音部分のLPC合成フィルタ入力すな
わちエクサイテイションについて、音声符号化データに
基づくパラメータ、例えばピッチ、スペクトルエンベロ
ープ振幅、フレーム内の最大振幅、残差信号のレベル等
を考慮したノイズをLPC残差信号の有声音部分に加え
ているものである。
ンベロープのデータと、入力端子204,205からの
ピッチ、V/UV判定データとは、有声音(V)部分の
ノイズ加算のためのノイズ合成回路216に送られてい
る。このノイズ合成回路216からの出力は、重み付き
重畳加算回路217を介して加算器218に送ってい
る。これは、サイン波合成によって有声音のLPC合成
フィルタへの入力となるエクサイテイション(Excitati
on:励起、励振)を作ると、男声等の低いピッチの音で
鼻づまり感がある点、及びV(有声音)とUV(無声
音)とで音質が急激に変化し不自然に感じる場合がある
点を考慮し、有声音部分のLPC合成フィルタ入力すな
わちエクサイテイションについて、音声符号化データに
基づくパラメータ、例えばピッチ、スペクトルエンベロ
ープ振幅、フレーム内の最大振幅、残差信号のレベル等
を考慮したノイズをLPC残差信号の有声音部分に加え
ているものである。
【0057】加算器218からの加算出力は、LPC合
成フィルタ214の有声音用の合成フィルタ236に送
られてLPCの合成処理が施されることにより時間波形
データとなり、さらに有声音用ポストフィルタ238v
でフィルタ処理された後、加算器239に送られる。
成フィルタ214の有声音用の合成フィルタ236に送
られてLPCの合成処理が施されることにより時間波形
データとなり、さらに有声音用ポストフィルタ238v
でフィルタ処理された後、加算器239に送られる。
【0058】次に、図4の入力端子207s及び207
gには、図3の出力端子107s及び107gからのU
Vデータとしてのシェイプインデックス及びゲインイン
デックスがそれぞれ供給され、無声音合成部220に送
られている。端子207sからのシェイプインデックス
は、無声音合成部220の雑音符号帳221に、端子2
07gからのゲインインデックスはゲイン回路222に
それぞれ送られている。雑音符号帳221から読み出さ
れた代表値出力は、無声音のLPC残差に相当するノイ
ズ信号成分であり、これがゲイン回路222で所定のゲ
インの振幅となり、窓かけ回路223に送られて、有声
音部分とのつなぎを円滑化するための窓かけ処理が施さ
れる。
gには、図3の出力端子107s及び107gからのU
Vデータとしてのシェイプインデックス及びゲインイン
デックスがそれぞれ供給され、無声音合成部220に送
られている。端子207sからのシェイプインデックス
は、無声音合成部220の雑音符号帳221に、端子2
07gからのゲインインデックスはゲイン回路222に
それぞれ送られている。雑音符号帳221から読み出さ
れた代表値出力は、無声音のLPC残差に相当するノイ
ズ信号成分であり、これがゲイン回路222で所定のゲ
インの振幅となり、窓かけ回路223に送られて、有声
音部分とのつなぎを円滑化するための窓かけ処理が施さ
れる。
【0059】窓かけ回路223からの出力は、無声音合
成部220からの出力として、LPC合成フィルタ21
4のUV(無声音)用の合成フィルタ237に送られ
る。合成フィルタ237では、LPC合成処理が施され
ることにより無音声部分の時間波形データとなり、この
無声音部分の時間波形データは無声音用ポストフィルタ
238uでフィルタ処理された後、加算器239に送ら
れる。
成部220からの出力として、LPC合成フィルタ21
4のUV(無声音)用の合成フィルタ237に送られ
る。合成フィルタ237では、LPC合成処理が施され
ることにより無音声部分の時間波形データとなり、この
無声音部分の時間波形データは無声音用ポストフィルタ
238uでフィルタ処理された後、加算器239に送ら
れる。
【0060】加算器239では、有声音用ポストフィル
タ238vからの有声音部分の時間波形信号と、無声音
用ポストフィルタ238uからの無声音部分の時間波形
データとが加算され、出力端子201より取り出され
る。
タ238vからの有声音部分の時間波形信号と、無声音
用ポストフィルタ238uからの無声音部分の時間波形
データとが加算され、出力端子201より取り出され
る。
【0061】次に、図1,図3で説明した音声符号化装
置内のピッチ変換部119でのピッチ変換処理と、図
2,図4で説明した音声復号化装置内のピッチ変換部2
15でのピッチ変換処理について説明する。本例におい
ては、符号化時と復号化時のいずれでも音声のピッチ変
換をできるようにしてあり、符号化時にピッチ変換した
い場合には、音声符号化装置内のピッチ変換部119で
対応した処理を行い、復号化時にピッチ変換したい場合
には、音声復号化装置内のピッチ変換部215で対応し
た処理を行う。従って、基本的には音声符号化装置と音
声復号化装置のいずれか一方にピッチ変換部があれば、
本例で説明するピッチ変換処理が実行できる。場合によ
っては、音声符号化装置で符号化時にピッチ変換された
音声信号を、音声復号化装置での復号化時に更にピッチ
変換しても良い。
置内のピッチ変換部119でのピッチ変換処理と、図
2,図4で説明した音声復号化装置内のピッチ変換部2
15でのピッチ変換処理について説明する。本例におい
ては、符号化時と復号化時のいずれでも音声のピッチ変
換をできるようにしてあり、符号化時にピッチ変換した
い場合には、音声符号化装置内のピッチ変換部119で
対応した処理を行い、復号化時にピッチ変換したい場合
には、音声復号化装置内のピッチ変換部215で対応し
た処理を行う。従って、基本的には音声符号化装置と音
声復号化装置のいずれか一方にピッチ変換部があれば、
本例で説明するピッチ変換処理が実行できる。場合によ
っては、音声符号化装置で符号化時にピッチ変換された
音声信号を、音声復号化装置での復号化時に更にピッチ
変換しても良い。
【0062】以下、ピッチ変換部での処理の詳細につい
て説明すると、音声符号化装置内のピッチ変換部119
で行われるピッチ変換処理と、音声復号化装置内のピッ
チ変換部215で行われるピッチ変換処理とは、基本的
に同一であり、それぞれの変換部119,215では、
供給されるピッチデータの変換処理を行う。本例の各ピ
ッチ変換部119,215に供給されるピッチデータ
は、既に図1〜図4の説明で述べたようにピッチラグ
(周期)であり、そのピッチラグを、演算処理で別のデ
ータに変換して、ピッチ変換を行う。
て説明すると、音声符号化装置内のピッチ変換部119
で行われるピッチ変換処理と、音声復号化装置内のピッ
チ変換部215で行われるピッチ変換処理とは、基本的
に同一であり、それぞれの変換部119,215では、
供給されるピッチデータの変換処理を行う。本例の各ピ
ッチ変換部119,215に供給されるピッチデータ
は、既に図1〜図4の説明で述べたようにピッチラグ
(周期)であり、そのピッチラグを、演算処理で別のデ
ータに変換して、ピッチ変換を行う。
【0063】そのピッチ変換の具体的処理としては、こ
こでは以下に示す第1の処理から第9の処理までの9つ
の処理状態が選択できるようにしてあり、符号化装置又
は復号化装置のコントローラなどの制御に基づいて、い
ずれかの処理状態が設定される。なお、以下の処理の説
明中の数式で示されるピッチは、その周期を示し、実際
の変換部内での演算処理では、ハーモニックスの本数の
データで対応した処理が行われる。
こでは以下に示す第1の処理から第9の処理までの9つ
の処理状態が選択できるようにしてあり、符号化装置又
は復号化装置のコントローラなどの制御に基づいて、い
ずれかの処理状態が設定される。なお、以下の処理の説
明中の数式で示されるピッチは、その周期を示し、実際
の変換部内での演算処理では、ハーモニックスの本数の
データで対応した処理が行われる。
【0064】・第1の処理 この処理は、入力ピッチを定数倍する処理であり、入力
ピッチ pch inに定数K1 を乗算して、出力ピッチ pch
out とする。その演算式を次式に示す。
ピッチ pch inに定数K1 を乗算して、出力ピッチ pch
out とする。その演算式を次式に示す。
【0065】
【数1】pch out =K1 pch in
【0066】ここで、定数K1 の値として、0<K1 <
1の範囲の値とすることで、周波数が高くなり、高い声
に変化させることができる。また、K1 >1の値とする
ことで、周波数が低くなり、低い声に変化させることが
できる。
1の範囲の値とすることで、周波数が高くなり、高い声
に変化させることができる。また、K1 >1の値とする
ことで、周波数が低くなり、低い声に変化させることが
できる。
【0067】・第2の処理 この処理は、出力ピッチを入力ピッチに関係なく一定に
する処理であり、予め設定された適当な定数P2 を常時
出力ピッチ pch out とする。その演算式を次式に示
す。
する処理であり、予め設定された適当な定数P2 を常時
出力ピッチ pch out とする。その演算式を次式に示
す。
【0068】
【数2】pch out =P2
【0069】このように一定のピッチとすることで、一
本調子の人工的な声に変換することができる。
本調子の人工的な声に変換することができる。
【0070】・第3の処理 この処理は、出力ピッチ pch out を予め設定された適
当な定数P3 に、適当な振幅A3 及び周波数F3 の正弦
波を加えたものとするもので、その演算式を次式に示
す。
当な定数P3 に、適当な振幅A3 及び周波数F3 の正弦
波を加えたものとするもので、その演算式を次式に示
す。
【0071】
【数3】 pch out =P3 +A3 sin(2πF3 t(n) )
【0072】この〔数3〕式においてnはフレーム数で
あり、t(n) はそのフレームでの離散時間であり、次式
により設定される。
あり、t(n) はそのフレームでの離散時間であり、次式
により設定される。
【0073】
【数4】t(n) =t(n-1) +Δt
【0074】このように固定された一定のピッチに正弦
波を加えることで、人工的な声にビブラートがかかった
状態とすることができる。
波を加えることで、人工的な声にビブラートがかかった
状態とすることができる。
【0075】・第4の処理 この処理は、入力ピッチ pch inに、一様乱数〔−
A4 ,A4 〕を加えたものを出力ピッチ pch out とす
るもので、その演算式を次式に示す。
A4 ,A4 〕を加えたものを出力ピッチ pch out とす
るもので、その演算式を次式に示す。
【0076】
【数5】pch out = pch in+r(n)
【0077】ここで、r(n) はフレーム数n毎に設定さ
れる乱数であり、処理フレーム毎に一様乱数〔−A4 ,
A4 〕を発生させて、加算する処理を行う。このように
処理することで、例えばがらがら声のような音声に変換
できる。
れる乱数であり、処理フレーム毎に一様乱数〔−A4 ,
A4 〕を発生させて、加算する処理を行う。このように
処理することで、例えばがらがら声のような音声に変換
できる。
【0078】・第5の処理 この処理は、入力ピッチ pch inに、適当な振幅A5 及
び周波数F5 の正弦波を加えたものとするもので、その
演算式を次式に示す。
び周波数F5 の正弦波を加えたものとするもので、その
演算式を次式に示す。
【0079】
【数6】 pch out = pch in+A5 sin(2πF5 t(n) )
【0080】この〔数6〕式においても、nはフレーム
数、t(n) はそのフレームでの離散時間であり、上述し
た〔数4〕式により設定される。このように処理するこ
とで、入力音声にビブラートがかかった音声に変換され
る。この場合、周波数F5 を小さな値にする(即ち周期
を長くする)ことで、抑揚がついた音声に変換される。
数、t(n) はそのフレームでの離散時間であり、上述し
た〔数4〕式により設定される。このように処理するこ
とで、入力音声にビブラートがかかった音声に変換され
る。この場合、周波数F5 を小さな値にする(即ち周期
を長くする)ことで、抑揚がついた音声に変換される。
【0081】・第6の処理 この処理は、適当な定数P6 より入力ピッチ pch inを
減算したものを出力ピッチ pch out とするもので、そ
の演算式を次式に示す。
減算したものを出力ピッチ pch out とするもので、そ
の演算式を次式に示す。
【0082】
【数7】pch out =P6 − pch in
【0083】このように処理することで、ピッチの変化
が入力音声とは逆になり、例えば語尾の変化が通常とは
逆になるような音声に変換される。
が入力音声とは逆になり、例えば語尾の変化が通常とは
逆になるような音声に変換される。
【0084】・第7の処理 この処理は、適当な時定数τ7 (この時定数τ7 の範囲
は0<τ7 <1)で入力ピッチ pch inを平滑化(平均
化)した avg pch を、出力ピッチ pch outとするも
ので、その演算式を次式に示す。
は0<τ7 <1)で入力ピッチ pch inを平滑化(平均
化)した avg pch を、出力ピッチ pch outとするも
ので、その演算式を次式に示す。
【0085】
【数8】 avg pch =(1−τ7 ) avg pch +τ7 pch in pch out = avg pch
【0086】ここで、例えばτ7 として0.05を設定
することで、過去20フレームの平均値が avg pch と
なり、その値が出力ピッチとなる。このように処理する
ことで、抑揚のないだらっとした感じの音声に変換され
る。
することで、過去20フレームの平均値が avg pch と
なり、その値が出力ピッチとなる。このように処理する
ことで、抑揚のないだらっとした感じの音声に変換され
る。
【0087】・第8の処理 この処理は、適当な時定数τ8 (この時定数τ8 の範囲
は0<τ7 <1)で入力ピッチ pch inを平滑化(平均
化)した avg pch と、入力ピッチ pch inとの差分を
算出し、その差分に適当なファクターK8 (このK8 は
定数)を乗算したものを、強調分として、入力ピッチ p
ch inに加算して、出力ピッチ pch out とするもの
で、その演算式を次式に示す。
は0<τ7 <1)で入力ピッチ pch inを平滑化(平均
化)した avg pch と、入力ピッチ pch inとの差分を
算出し、その差分に適当なファクターK8 (このK8 は
定数)を乗算したものを、強調分として、入力ピッチ p
ch inに加算して、出力ピッチ pch out とするもの
で、その演算式を次式に示す。
【0088】
【数9】 avg pch =(1−τ8 ) avg pch +τ8 pch in pch out = pch in+K8 ( pch in− avg pch )
【0089】このように処理することで、入力音声に強
調分が加算された状態にピッチ変換され、例えばメリハ
リのある音声に変換される。
調分が加算された状態にピッチ変換され、例えばメリハ
リのある音声に変換される。
【0090】・第9の処理 この処理は、入力ピッチ pch inを、予めピッチ変換部
に用意されたピッチテーブル内の最も近似した固定ピッ
チデータに変換するマッピング処理を行うものである。
この場合には、例えばピッチテーブル内の固定ピッチデ
ータとして、音階に相当する周波数間隔のデータを用意
し、入力ピッチ pch inに近似した音階のデータに変換
することが考えられる。
に用意されたピッチテーブル内の最も近似した固定ピッ
チデータに変換するマッピング処理を行うものである。
この場合には、例えばピッチテーブル内の固定ピッチデ
ータとして、音階に相当する周波数間隔のデータを用意
し、入力ピッチ pch inに近似した音階のデータに変換
することが考えられる。
【0091】以上説明したような第1の処理から第9の
処理までのいずれかのピッチ変換処理を、符号化装置内
のピッチ変換部119又は復号化装置内のピッチ変換部
215で実行することで、復号時のハーモニックスの本
数を制御するピッチデータだけが変換され、音声の音韻
を変えることなく、ピッチだけを簡単に変換することが
できる。
処理までのいずれかのピッチ変換処理を、符号化装置内
のピッチ変換部119又は復号化装置内のピッチ変換部
215で実行することで、復号時のハーモニックスの本
数を制御するピッチデータだけが変換され、音声の音韻
を変えることなく、ピッチだけを簡単に変換することが
できる。
【0092】次に、以上説明した音声符号化装置及び音
声復号化装置を電話装置に適用した例について、図5,
図6を参照して説明する。まず、音声符号化装置を無線
電話装置(携帯電話機など)の送信系に適用した例を図
5に示すと、マイクロホン301で収音された音声信号
は、アンプ302で増幅され、アナログ/デジタル変換
器303でデジタル信号に変換されて、音声符号化部3
04に送られる。この音声符号化部304は、図1,図
3で説明した音声符号化装置に相当し、必要によりその
符号化部304内のピッチ変換部(図1,図3のピッチ
変換部119に相当)でピッチ変換処理が行われる。そ
して、音声符号化部304で符号化された各データが、
符号化部304の出力信号として、伝送路符号化部30
5に送られる。伝送路符号化部305では、いわゆるチ
ャンネルコーディング処理が施され、その出力信号が変
調回路306に送られて変調され、デジタル/アナログ
変換器307、高周波アンプ308を介してアンテナ3
09に送られ、無線送信される。
声復号化装置を電話装置に適用した例について、図5,
図6を参照して説明する。まず、音声符号化装置を無線
電話装置(携帯電話機など)の送信系に適用した例を図
5に示すと、マイクロホン301で収音された音声信号
は、アンプ302で増幅され、アナログ/デジタル変換
器303でデジタル信号に変換されて、音声符号化部3
04に送られる。この音声符号化部304は、図1,図
3で説明した音声符号化装置に相当し、必要によりその
符号化部304内のピッチ変換部(図1,図3のピッチ
変換部119に相当)でピッチ変換処理が行われる。そ
して、音声符号化部304で符号化された各データが、
符号化部304の出力信号として、伝送路符号化部30
5に送られる。伝送路符号化部305では、いわゆるチ
ャンネルコーディング処理が施され、その出力信号が変
調回路306に送られて変調され、デジタル/アナログ
変換器307、高周波アンプ308を介してアンテナ3
09に送られ、無線送信される。
【0093】次に、音声復号化装置を無線電話装置の受
信系に適用した例を図6に示すと、アンテナ311で受
信された信号は、高周波アンプ312で増幅され、アナ
ログ/デジタル変換器313を介して復調回路314に
送られ、復調信号が伝送路復号化部315に送られる。
この伝送路復号化部315では、チャンネルデコーディ
ング処理が施されて伝送された音声信号が抽出され、そ
の抽出された音声信号が音声復号化部316に送られ
る。この音声復号化部316は、図2,図4で説明した
音声復号化装置に相当し、必要によりその符号化部31
6内のピッチ変換部(図2,図4のピッチ変換部215
に相当)でピッチ変換処理が行われる。そして、音声復
号化部316で復号化された音声信号が、復号化部31
6の出力信号として、デジタル/アナログ変換器317
に送られ、アンプ318でのアナログ音声処理が行われ
た後、スピーカ319に送られ、放音される。
信系に適用した例を図6に示すと、アンテナ311で受
信された信号は、高周波アンプ312で増幅され、アナ
ログ/デジタル変換器313を介して復調回路314に
送られ、復調信号が伝送路復号化部315に送られる。
この伝送路復号化部315では、チャンネルデコーディ
ング処理が施されて伝送された音声信号が抽出され、そ
の抽出された音声信号が音声復号化部316に送られ
る。この音声復号化部316は、図2,図4で説明した
音声復号化装置に相当し、必要によりその符号化部31
6内のピッチ変換部(図2,図4のピッチ変換部215
に相当)でピッチ変換処理が行われる。そして、音声復
号化部316で復号化された音声信号が、復号化部31
6の出力信号として、デジタル/アナログ変換器317
に送られ、アンプ318でのアナログ音声処理が行われ
た後、スピーカ319に送られ、放音される。
【0094】なお、このような無線電話装置以外の装置
に、本発明を適用することができることは勿論である。
即ち、図1などで説明したような音声符号化装置が内蔵
された音声信号を扱う各種装置や、図3などで説明した
ような音声復号化装置が内蔵された音声信号を扱う各種
装置に、本発明を適用することができる。
に、本発明を適用することができることは勿論である。
即ち、図1などで説明したような音声符号化装置が内蔵
された音声信号を扱う各種装置や、図3などで説明した
ような音声復号化装置が内蔵された音声信号を扱う各種
装置に、本発明を適用することができる。
【0095】また、図1,図3で説明した音声符号化処
理を実行する処理プログラムが記録された記録媒体(光
ディスク,光磁気ディスク,磁気テープなど)に、本例
のピッチ変換部119での処理に相当する処理プログラ
ムを記録させて、この媒体から読出された処理プログラ
ムをコンピュータ装置などで実行して符号化する場合
に、同様のピッチ変換処理が実行されるようにしても良
い。同様に、図2,図4で説明した音声復号化処理を実
行する処理プログラムが記録された記録媒体に、本例の
ピッチ変換部215での処理に相当する処理プログラム
を記録させて、この媒体から読出された処理プログラム
をコンピュータ装置などで実行して復号化する場合に、
同様のピッチ変換処理が実行されるようにしても良い。
理を実行する処理プログラムが記録された記録媒体(光
ディスク,光磁気ディスク,磁気テープなど)に、本例
のピッチ変換部119での処理に相当する処理プログラ
ムを記録させて、この媒体から読出された処理プログラ
ムをコンピュータ装置などで実行して符号化する場合
に、同様のピッチ変換処理が実行されるようにしても良
い。同様に、図2,図4で説明した音声復号化処理を実
行する処理プログラムが記録された記録媒体に、本例の
ピッチ変換部215での処理に相当する処理プログラム
を記録させて、この媒体から読出された処理プログラム
をコンピュータ装置などで実行して復号化する場合に、
同様のピッチ変換処理が実行されるようにしても良い。
【0096】
【発明の効果】本発明の音声符号化方法によると、サイ
ン波分析符号化された音声符号化データのピッチ成分
を、所定の演算処理で変更してピッチ変換するようにし
たことで、簡単な演算処理で、入力音声の音韻を変える
ことなく、ピッチだけを的確に変換して符号化できるよ
うになる。
ン波分析符号化された音声符号化データのピッチ成分
を、所定の演算処理で変更してピッチ変換するようにし
たことで、簡単な演算処理で、入力音声の音韻を変える
ことなく、ピッチだけを的確に変換して符号化できるよ
うになる。
【0097】この場合、ハーモニクスの本数を所定数と
するデータ数変換を行うようにしたことで、符号化され
たデータに基づいたピッチ変換が簡単に行える。
するデータ数変換を行うようにしたことで、符号化され
たデータに基づいたピッチ変換が簡単に行える。
【0098】また、このデータ数変換を行う場合に、オ
ーバーサンプリング演算による補間処理でデータ数変換
処理を行うようにしたことで、オーバーサンプリング演
算による簡単な処理で、データ数変換が行える。
ーバーサンプリング演算による補間処理でデータ数変換
処理を行うようにしたことで、オーバーサンプリング演
算による簡単な処理で、データ数変換が行える。
【0099】また、符号化時にピッチ変換を行う場合
に、サイン波分析符号化された音声符号化データのピッ
チ成分に所定の係数を乗算して、ピッチ変換を行うよう
にしたことで、例えば入力音声の音色を変えるようなピ
ッチ変換処理が可能になる。
に、サイン波分析符号化された音声符号化データのピッ
チ成分に所定の係数を乗算して、ピッチ変換を行うよう
にしたことで、例えば入力音声の音色を変えるようなピ
ッチ変換処理が可能になる。
【0100】また、符号化時にピッチ変換を行う場合
に、サイン波分析符号化された音声符号化データのピッ
チ成分を、固定された値に変換して、常時一定のピッチ
に変換するようにしたことで、例えば入力音声のピッチ
を一本調子の人工的な音声に変換することが可能にな
る。
に、サイン波分析符号化された音声符号化データのピッ
チ成分を、固定された値に変換して、常時一定のピッチ
に変換するようにしたことで、例えば入力音声のピッチ
を一本調子の人工的な音声に変換することが可能にな
る。
【0101】また、この一定のピッチに変換する場合
に、一定のピッチに変換されたデータに、所定の周波数
の正弦波のデータを加算することで、例えば一定のピッ
チを中心にして上下にビブラートがかかったような音声
に変換することが可能になる。
に、一定のピッチに変換されたデータに、所定の周波数
の正弦波のデータを加算することで、例えば一定のピッ
チを中心にして上下にビブラートがかかったような音声
に変換することが可能になる。
【0102】また、符号化時にピッチ変換を行う場合
に、所定の定数値から、サイン波分析符号化された音声
符号化データのピッチ成分を減算して、ピッチ変換を行
うようにしたことで、例えば入力音声の語尾のイントネ
ーションなどが逆に変化するような効果が得られるピッ
チに変換することが可能になる。
に、所定の定数値から、サイン波分析符号化された音声
符号化データのピッチ成分を減算して、ピッチ変換を行
うようにしたことで、例えば入力音声の語尾のイントネ
ーションなどが逆に変化するような効果が得られるピッ
チに変換することが可能になる。
【0103】また、符号化時にピッチ変換を行う場合
に、サイン波分析符号化された音声符号化データのピッ
チ成分に所定の乱数を加算して、ピッチ変換を行うよう
にしたことで、例えば音声のイントネーションなどが不
規則に変化するようなピッチに変換することが可能にな
る。
に、サイン波分析符号化された音声符号化データのピッ
チ成分に所定の乱数を加算して、ピッチ変換を行うよう
にしたことで、例えば音声のイントネーションなどが不
規則に変化するようなピッチに変換することが可能にな
る。
【0104】また、符号化時にピッチ変換を行う場合
に、サイン波分析符号化により符号化された音声符号化
データのピッチ成分に所定の周波数の正弦波のデータを
加算して、ピッチ変換を行うようにしたことで、例えば
入力音声にビブラートがかかったような音声に変換する
ことが可能になる。
に、サイン波分析符号化により符号化された音声符号化
データのピッチ成分に所定の周波数の正弦波のデータを
加算して、ピッチ変換を行うようにしたことで、例えば
入力音声にビブラートがかかったような音声に変換する
ことが可能になる。
【0105】また、符号化時にピッチ変換を行う場合
に、サイン波分析符号化された音声符号化データのピッ
チ成分の平均値を算出し、この平均値をピッチ変換され
た音声符号化データとするようにしたことで、例えば入
力音声の抑揚を少なくした音声に変換することが可能に
なる。
に、サイン波分析符号化された音声符号化データのピッ
チ成分の平均値を算出し、この平均値をピッチ変換され
た音声符号化データとするようにしたことで、例えば入
力音声の抑揚を少なくした音声に変換することが可能に
なる。
【0106】また、符号化時にピッチ変換を行う場合
に、サイン波分析符号化された音声符号化データのピッ
チ成分の平均値を算出し、音声符号化データと平均値と
の差分を、音声符号化データに加算してピッチ変換する
ようにしたことで、例えば入力音声の抑揚が強調された
メリハリがある音声に変換することが可能になる。
に、サイン波分析符号化された音声符号化データのピッ
チ成分の平均値を算出し、音声符号化データと平均値と
の差分を、音声符号化データに加算してピッチ変換する
ようにしたことで、例えば入力音声の抑揚が強調された
メリハリがある音声に変換することが可能になる。
【0107】また、符号化時にピッチ変換を行う場合
に、サイン波分析符号化された音声符号化データのピッ
チ成分を、予め用意されたピッチ変換用テーブルのデー
タに変換して、このピッチ変換用テーブルで設定された
段階のピッチに変換するようにしたことで、例えば入力
音声のピッチを、一定の音階のピッチに正規化するよう
な変換が可能になる。
に、サイン波分析符号化された音声符号化データのピッ
チ成分を、予め用意されたピッチ変換用テーブルのデー
タに変換して、このピッチ変換用テーブルで設定された
段階のピッチに変換するようにしたことで、例えば入力
音声のピッチを、一定の音階のピッチに正規化するよう
な変換が可能になる。
【0108】また本発明の音声復号化方法によると、サ
イン波分析符号化されたデータのピッチ成分を、所定の
演算処理で変更するようにしたことで、簡単な演算処理
で、音声の音韻を変えることなく、復号する音声のピッ
チだけを的確に変換できるようになる。
イン波分析符号化されたデータのピッチ成分を、所定の
演算処理で変更するようにしたことで、簡単な演算処理
で、音声の音韻を変えることなく、復号する音声のピッ
チだけを的確に変換できるようになる。
【0109】この場合、ピッチ成分を変更した後、ハー
モニクスの本数を所定数からのデータ数変換を行うよう
にしたことで、変更されたピッチ成分による復号が簡単
に行える。
モニクスの本数を所定数からのデータ数変換を行うよう
にしたことで、変更されたピッチ成分による復号が簡単
に行える。
【0110】また、このデータ数変換を行う場合に、オ
ーバーサンプリング演算による補間処理でデータ数変換
処理を行うようにしたことで、オーバーサンプリング演
算による簡単な処理で、データ数変換が行える。
ーバーサンプリング演算による補間処理でデータ数変換
処理を行うようにしたことで、オーバーサンプリング演
算による簡単な処理で、データ数変換が行える。
【0111】また、復号化時にピッチ変換を行う場合
に、サイン波分析符号化された音声符号化データのピッ
チ成分に所定の係数を乗算して、ピッチ変換を行うよう
にしたことで、例えば復号する音声の音色を変えるよう
なピッチ変換処理が可能になる。
に、サイン波分析符号化された音声符号化データのピッ
チ成分に所定の係数を乗算して、ピッチ変換を行うよう
にしたことで、例えば復号する音声の音色を変えるよう
なピッチ変換処理が可能になる。
【0112】また、復号化時にピッチ変換を行う場合
に、サイン波分析符号化された音声符号化データのピッ
チ成分を、固定された値に変換して、常時一定のピッチ
に変換するようにしたことで、例えば復号する音声のピ
ッチを一本調子の人工的な音声に変換することが可能に
なる。
に、サイン波分析符号化された音声符号化データのピッ
チ成分を、固定された値に変換して、常時一定のピッチ
に変換するようにしたことで、例えば復号する音声のピ
ッチを一本調子の人工的な音声に変換することが可能に
なる。
【0113】また、この一定のピッチに変換する場合
に、一定のピッチに変換されたデータに、所定の周波数
の正弦波のデータを加算することで、例えば一定のピッ
チを中心にして上下にビブラートがかかったような音声
に変換することが可能になる。
に、一定のピッチに変換されたデータに、所定の周波数
の正弦波のデータを加算することで、例えば一定のピッ
チを中心にして上下にビブラートがかかったような音声
に変換することが可能になる。
【0114】また、復号化時にピッチ変換を行う場合
に、所定の定数値から、サイン波分析符号化された音声
符号化データのピッチ成分を減算して、ピッチ変換を行
うようにしたことで、例えば復号する音声の語尾のイン
トネーションなどが逆に変化するような効果が得られる
ピッチに変換することが可能になる。
に、所定の定数値から、サイン波分析符号化された音声
符号化データのピッチ成分を減算して、ピッチ変換を行
うようにしたことで、例えば復号する音声の語尾のイン
トネーションなどが逆に変化するような効果が得られる
ピッチに変換することが可能になる。
【0115】また、復号化時にピッチ変換を行う場合
に、サイン波分析符号化された音声符号化データのピッ
チ成分に所定の乱数を加算して、ピッチ変換を行うよう
にしたことで、例えば復号する音声のイントネーション
などが不規則に変化するようなピッチに変換することが
可能になる。
に、サイン波分析符号化された音声符号化データのピッ
チ成分に所定の乱数を加算して、ピッチ変換を行うよう
にしたことで、例えば復号する音声のイントネーション
などが不規則に変化するようなピッチに変換することが
可能になる。
【0116】また、復号化時にピッチ変換を行う場合
に、サイン波分析符号化された音声符号化データのピッ
チ成分に所定の周波数の正弦波のデータを加算して、ピ
ッチ変換を行うようにしたことで、例えば復号する音声
にビブラートがかかったような音声に変換することが可
能になる。
に、サイン波分析符号化された音声符号化データのピッ
チ成分に所定の周波数の正弦波のデータを加算して、ピ
ッチ変換を行うようにしたことで、例えば復号する音声
にビブラートがかかったような音声に変換することが可
能になる。
【0117】また、復号化時にピッチ変換を行う場合
に、サイン波分析符号化された音声符号化データの平均
値を算出し、この平均値をピッチ変換された音声符号化
データとするようにしたことで、例えば復号する音声の
抑揚を少なくした音声に変換することが可能になる。
に、サイン波分析符号化された音声符号化データの平均
値を算出し、この平均値をピッチ変換された音声符号化
データとするようにしたことで、例えば復号する音声の
抑揚を少なくした音声に変換することが可能になる。
【0118】また、復号化時にピッチ変換を行う場合
に、サイン波分析符号化された音声符号化データのピッ
チ成分の平均値を算出し、音声符号化データと平均値と
の差分を、音声符号化データに加算してピッチ変換する
ようにしたことで、例えば復号する音声の抑揚が強調さ
れたメリハリがある音声に変換することが可能になる。
に、サイン波分析符号化された音声符号化データのピッ
チ成分の平均値を算出し、音声符号化データと平均値と
の差分を、音声符号化データに加算してピッチ変換する
ようにしたことで、例えば復号する音声の抑揚が強調さ
れたメリハリがある音声に変換することが可能になる。
【0119】また、復号化時にピッチ変換を行う場合
に、サイン波分析符号化された音声符号化データのピッ
チ成分を、予め用意されたピッチ変換用テーブルのデー
タに変換して、このピッチ変換用テーブルで設定された
段階のピッチに変換するようにしたことで、例えば復号
する音声のピッチを、一定の音階のピッチに正規化する
ような変換が可能になる。
に、サイン波分析符号化された音声符号化データのピッ
チ成分を、予め用意されたピッチ変換用テーブルのデー
タに変換して、このピッチ変換用テーブルで設定された
段階のピッチに変換するようにしたことで、例えば復号
する音声のピッチを、一定の音階のピッチに正規化する
ような変換が可能になる。
【0120】また本発明の音声符号化装置によると、サ
イン波分析符号化手段で分析符号化されたデータのピッ
チ成分を変換するピッチ変換手段を備えたことで、サイ
ン波分析符号化されたデータのピッチ成分の変換処理に
よる簡単な処理構成で、入力音声の音韻を変えることな
く、ピッチだけを的確に変換して符号化できるようにな
る。
イン波分析符号化手段で分析符号化されたデータのピッ
チ成分を変換するピッチ変換手段を備えたことで、サイ
ン波分析符号化されたデータのピッチ成分の変換処理に
よる簡単な処理構成で、入力音声の音韻を変えることな
く、ピッチだけを的確に変換して符号化できるようにな
る。
【0121】この場合、ハーモニクスの本数を所定数と
するデータ数変換を行って符号化するようにしたこと
で、簡単な処理構成で符号化ができると共に、その符号
化されたデータに基づいたピッチ変換が簡単に行える。
するデータ数変換を行って符号化するようにしたこと
で、簡単な処理構成で符号化ができると共に、その符号
化されたデータに基づいたピッチ変換が簡単に行える。
【0122】また、このデータ数変換処理を、帯域制限
型オーバーサンプリングフィルタによる補間処理で行う
ようにしたことで、オーバーサンプリングフィルタを使
用した簡単な処理構成で、データ数変換処理が行える。
型オーバーサンプリングフィルタによる補間処理で行う
ようにしたことで、オーバーサンプリングフィルタを使
用した簡単な処理構成で、データ数変換処理が行える。
【0123】また本発明の音声復号化装置によると、サ
イン波分析符号化されたデータのピッチ成分をピッチ変
換手段で変換し、変換されたサイン波分析符号化データ
と線形予測残差に基づいた符号化データとにより音声復
号化手段で復号化処理を行うようにしたことで、簡単な
処理構成で、音声の音韻を変えることなく、復号する音
声のピッチだけを的確に変換できるようになる。
イン波分析符号化されたデータのピッチ成分をピッチ変
換手段で変換し、変換されたサイン波分析符号化データ
と線形予測残差に基づいた符号化データとにより音声復
号化手段で復号化処理を行うようにしたことで、簡単な
処理構成で、音声の音韻を変えることなく、復号する音
声のピッチだけを的確に変換できるようになる。
【0124】この場合、ハーモニクスの本数を所定数か
らのデータ数変換を行うようにしたことで、ハーモニク
スの本数を変換するだけの簡単な処理構成で、変換され
たピッチの復号が行える。
らのデータ数変換を行うようにしたことで、ハーモニク
スの本数を変換するだけの簡単な処理構成で、変換され
たピッチの復号が行える。
【0125】また、データ数変換処理を、帯域制限型オ
ーバーサンプリングフィルタによる補間処理で行うよう
にしたことで、オーバーサンプリングフィルタを使用し
た簡単な処理構成で、復号時のデータ数変換が行える。
ーバーサンプリングフィルタによる補間処理で行うよう
にしたことで、オーバーサンプリングフィルタを使用し
た簡単な処理構成で、復号時のデータ数変換が行える。
【0126】また本発明の電話装置によると、サイン波
分析符号化手段で分析符号化されたデータのピッチ成分
を変換するピッチ変換手段を備えたことで、送信する音
声データのピッチ成分を所望の状態に変換することが、
簡単な構成で容易にできるようになる。
分析符号化手段で分析符号化されたデータのピッチ成分
を変換するピッチ変換手段を備えたことで、送信する音
声データのピッチ成分を所望の状態に変換することが、
簡単な構成で容易にできるようになる。
【0127】また本発明のピッチ変換方法によると、音
声信号をサイン波分析して符号化されたピッチ成分のデ
ータに所定の係数を乗算して、ピッチ変換を行うように
したことで、例えば入力音声の音色を変えるようなピッ
チ変換が簡単にできるようになる。
声信号をサイン波分析して符号化されたピッチ成分のデ
ータに所定の係数を乗算して、ピッチ変換を行うように
したことで、例えば入力音声の音色を変えるようなピッ
チ変換が簡単にできるようになる。
【0128】また本発明のピッチ変換方法によると、音
声信号をサイン波分析して符号化されたピッチ成分のデ
ータを、固定された値に変換して、常時一定のピッチに
変換するようにしたことで、例えば入力音声のピッチを
一本調子の人工的な音声に変換できるようになる。
声信号をサイン波分析して符号化されたピッチ成分のデ
ータを、固定された値に変換して、常時一定のピッチに
変換するようにしたことで、例えば入力音声のピッチを
一本調子の人工的な音声に変換できるようになる。
【0129】また本発明のピッチ変換方法によると、所
定の定数値から、サイン波分析符号化により符号化され
た音声符号化データを減算して、ピッチ変換を行うよう
にしたことで、例えば入力音声の語尾のイントネーショ
ンなどが逆に変化するような効果が得られるピッチに変
換できるようになる。
定の定数値から、サイン波分析符号化により符号化され
た音声符号化データを減算して、ピッチ変換を行うよう
にしたことで、例えば入力音声の語尾のイントネーショ
ンなどが逆に変化するような効果が得られるピッチに変
換できるようになる。
【0130】また本発明の媒体によると、符号化プログ
ラムが記録された媒体に、サイン波分析符号化により符
号化された音声符号化データのピッチ成分を変換する処
理プログラムを記録するようにしたことで、この処理プ
ログラムの実行で、入力音声の音韻を変えることなく、
ピッチだけを的確に変換して符号化できるようになる。
ラムが記録された媒体に、サイン波分析符号化により符
号化された音声符号化データのピッチ成分を変換する処
理プログラムを記録するようにしたことで、この処理プ
ログラムの実行で、入力音声の音韻を変えることなく、
ピッチだけを的確に変換して符号化できるようになる。
【0131】また本発明の媒体によると、復号化プログ
ラムが記録された媒体に、サイン波分析符号化されたデ
ータのピッチ成分を変換するピッチ変換処理プログラム
を記録するようにしたことで、この処理プログラムの実
行で、音声の音韻を変えることなく、復号する音声のピ
ッチだけを的確に変換できるようになる。
ラムが記録された媒体に、サイン波分析符号化されたデ
ータのピッチ成分を変換するピッチ変換処理プログラム
を記録するようにしたことで、この処理プログラムの実
行で、音声の音韻を変えることなく、復号する音声のピ
ッチだけを的確に変換できるようになる。
【図1】本発明の一実施形態による音声符号化装置の一
例の基本構成を示すブロック図である。
例の基本構成を示すブロック図である。
【図2】本発明の一実施形態による音声信号復号化装置
の基本構成を示すブロック図である。
の基本構成を示すブロック図である。
【図3】図1の音声信号符号化装置のより具体的な構成
を示すブロック図である。
を示すブロック図である。
【図4】図2の音声信号復号化装置のより具体的な構成
を示すブロック図である。
を示すブロック図である。
【図5】無声電話装置の送信系への適用例を示すブロッ
ク図である。
ク図である。
【図6】無線電話装置の受信系への適用例を示すブロッ
ク図である。
ク図である。
110 第1の符号化部、110 LPC逆フィルタ、
113 LPC分析・量子化部、114 サイン波分析
符号化部、115 V/UV判定部、119ピッチ変換
部、120 第2の符号化部、121 雑音符号帳、1
22 重み付き合成フィルタ、123 減算器、124
距離計算回路、125 聴覚重み付けフィルタ、21
1 有声音合成部、212 逆ベクトル量子化器、21
5 ピッチ変換部、270 データ変換部
113 LPC分析・量子化部、114 サイン波分析
符号化部、115 V/UV判定部、119ピッチ変換
部、120 第2の符号化部、121 雑音符号帳、1
22 重み付き合成フィルタ、123 減算器、124
距離計算回路、125 聴覚重み付けフィルタ、21
1 有声音合成部、212 逆ベクトル量子化器、21
5 ピッチ変換部、270 データ変換部
Claims (36)
- 【請求項1】 音声信号を時間軸上で所定の符号化単位
で区分し、 該区分された各符号化単位で線形予測残差を求め、 該線形予測残差に基づいてサイン波分析符号化を行う音
声符号化方法において、 上記サイン波分析符号化された音声符号化データのピッ
チ成分を、所定の演算処理で変更するようにした音声符
号化方法。 - 【請求項2】 請求項1記載の音声符号化方法におい
て、 ハーモニックスの本数を所定数とするデータ数変換を行
うようにした音声符号化方法。 - 【請求項3】 請求項2記載の音声符号化方法におい
て、 上記データ数変換処理を、オーバーサンプリング演算に
よる補間処理で行うようにした音声符号化方法。 - 【請求項4】 請求項1記載の音声符号化方法におい
て、 上記サイン波分析符号化された音声符号化データのピッ
チ成分に所定の係数を乗算して、ピッチ変換を行うよう
にした音声符号化方法。 - 【請求項5】 請求項1記載の音声符号化方法におい
て、 上記サイン波分析符号化された音声符号化データのピッ
チ成分を、固定された値に変換して、常時一定のピッチ
に変換するようにした音声符号化方法。 - 【請求項6】 請求項5記載の音声符号化方法におい
て、 上記一定のピッチのデータに、所定の周波数の正弦波の
データを加算するようにした音声符号化方法。 - 【請求項7】 請求項1記載の音声符号化方法におい
て、 所定の定数値から、上記サイン波分析符号化された音声
符号化データのピッチ成分を減算して、ピッチ変換を行
うようにした音声符号化方法。 - 【請求項8】 請求項1記載の音声符号化方法におい
て、 上記サイン波分析符号化された音声符号化データのピッ
チ成分に所定の乱数を加算して、ピッチ変換を行うよう
にした音声符号化方法。 - 【請求項9】 請求項1記載の音声符号化方法におい
て、 上記サイン波分析符号化された音声符号化データのピッ
チ成分に所定の周波数の正弦波のデータを加算して、ピ
ッチ変換を行うようにした音声符号化方法。 - 【請求項10】 請求項1記載の音声符号化方法におい
て、 上記サイン波分析符号化された音声符号化データのピッ
チ成分の平均値を算出し、この平均値をピッチ変換され
た音声符号化データとするようにした音声符号化方法。 - 【請求項11】 請求項1記載の音声符号化方法におい
て、 上記サイン波分析符号化により符号化された音声符号化
データのピッチ成分の平均値を算出し、上記音声符号化
データと上記平均値との差分を、上記音声符号化データ
に加算してピッチ変換するようにした音声符号化方法。 - 【請求項12】 請求項1記載の音声符号化方法におい
て、 上記サイン波分析符号化された音声符号化データのピッ
チ成分を、予め用意されたピッチ変換用テーブルのデー
タに変換して、このピッチ変換用テーブルで設定された
段階のピッチに変換するようにした音声符号化方法。 - 【請求項13】 時間軸上の所定の符号化単位の線形予
測残差データと、サイン波分析符号化されたデータとに
基づいて、音声信号の復号化を行う音声復号化方法にお
いて、 上記サイン波分析符号化されたデータのピッチ成分を、
所定の演算処理で変更するようにした音声復号化方法。 - 【請求項14】 請求項13記載の音声復号化方法にお
いて、 上記ピッチ成分を所定の演算処理で変更した後、ハーモ
ニックスの本数を所定数とするデータ数変換を行うよう
にした音声復号化方法。 - 【請求項15】 請求項14記載の音声復号化方法にお
いて、 上記データ数変換処理を、オーバーサンプリング演算に
よる補間処理で行うようにした音声復号化方法。 - 【請求項16】 請求項13記載の音声復号化方法にお
いて、 上記サイン波分析符号化された音声符号化データのピッ
チ成分に所定の係数を乗算して、ピッチ変換を行うよう
にした音声復号化方法。 - 【請求項17】 請求項13記載の音声復号化方法にお
いて、 上記サイン波分析符号化された音声符号化データのピッ
チ成分を、固定された値に変換して、常時一定のピッチ
に変換するようにした音声復号化方法。 - 【請求項18】 請求項17記載の音声復号化方法にお
いて、 上記一定のピッチのデータに、所定の周波数の正弦波の
データを加算するようにした音声復号化方法。 - 【請求項19】 請求項13記載の音声復号化方法にお
いて、 所定の定数値から、上記サイン波分析符号化により符号
化された音声符号化データのピッチ成分を減算して、ピ
ッチ変換を行うようにした音声復号化方法。 - 【請求項20】 請求項13記載の音声復号化方法にお
いて、 上記サイン波分析符号化された音声符号化データのピッ
チ成分に所定の乱数を加算して、ピッチ変換を行うよう
にした音声復号化方法。 - 【請求項21】 請求項13記載の音声復号化方法にお
いて、 上記サイン波分析符号化された音声符号化データのピッ
チ成分に所定の周波数の正弦波のデータを加算して、ピ
ッチ変換を行うようにした音声復号化方法。 - 【請求項22】 請求項13記載の音声復号化方法にお
いて、 上記サイン波分析符号化された音声符号化データのピッ
チ成分の平均値を算出し、この平均値をピッチ変換され
た音声符号化データとするようにした音声復号化方法。 - 【請求項23】 請求項13記載の音声復号化方法にお
いて、 上記サイン波分析符号化された音声符号化データのピッ
チ成分の平均値を算出し、上記音声符号化データと上記
平均値との差分を、上記音声符号化データに加算してピ
ッチ変換するようにした音声復号化方法。 - 【請求項24】 請求項13記載の音声復号化方法にお
いて、 上記サイン波分析符号化された音声符号化データのピッ
チ成分を、予め用意されたピッチ変換用テーブルのデー
タに変換して、このピッチ変換用テーブルで設定された
段階のピッチに変換するようにした音声復号化方法。 - 【請求項25】 入力音声信号を時間軸上の所定の符号
化単位で線形予測残差を求める線形予測残差検出手段
と、 該線形予測残差検出手段で検出された線形予測残差をサ
イン波分析符号化するサイン波分析符号化手段と、 上記サイン波分析符号化手段で分析符号化されたデータ
のピッチ成分を変換するピッチ変換手段とを備えた音声
符号化装置。 - 【請求項26】 請求項25記載の音声符号化装置にお
いて、 上記サイン波分析符号化手段で、ハーモニックスの本数
を所定数とするデータ数変換を行うようにした音声符号
化装置。 - 【請求項27】 請求項26記載の音声符号化装置にお
いて、 上記データ数変換処理を、帯域制限型オーバーサンプリ
ングフィルタによる補間処理で行うようにした音声符号
化装置。 - 【請求項28】 時間軸上の所定の符号化単位の線形予
測残差データと、サイン波分析符号化されたデータとに
基づいて、音声信号の復号化を行う音声復号化装置にお
いて、 上記サイン波分析符号化されたデータのピッチ成分を変
換するピッチ変換手段と、 該ピッチ変換手段で変換されたサイン波分析符号化デー
タと上記線形予測残差データとにより復号化処理を行う
音声復号化手段とを備えた音声復号化装置。 - 【請求項29】 請求項28記載の音声復号化装置にお
いて、 上記変換されたピッチ成分のデータに基づいて、ハーモ
ニックスの本数を所定数とするデータ数変換を行うよう
にした音声復号化装置。 - 【請求項30】 請求項29記載の音声復号化装置にお
いて、 上記データ数変換処理を、帯域制限型オーバーサンプリ
ングフィルタによる補間処理で行うようにした音声復号
化装置。 - 【請求項31】 入力音声信号を時間軸上の所定の符号
化単位で線形予測残差を求める線形予測残差検出手段
と、 該線形予測残差検出手段で検出された線形予測残差をサ
イン波分析符号化するサイン波分析符号化手段と、 上記サイン波分析符号化手段で分析符号化されたデータ
のピッチ成分を変換するピッチ変換手段と、 該ピッチ変換手段でピッチ変換された分析符号化データ
と上記線形予測残差データとを所定の伝送回線に送信す
る送信手段とを備えた電話装置。 - 【請求項32】 音声信号をサイン波分析して符号化さ
れたピッチ成分のデータに所定の係数を乗算して、ピッ
チ変換を行うようにしたピッチ変換方法。 - 【請求項33】 音声信号をサイン波分析して符号化さ
れたピッチ成分のデータを、固定された値に変換して、
常時一定のピッチに変換するようにしたピッチ変換方
法。 - 【請求項34】 所定の定数値から、音声信号をサイン
波分析して符号化されたピッチ成分のデータを減算し
て、ピッチ変換を行うようにしたピッチ変換方法。 - 【請求項35】 入力音声信号を時間軸上で所定の符号
化単位で区分する処理と、 該区分された各符号化単位で線形予測残差を検出する処
理と、 該線形予測残差をサイン波分析符号化する処理とを行う
プログラムが記録された媒体において、 上記サイン波分析符号化された音声符号化データのピッ
チ成分を変換する処理プログラムを記録するようにした
媒体。 - 【請求項36】 時間軸上の所定の符号化単位の線形予
測残差データと、サイン波分析符号化されたデータとに
基づいて、音声信号の復号化を行う処理プログラムが記
録された媒体において、 上記サイン波分析符号化されたデータのピッチ成分を変
換するピッチ変換処理プログラムを記録するようにした
媒体。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8308259A JPH10149199A (ja) | 1996-11-19 | 1996-11-19 | 音声符号化方法、音声復号化方法、音声符号化装置、音声復号化装置、電話装置、ピッチ変換方法及び媒体 |
US08/970,763 US5983173A (en) | 1996-11-19 | 1997-11-14 | Envelope-invariant speech coding based on sinusoidal analysis of LPC residuals and with pitch conversion of voiced speech |
DE69713712T DE69713712T2 (de) | 1996-11-19 | 1997-11-17 | Sprachkodierer mit Sinusanalyse und Grundfrequenzsteuerung |
SG1997004067A SG55415A1 (en) | 1996-11-19 | 1997-11-17 | Voice coding method voice decoding method voice coding apparatus voice decoding apparatus telephone apparatus pitch conversion method and medium |
EP97309224A EP0843302B1 (en) | 1996-11-19 | 1997-11-17 | Voice coder using sinusoidal analysis and pitch control |
CNB971264813A CN1161750C (zh) | 1996-11-19 | 1997-11-19 | 语音编码译码方法和装置、电话装置、音调变换方法和介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8308259A JPH10149199A (ja) | 1996-11-19 | 1996-11-19 | 音声符号化方法、音声復号化方法、音声符号化装置、音声復号化装置、電話装置、ピッチ変換方法及び媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH10149199A true JPH10149199A (ja) | 1998-06-02 |
Family
ID=17978863
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP8308259A Pending JPH10149199A (ja) | 1996-11-19 | 1996-11-19 | 音声符号化方法、音声復号化方法、音声符号化装置、音声復号化装置、電話装置、ピッチ変換方法及び媒体 |
Country Status (6)
Country | Link |
---|---|
US (1) | US5983173A (ja) |
EP (1) | EP0843302B1 (ja) |
JP (1) | JPH10149199A (ja) |
CN (1) | CN1161750C (ja) |
DE (1) | DE69713712T2 (ja) |
SG (1) | SG55415A1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001117578A (ja) * | 1999-10-21 | 2001-04-27 | Yamaha Corp | ハーモニー音付加装置及び方法 |
JP2001184099A (ja) * | 1999-12-22 | 2001-07-06 | Yamaha Corp | 音声変換装置及び音声変換方法 |
JP2003500708A (ja) * | 1999-05-26 | 2003-01-07 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 音声信号送信システム |
WO2004059948A1 (en) * | 2002-12-28 | 2004-07-15 | Kwangwoon Foundation | Soft sound phone |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1071079B1 (en) * | 1996-11-07 | 2002-06-26 | Matsushita Electric Industrial Co., Ltd. | Vector quantization codebook generation method |
JPH11224099A (ja) * | 1998-02-06 | 1999-08-17 | Sony Corp | 位相量子化装置及び方法 |
US6278385B1 (en) * | 1999-02-01 | 2001-08-21 | Yamaha Corporation | Vector quantizer and vector quantization method |
FI116992B (fi) * | 1999-07-05 | 2006-04-28 | Nokia Corp | Menetelmät, järjestelmä ja laitteet audiosignaalin koodauksen ja siirron tehostamiseksi |
BR0109237A (pt) * | 2001-01-16 | 2002-12-03 | Koninkl Philips Electronics Nv | Codificador paramétrico, método de codificação paramétrica, decodificador paramétrico, método de decodificação, fluxo de dados incluindo dados de código senoidais, e, meio de armazenamento |
US20030135374A1 (en) * | 2002-01-16 | 2003-07-17 | Hardwick John C. | Speech synthesizer |
CN100343893C (zh) * | 2002-09-17 | 2007-10-17 | 皇家飞利浦电子股份有限公司 | 用于稳定音信号合成的方法和文本到语音转换的合成系统 |
JP2007114417A (ja) * | 2005-10-19 | 2007-05-10 | Fujitsu Ltd | 音声データ処理方法及び装置 |
US20070147496A1 (en) * | 2005-12-23 | 2007-06-28 | Bhaskar Sherigar | Hardware implementation of programmable controls for inverse quantizing with a plurality of standards |
CN101589430B (zh) * | 2007-08-10 | 2012-07-18 | 松下电器产业株式会社 | 声音分离装置、声音合成装置及音质变换装置 |
KR101413967B1 (ko) * | 2008-01-29 | 2014-07-01 | 삼성전자주식회사 | 오디오 신호의 부호화 방법 및 복호화 방법, 및 그에 대한 기록 매체, 오디오 신호의 부호화 장치 및 복호화 장치 |
KR101413968B1 (ko) * | 2008-01-29 | 2014-07-01 | 삼성전자주식회사 | 오디오 신호의 부호화, 복호화 방법 및 장치 |
WO2010035438A1 (ja) * | 2008-09-26 | 2010-04-01 | パナソニック株式会社 | 音声分析装置および音声分析方法 |
US20110196673A1 (en) * | 2010-02-11 | 2011-08-11 | Qualcomm Incorporated | Concealing lost packets in a sub-band coding decoder |
US9070356B2 (en) * | 2012-04-04 | 2015-06-30 | Google Technology Holdings LLC | Method and apparatus for generating a candidate code-vector to code an informational signal |
US10186247B1 (en) * | 2018-03-13 | 2019-01-22 | The Nielsen Company (Us), Llc | Methods and apparatus to extract a pitch-independent timbre attribute from a media signal |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4797926A (en) * | 1986-09-11 | 1989-01-10 | American Telephone And Telegraph Company, At&T Bell Laboratories | Digital speech vocoder |
US5054072A (en) * | 1987-04-02 | 1991-10-01 | Massachusetts Institute Of Technology | Coding of acoustic waveforms |
US5504833A (en) * | 1991-08-22 | 1996-04-02 | George; E. Bryan | Speech approximation using successive sinusoidal overlap-add models and pitch-scale modifications |
US5327518A (en) * | 1991-08-22 | 1994-07-05 | Georgia Tech Research Corporation | Audio analysis/synthesis system |
US5305421A (en) * | 1991-08-28 | 1994-04-19 | Itt Corporation | Low bit rate speech coding system and compression |
KR940002854B1 (ko) * | 1991-11-06 | 1994-04-04 | 한국전기통신공사 | 음성 합성시스팀의 음성단편 코딩 및 그의 피치조절 방법과 그의 유성음 합성장치 |
US5781880A (en) * | 1994-11-21 | 1998-07-14 | Rockwell International Corporation | Pitch lag estimation using frequency-domain lowpass filtering of the linear predictive coding (LPC) residual |
JP4132109B2 (ja) * | 1995-10-26 | 2008-08-13 | ソニー株式会社 | 音声信号の再生方法及び装置、並びに音声復号化方法及び装置、並びに音声合成方法及び装置 |
US5729694A (en) * | 1996-02-06 | 1998-03-17 | The Regents Of The University Of California | Speech coding, reconstruction and recognition using acoustics and electromagnetic waves |
-
1996
- 1996-11-19 JP JP8308259A patent/JPH10149199A/ja active Pending
-
1997
- 1997-11-14 US US08/970,763 patent/US5983173A/en not_active Expired - Fee Related
- 1997-11-17 DE DE69713712T patent/DE69713712T2/de not_active Expired - Fee Related
- 1997-11-17 SG SG1997004067A patent/SG55415A1/en unknown
- 1997-11-17 EP EP97309224A patent/EP0843302B1/en not_active Expired - Lifetime
- 1997-11-19 CN CNB971264813A patent/CN1161750C/zh not_active Expired - Fee Related
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003500708A (ja) * | 1999-05-26 | 2003-01-07 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 音声信号送信システム |
JP2001117578A (ja) * | 1999-10-21 | 2001-04-27 | Yamaha Corp | ハーモニー音付加装置及び方法 |
JP2001184099A (ja) * | 1999-12-22 | 2001-07-06 | Yamaha Corp | 音声変換装置及び音声変換方法 |
JP4509273B2 (ja) * | 1999-12-22 | 2010-07-21 | ヤマハ株式会社 | 音声変換装置及び音声変換方法 |
WO2004059948A1 (en) * | 2002-12-28 | 2004-07-15 | Kwangwoon Foundation | Soft sound phone |
Also Published As
Publication number | Publication date |
---|---|
EP0843302A2 (en) | 1998-05-20 |
SG55415A1 (en) | 1998-12-21 |
CN1161750C (zh) | 2004-08-11 |
US5983173A (en) | 1999-11-09 |
DE69713712T2 (de) | 2003-02-27 |
EP0843302B1 (en) | 2002-07-03 |
EP0843302A3 (en) | 1998-08-05 |
CN1193159A (zh) | 1998-09-16 |
DE69713712D1 (de) | 2002-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4132109B2 (ja) | 音声信号の再生方法及び装置、並びに音声復号化方法及び装置、並びに音声合成方法及び装置 | |
KR100452955B1 (ko) | 음성부호화방법, 음성복호화방법, 음성부호화장치, 음성복호화장치, 전화장치, 피치변환방법 및 매체 | |
JP3653826B2 (ja) | 音声復号化方法及び装置 | |
CN104123946B (zh) | 用于在与语音信号相关联的包中包含识别符的系统及方法 | |
EP1262956B1 (en) | Signal encoding method and apparatus | |
JP3747492B2 (ja) | 音声信号の再生方法及び再生装置 | |
JP4121578B2 (ja) | 音声分析方法、音声符号化方法および装置 | |
JPH10149199A (ja) | 音声符号化方法、音声復号化方法、音声符号化装置、音声復号化装置、電話装置、ピッチ変換方法及び媒体 | |
JP3557662B2 (ja) | 音声符号化方法及び音声復号化方法、並びに音声符号化装置及び音声復号化装置 | |
JP4302978B2 (ja) | 音声コーデックにおける擬似高帯域信号の推定システム | |
JP2002023800A (ja) | マルチモード音声符号化装置及び復号化装置 | |
JP4040126B2 (ja) | 音声復号化方法および装置 | |
JPH10124089A (ja) | 音声信号処理装置及び方法、並びに、音声帯域幅拡張装置及び方法 | |
JP2000132193A (ja) | 信号符号化装置及び方法、並びに信号復号装置及び方法 | |
JP4826580B2 (ja) | 音声信号の再生方法及び装置 | |
JPH0736484A (ja) | 音響信号符号化装置 | |
JPH06202695A (ja) | 音声信号処理装置 | |
JP4230550B2 (ja) | 音声符号化方法及び装置、並びに音声復号化方法及び装置 | |
EP1164577A2 (en) | Method and apparatus for reproducing speech signals | |
JPH11119796A (ja) | 音声信号区間検出方法及び装置 |