[go: up one dir, main page]

JP3802219B2 - 音声符号化装置 - Google Patents

音声符号化装置 Download PDF

Info

Publication number
JP3802219B2
JP3802219B2 JP03587698A JP3587698A JP3802219B2 JP 3802219 B2 JP3802219 B2 JP 3802219B2 JP 03587698 A JP03587698 A JP 03587698A JP 3587698 A JP3587698 A JP 3587698A JP 3802219 B2 JP3802219 B2 JP 3802219B2
Authority
JP
Japan
Prior art keywords
mnr
band
bit
quantization
bit rate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP03587698A
Other languages
English (en)
Other versions
JPH11234139A (ja
Inventor
文昭 西田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP03587698A priority Critical patent/JP3802219B2/ja
Priority to US09/094,742 priority patent/US6098039A/en
Publication of JPH11234139A publication Critical patent/JPH11234139A/ja
Application granted granted Critical
Publication of JP3802219B2 publication Critical patent/JP3802219B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0204Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
    • G10L19/0208Subband vocoders

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Selective Calling Equipment (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は音声符号化装置に係わり、特に、音声信号を複数の帯域に分割し、各帯域毎に量子化ビット数を割り当て、各帯域の音声信号を割り当てられたビット数で量子化して送出する音声符号化装置に関する。
【0002】
【従来の技術】
音響(音声)信号の高能率符号化処理方式を採用する装置には、画像と音声を多重して片方向リアルタイム通信する遠隔監視システムがある。かかる遠隔監視装置システムによれば、人間が巡回することなく状況を動画像と音響(音声)で即座に監視することが可能になる。例えば複数の店舗に設置することにより店内の状況を本社で一括して監視したり、道路の各ポイントに設置することにより道路の渋滞状況を把握することができる等、さまざまな用途に応用できる。また遠隔監視装置以外の用途として双方向通信が要求されるテレビ会議システム等がある。
【0003】
図11は遠隔監視システムの構成図であり、1はセンターに設けられた集中監視装置としての復号装置、2は監視必要個所に設けられた監視装置としての符号化装置で、多数設けられており、集中監視装置1に通信回線3を介して画像や音声を多重伝送できるようになっている。符号化装置2では、カメラ2a、マイク2bのような入力装置から入力した画像信号、音響(音声)信号をそれぞれ画像符号器2c、音声符号器2dで信号圧縮し、しかる後、これら圧縮した画像、音声を多重部(MUX)2eで多重して通信回線3を介して他方の装置(復号装置1)へ送信する。復号装置1側では、符号器側から送信されたこの圧縮信号を受信して分離部(DEMUX)1aで画像と音声に分離し、それぞれを画像復号器1b、音声復号器1cで圧縮信号の伸長をおこなう。伸長された画像信号、音声信号はそれぞれモニタ1d、スピーカ1e等の出力装置より出力される。
【0004】
音声信号の高能率符号化処理方式として、圧縮に32サブバンド・コーディング(帯域分割符号化)を使用し、聴感心理的な特性を利用して高能率の圧縮を実現する。人間の耳はあるレベル以下の音を聞き取ることができず、このレベルを各帯域毎にプロットしてできる特性曲線は最小マスキングしきい値曲線(最小可聴限界曲線)MTCと呼ばれている(図12参照)。マスキング効果は周囲の音の状況により変化し、最小マスキングしきい値曲線MTC以上のレベルを有する音であっても小さな音は大きな音により聞こえなくなってしまう。これは、大きな音によりマスキングしきい値曲線が図12のMTC′のように変化するからであり、該曲線以下の音成分A,Bはマスキングされて人間の耳に聞こえず、マスキングしきい値曲線MTC′より上の音成分C,Dは聞こえる。
以上を考慮して、マスキングしきい値レベルMTC′以下の音A,Bは量子化せず、マスキングしきい値レベル以上の音C,Dを量子化する。又、量子化する場合には、各サブバンドにおけるオーディオレベルとマスキングしきい値レベルの差の大きさに応じて量子化ビット数を割り当てて量子化し、量子化データと割り当てビット数等を出力する。
【0005】
具体的には、図13に示すように36サブフレーム(32サンプル/サブフレーム)サンプルのオーディオ信号で1フレームを構成し、各サブフレームのオーディオ信号をそれぞれ32のサブバンド(帯域)に細分化し、32バンドのサブバンド符号化を行う。すなわち、全帯域を32の等間隔の周波数幅に分割し、それぞれのサンプル信号を後述の各サブバンドの量子化ビット数に応じて量子化して符号化を行い、1152(=36×32)サンプルデータを1フレームとする。
1つのサブバンドの36サンプルデータに対して共通に1つのスケールファクタが決められる。すなわち、36個のそれぞれの波形の最大値が1.0になるように正規化し、その正規化倍率がスケールファクタとして符号化される。
【0006】
又、各サブバンドの量子化ビット数を決定し、割り当てビット数とする。臨界帯域幅を考慮したマスキングレベルぎりぎりまでの量子化精度(量子化ビット数)を指定することにより、マスキング効果を最も効果的に利用できる。マスキングの結果、聴感系に認識されないレベルの信号しか含まれないバンドについては、完全に情報をなくすことができ、かかる場合はサンプルデータとしてビットを割り当てない。すなわち、各サブバンドにおけるサンプルデータの量子化ビット数が0の場合、サンプリングデータは存在しない。
【0007】
図14はオーディオ・ビット・ストリームの1フレームの構造説明図である。10は1つ1つでオーディオ信号に復号できる最小ユニットで、常に一定のサンプル数=1152(=36×32)サンプルのデータを含んでいる。最小ユニット10は32ビットのヘッダ部11と、エラーチェックコード(オプション)12と、オーディオデータ部13で構成され、オーディオデータ部13は量子化ビット数13a、スケールファクタ13b、サンプルデータ13cを備えている。ヘッダ部11には、12ビットのオール”1”の同期ワード11a、常に”1”のID11b、その他レイヤ識別11c、ビットレートインデックス、サンプリング周波数、モード等の情報が含まれている。
オーディオデータ部13は図15に示すような構造を有している。量子化ビット数13aは、各サブバンドsb(0〜31)における36個のサンプリングデータの量子化ビット数を示し、スケールファクタ13bは量子化ビット数が0以外のそれぞれの正規化倍率を示す。量子化ビット数が0でないサブバンドsbの各サンプリングデータは対応するスケールファクタSiを乗算され、量子化ビット数で量子化されてサンプルデータ13cとなる。
【0008】
図16は従来の音声符号器の構成図である。図中21は入力音声信号を周波数領域のN帯域(例えばN=32のサブバンド)のデータに分割する帯域分割フィルタ、22はFFTアナライザで構成された心理聴覚モデルであり、1フレームm(=1152)サンプリングのオーディオ信号が入力される毎に図12で説明したマスキングしきい値特性MTC′を求め、このマスキングしきい値特性MTC′の各サブバンドにおけるマスクレベルと信号レベルとから各サブバンド(N=32)毎にSMR(Signal To Mask Ratio)を計算する。SMRはマスクレベルMに対する信号レベルSの比で、その単位はdBであり、10log(S/M)により求まる。
【0009】
23は後述するビット割り当て処理に従って各帯域に量子化ビット数を割り当てるビット割り当て部である。ビット割り当て部23は、心理聴覚モデル22から出力される各帯域のSMRを基に各帯域のMNR(Mask To Noise Ratio)を算出し、最小MNRに対応する帯域の量子化ビット数を1つ増加する。MNRとはマスクレベルMに対する量子化ノイズNの比で、その単位はdBであり、10log(M/N)により求まる。MNRは量子化ノイズNが大きいほど、すなわち、量子化ビット数が少ないほど値が小さくなり、量子化ノイズNが小さいほど、すなわち、量子化ビット数が多いほど、値が大きくなる。又、量子化ノイズNは量子化ビット数により決定されるから、量子化ビット数が既知であれば音声信号レベルSと量子化ノイズレベルNの比SNR=10log(S/N)は既知である。
【0010】
以上より、着目帯域の最小ビット数から求まるSNRより該帯域のSMRを減算すれば着目帯域のMNRを計算できる。すなわち、MNRは
Figure 0003802219
により計算できる。
ビット割り当て部23は、音声信号の設定ビットレートに応じて求まる1フレーム当りの全ビット数Aが各帯域に割り当てられるまで、帯域のMNRの再計算、最小MNRの決定、該最小MNRの帯域の量子化ビット数の1増加処理を繰り返し、1フレーム当りの全ビット数Aが各帯域に割り当てたとき量子化ビット数の各帯域への割り当て制御を終了する。
【0011】
24は各帯域の量子化ビット数(割り当てビット数)を符号化する符号化部、25はビットレート設定部であり、あらかじめ外部よりビットレートを設定するもので、14種類のビットレート(32kbps〜448kbpsなど)が規定されており、所定ビットレートが設定される。26は各帯域における36サンプルデータに対して共通に1つのスケールファクタを計算するスケールファクタ計算部であり、36個の波形の最大値が1.0になるように正規化し、その正規化倍率をスケールファクタとして計算するもの、27は該スケールファクタを符号化する符号化部、28は量子化部であり、各帯域の36サンプルデータに対するスケールファクタをそれぞれ乗算した乗算結果を該帯域の量子化ビット数で量子化するもの、29はビット多重部であり、量子化データ、スケールファクタ、量子化ビット数をコード化したものをビット多重し、設定されているビットプレートでビットストリームにして送出するものである。
【0012】
帯域分割フィルタ21は入力音声信号を周波数領域のN帯域(例えばN=32)のデータに分割し、心理聴覚モデル22は人間の聴覚特性であるマスキング効果を考慮して、上記N帯域(例えばN=32)毎にSMRを計算する。ビット割り当て部23は、この各帯域のSMRを基に各帯域のMNRを(1)式により算出する。次に、ビット割り当て部23は、予めビットレート設定部25が設定したビットレートから1フレーム当りのビット数Aを計算し、トータルの割り当てビット数が該ビット数Aに達するまで最小MNRの帯域に量子化ビットの割り当てを行う。また、スケールファクタ計算部26は、帯域分割フィルタ21で帯域分割された各バンドの36サンプルデータを用いてスケールファクタを計算し、量子化部28はスケーリングファクタと量子化ビット数を考慮しながら各バンドの各サンプル信号の量子化を行う。ビット多重部29は、量子化部の出力である量子化コードと、スケーリング計算部の出力(スケールファクタ)を符号化したコードと、ビット割り当て情報を符号化したコードをそれぞれ多重化すると共に、ビットレート設定部25で設定したビットレートにもとづいてビットストリームにして送出する。
【0013】
図17はビット割り当て部のビット割り当て処理の説明図で、図16と同一部分には同一符号を付している。22は聴覚心理モデル、23はビット割り当て部、25はビットレート設定部である。
聴覚心理モデル22は音声信号が入力されると、人間の聴覚特性を考慮して各帯域(例えばN=32)毎のSMR値を算出する。ここで算出された各帯域のSMR値を用いて、ビット割り当て部23は各帯域に量子化のためのビット割り当てを行う。すなわち、ビットレート設定部25で設定したビットレート(32kbps〜448kbpsの14種類のビットレートの1つ)から、1フレーム当りに割り当て可能なビット数Aを算出する(ステップ101)。音声の高能率符号化処理方式は音声信号をある一定のかたまりで処理する方式であり、この一定のかたまりをフレームといい、たとえば36×32(36サブフレーム、32サブバンド)を1フレームとしている。1フレームの時間的な長さとしては、一般的には音声の性質に大きな変化がないとされている20msec〜40msecが使われる。かかる1フレーム当りのビット数Aの計算式は
【0014】
A=設定されたビットレート×フレーム長 (2)
である。従って、サンプリング周波数をFs(kHz)、ビットレートBr(kbps)とすれば、上式は、
A=Br×(32×36/Fs) (2)′
となる。尚、実際には量子化ビットとして割り当てられるビット数は、上記Aより各帯域のスケールファクタや量子化ビット数を通知するためのビット数等を差し引いたビット数である。
ついで、(1)式により各帯域のMNRを算出する(ステップ102)。各帯域のMNRが求まれば、これらMNRのうち、最小MNRを探索し(ステップ103)、最小MNRの帯域における量子化ビット数を1増加する(ステップ104)。具体的には、各帯域毎の記憶手段23aに量子化ビット数を記憶しておき、最小MNRに応じた帯域の量子化ビット数を1増加する。
【0015】
ついで、1フレーム当りの割り当て可能ビット数から36を減算する(ステップ105)。36を減算する理由は、1帯域当り36サンプリングデータがあり、それぞれのサンプルデータの量子化ビット数が1増加するからである。
以上により、割り当てビットが変化しているため、あらためて各帯域のMNRを算出する(ステップ106)。ついで、1フレーム当りの割り当て可能ビット数Aと0との比較をおこない(ステップ107)、0以上であれば、ステップ103以降のループ処理を繰り返し、0未満であれば直前の各帯域の記憶手段23aに記憶された割り当てビット数を最終的な量子化ビット数とする。
【0016】
【発明が解決しようとする課題】
音声の高能率符号化処理方式には14種類のビットレート(32kbps〜448kbps)までが規定されている。現状の装置では音声符号器、音声復号器に高能率符号化処理方式を適用する場合、画像に割り当てるビットレートと音声に割り当てるビットレートはそれぞれ固定で、全体のビットレートも画像のビットレートと音声のビットレートを加え合わせたビットレートとなり、該ビットレートで画像・音声の符号化データを送信している。
ところで、各店舗や道路等の監視エリアを監視するための遠隔監視システムにおける音声符号化装置は、重要度の低い音声信号(無音区間、雑音区間等における音声信号)も予め設定された固定ビットレートで符号化して伝送する。このため、従来の音声符号化方式は、伝送路の有効利用の点で好ましくなかった。すなわち、無音区間、雑音区間では音声信号を低いビットレートで伝送しても良いのであるが、従来は可変ビットレートによる音声符号データの伝送ができなかった。また、装置全体のビットレートが低く抑えられている場合、重要度の低い音声信号のビットレートを抑え、その分より重要な画像のビットレートを高くすることが望ましい。しかし、従来の音声符号化方式ではかかるビットレート可変の音声符号化を行うことができない。
【0017】
以上から、本発明の目的は、ビットレート可変の音声符号化が可能で、重要度の低い音声信号のビットレートを抑えることにより伝送路の伝送効率を向上することである。
本発明の目的は、無音区間における音声信号のビットレートを抑えることにより伝送路の伝送効率を向上することである。
本発明の目的は、所定MNR値以下の大きな量子化ノイズの発生を防止し、該MNR値以上の小さな量子化ノイズを許容することにより、音声のビットレートを抑えることである。
本発明の別の目的は、ビットレート可変の音声符号化を行う場合、ビットレートの急変により違和感が生じないようにすることである。
【0018】
【課題を解決するための手段】
本発明は、音声信号を複数の帯域に分割し、各帯域毎に量子化ビット数を割り当て、各帯域の音声信号を割り当てられたビット数で量子化して送出する音声符号化装置であり、(1) 音声マスクレベルMに対する量子化ノイズレベルNの比MNRを各帯域毎に算出するMNR算出手段、(2) MNRの下限値を設定するMNR設定手段、(3) 各帯域におけるMNRのうち最小MNRと前記設定MNRを比較する手段、(4) 最小MNRが設定MNRより小さい場合には、最小MNRに対応する帯域の量子化ビット数を1つ増加する手段、(5) 最小MNRが設定MNRに等しくあるいは設定MNRより大きくなるまで、各帯域のMNRの算出、最小MNRと設定MNRの比較、最小MNRの帯域への量子化ビットの割り当て制御を行い、最小MNRが設定MNRに等しくあるいは設定MNRより大きくなったとき量子化ビットの割り当て制御を終了するビット割り当て手段、(6) 各帯域の音声信号を割り当てられた量子化ビット数で量子化する手段、(7) 各帯域に割り当てた量子化ビット数を考慮して音声データ送出のためのビットレートを決定するビットレート決定手段を備え、前記ビット割り当て部は、量子化ビット数の割り当て処理中において、それまで各帯域に割り当てたトータルのビット数を用いて求まるビットレートが前フレームのビットレートから大幅に変化したか監視し、ビットレートが前フレームにおけるビットレートから大幅に変化したとき、ビット割り当て処理を打切り、前記量子化手段はビット割り当て打切り時までに各帯域に割り当てられている量子化ビット数で各帯域の音声信号を量子化する。
かかる音声符号化装置によれば、各帯域におけるMNR値が設定MNR以上になるまで量子化ビット数を各帯域に割り当てて量子化すれば良く、無音信号あるいは無音に近い信号時に各帯域に大きな量子化ビット数を割り当てる必要がなくなり、伝送効率を向上できる。この場合、復号装置側の再生に際して所定MNR値以下の量子化ノイズを聞こえなくできる。又、ビットレートが急変せず、滑らかに変化するため、音質の急変をなくせ違和感をなくすことができる。
【0022】
【発明の実施の形態】
(A)第1実施例
(a)本発明の符号化装置
図1は本発明の符号化装置の構成図である。図中、31は入力音声信号を周波数領域のN帯域(例えばN=32サブバンド)のデータに分割する帯域分割フィルタ、32はFFTアナライザで構成された心理聴覚モデルであり、1フレームm(例えばm=1152)サンプリングのオーディオ信号が入力される毎にマスキングしきい値特性MTC′(図12参照)を求め、このマスキングしきい値特性MTC′の各サブバンドにおけるマスクレベルMと信号レベルSとから各サブバンド毎にSMRを計算する。SMRはマスクレベルMに対する信号レベルSの比で、その単位はdBであり、10log(S/M)により求まる。
【0023】
33は後述するビット割り当て処理に従って各帯域に量子化ビット数を割り当てるビット割り当て部である。ビット割り当て部33は、心理聴覚モデル32から出力される各帯域のSMRを基に各帯域のMNRを(1)式を用いて算出し、最小MNRに対応する帯域の量子化ビット数を1つ増加する。この場合、(1)式におけるSNRは図2に示すSNR算出テーブルより求める。すなわち、量子化ビット数にSNRを対応させてテーブル化しておき、着目帯域の量子化ビット数に応じたSNRを該テーブルより求める。ビット割り当て部33は、最小MNRが設定MNRに等しくあるいは設定MNRより大きくなるまで(全帯域のMNRが設定MNRに等しくあるいは設定MNRより大きくなるまで)、各帯域のMNRの算出、最小MNRと設定MNRの比較、最小MNRの帯域への量子化ビットの割り当て制御を行い、最小MNRが設定MNRに等しくあるいは設定MNRより大きくなったとき量子化ビットの割り当て制御を終了する。
【0024】
34は設定されたMNRの下限値(設定MNR)を保持するMNR保持部であり、所定MNR値以下の大きな量子化ノイズの発生を防止し、該MNR値以上の量子化ノイズを許容する場合、このMNR値を設定MNRとして設定する。35はビットレート算出部であり、1フレーム期間に各帯域に割り当てた量子化ビット数を考慮して音声データ送出のためのビットレートを決定するものである。図3はサンプリング周波数が48kHzの場合のビットレート算出テーブルであり、ビットレート(kbps)と1フレーム当りのビット数(bit)の対応を保持している。ビットレート算出部35は、1フレーム期間の全ビット数を求め、ビットレート算出テーブルより14種類のビットレートのうち所定のビットレートを決定する。尚、1フレーム当りのビット数をA、サンプリング周波数をFs(kHz)、ビットレートBr(kbps)、1フレームのサンプルデータ数を32×36とすれば、次式
Figure 0003802219
が成立する。従って、ビットレート算出テーブルを使用しなくても次式
Br=A/(32×36/Fs)=A・Fs/1152 (3)
よりビットレートが求まる。例えば、Fs=48kHz、1フレーム期間の全量子化ビット数Aを1152とすれば、(3)式よりビットレートは48kbpsとなり、ビットレート算出テーブルの値と一致する。
【0025】
図1に戻って、36は各帯域に割り当てた量子化ビット数を符号化する符号化部、37は各帯域における36サンプルデータに対して共通に1つのスケールファクタを計算するスケールファクタ計算部で、36個の波形の最大値が1.0になるように正規化し、その正規化倍率をスケールファクタSiとして計算、出力するものである。38は該スケールファクタを符号化する符号化部、39は量子化部であり、各帯域における36個のサンプルデータにスケールファクタSiをそれぞれ乗算し、乗算結果を該帯域の量子化ビット数で量子化するもの、40はビット多重部であり、量子化データ、スケールファクタ、量子化ビット数をコード化したものをビット多重し、ビットレート算出部35で求めたビットレートでビットストリームにして送出するものである。
【0026】
(b)ビット割り当て処理
図4は本発明におけるビット割り当て処理の説明図で、図1と同一部分には同一符号を付している。32は聴覚心理モデル、33はビット割り当て部、34は設定MNRを保持するMNR保持部、35はビットレート算出部、40はビット多重部である。
聴覚心理モデル32は、1フレームmサンプルの音声信号が入力されると、人間の聴覚特性を考慮して各帯域(N=32)毎のSMR値を算出する。ビット割り当て部33は、この各帯域のSMR値を用いて以下の処理に従って各帯域に量子化のためのビット割り当てを行う。すなわち、(1)式により各帯域のMNRを算出する(ステップ201)。この場合、(1)式におけるSNRはSNRテーブル33aより求める。
【0027】
各帯域のMNRが求まれば、これらMNRのうち、最小MNRを探索し(ステップ202)、最小MNRと設定MNRの大小を比較する(ステップ203)。最小MNRが設定MNRより小さければ、該最小MNRの帯域における量子化ビット数を1増加する(ステップ204)。具体的には、各帯域毎の記憶手段33bに量子化ビット数を記憶しておき、最小MNRに応じた帯域の量子化ビット数を1増加する。
ついで、割り当てた量子化ビット数が変化しているため、あらためて各帯域のMNRを算出し(ステップ205)、ステップ202以降のループ処理を繰り返えす。尚、実際には、ステップ205のMNR計算処理において、量子化ビット数が1ビット増えた帯域のMNRのみを計算して更新し、他の帯域のMNRは更新しない。
【0028】
一方、ステップ203において、最小MNRが設定MNRに等しくあるいは設定MNRより大きくなれば、すなわち、全帯域のMNRが設定MNRに等しくあるいは設定MNRより大きくなれば、ビット割り当て部33は量子化ビットの割り当て処理を終了し、その旨及び各帯域の量子化ビット数をビットレート算出部35に通知する。
ビットレート算出部35は該通知により、各帯域に割り当てられた量子化ビット数を合計し、合計値を36倍して1フレーム当りのビット数Aを求める。ついで、ビットレート算出部35は1フレーム当りのビット数Aを用いて図3のビットレート算出テーブルより、あるいは、(3)式よりビットレートを計算し、ビット多重部40に入力する。以後、ビット多重部40は量子化データ、スケールファクタ、量子化ビット数をコード化したものをビット多重し、入力されたビットレートでビットストリームにして送出する。
【0029】
(c)従来の技術と本発明の違い
具体的に従来と本発明の音声符号化装置の違いを以下の1〜7の信号を使って説明する。1は音声のほとんど存在しない信号(無音状態)、2〜4は白色雑音(違いはレベル)、5〜7は正弦波(違いは周波数)である。
1 ほぼ無音に近い信号
2 白色雑音1(レベル小)
3 白色雑音2(レベル中)
4 白色雑音3(レベル大)
5 1kHz正弦波
6 7kHz正弦波
7 15kHz正弦波
従来の音声符号化装置(図16)でビットレートを128kbpsに固定して上記1〜7の信号をそれぞれ音声符号化すると、ビット割り当てが最終的に決定した時の最小MNRの平均値は図5、図6に示すようになる(シミュレーション結果による)。
【0030】
図5において、人間の聴覚上無意味な信号(無音信号)の最小MNRと第1〜第3白色雑音のMNRを比較すると、雑音レベルが低いほど最小MNRが大きくなり、無駄に量子化ビットを割り当て、結果的に無駄なビットレートを使用していることがわかる。これは雑音レベルに関係無くすべて同じビットレートを使用しているためである。本発明はこのような無駄なビットレートを使用しないようにする。すなわち、あるレベル以上の雑音を聞こえなくしたい場合、該雑音レベルに応じたMNR値を設定し、全帯域のMNRが該設定MNRに等しくあるいは設定MNRより大きくなったときに、量子化ビットの割り当てを停止する。このようにすれば、割り当て量子化ビット数を少なくでき、結果的にビットレートを低くでき、しかも、設定MNRに応じた雑音レベルより大きな雑音を再生時に聞こえなくできる。例えば、図5の第3白色雑音の最小MNR値(=10.12(dB))を設定MNRにすると、各帯域の最小MNRが該設定MNR値(=10.12(dB))より大きくなったときに量子化ビットの割り当てが終了する。これにより、無用なビット割り当てを防止でき、結果的にビットレートを減小でき、しかも、復号装置側で第3白色雑音レベル以上の雑音を聞こえなくできる。
【0031】
以上は入力白色雑音信号に対する場合であるが、最小MNRは図6に示すように周波数にも依存する。このため、所定周波数以上の雑音を除去したい場合には、該周波数に応じたMNRを設定することにより、無用なビット割り当てを防止でき、結果的にビットレートを減小でき、しかも、復号装置側で前記周波数以上の雑音を聞こえなくすることができる。
従って、上記処理を常時オンにしておけば、音声の高能率符号化処理方式を適用した音声符号化装置において、入力信号の性質に従った疑似的な可変レート化が実現できる。
以上第1実施例によれば、音声信号の性質(雑音や無音、音響の周波数特性の違い)によって、音声のビットレートを疑似的に可変レート化することができ、余分なビットレート分を画像に割り当てたり、画像と音声の全体のビットレートを下げて伝送効率を向上することができる。
【0032】
(d)ビット割り当て制御の変形例
ビットレート可変の音声符号化を行う場合、ビットレートが急変すると音質が急変し、これにより違和感が生じる。そこで、ビットレートを滑らかに変化して違和感が生じないようにする必要がある。図7はビットレートの急変が生じないようにしたビット割り当て及びビットレート決定の説明図であり、図4と同一部分には同一符号を付している。41はビットレート記憶部で、ビットレート算出部35で算出した前フレームにおけるビットレートを記憶するものである。
ステップ201〜ステップ205の処理は図4の処理とまったく同じである。ステップ203で最小MNRが設定MNRより小さければ、ビット割り当て部33はそれまでのビット割り当て処理において各帯域に割り当てた量子化ビット数の合計値を計算し、該合計値を36倍して1フレームの合計ビット数を計算する。ついで、該合計ビット数を用いて図3のビットレート算出テーブルより、あるいは、(3)式よりビットレートを算出する(ステップ251)。尚、かかるステップ251のビットレート算出処理はビットレート算出部35に依頼して求めることもできる。
【0033】
ついで、求めたビットレートが前フレームのビットレートより設定幅以上変化したか監視し(ステップ252)、変化幅が設定幅以内であれば(ステップ253)、ステップ204に進んで最小MNRの帯域における量子化ビット数を1増加する(ステップ204)。ついで、割り当てた量子化ビット数が変化しているため、あらためて各帯域のMNRを算出し(ステップ205)、以後、ステップ202以降のループ処理を繰り返えす。
一方、ステップ253において、変化幅が設定幅以上であれば、ビット割り当て部33はビット割り当て処理を打切り、ビットレート算出部35にその旨及び各帯域の量子化ビット数を通知する。
【0034】
ビットレート算出部35は該通知により、各帯域に割り当てられた量子化ビット数を合計し、合計値を36倍して1フレーム当りのビット数Aを求める。ついで、ビットレート算出部35は1フレーム当りのビット数Aを用いて図3のビットレート算出テーブルより、あるいは、(3)式よりビットレートを計算し、ビット多重部40に入力すると共に、ビットレート記憶部41に記憶する。以後、ビット多重部40は量子化データ、スケールファクタ、量子化ビット数をコード化したものをビット多重し入力されたビットレートでビットストリームにして送出する。
以上のようにすれば、ビットレートが急変することはなく、音質が急変せず、違和感をなくすことができる。
【0035】
(B)第2実施例
図8は本発明の第2実施例の音声符号化装置の構成図であり、図1の第1実施例と同一部分には同一符号を付している。第2実施例では、(1) 背景雑音が発生している時、図16、図17の従来方式に従って量子化ビットを割り当て、又、(2) 背景雑音が発生していない時、図1、図4の第1実施例の方式に従って量子化ビットを割り当てるものである。
図8において、51は第1の量子化ビット割り当て制御部で、背景雑音発生時に、従来方式に従ってビットレート固定で各帯域毎に量子化ビット数を割り当てるもの、52は第2の量子化ビット割り当て制御部で、背景雑音非発生時に、第1実施例方式に従ってビットレート可変で各帯域毎に量子化ビット数を割り当てるもの、53は背景雑音を検出する背景雑音検出部、 54は切り替え部で、背景雑音発生時に心理聴覚モデル32の出力を第1の量子化ビット割り当て制御部51に入力し、背景雑音非発生時に心理聴覚モデル32の出力を第2の量子化ビット割り当て制御部52に入力するものである。
【0036】
第1の量子化ビット割り当て制御部51において、55はビットレート固定の従来のビット割り当て処理に従って各帯域に量子化ビット数を割り当てるビット割り当て部、56は雑音ビットレート設定部であり、あらかじめ外部より背景雑音時の低ビットレートを設定するもの、36は各帯域の量子化ビット数を符号化して出力する符号化部であり、この符号化部36は第2の量子化ビット割り当て制御部52と共通に設けられている。
第2の量子化ビット割り当て制御部52において、33は第1実施例のビット割り当て処理に従って各帯域の量子化ビット数を割り当てるビット割り当て部、34は設定されたMNRを保持するMNR保持部、35は各帯域に割り当てた量子化ビット数に基づいてビットレートを決定するビットレート算出部、36は各帯域の量子化ビット数を符号化して出力する符号化部である。
【0037】
背景雑音検出部53は、図9に示すように、信号パワー算出部53aと、信号パワーレベル監視部53bを備えている。信号パワー算出部53aは入力音声信号Xi (i=1、2、・・・)の所定時間のパワーを次式
Y=Σ(X2) (i=1,2,・・・)
により算出する。信号パワーレベル監視部53bは算出されたパワーYを監視し、該パワーが一定時間(例えば1秒)略同じレベルが続いたとき、それを背景雑音であると判断し、それを表わす信号を出力する(例えばハイレベル”1”)。一方、背景雑音以外と判断すればそれを表わす信号を出力する(例えばローレベル”0”)。
【0038】
図10は第2実施例の処理フローである。
背景雑音検出部53により背景雑音が検出されたかチェックする(ステップ301)。背景雑音が検出されていなければ、切り替え部54は心理聴覚モデル32で算出された各帯域(N=32)のSMR値を第2の量子化ビット割り当て制御部52に入力する。第2の量子化ビット割り当て制御部52は、第1実施例と同様のビット割り当て制御を行うと共にビットレートを決定し(図4参照)、量子化部39は決定された各帯域の量子化ビット数に基づいて各帯域の音声信号を量子化し(ステップ302)、ビット多重部40は量子化データ、スケールファクタ、量子化ビット数をコード化したものを多重し、ビットレート算出部35で算出したビットレートでこれら多重データをビットストリームにして送出する(ステップ303)。
【0039】
一方、ステップ301において、背景雑音が検出されていると、切り替え部54は心理聴覚モデル32で算出された各帯域(N=32)のSMR値を第1の量子化ビット割り当て制御部51に入力する。第1の量子化ビット割り当て制御部51は、雑音ビットレートに基づいて図16、図17の従来方式に従って各帯域の量子化ビットを割り当て、量子化部39は決定された各帯域の量子化ビット数に基づいて各帯域の音声信号を量子化し(ステップ304)、ビット多重部40は量子化データ、スケールファクタ、量子化ビット数をコード化したものを多重し、低ビットレートである雑音ビットレートでこれら多重データをビットストリームにして送出する(ステップ303)。
【0040】
以上第2実施例によれば、背景雑音時、低ビットレートである雑音ビットレートで音声信号を符号化して伝送するため伝送路の信号伝送効率を向上することができる。又、第2実施例によれば、非背景雑音時、第1実施例と同様の効果を得ることができる。すなわち、音声のビットレートを可変することができ、余分なビットレート分を画像伝送に割り当てたり、画像と音声の全体のビットレートを下げて伝送効率を向上することができる。又、背景雑音が無意味な音声であるようなテレビ会議装置に本方法を適用し、背景雑音時のビットレートを固定で低く設定することで、伝送路の有効利用ができる。
【0041】
ところで、ビットレートを急変すると、音質が急変し、これにより違和感が生じる。そこで、第2の量子化ビット割り当て制御部52は第1実施例の変形例(図7)と同様の処理を行うことによりビットレートを滑らかに変化して違和感が生じないようにする。すなわち、第2の量子化ビット割り当て制御部52は、量子化ビット数の割り当て処理中において、それまで各帯域に割り当てたトータルのビットより求まるビットレートが前フレームのビットレートから大幅に変化したか監視し、ビットレートが前フレームにおけるビットレートから大幅に変化したとき、ビット割り当て処理を打切り、量子化部39はビット割り当て打切り時までに各帯域に割り当てられている量子化ビット数で各帯域の音声信号を量子化する。
以上、本発明を実施例により説明したが、本発明は請求の範囲に記載した本発明の主旨に従い種々の変形が可能であり、本発明はこれらを排除するものではない。
【0042】
【発明の効果】
以上本発明の音声符号化装置によれば、各帯域におけるMNR値が設定MNR値以上になるまで量子化ビット数を各帯域に割り当てて量子化すれば良く、無音信号あるいは無音に近い信号時に各帯域に大きな量子化ビット数を割り当てる必要がなくなり、伝送効率を向上でき、しかも、復号側において再生時に設定MNR値以下の量子化ノイズを聞こえなくできる。
【0043】
又、本発明の音声符号化装置によれば、ビット割り当て手段は、量子化ビット数の割り当て処理中において、それまで各帯域に割り当てたトータルのビット数を用いて求まるビットレートが前フレームのビットレートから大幅に変化したか監視し、ビットレートが前フレームにおけるビットレートから大幅に変化したとき、ビット割り当て処理を打切り、量子化手段はビット割り当て打切り時までに各帯域に割り当てられている量子化ビット数で各帯域の音声信号を量子化するから、ビットレートが急変せず、滑らかに変化するため、音質の急変をなくせ違和感をなくすことができる。
【図面の簡単な説明】
【図1】本発明の第1実施例の音声符号化装置の構成図である。
【図2】SNR算出テーブルである。
【図3】ビットレート算出テーブル(サンプリング周波数48KHzの場合)である。
【図4】ビット割り当て及びビットレート決定制御説明図である。
【図5】従来技術での入力白色雑音信号に対する平均MNR値の説明図である。
【図6】従来技術での入力正弦波信号に対する平均MNR値の説明図である。
【図7】ビット割り当て及びビットレート決定の別の制御説明図である。
【図8】本発明の第2実施例の音声符号化装置の構成図である。
【図9】背景雑音検出部の具体的な実施例である。
【図10】第2実施例の処理フローである。
【図11】遠隔監視システムの構成図である。
【図12】マスキングしきい値特性図である。
【図13】フレーム構成説明図である。
【図14】オーディオビットストリームの構造説明図である。
【図15】オーディオビットストリームのオーディオデータ部の構成図である。
【図16】従来の音声符号器の構成図である。
【図17】従来のビット割り当て部のビット割り当て制御説明図である。
【符号の説明】
31・・帯域分割フィルタ
32・・心理聴覚モデル
33・・ビット割り当て部
34・・MNR保持部
35・・ビットレート決定部
36・・量子化ビット数を符号化する符号化部
37・・スケールファクタ計算部
38・・スケールファクタを符号化する符号化部
39・・量子化部
40・・ビット多重部

Claims (1)

  1. 音声信号を複数の帯域に分割し、各帯域毎に量子化ビット数を割り当て、各帯域の音声信号を割り当てられたビット数で量子化して送出する音声符号化装置において、
    音声マスクレベルMに対する量子化ノイズレベルNの比MNRを各帯域毎に算出するMNR算出手段、
    MNRの下限値を設定するMNR設定手段、
    各帯域におけるMNRのうち最小MNRと前記設定MNRを比較する手段、最小MNRが設定MNRより小さい場合には、最小MNRに対応する帯域の量子化ビット数を1つ増加する手段、
    最小MNRが設定MNRに等しくあるいは設定MNRより大きくなるまで、各帯域のMNRの算出、最小MNRと設定MNRの比較、最小MNRの帯域への量子化ビットの割り当て制御を行い、最小MNRが設定MNRに等しくあるいは設定MNRより大きくなったとき量子化ビットの割り当て制御を終了するビット割り当て手段、
    各帯域の音声信号を割り当てられた量子化ビット数で量子化する手段、
    各帯域に割り当てた量子化ビット数を考慮して音声データ送出のためのビットレートを決定するビットレート決定手段
    を備え、前記ビット割り当て手段は、量子化ビット数の割り当て処理中において、それまで各帯域に割り当てたトータルのビット数より求まるビットレートが前フレームのビットレートから大幅に変化したか監視し、大幅に変化したときビット割り当て処理を打切り、前記量子化手段はビット割り当て打切り時までに各帯域に割り当てられている量子化ビット数で各帯域の音声信号を量子化する、
    ことを特徴とする音声符号化装置。
JP03587698A 1998-02-18 1998-02-18 音声符号化装置 Expired - Fee Related JP3802219B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP03587698A JP3802219B2 (ja) 1998-02-18 1998-02-18 音声符号化装置
US09/094,742 US6098039A (en) 1998-02-18 1998-06-15 Audio encoding apparatus which splits a signal, allocates and transmits bits, and quantitizes the signal based on bits

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP03587698A JP3802219B2 (ja) 1998-02-18 1998-02-18 音声符号化装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2006077985A Division JP4350718B2 (ja) 2006-03-22 2006-03-22 音声符号化装置

Publications (2)

Publication Number Publication Date
JPH11234139A JPH11234139A (ja) 1999-08-27
JP3802219B2 true JP3802219B2 (ja) 2006-07-26

Family

ID=12454212

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03587698A Expired - Fee Related JP3802219B2 (ja) 1998-02-18 1998-02-18 音声符号化装置

Country Status (2)

Country Link
US (1) US6098039A (ja)
JP (1) JP3802219B2 (ja)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3199020B2 (ja) * 1998-02-27 2001-08-13 日本電気株式会社 音声音楽信号の符号化装置および復号装置
KR100548891B1 (ko) * 1998-06-15 2006-02-02 마츠시타 덴끼 산교 가부시키가이샤 음성 부호화 장치 및 음성 부호화 방법
US7457415B2 (en) 1998-08-20 2008-11-25 Akikaze Technologies, Llc Secure information distribution system utilizing information segment scrambling
US7272556B1 (en) * 1998-09-23 2007-09-18 Lucent Technologies Inc. Scalable and embedded codec for speech and audio signals
JP3363808B2 (ja) * 1998-11-24 2003-01-08 富士通株式会社 シミュレーション装置及び方法並びにプログラム記録媒体
JP3327240B2 (ja) * 1999-02-10 2002-09-24 日本電気株式会社 画像・音声符号化装置
JP4242516B2 (ja) * 1999-07-26 2009-03-25 パナソニック株式会社 サブバンド符号化方式
US7181297B1 (en) 1999-09-28 2007-02-20 Sound Id System and method for delivering customized audio data
DE19947877C2 (de) * 1999-10-05 2001-09-13 Fraunhofer Ges Forschung Verfahren und Vorrichtung zum Einbringen von Informationen in einen Datenstrom sowie Verfahren und Vorrichtung zum Codieren eines Audiosignals
US6499010B1 (en) * 2000-01-04 2002-12-24 Agere Systems Inc. Perceptual audio coder bit allocation scheme providing improved perceptual quality consistency
FI20002903A7 (fi) * 2000-12-29 2002-06-30 Nokia Corp Bittinopeuden määrittäminen
US7333929B1 (en) 2001-09-13 2008-02-19 Chmounk Dmitri V Modular scalable compressed audio data stream
US6944474B2 (en) * 2001-09-20 2005-09-13 Sound Id Sound enhancement for mobile phones and other products producing personalized audio for users
US6947886B2 (en) * 2002-02-21 2005-09-20 The Regents Of The University Of California Scalable compression of audio and other signals
US7313520B2 (en) * 2002-03-20 2007-12-25 The Directv Group, Inc. Adaptive variable bit rate audio compression encoding
US20040222030A1 (en) * 2003-05-09 2004-11-11 Visteon Global Technologies, Inc. Vehicle rear suspension support assembly with integrated electric drive
US7996234B2 (en) * 2003-08-26 2011-08-09 Akikaze Technologies, Llc Method and apparatus for adaptive variable bit rate audio encoding
DK1675908T3 (da) * 2003-10-07 2009-04-20 Coloplast As Sammensætning der er nyttig som et adhæsiv samt anvendelse af en sådan sammensætning
ATE391988T1 (de) * 2003-10-10 2008-04-15 Agency Science Tech & Res Verfahren zum codieren eines digitalen signals in einen skalierbaren bitstrom, verfahren zum decodieren eines skalierbaren bitstroms
KR100651731B1 (ko) 2003-12-26 2006-12-01 한국전자통신연구원 가변 프레임 음성 부호화/복호화 장치 및 그 방법
US7725313B2 (en) * 2004-09-13 2010-05-25 Ittiam Systems (P) Ltd. Method, system and apparatus for allocating bits in perceptual audio coders
US7548853B2 (en) * 2005-06-17 2009-06-16 Shmunk Dmitry V Scalable compressed audio bit stream and codec using a hierarchical filterbank and multichannel joint coding
US7830921B2 (en) * 2005-07-11 2010-11-09 Lg Electronics Inc. Apparatus and method of encoding and decoding audio signal
US7676360B2 (en) * 2005-12-01 2010-03-09 Sasken Communication Technologies Ltd. Method for scale-factor estimation in an audio encoder
JP2007264154A (ja) * 2006-03-28 2007-10-11 Sony Corp オーディオ信号符号化方法、オーディオ信号符号化方法のプログラム、オーディオ信号符号化方法のプログラムを記録した記録媒体及びオーディオ信号符号化装置
JP2008072599A (ja) * 2006-09-15 2008-03-27 Nec Corp 無線通信端末、通信システム、帯域制御方法およびプログラム
EP2193348A1 (en) * 2007-09-28 2010-06-09 Voiceage Corporation Method and device for efficient quantization of transform information in an embedded speech and audio codec
US7751361B2 (en) * 2007-10-19 2010-07-06 Rebelvox Llc Graceful degradation for voice communication services over wired and wireless networks
US7751362B2 (en) * 2007-10-19 2010-07-06 Rebelvox Llc Graceful degradation for voice communication services over wired and wireless networks
GB2454208A (en) * 2007-10-31 2009-05-06 Cambridge Silicon Radio Ltd Compression using a perceptual model and a signal-to-mask ratio (SMR) parameter tuned based on target bitrate and previously encoded data
CN101751926B (zh) * 2008-12-10 2012-07-04 华为技术有限公司 信号编码、解码方法及装置、编解码系统
ES2453098T3 (es) * 2009-10-20 2014-04-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Códec multimodo de audio
US9075446B2 (en) 2010-03-15 2015-07-07 Qualcomm Incorporated Method and apparatus for processing and reconstructing data
US9236063B2 (en) 2010-07-30 2016-01-12 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for dynamic bit allocation
US9208792B2 (en) 2010-08-17 2015-12-08 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for noise injection
US9136980B2 (en) * 2010-09-10 2015-09-15 Qualcomm Incorporated Method and apparatus for low complexity compression of signals
JP2012103395A (ja) * 2010-11-09 2012-05-31 Sony Corp 符号化装置、符号化方法、およびプログラム
RU2648595C2 (ru) 2011-05-13 2018-03-26 Самсунг Электроникс Ко., Лтд. Распределение битов, кодирование и декодирование аудио
CN102208188B (zh) * 2011-07-13 2013-04-17 华为技术有限公司 音频信号编解码方法和设备
JP5942463B2 (ja) * 2012-02-17 2016-06-29 株式会社ソシオネクスト オーディオ信号符号化装置およびオーディオ信号符号化方法
US8767996B1 (en) 2014-01-06 2014-07-01 Alpine Electronics of Silicon Valley, Inc. Methods and devices for reproducing audio signals with a haptic apparatus on acoustic headphones
US10986454B2 (en) 2014-01-06 2021-04-20 Alpine Electronics of Silicon Valley, Inc. Sound normalization and frequency remapping using haptic feedback
US8977376B1 (en) 2014-01-06 2015-03-10 Alpine Electronics of Silicon Valley, Inc. Reproducing audio signals with a haptic apparatus on acoustic headphones and their calibration and measurement
JP6281336B2 (ja) * 2014-03-12 2018-02-21 沖電気工業株式会社 音声復号化装置及びプログラム
US11664037B2 (en) * 2020-05-22 2023-05-30 Electronics And Telecommunications Research Institute Methods of encoding and decoding speech signal using neural network model recognizing sound sources, and encoding and decoding apparatuses for performing the same

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5649029A (en) * 1991-03-15 1997-07-15 Galbi; David E. MPEG audio/video decoder
JP2705377B2 (ja) * 1991-07-31 1998-01-28 松下電器産業株式会社 帯域分割符号化方法
US5508949A (en) * 1993-12-29 1996-04-16 Hewlett-Packard Company Fast subband filtering in digital signal coding
KR0174084B1 (ko) * 1995-09-25 1999-04-01 이준 Mpeg-2 다채널 오디오 복호화기의 역변환기
US5956674A (en) * 1995-12-01 1999-09-21 Digital Theater Systems, Inc. Multi-channel predictive subband audio coder using psychoacoustic adaptive bit allocation in frequency, time and over the multiple channels
CN1204692C (zh) * 1996-04-10 2005-06-01 皇家菲利浦电子有限公司 编码若干信息信号的编码装置
DE19754297A1 (de) * 1997-12-08 1999-06-10 Thomson Multimedia Sa Audiodatendekoder
US6029126A (en) * 1998-06-30 2000-02-22 Microsoft Corporation Scalable audio coder and decoder

Also Published As

Publication number Publication date
JPH11234139A (ja) 1999-08-27
US6098039A (en) 2000-08-01

Similar Documents

Publication Publication Date Title
JP3802219B2 (ja) 音声符号化装置
CN101165778B (zh) 音频信号的双变换编码方法和装置
CN101165777B (zh) 快速点阵向量量化的方法
Johnston Transform coding of audio signals using perceptual noise criteria
JP3131542B2 (ja) 符号化復号化装置
US7430506B2 (en) Preprocessing of digital audio data for improving perceptual sound quality on a mobile phone
JP3352406B2 (ja) オーディオ信号の符号化及び復号方法及び装置
JPH0851366A (ja) 適応的符号化システム
JP2019191594A (ja) 音声音響符号化装置、音声音響復号装置、音声音響符号化方法及び音声音響復号方法
JP3297240B2 (ja) 適応的符号化システム
US7003449B1 (en) Method of encoding an audio signal using a quality value for bit allocation
JPH0846518A (ja) 情報符号化方法及び復号化方法、情報符号化装置及び復号化装置、並びに情報記録媒体
KR100750115B1 (ko) 오디오 신호 부호화 및 복호화 방법 및 그 장치
JP4350718B2 (ja) 音声符号化装置
JPH08242174A (ja) ディジタルオーディオ信号の適応的符号化方法
JP3297238B2 (ja) 適応的符号化システム及びビット割当方法
JP3478267B2 (ja) ディジタルオーディオ信号圧縮方法および圧縮装置
KR100195707B1 (ko) 디지탈 오디오신호 변환장치
JP4573670B2 (ja) 符号化装置、符号化方法、復号化装置及び復号化方法
JP2575265B2 (ja) ディジタルオーディオ信号の符号化方法
JP2001249699A (ja) 音声圧縮装置
KR100195712B1 (ko) 디지탈 오디오 복호화기의 음질 조절 장치
Hoerning Music & Engineering: Digital Encoding and Compression
JPH0822298A (ja) 符号化装置および復号化装置
Schroeder Speech Compression

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060427

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees