[go: up one dir, main page]

DE69631728T2 - Verfahren und Vorrichtung zur Sprachkodierung - Google Patents

Verfahren und Vorrichtung zur Sprachkodierung Download PDF

Info

Publication number
DE69631728T2
DE69631728T2 DE69631728T DE69631728T DE69631728T2 DE 69631728 T2 DE69631728 T2 DE 69631728T2 DE 69631728 T DE69631728 T DE 69631728T DE 69631728 T DE69631728 T DE 69631728T DE 69631728 T2 DE69631728 T2 DE 69631728T2
Authority
DE
Germany
Prior art keywords
signal
coding
coded signal
pitch
coded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69631728T
Other languages
English (en)
Other versions
DE69631728D1 (de
Inventor
Jun Shinagawa-ku Matsumoto
Shiro Shinagawa-ku Omori
Masayuki Shinagawa-ku Nishiguchi
Kazuyuki Shinagawa-ku Iijima
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP7302199A external-priority patent/JPH09127987A/ja
Priority claimed from JP7302130A external-priority patent/JPH09127986A/ja
Application filed by Sony Corp filed Critical Sony Corp
Application granted granted Critical
Publication of DE69631728D1 publication Critical patent/DE69631728D1/de
Publication of DE69631728T2 publication Critical patent/DE69631728T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0212Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0204Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
    • G10L19/0208Subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • G10L19/07Line spectrum pair [LSP] vocoders

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)

Description

  • Diese Erfindung betrifft ein Verfahren und Gerät (Vorrichtung) zur Codierung eines Eingabesignals wie beispielsweise eines Breitbereich-Sprachsignals. Insbesondere betrifft sie ein Signalcodierungsverfahren und -gerät, bei dem das Frequenzspektrum in ein Telefonband, für das eine ausreichende Klarheit als Sprache erhalten werden kann, und das verbleibende Band geteilt ist, und bei dem eine Signalcodierung durch einen unabhängigen Codec (Codierer und Decodierer) realisiert werden kann, solange das Telefonband betroffen ist.
  • Es gibt eine Vielfalt von zur Komprimierung von Audiosignalen inklusive Sprachsignalen und akustischen Signalen bekannten Verfahren durch Ausnutzung statistischer Eigenschaften der Audiosignale und psychoakustischer Charakteristiken des Menschen. Die Codierungsverfahren können grob in eine Codierung auf der Zeitachse, Codierung auf der Frequenzachse und Analyse-Synthese-Codierung klassifiziert werden.
  • Unter den bekannten Techniken zur hocheffizienten Codierung für Sprachsignale oder dgl. gibt es eine Oberwellencodierung bzw. harmonische Codierung, eine sinusanalytische Codierung wie beispielsweise eine Mehrbandanregungscodierung (multi-band-excitation (MBE) encoding), eine Subbandcodierung (sub-band encoding (SBC)), eine Linearvorhersage- bzw. Linearprädiktivcodierung (linear predictive coding (LPC)), eine diskrete Cosinustransformation (discrete cosine transform (DCT)), eine modifizierte DCT (modified DCT (MDCT)) und eine schnelle Fourier-Transformation (fast Fourier transform (FFT)).
  • Es sind auch bisher eine Vielfalt von Codierungstechniken zum Teilen eines Eingabesignals vor der Codierung in mehrere Bänder bekannt gewesen. Da jedoch die Codierung für den niedrigeren Frequenzbereich durch das gleiche vereinheitliche Verfahren wie das für den höheren Frequenzbereich ausgeführt wird, gibt es Fälle, bei denen ein für die Niedrigfrequenzbereichssignale geeignetes Codierungsverfahren eine nur schlechte Codierungseffizienz für die Codierung der Hochfrequenzbereichsignale oder umgekehrt aufweist. Insbesondere kann gelegentlich nicht eine optimale Codierung ausgeführt werden, wenn das Signal mit einer niedrigen Bitrate übertragen wird.
  • Obgleich die nun in Gebrauch stehenden Signaldecodierungseinrichtungen ausgebildet sind, mit verschiedenen differenten Bitraten zu operieren bzw. arbeiten, ist es ungünstig, verschiedene bzw. differente Einrichtungen für die differenten Bitraten zu verwenden. Das heißt, es ist wünschenswert bzw. vorteilhaft, dass eine einzige Einrichtung Signale mehrerer differenter Bitraten codieren oder decodieren kann.
  • Indessen besteht neuerdings ein Bedürfnis dafür, dass ein Bitstrom selbst eine Skalierbarkeit derart aufweist, dass ein Bitstrom, der eine hohe Bitrate aufweist, empfangen wird, und, wenn der Bitstrom direkt codiert wird, Qualitäts- bzw. Hochqualitätssignale erzeugt werden, während wenn ein spezifizierter Abschnitt des Bitstroms decodiert wird, Signale einer niedrigen Tonqualität erzeugt werden.
  • Bislang wird ein zu verarbeitendes Signal auf der Codierungsseite grob quantisiert, um einen Bitstrom mit einer niedrigen Bitrate zu erzeugen. Für diesen Bitstrom wird der bei der Quantisierung erzeugte Quantisierungsfehler weiter quantisiert und zum Bitstrom der niedrigen Bitrate addiert, um einen Hochbitraten-Bitstrom zu erzeugen. In diesem Fall kann, wenn das Codierungsverfahren im Wesentlichen das gleiche bleibt, der Bitstrom eine wie oben beschriebene Skalierbarkeit aufweisen, das heißt, ein Hochqualitätssignal kann durch direkte Decodierung des Hochbitraten-Bitstroms erhalten werden, während ein Niedrigbitratensignal durch Entfernen bzw. Entnehmen und Decodieren eines Abschnitts des Bitstroms wiedergegeben werden kann.
  • Jedoch kann die vorstehend erwähnte vollständige Inklusivrelation nicht leicht gebildet werden, wenn gewünscht wird, die Sprache bei beispielsweise drei Bitraten von 2 kbps, 6 kbps und 16 kbps zu codieren, während die Skalierbarkeit aufrechterhalten wird.
  • Das heißt, zur Codierung mit einer so hohen Signalqualität wie möglich wird vorzugsweise eine Wellenformcodierung mit einer hohen Bitrate ausgeführt. Wenn eine Wellenformcodierung nicht stufenlos bzw. glatt erreicht werden kann, muss die Codierung unter Verwendung eines Modells für eine niedrige Bitrate ausgeführt werden. Die vorstehende Inklusivrelation, bei der die hohe Bitrate die niedrige Bitrate enthält, kann wegen der Differenz in der Information für die Codierung nicht erreicht werden.
  • EP-A-0 396 121, auf welcher der Oberbegriff des Anspruchs 1 basiert, offenbart ein Verfahren und Gerät zur Codierung von Weitband-Audiosignalen. Das zu codierende Signal wird in zwei Subbänder gespalten. Jedes Subband weist einen Codierer auf, der entsprechend Analyse-durch-Synthese-Techniken arbeitet.
  • Es ist deshalb eine Aufgabe der wie in den Ansprüchen 1 – 10 beanspruchten vorlirgenden Erfindung, ein Sprachcodierungsverfahren und -gerät bereitzustellen, bei dem, bei einem Bandaufspalten bzw. -teilen zur Codierung, die Wiedergabesprache mit einer hohen Qualität mit einer kleineren Zahl von Bits erzeugt werden kann, und eine Signalcodierung für ein voreingestelltes Band wie beispielsweise ein Telefonband durch einen unabhängigen Codec realisiert werden kann.
  • Es ist eine andere Aufgabe der vorliegenden Erfindung, ein Verfahren zum Multiplexen codierter Signale, in denen mehrere Signale, die wegen einer signifikanten Differenz in den Bitraten durch das gleiche Verfahren nicht codiert werden können, adaptiert sind, um zur Sicherstellung von Skalierbarkeit soviel gemeinsame Information wie möglich und durch im Wesentlichen verschiedene bzw. differente Verfahren codiert zu haben, bereitzustellen.
  • Es ist noch eine andere Aufgabe der vorliegenden Erfindung, ein Signalcodierungsgerät bereitzustellen, welches das Multiplexverfahren zum Multiplexen des codierten Signals verwendet.
  • Unter einem Aspekt ist ein Signalcodierungsgerät bereitgestellt, das aufweist:
    • eine Bandteilungseinrichtung zum Aufspalten bzw. Teilen eines Eingabesignals in mehrere Frequenzbänder zur Bereitstellung mehrerer geteilter Frequenzbänder, und
    • eine Codierungseinrichtung zum Codieren von Signalen jedes der mehreren Frequenzbänder in auf jeweilige Signalcharakteristiken jedes der mehreren Frequenzbänder reagierenden jeweiligen Weisen, dadurch gekennzeichnet, dass
    • die Codierungseinrichtung zusätzlich zum Multiplexen eines ersten Signals eines der mehreren geteilten Frequenzbänder und eines Abschnitts eines zweiten Signals eines anderen der mehreren Frequenzbänder, das nicht gemeinsam mit dem ersten Signal ist, ist.
  • Das Eingabesignal wird in mehrere Bänder geteilt, und Signale der auf diese Weise geteilten Bänder sind abhängig von Signalcharakteristiken der geteilten Bänder auf differente Weise codiert. Auf diese Weise ist eine Decodiereroperation mit differenten Raten ermöglicht, und eine Codierung kann für jedes Band mit einer optimalen Effizienz ausgeführt und so die Codierungseffizienz verbessert werden.
  • Durch Ausführen einer kurzfristigen Vorhersage bzw. Prädiktion (short-term prediction) bei den Signalen eines niedrigerseitigen der Bänder zum Finden von kurzfristigen Prädiktionsresten, Ausführen einer langfristigen Prädiktion (long-term prediction) bei den so gefundenen kurzfristigen Prädiktionsresten und durch Orthogonaltransformieren der so gefundenen langfristigen Prädiktionsreste können eine höhere Codierungseffizienz und eine wiedergegebene Sprache überragender Qualität erreicht werden.
  • Auch wird gemäß der vorliegenden Erfindung wenigstens ein Band des Eingabesignals entnommen, und das Signal des so entnommenen Bandes wird in ein Frequenzbereichssignal orthogonaltransformiert. Das orthogonal transformierte Signal wird auf der Frequenzachse zu einer anderen Position oder einem anderen Band verschoben und danach in Zeitbereichssignale, die codiert werden, invers orthogonaltransformiert. Auf diese Weise wird das Signal eines beliebigen Frequenzbandes entnommen und in eine Niedrigbereichseite zur Codierung mit einer niedrigen Abtastfrequenz umgewandelt.
  • Außerdem kann ein Subband einer beliebigen Frequenzweite von einer beliebigen Frequenz erzeugt werden, um mit einer Abtastfrequenz zweimal die Frequenzweite verarbeitet zu werden und so eine mit Flexibilität zu behandelnde Anwendung zu ermöglichen.
  • Die vorliegende Erfindung wird aus der nur beispielhaft gegebenen folgenden Beschreibung klarer verstanden, bei Bezugnahme auf die beigefügten Zeichnungen, in denen:
  • 1 ein Blockschaltbild ist, das eine grundlegende Struktur eines Sprachsignalscodierungsgeräts zur Ausführung des die vorliegende Erfindung verkörpernden Codierungsverfahrens zeigt;
  • 2 ein Blockschaltbild zur Illustration der grundlegenden Struktur des Sprachsignaldecodierungsverfahrens ist;
  • 3 ein Blockschaltbild der Struktur eines anderen Sprachsignalcodierungsgeräts ist;
  • 4 eine Skalierbarkeit eines Bitstroms übertragener codierter Daten illustriert;
  • 5 ein schematisches Blockschaltbild ist, welches das ganze System der Codierungsseite gemäß der vorliegenden Erfindung zeigt;
  • 6A, 6B und 6C die Periode und die Phase von Hauptoperationen zur Codierung und Decodierung illustrieren;
  • 7A und 7B eine Vektorquantisierung von MDCT-Koeffizienten illustrieren;
  • 8A und 8B Beispiele von Fenstertechnikfunktionen illustrieren, die auf eine Nachfilterausgabe angewendet werden;
  • 9 eine illustrative Vektorquantisierungseinrichtung zeigt, die zwei Arten von Codebüchern aufweist;
  • 10 ein Blockschaltbild ist, das eine detaillierte Struktur eines Vektorquantisierungsgeräts zeigt, das zwei Arten von Codebüchern aufweist;
  • 11 ein Blockschaltbild ist, das eine andere detaillierte Struktur eines Vektorquantisierungsgeräts zeigt, das zwei Arten von Codebüchern aufweist;
  • 12 ein Blockschaltbild ist, das die Struktur eines Codierers zur Frequenzumwandlung zeigt;
  • 13A, 13B Rahmenteilungs- und Überlapp-und-Addier-Operationen illustrieren;
  • 14A, 14B und 14C ein Beispiel einer Frequenzverschiebung auf der Frequenzachse illustrieren;
  • 15A und 15B eine Datenverschiebung auf der Frequenzachse illustrieren;
  • 16 ein Blockschaltbild ist, das die Struktur eines Decodierers zur Frequenzumwandlung zeigt;
  • 17A und 17C ein anderes Beispiel einer Frequenzverschiebung auf der Frequenzachse illustrieren;
  • 18 ein Blockschaltbild ist, das die Struktur einer Übertragungsseite eines ein Sprachcodierungsgerät der vorliegenden Erfindung anwendenden portablen bzw. tragbaren Endgeräts zeigt;
  • 19 ein Blockschaltbild ist, das die Struktur einer Empfangsseite eines ein der 18 zugeordnetes Sprachsignaldecodierungsgerät anwendenden portablen bzw, tragbaren Endgeräts zeigt.
  • Bevorzugte Ausführungsformen der vorliegenden Erfindung werden nun im Detail erläutert.
  • 1 zeigt ein Codierungsgerät (Codierer) für Breitbereich-Sprachsignale zur Ausführung des Sprachcodierungsverfahrens gemäß der vorliegenden Erfindung.
  • Das grundlegende Konzept des in 1 gezeigten Codierers ist, dass das Eingabesignal in mehrere Bänder gesplittet bzw. aufgespalten bzw. geteilt wird und die Signale der geteilten Bänder in einer von Signalcharakteristiken der jeweiligen Bänder abhängigen differenten Weise codiert werden. Insbesondere wird das Frequenzspektrum der Breitbereich- Eingabesprachsignale in mehrere Bänder geteilt, nämlich in das Telefonband, für das ausreichende Klarheit als Sprache erreicht werden kann, und ein Band auf der relativ zum Telefonband höheren Seite. Die Signale des niedrigeren Bandes, das heißt des Telefonbands, werden nach einer kurzfristigen Prädiktion wie beispielsweise einer Linearprädiktivcodierung (LPC), gefolgt von einer langfristigen Prädiktion wie beispielsweise einer Tonhöhenprädiktion orthogonaltransformiert, und die bei der orthogonalen Transformation erhaltenen Koeffizienten werden mit einer wahrnehmungsgewichteten bzw. perzeptiv gewichteten Vektorquantisierung verarbeitet. Die Information betreffend die langfristige Prädiktion, beispielsweise Tonhöhe oder Ton- bzw. Tonhöhenverstärkung, oder die kurzfristigen Prädiktionskoeffizienten darstellende Parameter, beispielsweise die LPC-Koeffizienten, werden auch quantisiert. Die Signale des Bandes höher als das Telefonband werden mit kurzfristiger Prädiktion verarbeitet und dann direkt auf der Zeitachse vektorquantisiert.
  • Die modifizierte DCT (MDCT) wird als die orthogonale Transformation verwendet. Die Umwandlungslänge wird zur Erleichterung einer Gewichtung zur Vektorquantisierung gekürzt. Außerdem wird die Umwandlungslänge auf 2N eingestellt, das heißt auf einen Wert gleich Potenzen von 2, um eine hohe Verarbeitungsgeschwindigkeit durch Anwendung einer schnellen Fourier-Transformation (FFT) zu ermöglichen. Die LPC-Koeffzienten zur Berechnung der Gewichtung zur Vektorquantisierung der Orthogonaltransformationskoeffizienten und zur Berechnung der Reste zur kurzfristigen Prädiktion (ähnlich für ein Nachfilter) sind die von den im laufenden Rahmen gefundenen und den im vergangenen Rahmen gefundenen LPC-Koeffizienten glatt interpolierten LPC-Koeffizienten, so dass die verwendeten LPC-Koeffizienten für jeden analysierten Subrahmen ein Optimum bzw. optimal sind. Bei Ausführung der langfristigen Prädiktion wird eine Prädiktion oder Interpolation für jeden Rahmen eine Zahl von Malen ausgeführt, und die resultierende Tonhöhenverzögerung bzw. der resultierende Tonhöhenversatz oder die Tonhöhenverstärkung wird direkt oder nach Finden der Differenz quantisiert. Alternativ dazu wird ein das Verfahren zur Interpolation spezifizierendes Kennzeichen übertragen. Für Prädiktionsreste, deren Varianz mit einer zunehmenden Zahl von Malen (Häufigkeit bzw. Frequenz) einer Prädiktion kleiner wird, wird eine Mehrstufen-Vektorquantisierung zur Quantisierung der Differenz der Orthogonaltransformationskoeffizienten ausgeführt. Alternativ dazu werden nur die Parameter für ein einzelnes Band unter den geteilten Bändern verwendet, um mehrere Decodierungsoperationen mit differenten Bitraten durch den ganzen oder einen Teil eines einzelnen codierten Bitstroms zu ermöglichen.
  • Es wird auf 1 Bezug genommen.
  • Einem Eingangsanschluss 101 der 1 werden Breitband-Sprachsignale in einem Bereich beispielsweise von 0 bis 8 kHz mit einer Abtastfrequenz Fs von beispielsweise 16 kHz zugeführt. Die Breitband-Sprachsignale vom Eingangsanschluss 101 werden von einem Tiefpassfilter 102 und einem Subtrahierer 106 in Niedrigbereich-Telefonbandsignale von beispielsweise 0 bis 3,8 kHz und Hochbereichsignale wie beispielsweise Signale in einem Bereich beispielsweise von 3,8 kHz bis 8 kHz aufgespalten bzw. geteilt. Die Niedrigbereichsignale werden durch einen Abtastfrequenzwandler 103 in einen das Abtasttheorem erfüllenden Bereich dezimiert, um beispielsweise 8 kHz-Abtastsignale bereitzustellen.
  • Die Niedrigbereichssignale werden durch eine LPC-Analysequantisierungseinheit 130 mit einem Hamming-Fenster mit einer Analyselänge in der Ordnung von beispielsweise 256 Abtastwerten bzw. Samples pro Block multipliziert. Die LPC-Koeffizienten von beispielsweise einer Ordnung 10, das heißt α-Parameter, werden gefunden, und LPC-Reste werden von einem LPC-Invertiertfilter 111 gefunden. Während dieser LPC-Analyse werden 96 von 256 Samples jedes Blocks, der als eine Einheit zur Analyse fungiert, mit dem nächsten Block überlappt, so dass das Rahmenintervall gleich 160 Samples wird. Dieses Rahmenintervall beträgt 20 ms für eine 8 kHz-Abtastung. Eine LPC-Analysequantisierungseinheit 130 wandelt die α-Parameter als LPC-Koeffizienten in Linearspektralpaar-Parameter (LSP-Parameter) um, die dann quantisiert und übertragen werden.
  • Insbesondere wendet eine LPC-Analyseschaltung 132 in der LPC-Analysequantisierungseinheit 130, der die Niedrigbereichsignale vom Abtastfrequenzwandler 103 zugeführt wird, ein Hamming-Fenster auf die Eingabesignalwellenform mit der Länge der Ordnung von 256 Samples der Eingabesignalwellenform als ein einzelner Block an, um Linearprädiktionskoeffizienten, die sogenannte α-Parameter sind, durch ein Autokorrelationsverfahren zu finden. Das Rahmenbildungsintervall als eine Datenausgabeeinheit ist beispielsweise 20 ms oder 160 Samples.
  • Die α-Parameter von der LPC-Analyseschaltung 132 werden zu einer α-LSP-Umwandlungsschaltung 133 zur Umwandlung in Linearspektralpaar-Parameter (LSP-Parameter) gesendet. Das heißt, die als Direkttyp-Filterkoeffizienten gefundenen α-Parameter werden in beispielsweise 10 LSP-Parameter oder 5 Paare von LSP-Parametern umgewandelt. Diese Umwandlung wird unter Verwendung beispielsweise des Newton-Rhapson-Verfahrens ausgeführt. Der Grund für die Umwandlung in die LSP-Parameter ist, dass die LSP-Parameter in Interpolationscharakteristiken den übergeordnet α-Parametern sind.
  • Die LSP-Parameter von der α-LSP-Umwandlungsschaltung 133 werden von einem LSP-Quantisierer 134 vektor- oder matrixquantisiert. Die Vektorquantisierung kann nach einem Finden der Interrahmendifferenz ausgeführt werden, während eine Matrixquantisierung bei mehreren zusammengruppierten Rahmen ausgeführt werden kann. Bei der vorliegenden Ausführungsform sind 20 ms ein einzelner Rahmen, und zwei Rahmen der jeweils alle 20 ms berechneten LSP-Parameter werden zusammengruppiert und durch eine Matrixquantisierung quantisiert.
  • Eine Quantisierungsausgabe des LSP-Quantisierers 134, das heißt die Indizes des LSP-Vektorquantisierung, wird über einen Anschluss 131 ausgegeben, während quantisierte LSP-Parameter oder ent- bzw. dequantisierte Ausgaben zu einer LSP-Interpolationsschaltung 136 gesendet werden.
  • Die Funktion der LSP-Interpolationsschaltung 136 ist, einen Satz aus dem laufenden Rahmen und einem vorhergehenden Rahmen der vom LSP-Quantisierer 134 alle 20 ms vektorquantisierten LSP-Vektoren zu interpolieren, um eine zur nachfolgenden Verarbeitung erforderliche Rate bereitzustellen. Bei der vorliegenden Ausführungsform werden eine Achtertupel- bzw. Oktotupel-Rate und eine Fünfertupel- bzw. Quintupel-Rate verwendet. Mit der Oktotupel-Rate werden die LSP-Parameter alle 2,5 ms aktualisiert. Der Grund ist, dass, da eine Analyse-Synthese-Verarbeitung der Restwellenform zu einer extrem glatten Wellenform der Enveloppe der synthetisierten Wellenform führt, externe Töne erzeugt werden können, wenn die LPC-Koeffizienten alle 20 ms schnell geändert werden. Das heißt, wenn die LPC-Koeffizienten alle 2,5 ms graduell geändert werden, kann verhindert werden, dass solche externen Töne erzeugt werden.
  • Zur invertierten Filterung der Eingabesprache unter Verwendung der alle 2,5 ms auftretenden interpolierten LSP-Vektoren werden die LSP-Parameter von einer LSP-in-α-Umwandlungsschaltung 137 in α-Parameter umgewandelt, welche die Koeffizienten des Direkttypfilters von beispielsweise annähernd 10 Ordnungen sind. Eine Ausgabe der LSP-in-α-Umwandlungsschaltung 137 wird zu einer LPC-Invertiertfilterschaltung 111 zum Finden der LPC-Reste gesendet. Die LPC-Invertiertfilterschaltung 111 führt bei den alle 2,5 ms aktualisierten α-Parametern eine invertierte Filterung zur Erzeugung einer glatten Ausgabe aus.
  • Die LSP-Koeffizienten bei einem Intervall von 4 ms, von der LSP-Interpolationsschaltung 136 bei einer Quintupelrate interpoliert, werden zu einer LSP-in-α-Umwandlungsschaltung 138 gesendet, wo sie in α-Parameter umgewandelt werden. Diese α-Parameter werden zu einer Vektorquantisierungs-Gewichtungsberechnungsschaltung (VQ-Gewichtungsberechnungsschaltung) 139 zur Berechnung der zur Quantisierung von MDCT-Koeffizienten verwendeten Bewertung bzw. Gewichtung gesendet.
  • Eine Ausgabe des LPC-Invertiertfilters 111 wird zu Tonhöhen-Invertiertfiltern 112, 122 zur Tonhöhenvorhersage bzw. -prädiktion zur langfristigen Prädiktion gesendet.
  • Die langsfristige Prädiktion bzw. Langfristprädiktion wird nun erläutert. Die Langsfristprädiktion wird durch Finden der Tonhöhenprädiktionsreste durch Subtrahieren von der originalen Wellenform die auf der Zeitachse in einem mit dem Tonhöhenversatz oder der Tonhöhenperiode, wie sie durch die Tonhöhenanalyse gefunden wird, korrespondierenden Betrag verschobenen Wellenform ausgeführt. Bei der vorliegenden Ausführungsform wird die Langfristprädiktion durch eine Dreipunkt-Tonhöhenprädiktion ausgeführt. Indessen bedeutet der Tonhöhenversatz die Zahl von mit der Tonhöhenperiode der abgetasteten Zeitbereichsdaten korrespondierenden Samples.
  • Das heißt, die Tonhöhenanalyseschaltung 115 führt eine Tonhöhenanalyse einmal für jeden Rahmen, das heißt mit der Analyselänge eines einzelnen Rahmens, aus. Von den Resultaten der Tonhöhenanalyse wird ein Tonhöhenversatz L1 zum Tonhöhen-Invertiertfilter 112 und zu einem Ausgangsanschluss 142 gesendet, während eine Tonhöhenverstärkung zu einer Tonhöhenverstärkungs-Vektorquantisierungsschaltung (Tonhöhenverstärkung-VQ-Schaltung) 116 gesendet wird. In der Tonhöhenverstärkung-VQ-Schaltung 116 werden die Tonhöhenverstärkungswerte bei drei Punkten der Dreipunkt-Prädiktion vektorquantisiert, und ein Codebuchindex g1 wird bei einem Ausgangsanschluss 143 entnommen, während ein Repräsentativwertvektor oder eine Dequantisierungsausgabe zu jedem vom Invertierttonhöhenfilter 115, einem Subtrahierer 117 und einem Addierer 127 gesendet wird. Das Invertierttonhöhenfilter 112 gibt einen Tonhöhenprädiktionsrest der Dreipunkt-Prädiktion auf der Basis der Resultate der Tonhöhenanalyse aus. Der Prädiktionsrest wird zu beispielsweise einer MDCT-Schaltung 113 als Orthogonaltransformationseinrichtung gesendet. Die resultierende MDCT-transformierte Ausgabe wird mit einer wahrnehmungsgewichteten bzw. perzeptiv gewichteten Vektorquantisierung durch eine Vektorquantisierungsschaltung (VQ-Schaltung) 114 quantisiert. Die MDCT-transformierte Ausgabe wird mit einer perzeptiv bewerteten bzw. gewichteten Vektorquantisierung durch die Vektorquantisierungsschaltung (VQ-Schaltung) 114 durch eine Ausgabe der VQ-Gewichtungsberechnungsschaltung 139 quantisiert.
  • Eine Ausgabe der VQ-Schaltung 114, das heißt ein Index IdxVq1, wird an einem Ausgangsanschluss 141 ausgegeben.
  • Bei der vorliegenden Ausführungsform sind ein Tonhöheninvertiertfilter 122, eine Tonhöhenanalyseschaltung 124 und eine Tonhöhenverstärkungs-VQ-Schaltung 126 als ein separater Tonhöhenprädiktionskanal vorgesehen. Das heißt, ein Analysezentrum ist bei einer Zwischenposition jedes Tonhöhenanalysezentrums vorgesehen, so dass eine Tonhöhenanalyse durch eine Tonhöhenanalyseschaltung 125 bei einer halben Rahmenperiode ausgeführt wird. Die Tonhöhenanalyseschaltung 125 leitet einen Tonhöhenversatz L2 zum Invertierttonhöhenfilter 122 und zu einem Ausgangsanschluss 145, während die Tonhöhenverstärkung zu einer Tonhöhenverstärkungs-VQ-Schaltung 126 geleitet wird. Die Tonhöhenverstärkungs-VQ-Schaltung 126 vektorquantisiert den Dreipunkt-Tonhöhenverstärkungsvektor und sendet einen Index g2 der Tonhöhenverstärkung als eine Quantisierungsausgabe an einen Ausgangsanschluss 144, während ihr repräsentativer Vektor oder eine Dequantisierungsausgabe zu einem Subtrahierer 117 geleitet wird. Da die Tonhöhenverstärkung beim Analysezentrum der originalen Rahmenperiode als nahe bei der Tonhöhenverstärkung von der Tonhöhenverstärkungs-VQ-Schaltung 116 angenommen ist, wird eine Differenz zwischen Dequantisierungsausgaben der Tonhöhenverstärkungs-VQ-Schaltungen 116, 126 von einem Subtrahierer 117 als eine Tonhöhenverstärkung bei der obigen Analysezentrumsposition genommen. Diese Differenz wird von einer Tonhöhenverstärkungs-VQ-Schaltung 118 vektorquantisiert, um einen Index g1d der Tonhöhenverstärkungsdifferenz zu erzeugen, der zu einem Ausgangsanschluss 146 gesendet wird. Der repräsentative Vektor oder die dequantisierte Ausgabe der Tonhöhenverstärkungsdifferenz wird zu einem Addierer 127 gesendet und zum repräsentativen Vektor oder zur dequantisierten Ausgabe aus der Tonhöhenverstärkungs-VQ-Schaltung 126 summiert. Die resultierende Summe wird als Tonhöhenverstärkung zum Invertierttonhöhenfilter 122 gesendet. Indessen ist der Index g2 der am Ausgangsanschluss 143 erhaltenen Tonhöhenverstärkung ein Index der Tonhöhenverstärkung bei der oben erwähnten Mittelposition. Die Tonhö henprädiktionsreste vom Invertierttonhöhenfilter 122 werden von einer MDCT-Schaltung 123 MDCT-transformiert und zu einem Subtrahierer 128 gesendet, wo der repräsentative Vektor oder die dequantisierte Ausgabe aus der Vektorquantisierungsschaltung (VQ-Schaltung) 114 von der MDCT-transformierten Ausgabe subtrahiert wird. Die resultierende Differenz wird zur VQ-Schaltung 124 zur Vektorquantisierung gesendet, um einen Index IdxVq2 zu erzeugen, der zu einem Ausgangsanschluss 147 gesendet wird. Diese VQ-Schaltung quantisiert das Differenzsignal durch eine perzeptiv gewichtete Vektorquantisierung mit einer Ausgabe einer VQ-Gewichtungsberechnungsschaltung 139.
  • Die Hochbereichssignalverarbeitung wird nun erläutert.
  • Die Signalverarbeitung für die Hochbereichssignale besteht grundsätzlich in einem Teilen (Splitting) des Frequenzspektrums der Eingabesignale in mehrere Bänder, einer Frequenzumwandlung des Signals wenigstens eines einzelnen Hochbereichbandes zur Niedrigbereichseite, einer Erniedrigung der Abtastrate der zur Niedrigfrequenzseite umgewandelten Signale und einer Codierung der in der Abtastrate erniedrigten Signale durch prädiktive Codierung.
  • Das dem Eingangsanschluss 101 der 1 zugeführte Breitbereichsignal wird dem Subtrahierer 106 zugeführt. Das vom Tiefpassfilter (TPF)) 102 ausgegebene Niedrigbereichseitesignal wie beispielsweise das Telefonbandsignal in einem Bereich beispielsweise von 0 bis 3,8 kHz wird vom Breitbandsignal subtrahiert. Infolgedessen gibt der Subtrahierer 106 ein Hochbereichseitesignal wie beispielsweise ein Signal in einem Bereich von beispielsweise von 3,8 bis 8 kHz aus. Jedoch aufgrund von Charakteristiken des tatsächlichen TPF 102 werden die Komponenten niedriger als 3,8 kHz in einem kleinen Betrag in der Ausgabe des Subtrahierers 106 belassen. Infolgedessen wird die Hochbereichseitesignalverarbeitung bei den Komponenten nicht niedriger als 3,5 kHz oder Komponenten nicht niedriger als 3,4 kHz ausgeführt.
  • Dieses Hochbereichsignal weist eine Frequenzweite von 3,5 kHz bis 8 kHz vom Subtrahierer 106, das heißt eine Weite von 4,5 kHz auf. Da jedoch die Frequenz beispielsweise durch Niederabtasten zu einer Niedrigbereichseite verschoben oder umgewandelt wird, ist es notwendig, den Frequenzbereich auf beispielsweise 4 kHz zu schmälern. Unter Berücksichtigung, dass das Hochbereichsignal später mit dem Niedrigbereichsignal kombiniert wird, wird der wahrnehmungssensitive bzw. perzeptiv sensitive Bereich von 3,5 kHz bis 4 kHz nicht abgeschnitten, und der 0,5 kHz-Bereich von 7,5 kHz bis 8 kHz, der in der Leistung niedriger und psychoakustisch weniger kritisch als Sprachsignale ist, wird vom TPF oder dem Bandpassfilter 107 abgeschnitten.
  • Die Frequenzumwandlung zur Niedrigbereichseite, die dann ausgeführt wird, wird durch Umwandlung der Daten in Frequenzbereichsdaten unter Verwendung einer Orthogonaltransformationseinrichtung wie beispielsweise einer schnellen Fourier-Transformationsschaltung (FFT-Schaltung) 161, Verschieben der Frequenzbereichsdaten durch eine Frequenzverschiebeschaltung 162 und durch inverses FFT-Transformieren der resultierenden frequenzverschobenen Daten durch eine inverse FFT-Schaltung 164 als inverse Orthogonaltransformationseinrichtung realisiert.
  • Von der inversen FFT-Schaltung 164 wird die Hochbereichseite des Eingabesignals, beispielsweise das von 3,5 kHz bis 7,5 kHz reichende, in eine Niedrigbereichsseite von 0 bis 4 kHz umgewandelte Signal, entnommen. Da die Abtastfrequenz dieses Signals durch 8 kHz repräsentiert werden kann, wird sie von einer Niederabtastschaltung 164 niederabgetastet, um ein Signal eines Bereichs von 3,5 kHz bis 7,5 kHz mit der Abtastfrequenz von 8 kHz zu bilden. Eine Ausgabe der Niederabtastschaltung 164 wird zum LPC-Invertiertfilter 171 und zu einer LPC-Analyseschaltung 182 einer LPC-Analysequantisierungseinheit 180 jeweils gesendet.
  • Die LPC-Analysequantisierungseinheit 180, die ähnlich konfiguriert ist wie die LPC-Analysequantisierungseinheit 130 der Niedrigbereichseite, wird nun nur kurz erläutert.
  • In der LPC-Analysequantisierungseinheit 180 wendet die LPC-Analyseschaltung 182, der ein Signal von der Niederab tastschaltung 164, das in den Niedrigbereich umgewandelt ist, zugeführt wird, ein Hamming-Fenster mit einer Länge der Ordnung von 256 Samples der Eingabesignalwellenform als ein einzelner Block an und findet Linearprädiktionskoeffizienten, das heißt α-Parameter, durch beispielsweise ein Autokorrelationsverfahren. Die α-Parameter von der LPC-Analyseschaltung 182 werden zu einer α-zu-LSP-Umwandlungsschaltung 183 zur Umwandlung in Linearspektralpaar-Parameter (LSP-Parameter) gesendet. Die LSP-Parameter von der α-in-LSP-Umwandlungsschaltung 183 werden von einem LSP-Quantisierer 184 vektor- oder matrixquantisiert. Zu dieser Zeit kann eine Interrahmendifferenz vor der Vektorquantisierung gefunden werden. Alternativ dazu können mehrere Rahmen zusammengruppiert und durch Matrixquantisierung quantisiert werden. Bei der vorliegenden Ausführungsform werden die LSP-Parameter, berechnet alle 20 ms, vektorquantisiert, mit 20 ms als ein einzelner Rahmen.
  • Eine Quantisierungsausgabe des LSP-Quantisierers 184, das heißt ein Index LSPidxH, wird bei einem Anschluss 181 entnommen, während ein quantisierter LSP-Vektor oder die dequantisierte Ausgabe zu einer LSP-Interpolationsschaltung 186 gesendet wird.
  • Die Funktion der LSP-Interpolationsschaltung 186 ist, einen Satz aus dem vorhergehenden Rahmen und dem laufenden Rahmen der LSP-Vektoren, die vom LSP-Quantisierer 184 alle 20 ms vektorquantisiert sind, zu interpolieren, um eine zur nachfolgenden Verarbeitung notwendige Rate bereitzustellen. Bei der vorliegenden Ausführungsform wird die Vierertupel- bzw. Quadrupelrate verwendet.
  • Zur invertierten Filterung des Eingabesprachsignals unter Verwendung der interpolierten LSP-Vektoren, die beim Intervall von 5 ms auftreten, werden die LSP-Parameter durch eine LSP-in-α-Umwandlungsschaltung 187 in α-Parameter als LPS-Synthesefilterkoeffizienten umgewandelt. Eine Ausgabe der LSP-zu-α-Umwandlungsschaltung 187 wird zu einer LPS-Invertiertfilterschaltung 171 zum Finden der LPC-Reste gesendet. Dieses LPC-Invertiertfilter 171 führt eine invertierte Filte rung durch die alle 5 ms aktualisierten α-Parameter zur Erzeugung einer glatten Ausgabe aus.
  • Der vom LPC-Invertiertfilter 171 ausgegebene LPC-Prädiktionsrest wird zu einer LPC-Rest-Vektorquantisierungsschaltung (LPC-Rest-VQ-Schaltung) 172 zu einer Vektorquantisierung gesendet. Das LPC-Invertiertfilter 171 gibt einen Index LPCidx der LPC-Reste aus, die an einem Ausgangsanschluss 173 ausgegeben werden.
  • Bei dem oben beschriebenen Signalcodierer ist ein Teil der Niedrigbereichseitekonfiguration als ein unabhängiger Codec-Codierer ausgebildet, oder der ganze ausgegebene Bitstrom wird zu einem Abschnitt desselben umgeschaltet oder umgekehrt, um eine Signalübertragung oder Decodierung mit verschiedenen bzw. differenten Bitraten zu ermöglichen.
  • Das heißt, bei einem Übertragen aller Daten von den jeweiligen Ausgangsanschlüssen zur Konfiguration von 1 wird die Übertragungsbitrate gleich 16 kbps (k Bits/s). Wenn Daten vom Teil des Anschlusses übertragen werden, wird die Übertragungsbitrate gleich 6 kbps.
  • Wenn alternativ dazu alle Daten von allen der Anschlüsse von 1 übertragen, d.h. gesendet oder aufgezeichnet werden, und alle Daten von 16 kbps auf der Empfangs- oder Wiedergabeseite decodiert werden, können Qualitäts- bzw. Hochqualitäts-Sprachsignale von 16 kbps erzeugt werden. Wenn andererseits Daten von 6 kbps decodiert werden, können Sprachsignale, die eine mit 6 kbps korrespondierende Tonqualität aufweisen, erzeugt werden.
  • Bei der Konfiguration von 1 korrespondieren Ausgabedaten bei den Ausgangsanschlüssen 131 und 141 bis 143 mit 6 kbps-Daten. Wenn Ausgabedaten bei den Ausgangsanschlüssen 144 bis 147, 173 und 181 dazu addiert werden, können Daten von 16 kbps erhalten werden.
  • Bezugnehmend auf die 2 wird ein Signaldecodierungsgerät (Decodierer) als Gegenstück des in 1 gezeigten Codierers erläutert.
  • Bezugnehmend auf die 2 wird eine Vektorquantisierungsausgabe des LSP, die zu einer Ausgabe des Ausgangsan schlusses 131 von 1 äquivalent ist, das heißt ein Index LSPidx eines Codebuchs, einem Eingangsanschluss 200 zugeführt.
  • Der LSP-Index LSPidx wird zu einer inversen Vektorquantisierungsschaltung (inverse VQ-Schaltung) 241 für LSPs einer LSP-Parameter-Wiedergabeeinheit 240 zu einer inversen Vektorquantisierung oder inversen Matrixquantisierung in Linearspektralpaar-Daten (LSP-Daten) gesendet. Der so quantisierte LSP-Index wird zu einer LSP-Interpolationsschaltung 242 zu einer LSP-Interpolation gesendet. Die interpolierten Daten werden in einer LSP-in-α-Umwandlungsschaltung 243 in α-Parameter als LPC-Koeffizienten umgewandelt, die dann zu LPC-Synthesefiltern 215, 225 und zu Tonhöhenspektralnachfiltern 216, 226 gesendet werden.
  • Eingangsanschlüssen 201, 202 und 203 von 4 werden der Index IsxVq1 zur Vektorquantisierung der MDCT-Koeffizienten, ein Tonhöhenversatz L1 und eine Tonhöhenverstärkung g1 von den Ausgangsanschlüssen 141, 142 bzw. 143 von 1 jeweils zugeführt.
  • Der Index zur Vektorquantisierung für die MDCT-Koeffizienten IsxVg1 vom Eingangsanschluss 201 wird einer inversen VQ-Schaltung 211 zu inverser VQ zugeführt und dann einer inversen MDCT-Schaltung 212 zu inverser MDCT zugeführt, um dann von einer Überlapp-und-Addier-Schaltung 213 überlapp-addiert und zu einem Tonhöhensynthesefilter 214 gesendet zu werden. Der Tonhöhensyntheseschaltung 214 werden der Tonhöhenversatz L1 und die Tonhöhenverstärkung g1 von den Eingangsanschlüssen 202 bzw. 203 zugeführt. Die Tonhöhensyntheseschaltung 214 führt eine inverse Operation der vom Tonhöhen-Invertfilter 215 von 1 ausgeführten Tonhöhenprädiktionscodierung aus. Das resultierende Signal wird zu einem LPC-Synthesefilter 215 gesendet und mit LPC-Synthese verarbeitet. Die LPC-Syntheseausgabe wird zu einem Tonhöhenspektralnachfilter 216 zur Nachfilterung gesendet, um dann bei einem Ausgangsanschluss 219 als mit einer Bitrate von 6 kbps korrespondierendes Sprachsignal entnommen zu werden.
  • Den Eingangsanschlüssen 204, 205, 206 und 207 von 4 werden eine Tonhöhenverstärkung g2, ein Tonhöhenversatz L2, ein Index IsgVq2 und eine Tonhöhenverstärkung g1d zur Vektorquantisierung der MDCT-Koeffizienten von jeweiligen Ausgangsanschlüssen 144, 145, 146 bzw. 147 jeweils zugeführt.
  • Der Index IsxVg2 zur Vektorquantisierung der MDCT-Koeffizienten vom Einganganschluss 207 wird einer inversen VQ-Schaltung 220 zur Vektorquantisierung zugeführt und dann einem Addierer 221 zugeführt, um zu den invers vektorquantisieren MDCT-Koeffizienten von der Invers-VQ-Schaltung 211 summiert zu werden. Das resultierende Signal wird von einer inversen MDCT-Schaltung 222 invers MDCT-transformiert und in einer Überlapp- und-Addier-Schaltung 223 überlapp-addiert, um dann einem Tonhöhensynthesefilter 214 zugeführt zu werden. Diesem Tonhöhensynthesefilter 224 werden der Tonhöhenversatz L1, die Tonhöhenverstärkung g2 und der Tonhöhenversatz L2 von den Eingangsanschlüssen 2O2, 204 bzw. 205 und ein Summensignal der Tonhöhenverstärkung g1 vom Eingangsanschluss 203, das bei einem Addierer 217 zu der Tonhöhenverstärkung g1d vom Eingangsanschluss 206 summiert ist, zugeführt. Das Tonhöhensynthesefilter 224 synthetisiert Tonhöhenreste. Eine Ausgabe des Tonhöhensynthesefilters wird zu einem LPC-Synthesefilter 225 zu einer LPC-Synthese gesendet. Die LPC-synthetisierte Ausgabe wird zu einem Tonhöhenspektralnachfilter 226 zu einer Nachfilterung gesendet. Das resultierende nachgefilterte Signal wird einer Hochabtastungsschaltung 227 zu einer Hochabtastung der Abtastfrequenz von beispielsweise 8 kHz zu 16 kHz gesendet und dann einem Addierer 228 zugeführt.
  • Dem Eingangsanschluss 207 wird auch ein LSP-Index LSPidxh der Hochbereichseite vom Ausgangsanschluss 181 von 1 zugeführt. Dieser LSP-Index LSPidxh wird zu einer inversen VQ-Schaltung 246 für das LSP einer LSP-Parameter-Wiedergabeeinheit 245 gesendet, um in LSP-Daten invers vektorquantisiert zu werden. Diese LSP-Daten werden zu einer LSP-Interpolationsschaltung 247 zu einer LSP-Interpolation gesendet. Diese interpolierten Daten werden von einer LSP-inα-Umwandlungsschaltung 248 in einen α-Parameter der LPC- Koeffizienten umgewandelt. Dieser α-Parameter wird zu einem Hochbereichseite-LPC-Synthesefilter 232 gesendet.
  • Einem Eingangsanschluss 209 wird auch ein Index LPCidx, das heißt eine vektorquantisierte Ausgabe der Hochbereichseite-LPC-Reste aus dem Ausgangsanschluss 173 von 1, zugeführt. Dieser Index wird von einer inversen Hochbereichseite-VQ-Schaltung 231 invers vektorquantisiert und dann einem Hochbereichseite-LPC-Synthesefilter 232 zugeführt. Die Abtastfrequenz der LPC-synthetisierten Ausgabe des Hochbereichseite-LPC-Synthesefilters wird von einer Hochabtastungsschaltung 233 von beispielsweise 8 kHz zu 16 kHz hochabgetastet und durch eine schnelle FFT von einer FFT-Schaltung 234 als Orthogonaltransformationseinrichtung in Frequenzbereichsdaten umgewandelt. Das resultierende Frequenzbereichssignal wird dann von einer Frequenzverschiebeschaltung 235 zu einer Hochbereichseite frequenzverschoben und von einer inversen FFT-Schaltung 236 in hochbereichseitige Zeitbereichssignale invers FFT-transformiert, die dann über eine Überlapp-und-Addier-Schaltung 237 dem Addierer 28 zugeführt werden.
  • Die Zeitbereichssignale aus der Überlapp-und-Addier-Schaltung werden vom Addierer 228 zum Signal von der Hochabtastungsschaltung 227 summiert. Infolgedessen wird eine Ausgabe am Ausgangsanschluss 229 als Sprachsignale, die mit einem Abschnitt der Bitrate von 16 kbps korrespondieren, entnommen. Das ganze 16 kbps-Bitratensignal wird nach Summierung zum Signal vom Ausgangsanschluss 219 entnommen.
  • Nun wird Skalierbarkeit erläutert.
  • Bei der in den 1 und 2 gezeigten Konfiguration werden zwei Übertragungsbitraten von 6 kbps und 16 kbps mit im Wesentlichen zueinander ähnlichen Codierungs/Decodierungs-Systemen zur Realisierung einer Skalierbarkeit, bei der ein 6 kbps-Bitstrom vollständig im 16 kbps-Bitstrom enthalten ist, realisiert. Wenn eine Codierung/Decodierung mit einer drastisch differenten Bitrate von 2 kbps gewünscht wird, ist diese vollständige Inklusivrelation schwierig zu erreichen.
  • Wenn das gleiche Codierungs/Decodierungs-System nicht angewendet werden kann, ist es wünschenswert bzw, günstig, eine möglichst gemeinschaftliche Eignerschaftsrelation bei der Realisierung von Skalierbarkeit aufrechtzuerhalten.
  • Zu diesem Zweck wird der wie in 3 konfigurierte Codierer zu einer 2 kbps-Codierung verwendet, und ein maximaler gemeinschaftlich gehörender Abschnitt oder maximale gemeinschaftlich gehörende Daten werden bei der Konfiguration von 1 gemeinsschaftlich benutzt. Der 16 kbps-Bitstrom auf dem Ganzen wird flexibel verwendet, so dass die Gesamtheit von 16 kbps, 6 kbps oder 2 kbps abhängig von der Benutzung verwendet wird.
  • Insbesondere die Gesamtheit der Information von 2 kbps wird für 2 kbps-Codierung verwendet, während im 6 kbps-Modus die Information von 6 kbps und die Information von 5,65 kbps verwendet wird, wenn der Rahmen als eine Codierungseinheit stimmhaft (voiced (V)) bzw. stimmlos (unvoiced (UV)) ist. Im 16 kpbs-Modus wird die Information von 15,2 kbps und die Information von 14,85 kbps verwendet, wenn der Rahmen als eine Codierungseinheit stimmhaft (V) bzw. stimmlos (UV) ist.
  • Die Struktur und der Betrieb bzw. die Operation der in 3 gezeigten Codierungskonfiguration für 2 kbps wird erläutert.
  • Das grundlegende Konzept des in 3 gezeigten Codierers beruht darauf, dass der Codierer eine erste Codierungseinheit 310 zum Finden von kurzfristen Prädiktionsresten des Eingabesprachsignals, beispielsweise LPC-Resten, zum Ausführen einer Sinusanalysecodierung, wie beispielsweise harmonische Codierung bzw. Oberwellencodierung, und eine zweite Codierungseinheit 320 zur Codierung des Eingabesprachsignals durch Wellenformcodierung durch Phasenübertragung aufweist. Die erste Codierungseinheit 310 und die zweite Codierungseinheit 320 werden zur Codierung des stimmhaften Abschnitts des Eingabesignals bzw. zur Codierung des stimmlosen Abschnitts des Eingabesignals verwendet.
  • Die erste Codierungseinheit 310 verwendet die Konfiguration einer Codierung der LPC-Reste durch Sinusanalysecodierung wie beispielsweise Oberwellencodierung oder Mehrbandcodierung (multi-band encoding (MBE)). Die zweite Codierungs einheit 320 verwendet die Konfiguration einer Codeanregungs-Linearprädiktion (code excitation linear prediction (CELP)), unter Verwendung einer Vektorquantisierung durch Geschlossenschleifesuche (closed loop search) des optimalen Vektors mit Hilfe des Analyse-durch-Synthese-Verfahrens (analysis-bysynthesis method).
  • Bei der Ausführungsform von 3 wird das einem Eingangsanschluss 301 zugeführte Sprachsignal zu einem LPC-Invertiertfilter 311 und zu einer LPC-Analysequantisierungseinheit 313 der ersten Codierungseinheit 310 gesendet. Die von der LPC-Analysequantisierungseinheit 313 erhaltenen LPC-Koeffizienten oder die sogenannten α-Parameter werden zum LPC-Invertiertfilter 311 zum Ausgeben von Linearprädiktionsresten (LPC-Reste) des Eingabesprachsignals gesendet. Die LPC-Analysequantisierungseinheit 313 gibt, wie später erläutert, eine quantisierte Ausgabe der Linearspektralpaare (LSPs) aus. Die quantisierte Ausgabe wird zu einem Ausgangsanschluss 302 gesendet. Die LPC-Reste vom LPC-Invertiertfilter 311 werden zu einer Sinusanalysecodierungseinheit 314 gesendet, wo die Tonhöhe detektiert und die Spektralenveloppeamplituden berechnet werden. Außerdem wird von einer V/UV-Unterscheidungseinheit 315 eine U/UV-Unterscheidung gemacht. Die Spektralenveloppeamplitudendaten aus der Sinusanalysecodierungseinheit 314 werden zu einem Vektorquantisierer 316 gesendet. Der Codebuchindex vom Vektorquantisierer 316 wird als eine Vektorquantisierungsausgabe der Spektralenveloppe über einen Schalter 317 zu einem Ausgangsanschluss 303 gesendet. Eine Ausgabe der Sinusanalysecodierungseinheit 314 wird über einen Schalter 318 zu einem Ausgangsanschluss 304 gesendet. Die V/W-Unterscheidungsausgabe der V/UV-Unterscheidungseinheit 315 wird zu einem Ausgangsanschluss 305 gesendet, während sie als ein Steuersignal zu Schaltern 317, 318 gesendet wird. Wenn das Eingabesignal das stimmhafte Signal (V) ist, werden der Index und die Tonhöhe gewählt und jeweils am Ausgangsanschluss 303 bzw. 304 ausgegeben.
  • Die zweite Codierungseinheit 320 von 3 weist bei der vorliegenden Ausführungsform die CELP-Codierungskonfigu ration auf und führt eine Vektorquantisierung der Zeitbereichswellenform unter Verwendung einer Geschlossenschleifesuche durch ein Analyse-durch-Syntheseverfahren, bei dem eine Ausgabe eines Rauschcodebuchs 321 durch ein gewichteten Synthesefilter 322 synthetisiert wird, aus, wobei die resultierende gewichtete Sprache zu einem Subtrahierer 323 gesendet wird, wo ein Fehler von der Sprache, die beim Passieren des dem Eingangsanschluss 301 durch ein Perzeptivgewichtungsfilter 325 zugeführten Sprachsignals erhalten wird, gefunden wird, wobei der resultierende Fehler zu einer Distanzberechnungsschaltung 324 für eine Distanzberechnung gesendet wird, und ein Vektor, der den Fehler minimiert, vom Rauschcodebuch 321 gesucht wird. Diese CELP-Codierung wird zur Codierung des wie oben beschriebenen stimmlosen Abschnitts derart verwendet, dass der Codebuchindex als die UV-Daten vom Rauschcodebuch 321 bei einem Ausgangsanschluss 307 über einen Schalter 327, der eingeschaltet wird, wenn das Resultat der V/UV-Unterscheidung von der V/UV-Unterscheidungseinheit 315 UV anzeigt, ausgegeben wird.
  • Die oben beschriebene LPC-Analysequantisierungseinheit 313 des Codierers kann als ein Teil der LPC-Analysequantisierungseinheit 130 von 1 derart verwendet werden, dass eine Ausgabe beim Anschluss 302 als eine Ausgabe der Tonhöhenanalyseschaltung 115 von 1 verwendet wird. Diese Tonhöhenanalyseschaltung 115 kann zusammen mit einem Tonhöhenausgabeabschnitt in der Sinusanalysecodierungseinheit 314 verwendet werden.
  • Obgleich die Codierungseinheit von 3 auf diese Weise von dem Codierungssystem von 1 differiert, weisen beide Systeme die wie in 4 gezeigte gemeinsame Information und Skalierbarkeit auf.
  • Bezugnehmend auf 4 weist der Bitstrom S2 von 2 kbps eine innere Struktur für den stimmlosen Analyse-Synthese-Rahmen, der von einem für den stimmhaften Analyse-Syhtese-Rahmen different ist, auf. So ist ein Bitstrom S2v von 2 kbps für V aus zwei Abschnitten S2vc und S2va gebildet, während ein Bitstrom S2u von 2 kbps für UV aus zwei Abschnit ten S2ua und S2ua gebildet ist. Der Abschnitt S2vc weist einen Tonhöhenversatz, der gleich ein Bit pro 160 Samples pro Rahmen (ein Bit/160 Samples) ist, und eine Amplitude Am von 15 Bits/160 Samples, insgesamt 16 Bits/160 Samples auf. Dies korrespondiert mit Daten einer 0,8 kbps-Bitrate für die Abtastfrequenz von 8 kHz. Der Abschnitt S2uc ist aus LPC-Resten von 11 Bits/80 Samples und einer Reserve von 1 Bit/160 Samples, insgesamt 23 Bits/160 Samples, zusammengesetzt. Dies korrespondiert mit Daten, die eine Bitrate von 1,15 kbps-Bitrate aufweisen. Die verbleibenden Abschnitte S2va und S2ua stellen gemeinsame Abschnitte oder gemeinsam gehörende Abschnitte mit den 6 kbps und 16 kbps dar. Der Abschnitt S2va ist aus den LSP-Daten von 32 Bits/320 Samples, U/UV-Unterscheidungsdaten von 1 Bit/160 Samples und einem Tonhöhenversatz von 7 Bit/160 Samples, insgesamt 24 Bits/160 Samples gebildet. Dies korrespondiert mit Daten, die eine Bitrate von 1,2 kbps-Bitrate aufweisen. Die Abschnitte S2ua sind aus den LSP-Daten von 32 Bits/320 Samples und U/UV-Unterscheidungsdaten von 1 Bit/160 Samples, insgesamt 17 Bits/160 Samples gebildet. Dies korrespondiert mit Daten, die eine Bitrate von 0,85 kbps-Bitrate aufweisen.
  • Ähnlich zum Bitstrom S2 ist ein Rahmen, der teilweise von einem für den stimmhaften Analyserahmen different ist. Der Bitstrom S6v von 6 kbps für V ist aus zwei Abschnitten S6va und S6vb gebildet, während der Bitstrom S6u von 6 kbps für UV aus zwei Abschnitten S6ua und S6ub gebildet ist. Der Abschnitt S6va weist, wie vorstehend erläutert, Dateninhalte gemeinsam mit dem Abschnitt S2va auf. Der Abschnitt S6vb ist aus einer Tonhöhenverstärkung von 6 Bit/160 Samples und Tonhöhenresten von 18 Bits/32 Samples, insgesamt 96 Bits/160 Samples gebildet. Dies korrespondiert mit Daten einer 4,8 kbps-Bitrate. Der Abschnitt S6ua weist Dateninhalte gemeinsam mit dem Abschnitt S2ua auf, während der Abschnitt S6ub Dateninhalte gemeinsam mit dem Abschnitt S6ub aufweist.
  • Ähnlich zu den Bitströmen S2 und 56 weist der Bitstrom S16 von 16 kbps eine innere Struktur für den stimmlosen Analyserahmen, die teilweise von einer für den Stimmhaftanalyse rahmen different ist, auf. Ein Bitstrom S16v von 16 kbps für V ist aus vier Abschnitten S16va, S16vb, S16vc und S16vd gebildet, während ein Bitstrom S16u von 16 kbps für UV aus vier Abschnitten S16ua, S16ub, S16uc und S6ud gebildet ist. Der Abschnitt S16va weist Dateninhalte gemeinsam mit den Abschnitten S2va, S6va auf, während der Abschnitt S16vb Dateninhalte gemeinsam mit den Abschnitten S6vb, S6ub aufweist. Der Abschnitt S16vc ist aus einem Tonhöhenversatz von 2 Bits/160 Samples, einer Tonhöhenverstärkung von 11 Bits/160 Samples, Tonhöhenresten von 18 Bits/32 Samples und S/M-Modusdaten von 1 Bit/160 Samples, insgesamt 104 Bits/160 Samples gebildet. Dies korrespondiert mit einer 5,2 kbps-Bitrate. Die S/M-Modusdaten werden zu einem Schalten zwischen zwei differenten Arten von Codebüchern für die Sprache und für Musik durch die VQ-Schaltung 124 verwendet. Der Abschnitt S16vd ist aus Hochbereich-LPC-Daten von 5 Bits/160 Samples und Hochbereich-LPC-Resten von 15 Bits/32 Samples, insgesamt 80 Bits/160 Samples gebildet. Dies korrespondiert mit einer Bitrate von 4 kbps. Der Abschnitt S16ub weist Dateninhalte gemeinsam mit den Abschnitten S2ua und S6ua auf, während der Abschnitt S16ub Dateninhalte gemeinsam mit den Abschnitten S16vb, das heißt den Abschnitten S6ub und S6ub, aufweist. Außerdem weist der Abschnitt S16uc Dateninhalte gemeinsam mit dem Abschnitt S16vc auf, während der Abschnitt S16ud Dateninhalte gemeinsam mit dem Abschnitt S16vd aufweist.
  • Die Konfigurationen der 1 und 3 zur Gewinnung des oben erwähnten Bitstroms sind schematisch in 5 gezeigt.
  • Bezugnehmend auf 5 korrespondiert ein Eingangsanschluss 11 mit dem Eingangsanschluss 101 der 1 und 3. Das in den Eingangsanschluss 11 eintretende Sprachsignal wird zu einer Bandteilungsschaltung 12, die mit dem TPF 102, dem Abtastfrequenzwandler 103, dem Subtrahierer 106 und dem BPF 107 von 1 korrespondiert, gesendet, um in ein Niedrigbereichssignal und ein Hochbereichssignal geteilt zu werden. Das Niedrigbereichssignal von der Bandteilungsschaltung 12 wird zu einer 2k-Codierungseinheit 21 und einer Gemeinsamab schnittcodierungseinheit 22, äquivalent zu der Konfiguration von 3, gesendet. Die Gemeinsamabschnittcodierungseinheit 22 ist grob äquivalent zur LPC-Analysequantisierungseinheit 130 von 1 oder der LPC-Analysequantisierungseinheit 310 von 3. Außerdem kann auch der Tonhöhenextraktionsabschnitt in der Sinusanalysecodierungseinheit von 3 oder der Tonhöhenanalyseschaltung 115 von 1 in der Gemeinsamabschnittcodierungseinheit 22 enthalten sein.
  • Das Niedrigbereichsseitesignal von der Bandteilungsschaltung 12 wird zu einer 6k-Codierungseinheit 20 und zu einer 12k-Codierungseinheit 24 gesendet. Die 6k-Codierungseinheit 23 und die 12k-Codierungseinheit sind grob äquivalent zu den Schaltungen 101 bis 116 von 1 bzw. zu den Schaltungen 117, 118 und 121 bis 128 von 1.
  • Die Hochbereichsseitesignale von der Bandteilungsschaltung 12 werden zu einer Hochbereich-4k-Codierungseinheit 25 gesendet. Diese Hochbereich-4k-Codierungseinheit 25 korrespondiert grob mit den Schaltungen 161 bis 164, 171 und 172.
  • Der Relation der von den Ausgangsanschlüssen 31 bis 35 von 5 und verschiedenen Teilen von 4 ausgegebenen Bitströme wird nun erläutert. Das heißt, Daten der Abschnitte S2vc oder S2uc von 4 werden über den Ausgangsanschluss 31 der 2k-Codierungseinheit 21 ausgegeben, während Daten der Abschnitte S2va (= S6va = S16va) oder S2ua (= S6ua = S16ua) von 4 über den Ausgangsanschluss 32 der Gemeinsamabschnittcodierungseinheit 21 ausgegeben werden. Überdies werden Daten der Abschnitte S6vb (= S16vb) oder S6ub (= S16ub) der 4 über den Ausgangsanschluss 33 der 6k-Codierungseinheit 23 ausgegeben, während Daten der Abschnitte S16vd oder S16ud von 4 über den Ausgangsanschluss 34 der 12k-Codierungseinheit 24 ausgegeben werden und Daten der Abschnitte S16vd oder S16ud von 4 über den Ausgangsanschluss 35 der Hochbereich-4k-Codierungseinheit 25 ausgegeben werden.
  • Die oben beschriebene Technik zur Realisierung von Skalierbarkeit kann wie folgt generalisiert werden: Das heißt, wenn ein bei einer ersten Codierung eines Eingabesignals er haltenes erstes codiertes Signal und ein bei einer zweiten Codierung des Eingabesignals erhaltenes zweites codiertes Signal gemultiplext werden, um einen mit einem Teil des ersten codierten Signals gemeinsamen Abschnitt und einen mit dem ersten codierten Signal nicht gemeinsamen anderen Abschnitt zu haben, wird das erste codierte Signal mit dem Abschnitt des den mit dem ersten codierten Signal gemeinsamen Abschnitt ausschließenden zweiten codierten Signals gemultiplext.
  • Auf diese Weise gehören, wenn zwei Codierungssysteme im Wesentlichen differente Codierungssysteme sind, die Abschnitte, die gemeinsam behandelt werden können, zusammen zu den zwei Systemen zur Erzielung von Skalierbarkeit.
  • Die Operationen der Komponenten der 1 und 2 werden spezifischer erläutert.
  • Es sei angenommen, dass das Rahmenintervall gleich N Samples wie beispielsweise 160 Samples ist und, wie in 6A gezeigt, eine Analyse einmal pro Rahmen ausgeführt wird.
  • Wenn mit dem Zentrum der Tonhöhenanalyse gleich t = kN, wobei k = 0, 1, 2, 3,..., ist, der Vektor mit den N Dimensionen, gebildet aus in t = kN – N/2 bis kN + N/2 vorhandenen Komponenten der LPC-Prädiktionsreste aus dem LPC-Invertiertfilter 111, gleich X ist und die Vektoren mit N Dimensionen, gebildet aus in t = kN – N/2 + L bis kN + N/2 – L vorhandenen Komponenten, verschoben um L Samples entlang der Zeitachse nach vorne mit X L bezeichnet werden, wird zur Minimierung von X – BKL∥2 L = Lopt gesucht, wobei dieses Lopt als ein optimaler Tonhöhenversatz L1 für diesen Bereich verwendet wird.
  • Alternativ dazu kann der nach der Tonhöhennachführung erhaltene Wert als ein optimaler Tonhöhenversatz L1 zur Vermeidung abrupter Tonhöhenänderungen verwendet werden.
  • Als nächstes wird für diesen optimalen Tonhöhenversatz L1 ein Satz von gi, der
    Figure 00260001
    minimiert, gelöst für
    Figure 00270001
    wobei i = –1, 0, 1 ist, um einen Tonhöhenverstärkungsvektor g 1 zu finden. Der Tonhöhenverstärkungsvektor g 1 wird vektorquantisiert, um einen Codeindex g1 zu ergeben.
  • Zu einem weiteren Anheben der Prädiktionsgenauigkeit wird ins Auge gefasst, das Analysezentrum zusätzlich bei t = (k–1/2)N zu setzen. Es sei angenommen, dass der Tonhöhenversatz und die Tonhöhenverstärkung für t = kN und t = (k–1)N vorher gefunden worden sind.
  • Im Fall eines Sprachsignals kann angenommen werden, dass sein Formant bzw. seine Fundamentalfrequenz bzw. Grundfrequenz graduell geändert wird, so dass es keine signifikante Änderung zwischen dem Tonhöhenversatz L(kN) für t = kN und dem Tonhöhenversatz L((k–1)N) für t = (k–1)N gibt, wobei die Änderung linear ist. Deshalb können dem Wert, der durch den Tonhöhenversatz L((k–1/2)N) für t = (k–1/2)N angenommen werden kann, Beschränkungen auferlegt werden. Infolgedessen gilt bei der vorliegenden Ausführungsform L((k–1/2)N) = L(kN) = (L(kN) + L((k–1)N)/2 = L((k–1)N)
  • Welcher dieser Werte benutzt wird, wird durch Berechnung der Energie bzw. Leistung der mit den jeweiligen Versätzen korrespondierenden Tonhöhenreste bestimmt.
  • Das heißt, es wird angenommen, dass der Vektor mit der Dimensionenzahl N/2 von t = (k–1/2)N – N/4 – (k–1/2)N + N/4 zentriert um t = (k–1/2)N herum gleich X ist, die Vektoren mit der Dimensionenzahl N/2 verzögert um L(kN), (L(kN) + L((k–1)N))/2 und L((k–1)N) gleich X 0 (0), X 1 (0) bzw. X 2 (0) sind, und die Vektoren in der Nachbarschaft dieser Vektoren X 0 (0), X 1 (0), X 2 (0) gleich X 0 (–1), X 0 (1), X 1 (–1), X 1 (1), X 2 (–1), X 2 (1) sind.
  • Auch für die Tonhöhenverstärkungen g0, g1 und g2, die diesen Vektoren X 0 (i), X 1 (i), X 2 (i) mit i = –1, 0, 1 zugeordnet sind, wird angenommen, dass der Versatz für wenigstens ein Dj von
    Figure 00280001
    ein optimaler Versatz L2 bei t = (k–1/2)N ist, und die korrespondierende Tonhöhenverstärkung gj (i) mit i= –1, 0, 1 wird vektorquantisiert, um die Tonhöhenverstärkung zu finden. Indessen kann L2 drei Werte annehmen, die vom laufenden und vergangenen Wert von L1 gefunden werden können. Deshalb kann ein ein Interpolationsschema repräsentierendes Kennzeichen als ein Interpolationsindex anstelle eines geraden Wertes gesendet werden. Wenn entschieden wird, dass irgendeiner von L(kN) und L((k–1)N) gleich 0 ist, das heißt, es einer Tonhöhe ermangelt und die Tonhöhenprädiktionsverstärkung nicht erhalten werden kann, wird das oben erwähnte (L(kN) + L((k–1)N))/2 als ein Kandidat für L((k–1/2)N) fallen gelassen.
  • Wenn die Zahl von Dimensionen bzw. Dimensionenzahl des Vektors X, der zur Berechnung des Tonhöhenversatzes verwendet wird, um ein Halbes oder auf N/2 reduziert wird, kann Lk für t = kN als das Analysezentrum direkt verwendet werden. Jedoch muss die Verstärkung wieder berechnet werden, um die resultierenden Daten zu übertragen, trotz der Tatsache, dass die Tonhöhenverstärkung für die Zahl N von Dimensionen von X erhältlich ist. Hier wird g 1d = g 1' – ĝ 1 zur Reduzierung der Zahl von Bits quantisiert, wobei ĝ 1 die quantisierte Tonhöhenverstärkung (Vektor), wie sie für die Analyselänge = N gefunden wird, ist, und g' die nicht quantisierte Tonhöhenverstärkung, wie sie für die Analyselänge = N/2 gefunden wird, ist.
  • Von den Elementen (g0, g1, g2) des Vektors g ist g1 das Größte, während g0 und g2 nahezu null sind, wobei der Vektor g die stärkste Korrelation zwischen den drei Punkten aufweist. Infolgedessen wird der Vektor g 1d so abgeschätzt bzw. berechnet, dass er eine kleinere Varianz als der originale Vektor g aufweist, so dass eine Quantisierung mit einer kleineren Zahl von Bits erreicht werden kann.
  • Deshalb gibt es fünf Tonhöhenparameter, die in einem einzelnen Rahmen zu übertragen werden, nämlich L1, g1, L2, g2 und g1d.
  • 6B zeigt die Phase der LPC-Koeffizienten, die mit einer Rate, die acht Mal so hoch wie die Rahmenfrequenz ist, interpoliert sind. Die LPC-Koeffizienten werden zur Berechnung von Prädiktionsresten durch das invertierte LPC-Filter 111 von 1 und auch für die LPC-Synthesefilter 215, 225 von 2 und für die Tonhöhenspektralnachfilter 216, 226 verwendet.
  • Die Vektorquantisierung von Tonhöhenresten, wie sie vom Tonhöhenversatz und von der Tonhöhenverstärkung gefunden werden, wird nun erläutert.
  • Zur erleichterten und hochpräzisen perzeptiven Gewichtung der Vektorquantisierung werden Tonhöhenreste mit 50% Überlappung gefenstert und mit MDCT übertragen. Eine Gewichtungsvektorquantisierung wird im resultierenden Bereich ausgeführt. Obgleich die Übertragungslänge beliebig eingestellt werden kann, wird bei der vorliegenden Ausführungsform eine kleinere Zahl von Dimensionen in Anbetracht der folgenden Punkte verwendet.
    • (1) Wenn eine Vektorquantisierung von einer größeren Zahl von Dimensionen ist, werden die Verarbeitungsoperationen voluminös, was eine Aufspaltung bzw. Teilung oder Umordnung im MDCT-Bereich erfordert.
    • (2) Aufspaltung bzw. Teilung macht es schwierig, eine genaue Bitzuteilung zwischen den von der Teilung resultierenden Bändern genau auszuführen.
    • (3) Wenn die Dimensionenzahl nicht eine Potenz von 2 ist, können schnelle Operationen einer FFT verwendenden MDCT nicht benutzt werden.
  • Da die Rahmenlänge auf 20 ms (= 160 Samples/8 kHz) eingestellt ist, gilt 160/5 = 32 = 25, und folglich ist für eine mögliche Lösung der obigen Punkte (1) bis (3) die MDCT- Transformationsgröße in Hinsicht auf 50% Überlappung auf 64 eingestellt.
  • Der Zustand einer Rahmenbildung ist wie in 6C gezeigt.
  • Das heißt, in 6C sind Tonhöhenreste rp(n) in einem Rahmen von 20 ms = 160 Samples mit n = 0, 1,...,191 in fünf Subrahmen geteilt, und die Tonhöhenreste rpi(n) des i-ten der fünf Subrahmen mit i = 0, 1,...,4 sind auf rpi(n) = rp(32i + n) eingestellt, wobei n = 160,...,191 die 0,...,31 des nächsten Rahmens impliziert. Die Tonhöhenreste rpi(n) dieses Subrahmens werden mit einer Fenstertechnikfunktion w(n) multipliziert, die das MDCT-Aliasing beseitigen kann, um w(n)·rpi(n) zu erzeugen, das mit einer MDCT-Transformation verarbeitet wird. Für die Fenstertechnikfunktion w(n) kann beispielsweise
    Figure 00300001
    verwendet werden.
  • Da die MDCT-Transformation von der Transformationslänge von 64 (=26) ist, können die Transformationsberechnungen unter Verwendung einer FFT ausgeführt werden durch:
    • (1) Setzen x (n) = w(n)·rpi·exp((–2πj/64) (n/2));
    • (2) Verarbeiten von x(n) mit einer 64-Punkt-FFT, um y(k) zu erzeugen; und
    • (3) Nehmen eines Realteils von y(k)·exp((–2πj/64)(k+1/2+64/4)) und Setzen des Realteils als einen MDCT-Koeffizienten cj(k) mit k = 0, 1,...,31.
  • Der MDCT-Koeffizient cj(k) jedes Subrahmens wird mit einer Gewichtung vektorquantisiert, was nun erläutert wird. Wenn die Tonhöhenreste rpi(n) als ein Vektor r i gesetzt werden, wird die auf die Synthese folgende Distanz durch
    Figure 00300002
    dargestellt, wobei H eine Synthesefiltermatrix ist, M eine MDCT-Matrix ist, c i eine Vektordarstellung von cj (k) ist, und ĉ i eine Vektordarstellung von quantisierten ĉj (k) ist.
  • Da M dazu vorgesehen ist, HtH, wobei Ht eine transponierte Matrix von H ist, durch ihre Eigenschaften zu diagonalisieren, gilt
    Figure 00310001
    wobei n = 64 und hi als eine Frequenzantwort bzw. ein Frequenzgang des Synthesefilters gesetzt ist. Deshalb gilt
  • Figure 00310002
  • Wenn hk direkt zur Gewichtung zur Quantisierung von ci(k) verwendet wird, wird das Rauschen nach der Synthese flach, das heißt, es wird eine 100-Rauschformung erreicht. Infolgedessen wird die perzeptive Gewichtung W zur Steuerung verwendet, so dass der Formant ein Rauschen einer ähnlichen Form wird.
    Figure 00310003
    (n = 64).
  • Indessen können hi 2 und wi 2 als ein FFT-Leistungsspektrum der Impulsantwort
    Figure 00320001
    des Synthesefilters H(z) und des perzeptiven Gewichtungsfilters W(z) gefunden werden, wobei P die Analysezahl und λa, λb Koeffizienten zur Gewichtung sind.
  • In den obigen Gleichungen ist αij ein mit dem i-ten Subrahmen korrespondierender LPC-Koeffizient und kann vom interpolierten LPC-Koeffizienten gefunden werden. Das heißt, ein durch die Analyse des vorhergehenden Rahmens erhaltenes LSP0(j) und ein LSP1(j) des laufenden Rahmens werden intern geteilt, und bei der vorliegenden Ausführungsform wird das LSP des i-ten Subrahmens auf
    Figure 00320002
    gesetzt, wobei i = 0, 1, 2, 3, 4 gilt, um LSP(i)(j) zu finden. α(ij) wird dann durch eine LSP-in-α-Umwandlung gefunden. Für das so gefundene H und das so gefundene W wird W' zur Verwendung als ein Maß der Distanz zur Vektorquantisierung so gesetzt, dass es gleich WH ist (W' = WH).
  • Die Vektorquantisierung wird durch eine Form- und Verstärkungsquantisierung ausgeführt. Die optimalen Codierungs- und Decodierungsbedingungen während eines Lernens werden nun erläutert.
  • Wenn das Formcodebuch bei einem gewissen Zeitpunkt während des Lernens s ist, das Verstärkungscodebuch gleich g ist, die Eingabe während des Trainings, das heißt der MDCT-Koeffizient in jedem Subrahmen gleich x ist, und das Gewicht für jeden Subrahmen gleich W' ist, ist die Leistung D 2 für die Verzerrung zu dieser Zeit definiert durch die folgende Gleichung: D 2 = ∥W' ( x – gs )∥2
  • Die optimale Codierungsbedingung ist die Wahl von (g, s), das D 2 minimiert.
  • Figure 00330001
  • Deshalb wird als ein erster Schritt s opt, das
    Figure 00330002
    maximiert, für das Formcodebuch gesucht, und wird, für das Verstärkungscodebuch, für ein Formcodebuch gesucht, und wird gopt, das
    Figure 00330003
    am nächsten ist, für das Verstärkungscodebuch für dieses sopt gesucht.
  • Als nächstes wird die optimale Decodierungsbedingung gefunden.
  • Als der zweite Schritt wird, da die Summe von ES für die Verzerrung für einen Satz x k (k=0,..., N–1) von einem im Formcodebuch s bei einem gewissen Punkt während des Lernens codierten x gleich
    Figure 00330004
    ist, s, das die Summe minimiert, durch
    Figure 00330005
    gefunden.
  • Was das Verstärkungscodebuch betrifft, so ist die Summe der Verzerrungen Eg eines Satzes x k mit einem Gewicht W'k und der Form s k eines im Verstärkungscodebuch g codierten x gleich
    Figure 00340001
    so dass sich aus
    Figure 00340002
    ergibt.
  • Das Form- und Verstärkungscodebuch können durch einen generalisierten LLoyd-Algorithmus erzeugt werden, während der obige erste und zweite Schritt wiederholt gefunden werden.
  • Da bei der vorliegenden Ausführungsform dem Rauschen für den niedrigen Signalpegel Wichtigkeit gegeben ist, wird Lernen unter Verwendung des mit einem Kehrwert des Pegels gewichteten W'/∥x∥ anstelle von W' selbst ausgeführt.
  • Die MDCT-transformierten Tonhöhenreste werden unter Verwendung des so präparierten Codebuchs vektorquantisiert, und der dadurch erhaltene Index wird zusammen mit der LPC (tatsächlich dem LSP), der Tonhöhe und der Tonhöhenverstärkung übertragen. Die Decodiererseite führt die inverse VQ und die Tonhöhen-LPC-Synthese aus, um den wiedergegebenen Ton zu erzeugen. Bei der vorliegenden Ausführungsform wird die Zahl der Male der Tonhöhenverstärkungsberechnungen erhöht, und die Tonhöhenrest-MDCT und Vektorquantisierung werden in mehrfachen Stufen ausgeführt, um eine Höherratenoperation zu ermöglichen.
  • Ein illustratives Beispiel ist in 7A gezeigt, wobei die Zahl von Stufen gleich zwei ist und die Vektorquantisierung eine sequentielle Mehrstufen-VQ ist. Eine Eingabe in die zweite Stufe ist das decodierte Resultat der ersten Stufe subtrahiert von Tonhöhenresten höherer Präzision, die von L2, g2 und g1d erzeugt werden. Das heißt, eine Ausgabe der erststufigen MDCT-Schaltung 113 wird von der VQ-Schaltung 114 vektorquantisiert, um den repräsentativen Vektor oder eine dequantisierte Ausgabe zu finden, der bzw. die von einer inversen MDCT-Schaltung 113a invers MDCS-transformiert wird. Die resultierende Ausgabe wird zu einem Subtrahierer 128' zur Subtraktion von den Resten der zweiten Stufe (Ausgabe des Invertierttonhöhenfilters 122 von 1) gesendet. Eine Ausgabe des Subtrahierers 128' wird zu einer MDCT-Schaltung 123' gesendet, und die resultierende MDCT-transformierte Ausgabe wird von der VQ-Schaltung 124 quantisiert. Dies kann zu der äquivalenten Konfiguration der 7B, bei der eine MDCT nicht ausgeführt wird, ähnlich konfiguriert sein. 1 verwendet die Konfiguration von 7B.
  • Wenn eine Decodierung durch den in 2 gezeigten Decodierer unter Verwendung sowohl der Indizes IdxVg1 und IdxVg2 der MDCT-Koeffizienten ausgeführt wird, wird die Summe von Resultaten einer inversen VQ der Indizes IdxVg1 und IdxVg2 invers MDCT-transformiert und überlappt addiert. Danach werden eine Tonhöhensynthese und LPC-Synthese ausgeführt, um den wiedergegebenen Ton zu erzeugen. Natürlich ist die Tonhöhenversatz- und Tonhöhenverstärkungs-Aktualisierungsfrequenz während der Tonhöhensynthese gleich zweimal die der Einzelstufenkonfiguration. Infolgedessen wird bei der vorliegenden Erfindung das Tonhöhensynthesefilter so betrieben, dass es alle 80 Samples umgeschaltet wird.
  • Die Nachfilter 216, 226 des Decodierers von 2 werden nun erläutert.
  • Die Nachfilter realisieren Nachfiltercharakteristiken p(Z) durch Tonhöhenhervorhebung, Hochbereichhervorhebung und eine Tandemverbindung von Spektrumhervorhebungsfiltern.
  • Figure 00350001
  • Bei der obigen Gleichung sind gi und L die Tonhöhenverstärkung und der Tonhöhenversatz, wie sie durch Tonhöhenprädiktion gefunden werden, während v ein die Intensität einer Tonhöhenhervorhebung spezifierender Parameter wie beispielsweise v = 0,5 ist. Andererseits ist vb ein eine Hochbereichhervorhebung spezifierender Parameter wie beispielsweise vb = 0,4, während vn und vd die Intensität einer Spektrumhervorhebung spezifierende Parameter wie beispielsweise vb = 0,5, vd = 0,8 sind.
  • Die Verstärkungskorrektur wird dann an der Ausgabe s(n) des LPC-Synthesefilters und der Ausgabe sp(n) des Nachfilters mit dem Koeffizienten kadj derart gemacht, dass
    Figure 00360001
    gilt, wobei N = 80 oder 160 ist. Indessen ist kadj nicht in einem Rahmen fixiert und wird auf der Samplesbasis variiert, nachdem es durch das TPF gegangen ist. Beispielsweise wird p gleich 0,1 verwendet. kadj(n) = (1 – p)kadj(n – 1) + pkadj
  • Zur Glättung der Verbindung zwischen Rahmen werden zwei Tonhöhenhervorhebungsfilter verwendet, und das überblendete Resultat der Filterung wird als eine endgültige Ausgabe verwendet.
    Figure 00360002
    sout(n) = (1 – f(n))·sp0(n)·sp(n)
  • In der f(n) ein beispielsweise in 8 gezeigtes Fenster ist. Die 8A und 8B zeigen Fenstertechnikfunktionen für die Niedrigratenoperation bzw. für die Hochratenoperation. Das Fenster mit einer Weite von 80 Samples von 8B wird während der Synthese von 160 Samples (20 ms) zweimal verwendet.
  • Die in 1 gezeigte Codiererseiten-FQ-Schaltung 124 wird erläutert.
  • Diese VQ-Schaltung 124 weist zwei verschiedene Arten von Codebüchern für Sprache und für Musik auf, die in Reaktion auf das Eingabesignal geschaltet und gewählt werden. Das heißt, wenn die Quantisiererkonfiguration für eine Quantisierung von musikalischen Tonsignalen fixiert ist, wird das zum Quantisierer gehörende Codebuch mit den Eigenschaften der Sprache und des musikalischen Tons, wie sie während des Lernens verwendet werden, ein Optimum. Wenn infolgedessen die Sprache und der musikalische Ton zusammen gelernt werden, und wenn die zwei in ihren Eigenschaften signifikant different sind, weist das so gelernte Codebuch eine mittlere Eigenschaft der zwei auf, als ein Resultat von welchem bzw. welcher angenommen werden kann, dass der Performance- bzw. Leistungs- oder Mittel-S/N-Wert in dem Fall, bei dem der Quantisierer mit einem einzigen Codebuch konfiguriert ist, nicht erhöht ist.
  • Infolgedessen werden bei der vorliegenden Ausführungsform die unter Verwendung der Lerndaten für differente Eigenschaften aufweisende mehrere Signale präparierten Codevolumen zur Verbesserung der Quantisiererperformance bzw. -leistung geschaltet.
  • 9 zeigt eine schematische Struktur eines solche zwei Arten von Codebüchern CBA, CBB aufweisenden Vektorquantisierers.
  • Bezugnehmend auf die 9 wird ein einem Eingangsanschluss 501 zugeführtes Eingabesignal zu den Vektorquantisie rern 511, 512 gesendet. Zu diesen Vektorquantisierern 511, 512 gehören die Codebücher CBA, CBB. Die repräsentativen Vektoren oder dequantisierten Ausgaben der Vektorquantisierer 511, 512 werden zu Subtrahierern 513 bzw. 514 gesendet, wo die Differenzen vom originalen Eingabesignal gefunden werden, um Fehlerkomponenten zu erzeugen, die zu einem Komparator 515 gesendet werden. Der Komparator 515 vergleicht die Fehlerkomponenten und wählt durch einen Umschaltschalter 516 eine kleinere von Quantisierungsausgaben der Vektorquantisierer 511, 512. Der gewählte Index wird zu einem Ausgangsanschluss 502 gesendet.
  • Die Schaltungsperiode des Umschaltschalters 516 wird länger als die Periode oder die Quantisierungseinheitszeit jedes der Vektorquantisierer 511, 512 gewählt. Wenn beispielsweise die Quantisierungseinheit ein durch Teilen eines Rahmens durch acht erhaltener Subrahmen ist, wird der Umschaltschalter 516 auf der Rahmenbasis umgeschaltet.
  • Es sei angenommen, dass die nur die Sprache bzw. nur den musikalischen Ton gelernt habenden Codebücher CBA und CBB von der gleichen Größe N und von der gleichen Zahl M von Dimensionen sind. Es sei auch angenommen, dass, wenn die von L Daten eines Rahmens gebildeten L-Dimensionsdaten X mit einer Subrahmenlänge M (= L/n) vektorquantisiert werden, die auf die Quantisierung folgende Verzerrung gleich EA(k) und EB(k) sind, wenn die Codebücher CBA bzw. CBB verwendet werden. Wenn die Indizes i und j gewählt werden, werden diese Verzerrungen EA(k) und EB(k) durch EA(k) = ∥Wk(X –C Aj)∥ EB(k) = ∥Wk(X –C Bj)∥ repräsentiert, wobei Wk eine gewichtete Matrix beim Subrahmen k ist und C Aj, C Bj repräsentative Vektoren, die den Indizes i und j der Codebücher CBA bzw. CBB zugeordnet sind, bezeichnen.
  • Was die so erhaltenen zwei Verzerrungen betrifft, werden die für einen gegebenen Rahmen geeignesten Codebücher durch Was die so erhaltenen zwei Verzerrungen betrifft, werden die für einen gegebenen Rahmen geeignesten Codebücher durch die Verzerrungssumme im Rahmen verwendet. Die folgenden zwei Verfahren können für eine solche Wahl verwendet werden.
  • Das erste Verfahren ist, eine Quantisierung unter Verwendung nur der Codebücher CBA, CBB zu verwenden, um die Summe ΣkEA(k) und ΣkEB(k) der Verzerrungen im Rahmen zu finden, und das Codebuch CBA oder CBB, das eine kleinere der Summen der Verzerrungen des ganzen Rahmens ergibt, zu verwenden.
  • 10 zeigt eine Konfiguration zur Implementierung des ersten Verfahrens, bei dem die mit den in 9 gezeigten korrespondierenden Teile oder Komponenten mit den gleichen Bezugszeichen bzw. -zahlen bezeichnet sind und Anfügungsbuchstaben wie beispielsweise a, b,... mit dem Subrahmen k korrespondieren. Was das Codebuch CBA betrifft, so wird die Summe für den Rahmen von Subtraktoren 513a, 513b,...513n, welche die Subrahmen-basierten Verzerrungen ergeben, bei einem Addierer 517 gefunden. Was das Codebuch CBB betrifft, so wird die Summe für den Rahmen der Subrahmen-basierten Verzerrungen bei einem Addierer 518 gefunden. Diese Summen werden vom Komparator 515 miteinander verglichen, um ein Steuersignal oder ein Wählsignal zur Codebuchschaltung beim Anschluss 503 zu erhalten.
  • Das zweite Verfahren ist, die Verzerrungen EA(k) und EB(k) für jeden Subrahmen zu vergleichen und die Resultate des Vergleichs für die Gesamtheit der Subrahmen im Rahmen zur Schaltung der Codebuchwahl abzuschätzen bzw. zu bestimmen.
  • 11 zeigt eine Konfiguration zur Implementierung des zweiten Verfahrens, bei der eine Ausgabe des Komparators 516 zum Subrahmen-basierten Vergleich zu einer Entscheidungslogik 519 zum Treffen einer Entscheidung durch eine Majoritätsentscheidung zur Erzeugung eines Ein-Bit-Codebuchschaltungs-Wählkennzeichens bei einem Anschluss 503 gesendet wird.
  • Dieses Wählkennzeichen wird als die oben erwähnten S/M-Modusdaten (Sprach/Musik-Modusdaten) übertragen.
  • Auf diese Weise können mehrere Signale differenter Eigenschaften unter Verwendung nur eines Quantisierers effizient quantisiert werden.
  • Die Frequenzumwandlungsoperation durch die FFT-Einheit 161, die Frequenzverschiebeschaltung 162 und die inverse FFT-Schaltung 163 der 1 wird nun erläutert.
  • Die Frequenzumwandlungsverarbeitung umfasst einen Bandextraktionsschritt zum Ausgeben wenigstens eines einzelnen Bandes des Eingabesignals, einen Orthogonaltransformationsschritt zum Transformieren des Signals wenigstens eines extrahierten Bandes in ein Frequenzbereichssignal, einen Verschiebeschritt zum Verschieben des orthogonaltransformierten Signals auf dem Frequenzbereich zu einer anderen Position oder einem anderen Band, und einen inversen Orthogonaltransformationsschritt zur Umwandlung des auf dem Frequenzbereich verschobenen Signals durch eine inverse orthogonale Transformation in Zeitbereichssignale.
  • 12 zeigt die Struktur für die oben erwähnte Frequenztransformation detaillierter. In 12 sind Teile oder Komponenten, die mit denen der 1 korrespondieren, durch die gleichen Zeichen bzw. Zahlen bezeichnet. In 12 werden Breitbereich-Sprachsignale, die Komponenten von 0 bis 8 kHz mit der Abtastfrequenz von 16 kHz aufweisen, dem Eingangsanschluss 101 zugeführt. Vom Breitband-Sprachsignal vom Eingangsanschluss 101 wird das Band von beispielsweise 0 bis 3,8 kHz durch das Tiefpassfilter 102 als das Niedrigbereichssignal separiert, und die durch Subtraktion des Niedrigbereichsseitesignals vom originalen Breitbandsignal durch den Subtraktor 151 erhaltenen verbleibenden Frequenzkomponenten werden als die Hochfrequenzkomponente separiert. Diese Niedrigbereichs- und Hochbereichssignale werden separat verarbeitet.
  • Das Hochbereichsseitesignal weise eine Frequenzweite von 4,5 kHz in einem Bereich von 3,5 kHz bis 8 kHz auf, das nach Durchgang durch das TPF 102 noch belassen wird. Diese Bandbreite muss in Hinsicht auf eine Signalverarbeitung mit Niederabtastung auf 4 kHz reduziert werden. Bei der vorliegenden Ausführungsform wird das von 7,5 kHz bis 8 kHz reichende Band von 0,5 kHz durch ein Bandpassfilter (BPF) 107 oder ein TPF abgeschnitten.
  • Dann wird eine schnelle Fourier-Transformation (FFT) zur Frequenzumwandlung zu einer Niedrigbereichsseite verwendet. Jedoch vor der FFT wird die Zahl von Samples bei einem Intervall einer Zahl von Samples gleich Potenzen von 2, beispielsweise 512 Samples wie beispielsweise für das Beispiel in 13A gezeigt geteilt. Jedoch werden die Samples zur Erleichterung der nachfolgenden Verarbeitung alle 80 Samples vorbewegt.
  • Ein Hamming-Fenster einer Länge von 320 Samples wird dann von einer Hamming-Fenstertechnikschaltung 109 angewendet. Die Sampleszahl von 320 ist viermal so groß wie 80 gewählt, das die Zahl ist, durch welche die Samples zur Zeit der Rahmenteilung vorbewegt werden. Dies erlaubt, dass vier Wellenformen später bei der Überlagerung zur Zeit der wie in 13B gezeigten Rahmensynthese durch Überlappen-und-Addieren addiert werden.
  • Die 512-Samplesdaten werden dann von der FFT-Schaltung 161 zur Umwandlung in Frequenzbereichsdaten FFT-transformiert.
  • Die Frequenzbereichsdaten werden dann von der Frequenzverschiebeschaltung 162 zu einer anderen Position oder zu einem anderen Bereich auf der Frequenzachse verschoben. Das Prinzip der Erniedrigung der Abtastfrequenz durch diese Verschiebung auf der Frequenzachse ist, das in der 14A schraffiert gezeigte Hochbereichsseitesignal zu einer wie in 14B angedeuteten Niedrigbereichsseite zu verschieben und das Signal, wie in 14C gezeigt, niederzusampeln. Die mit fs/2 als Zentrum zur Zeit der Verschiebung auf der Frequenzachse von 14A nach 14B aliasierten Frequenzkomponenten werden in der entgegengesetzten Richtung verschoben. Dies erlaubt, dass die Abtastfrequenz auf fs/n erniedrigt wird, wenn der Bereich des Subbandes niedriger als fs/2n ist.
  • Es reicht für die Frequenzverschiebeschaltung 162 aus, die in 15 schraffiert gezeigten Hochbereichsseite- Frequenzbereichsdaten zu einer Niedrigbereichsseiteposition oder einem Niedrigbereichsseiteband auf der Frequenzachse zu verschieben. Insbesondere werden bei der FFT-Transformation von 512 Zeitbereichsdaten erhaltene 512 Frequenzbereichsdaten so verarbeitet, dass 127 Daten, nämlich 113-te bis 239-te zur ersten bis 127-ten Position oder zum ersten bis 127-ten Band verschoben werden, während 127 Daten, nämlich die 273-ten bis 399-ten Daten jeweils zur 395-ten bis 511-ten Position oder zum 395-ten bis 511-ten Band verschoben werden. Zu dieser Zeit ist es kritisch, dass die 112-ten Frequenzbereichsdaten nicht zur 0-ten Position oder zum 0-ten Band verschoben werden. Der Grund ist, dass die 0-ten Daten des Frequenzbereichssignals eine Gleichsignal- bzw. DC-Komponente und frei von einer Phasenkompenente sind, so dass Daten bei dieser Position eine reelle Zahl derart sein müssen, dass die Frequenzkomponente, die generell eine komplexe Zahl ist, nicht in diese Position eingebracht werden kann. Außerdem sind die fs/2 darstellenden 256-ten Daten, generell die N/2-ten Daten, auch ungültig und werden nicht benutzt. Das heißt, der Bereich von 0 bis 4 kHz sollte korrekter als 0 < f < 4 kHz dargestellt sein.
  • Die verschobenen Daten werden von der inversen FFT-Schaltung 163 zur Wiederherstellung der Frequenzbereichsdaten in Zeitbereichsdaten invers FFT-transformiert. Dies ergibt Zeitbereichsdaten alle 512 Samples. Diese 512-Sample-basierten Zeitbereichssignale werden von der Überlapp-und-Addier-Schaltung 166, wie in 13B gezeigt, alle 80 Samples überlappt, zur Summierung der überlappten Abschnitte.
  • Das von der Überlapp-und-Addier-Schaltung 166 erhaltene Signal wird durch eine 16 kHz-Abtastung auf 0 bis 4 kHz begrenzt und wird folglich von der Niederabtastschaltung 164 niederabgetastet. Dies ergibt ein Signal von 0 bis 4 kHz durch Frequenzverschiebung mit 8 kHz-Abtastung. Dieses Signal wird an einem Ausgangsanschluss 169 ausgegeben und dann der LPC-Analysequantisierungseinheit 130 und dem LPC-Invertiertfilter 171, die in 1 gezeigt sind, zugeführt.
  • Die Decodierungsoperation auf der Decodiererseite wird durch eine in 16 gezeigte Konfiguration implementiert.
  • Die Konfiguration von 16 korrespondiert mit der Konfiguration stromabwärts der Hochabtastschaltung 233 in 2, und folglich sind die korrespondierenden Abschnitte mit den gleichen Zahlen bezeichnet. Wenn in 2 der FFT-Verarbeitung die Hochabtastung vorausgeht, so folgt bei der Ausführungsform von 16 der FFT-Verarbeitung die Hochabtastung.
  • In 16 wird das durch 8 kHz-Abtastung zu 0 bis 4 kHz verschobene Hochbereichsseitesignal wie beispielsweise ein Ausgabesignal des Hochbereichsseite-LPC-Synthesefilters 232 von 2 dem Anschluss 241 von 16 zugeführt.
  • Dieses Signal wird von der Rahmenteilungsschaltung 242 in Signale, die eine Rahmenlänge von 256 Samples mit einer Vorbringungsdistanz von 80 Samples aus dem gleichen Grund wie das zur Rahmenteilung auf der Codiererseite geteilt. Jedoch ist die Zahl von Samples halbiert, da die Abtastfrequenz halbiert ist. Das Signal von der Rahmenteilungsschaltung 242 wird durch eine Hamming-Fenstertechnikschaltung 243 mit einem 160 Samples langen Hamming-Fenster in der gleichen Weise wie für die Codiererseite (die Zahl Samples ist jedoch die Hälfte) multipliziert.
  • Das resultierende Signal wird dann durch die FFT-Schaltung 234 zur Umwandlung des Signals von der Zeitachse auf die Frequenzachse mit einer Länge von 256 Samples FFT-transformiert. Die nächste Hochabtastungsschaltung 244 erzeugt von der Rahmenlänge von 216 Samples eine 512-Sample-Rahmenlänge durch wie in 15B gezeigtes Nullstopfen. Dies korrespondiert mit einer Umwandlung von 14C in 14B.
  • Die Frequenzverschiebungsschaltung 235 verschiebt dann die Frequenzbereichsdaten zu einer anderen Position oder einem anderen Band auf der Frequenzachse zur Frequenzverschiebung um + 3,5 kHz. Dies korrespondiert mit einer Umwandlung von 14B in 14A.
  • Die resultierenden Frequenzbereichssignale werden zur Wiederherstellung von Zeitbereichssignalen durch eine inverse FFT-Schaltung 236 invers FFT-transformiert. Die Signale von der inversen FFT-Schaltung 236 reichen von 3,5 kHz bis 7,5 kHz mit einer 16 kHz-Abtastung.
  • Die nächste Überlapp-und-Addier-Schaltung 237 überlappaddiert die Zeitbereichssignale alle 80 Samples für jeden 212-Samplerahmen zur Wiederherstellung kontinuierlicher Zeitbereichssignale. Das resultierende Hochbereichsseitesignal wird von einem Addierer 228 zum Niedrigbereichseitesignal summiert, und das resultierende Summensignal wird am Ausgangsanschluss 229 ausgegeben.
  • Zur Frequenzumwandlung sind spezifische Figuren oder Werte nicht auf die bei den oben beschriebenen Ausführungsformen beschränkt. Außerdem ist die Zahl von Bändern nicht auf eins beschränkt.
  • Wenn beispielsweise die Schmalbandsignale von 300 kHz bis 3,4 kHz und die Breitbandsignale von 0 bis 7 kHz wie in 17 gezeigt durch 16 kHz-Abtastung erzeugt werden, ist das Niedrigbereichsignal von 0 bis 300 kHz nicht im schmalen Band enthalten. Die Hochbereichsseite von 3,4 kHz bis 7 kHz ist zu einem Bereich von 300 kHz bis 3,9 kHz verschoben, damit es mit der Niedrigbereichsseite kontaktiert ist, wobei das resultierende Signal von 0 bis 3,9 kHz reicht, so dass die Abtastfrequenz fs halbiert sein kann, das heißt 8 kHz sein kann.
  • Allgemeiner ausgedrückt, wenn ein Breitbandsignal mit einem im Breitbandsignal enthaltenden Schmalbandsignal gemultiplext wird, wird das Schmalbandsignal vom Breitbandsignal subtrahiert, und Hochbereichkomponenten im restlichen Signal werden zur Erniedrigung der Samplingrate zur Niedrigbereichsseite verschoben.
  • Auf diese Weise kann ein Subband einer beliebigen Frequenz von einer anderen beliebigen Frequenz erzeugt und mit einer Abtastfrequenz zweimal die Frequenzweite für flexibles Kopieren mit gegebenen Anwendungen verarbeitet werden.
  • Wenn der Quantisierungsfehler aufgrund einer niedrigen Bitrate größer ist, wird in der Nachbarschaft der Bandteilungsfrequenz mit der Verwendung einer QMF üblicherweise das Aliasingrauschen erzeugt. Ein solches Aliasingrauschen kann mit dem vorliegenden Verfahren zur Frequenzumwandlung vermieden werden.
  • Die vorliegende Erfindung ist nicht auf die oben beschriebenen Ausführungsformen beschränkt. Beispielsweise können die Konfiguration des Sprachcodierers von 1 oder die Konfiguration des Sprachdecodierers von 2, die durch Hardware repräsentiert sind, auch durch ein einen Digitalsignalprozessor (digital signal processor (DSP)) verwendendes Softwareprogramm implementiert sein. Auch können mehrere Rahmen von Daten gesammelt und mit Matrixquantisierung anstelle mit Vektorquantisierung quantisiert werden. Außerdem ist das Sprachcodierungs- oder -decodierungsverfahren gemäß der vorliegenden Erfindung nicht auf die oben beschriebene besondere Konfiguration beschränkt. Auch kann die vorliegende Erfindung auf eine Vielfalt von Verwendungen wie beispielsweise Tonhöhen- oder Geschwindigkeitsumwandlung, computerisierte Sprachsynthese oder Rauschunterdrückung angewendet werden, ohne auf Übertragung oder Aufzeichnung/Wiedergabe beschränkt zu sein.
  • Der oben beschriebene Signalcodierer und -decodierer kann als ein in einem tragbaren Kommunikationsendgerät oder einem tragbaren Telefon, wie sie beispielsweise in den 18 und 19 gezeigt sind, verwendeter Sprach-Codec verwendet werden.
  • 18 zeigt die Konfiguration eines Senders des eine wie beispielsweise in 1 und 3 gezeigt konfigurierte Sprachcodierungseinheit 160 verwendenden Endgeräts. Das von einem Mikrofon 661 in 18 gesammelte bzw. aufgenommene Sprachsignal wird von einem Verstärker 662 verstärkt und von einem A/D-Wandler 663 in ein digitales Signal umgewandelt, das zu einer Sprachcodierungseinheit 660 gesendet wird. Diese Sprachcodierungseinheit 660 ist wie in den 1 und 3 gezeigt konfiguriert. Dem Eingangsanschluss 101 der Codierungseinheit 660 wird das digitale Signal vom A/D-Wandler 663 zugeführt. Die Sprachcodierungseinheit 660 führt eine wie in Verbindung mit den 1 und 3 erläuterte Co dierung aus. Ausgangssignale der Ausgangsanschlüsse der 1 und 3 werden als Ausgabesignale der Sprachcodierungseinheit 660 zu einer Übertragungspfad-Codierungseinheit 664 gesendet, wo eine Kanaldecodierung ausgeführt wird, und die resultierenden Ausgabesignale werden zu einer Modulationsschaltung 665 gesendet und demoduliert, um über einen D/A-Wandler 666 und einen RF-Verstärker 667 zu einer Antenne 668 gesendet zu werden.
  • 19 zeigt eine Konfiguration einer Empfangsseite des eine wie in 2 gezeigt konfigurierte Sprachcodierungseinheit 760 verwendenden tragbaren Endgeräts. Das von der Antenne 761 der 19 empfangene Sprachsignal wird von einem HF- bzw. RF-Verstärker 762 verstärkt und über einen A/D-Wandler 763 zu einer Demodulationsschaltung 764 gesendet, so dass demodulierte Signale einer Übertragungspfad-Decodierungseinheit 765 zugeführt werden. Ein Ausgabesignal der Demodulationsschaltung 764 wird zu einer wie in 2 gezeigt konfigurierten Sprachcodierungseinheit 760 gesendet. Die Sprachcodierungseinheit 760 führt eine wie in Verbindung mit 2 erläuterte Signaldecodierung aus. Ein Ausgabesignal des Ausgangsanschlusses 201 von 2 wird als ein Signal der Sprachcodierungseinheit 760 zu einem D/A-Wandler 766 gesendet. Ein analoges Sprachsignal vom D/A-Wandler 766 wird über einen Verstärker 767 zu einem Lautsprecher 768 gesendet.

Claims (10)

  1. Signalcodierungsgerät, aufweisend: eine Bandteilungseinrichtung (12) zum Teilen eines Eingabesignals in mehrere Frequenzbänder zur Bereitstellung mehrerer geteilter Frequenzbänder, und eine Codierungseinrichtung (21, 22, 23, 24, 25) zum Codieren der Signale jedes der mehreren geteilten Frequenzbänder in auf jeweilige Signalcharakteristiken jedes der mehreren Frequenzbänder reagierenden jeweiligen Weisen, dadurch gekennzeichnet, dass die Codierungseinrichtung zusätzlich zum Multiplexen eines eine erste Bitrate aufweisenden und mit einer der mehreren Codierungsweisen korrespondierenden Bitstroms eines ersten codierten Signals (31, 33, 34, 35) und eines eine von der ersten Bitrate verschiedene zweite Bitrate aufweisenden und mit einer nicht zum Bitstrom des ersten codierten Signals gemeinsam gehörenden anderen der mehreren Codierungsweisen korrespondierenden Abschnitts eines Bitstroms eines zweiten codierten Signals (32) ist.
  2. Signalcodierungsgerät nach Anspruch 1, wobei die Bandteilungseinrichtung (12) ein Breitbandeingabesignal in wenigstens ein Signal eines Telefonbandes und ein Signal auf einer Seite höher als das Telefonband teilt.
  3. Signalcodierungsgerät nach Anspruch 1 oder 2, wobei die Codierungseinrichtung (21, 22, 23, 24, 25) aufweist: eine Einrichtung (111) zum Finden kurzfristiger Prädiktionsreste durch eine am Signal der niedrigeren Seite der geteilten Frequenzbänder ausgeführte kurzfristige Prädiktion, eine Einrichtung (112) zum Finden langfristiger Prädiktionsreste durch Ausführen einer langfristigen Prädiktion an den so gefundenen kurzfristigen Prädiktionsresten, und eine Orthogonaltransformationseinrichtung (113) zum Orthogonaltransformieren der so gefundenen langfristigen Prädiktionsreste.
  4. Portables Radioendgerät mit einer Antenne (668), wobei das Gerät aufweist: eine erste Verstärkereinrichtung (662) zum Verstärken eines Eingabesprachsignals zur Bereitstellung eines ersten verstärkten Signals, eine A/D-Wandlereinrichtung (663) zum A/D-Wandeln des ersten verstärkten Signals, eine Sprachcodierungseinrichtung (660) zum Codieren eines Ausgabesignals der A/D-Wandlereinrichtung zur Bereitstellung eines codierten Signals, eine Übertragungspfad-Codierungseinrichtung (664) zum Kanaldecodieren des codierten Signals, eine Modulationseinrichtung (665) zum Modulieren eines Ausgabesignals der Übertragungspfad-Codierungseinrichtung zur Bereitstellung eines modulierten Signals, eine D/A-Wandlereinrichtung (666) zum D/A-Wandeln des modulierten Signals, und eine zweite Verstärkereinrichtung (667) zum Verstärken eines Signals aus der D/A-Wandlereinrichtung zur Bereitstellung eines zweiten verstärkten Signals und zum Zuführen des zweiten verstärkten Signals zur Antenne, wobei die Sprachcodierungseinrichtung ein Signalcodierungsgerät nach Anspruch 1, 2 oder 3 aufweist.
  5. Verfahren zum Multiplexen eines codierten Signals, aufweisend die Schritte: Codieren (21) eines Eingabesignals mit einer eine erste Bitrate verwendenden ersten Codierung zur Bereitstellung eines Bitstroms eines ersten codierten Signals (31), und Codieren (22) des Eingabesignals mit einer zweiten Codierung zur Bereitstellung eines Bitstroms eines zweiten codierten Signals, wobei der Bitstrom des zweiten codierten Signals (32) einen mit einem Abschnitt eines ersten codierten Signals gemeinsamen ersten Abschnitt und einen mit dem ersten codieren Signal nicht gemeinsamen zweiten Abschnitt aufweist, wobei die zweite Codierung eine von der ersten Bitrate verschiedene zweite Bitrate anwendet, und gekennzeichnet durch den zusätzlichen Schritt: Multiplexen des Bitstroms des ersten codierten Signals und des nicht zum Bitstrom des ersten codierten Signals gemeinsam gehörenden zweiten Abschnitts des Bitstroms des zweiten codierten Signals.
  6. Multiplexverfahren nach Anspruch 5, wobei das zweite codierte Signal durch Codieren eines in ein Signal eines Telefonbandes und ein Signal in der Frequenz höher als das Telefonband geteiltes Breitbandeingabesignal erhalten wird.
  7. Multiplexverfahren nach Anspruch 5 oder 6, wobei der gemeinsame Abschnitt das von linearen Prädiktionsparametern des Eingabesignals abgeleitete codierte Signal ist.
  8. Multiplexverfahren nach Anspruch 5, 6 oder 7, wobei der gemeinsame Abschnitt Daten sind, die bei einer linearen prädiktiven Analyse des Eingabesignals gefolgt von einer Quantisierung (130) von lineare Prädiktionskoeffizienten darstellenden Parametern erhalten werden.
  9. Gerät zum Multiplexen eines codierten Signals, aufweisend: eine Einrichtung zum Multiplexen eines Bitstroms eines bei einer ersten Codierung (21) eines eine erste Bitrate verwendenden Eingabesignals erhaltenen ersten codierten Signals (31) und eines Bitstroms eines bei einer zweiten Codierung (22) des Eingabesignals erhaltenen zweiten codierten Signals (32), wobei der Bitstrom des zweiten codierten Signals einen mit nur einem Abschnitt des Bitstroms des ersten codierten Signals gemeinsamen ersten Abschnitt und einen nicht mit dem Bitstrom des ersten codierten Signals gemeinsamen zweiten Abschnitt aufweist, wobei die zweite Codierung (22) eine von einer Bitrate der ersten Codierung verschiedene zweite Bitrate verwendet, wobei der Bitstrom des ersten codierten Signals (31) mit dem zweiten Abschnitt des Bitstroms zweiten codierten Signals (32), der den zum Bitstrom des ersten codierten Signals (31) gemeinsam gehörenden ersten Abschnitt desselben ausschließt, gemultiplext ist.
  10. Portables Radioendgerät mit einer Antenne (668), aufweisend: eine erste Verstärkereinrichtung (662) zur Verstärkung eines Eingabesprachsignals zur Bereitstellung eines ersten verstärkten Signals, eine A/D-Wandlereinrichtung (663) zum A/D-Wandeln des verstärkten Signals, eine Sprachcodierungseinrichtung (660) zum Codieren eines Ausgangssignals der A/D-Wandlereinrichtung zur Bereitstellung eines codierten Signals, eine Übertragungspfad-Codierungseinrichtung (664) zur Kanalcodierung des codierten Signals, eine Modulationseinrichtung (665) zum Modulieren eines Ausgangssignals der Übertragungspfad-Codierungseinrichtung zur Bereitstellung eines modulierten Signals, eine D/A-Wandlereinrichtung (666) zum D/A-Wandeln des modulierten Signals, und eine zweite Verstärkereinrichtung (667) zum Verstärken eines Signals aus der D/A-Wandlereinrichtung zur Bereitstellung eines zweiten verstärkten Signals und zum Zuführen des zweiten verstärkten Signals der Antenne, wobei die Sprachcodierungseinrichtung außerdem aufweist: ein Gerät nach Anspruch 9.
DE69631728T 1995-10-26 1996-10-25 Verfahren und Vorrichtung zur Sprachkodierung Expired - Lifetime DE69631728T2 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP7302199A JPH09127987A (ja) 1995-10-26 1995-10-26 信号符号化方法及び装置
JP7302130A JPH09127986A (ja) 1995-10-26 1995-10-26 符号化信号の多重化方法及び信号符号化装置
JP30213095 1995-10-26
JP30219995 1995-10-26

Publications (2)

Publication Number Publication Date
DE69631728D1 DE69631728D1 (de) 2004-04-08
DE69631728T2 true DE69631728T2 (de) 2005-02-10

Family

ID=26562996

Family Applications (2)

Application Number Title Priority Date Filing Date
DE69634645T Expired - Lifetime DE69634645T2 (de) 1995-10-26 1996-10-25 Verfahren und Vorrichtung zur Sprachkodierung
DE69631728T Expired - Lifetime DE69631728T2 (de) 1995-10-26 1996-10-25 Verfahren und Vorrichtung zur Sprachkodierung

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE69634645T Expired - Lifetime DE69634645T2 (de) 1995-10-26 1996-10-25 Verfahren und Vorrichtung zur Sprachkodierung

Country Status (8)

Country Link
US (1) US5819212A (de)
EP (2) EP1262956B1 (de)
KR (1) KR970024629A (de)
CN (1) CN1096148C (de)
AU (1) AU725251B2 (de)
BR (1) BR9605251A (de)
DE (2) DE69634645T2 (de)
TW (1) TW321810B (de)

Families Citing this family (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0856185B1 (de) * 1995-10-20 2003-08-13 America Online, Inc. Kompressionsystem für sich wiederholende töne
US6904404B1 (en) * 1996-07-01 2005-06-07 Matsushita Electric Industrial Co., Ltd. Multistage inverse quantization having the plurality of frequency bands
JPH10105195A (ja) * 1996-09-27 1998-04-24 Sony Corp ピッチ検出方法、音声信号符号化方法および装置
FI114248B (fi) * 1997-03-14 2004-09-15 Nokia Corp Menetelmä ja laite audiokoodaukseen ja audiodekoodaukseen
US6208962B1 (en) * 1997-04-09 2001-03-27 Nec Corporation Signal coding system
JP3235526B2 (ja) * 1997-08-08 2001-12-04 日本電気株式会社 音声圧縮伸長方法及びその装置
JP3279228B2 (ja) * 1997-08-09 2002-04-30 日本電気株式会社 符号化音声復号装置
US6889185B1 (en) * 1997-08-28 2005-05-03 Texas Instruments Incorporated Quantization of linear prediction coefficients using perceptual weighting
JP3765171B2 (ja) * 1997-10-07 2006-04-12 ヤマハ株式会社 音声符号化復号方式
JP3199020B2 (ja) * 1998-02-27 2001-08-13 日本電気株式会社 音声音楽信号の符号化装置および復号装置
KR100304092B1 (ko) 1998-03-11 2001-09-26 마츠시타 덴끼 산교 가부시키가이샤 오디오 신호 부호화 장치, 오디오 신호 복호화 장치 및 오디오 신호 부호화/복호화 장치
WO1999050828A1 (en) * 1998-03-30 1999-10-07 Voxware, Inc. Low-complexity, low-delay, scalable and embedded speech and audio coding with adaptive frame loss concealment
EP0957579A1 (de) * 1998-05-15 1999-11-17 Deutsche Thomson-Brandt Gmbh Verfahren und Vorrichtung zur Abtastrateumsetzung von Audiosignalen
JP3541680B2 (ja) * 1998-06-15 2004-07-14 日本電気株式会社 音声音楽信号の符号化装置および復号装置
SE521225C2 (sv) 1998-09-16 2003-10-14 Ericsson Telefon Ab L M Förfarande och anordning för CELP-kodning/avkodning
US6266643B1 (en) 1999-03-03 2001-07-24 Kenneth Canfield Speeding up audio without changing pitch by comparing dominant frequencies
JP2000330599A (ja) * 1999-05-21 2000-11-30 Sony Corp 信号処理方法及び装置、並びに情報提供媒体
FI116992B (fi) * 1999-07-05 2006-04-28 Nokia Corp Menetelmät, järjestelmä ja laitteet audiosignaalin koodauksen ja siirron tehostamiseksi
JP3784583B2 (ja) * 1999-08-13 2006-06-14 沖電気工業株式会社 音声蓄積装置
US7315815B1 (en) 1999-09-22 2008-01-01 Microsoft Corporation LPC-harmonic vocoder with superframe structure
CA2310769C (en) * 1999-10-27 2013-05-28 Nielsen Media Research, Inc. Audio signature extraction and correlation
WO2001059603A1 (en) * 2000-02-09 2001-08-16 Cheng T C Fast method for the forward and inverse mdct in audio coding
US6606591B1 (en) * 2000-04-13 2003-08-12 Conexant Systems, Inc. Speech coding employing hybrid linear prediction coding
ES2287122T3 (es) * 2000-04-24 2007-12-16 Qualcomm Incorporated Procedimiento y aparato para cuantificar de manera predictiva habla sonora.
KR100378796B1 (ko) * 2001-04-03 2003-04-03 엘지전자 주식회사 디지탈 오디오 부호화기 및 복호화 방법
US7272153B2 (en) * 2001-05-04 2007-09-18 Brooktree Broadband Holding, Inc. System and method for distributed processing of packet data containing audio information
US20030035384A1 (en) * 2001-08-16 2003-02-20 Globespan Virata, Incorporated Apparatus and method for concealing the loss of audio samples
US7512535B2 (en) * 2001-10-03 2009-03-31 Broadcom Corporation Adaptive postfiltering methods and systems for decoding speech
US7706402B2 (en) * 2002-05-06 2010-04-27 Ikanos Communications, Inc. System and method for distributed processing of packet data containing audio information
KR100462611B1 (ko) * 2002-06-27 2004-12-20 삼성전자주식회사 하모닉 성분을 이용한 오디오 코딩방법 및 장치
KR100516678B1 (ko) * 2003-07-05 2005-09-22 삼성전자주식회사 음성 코덱의 음성신호의 피치검출 장치 및 방법
WO2005027094A1 (fr) * 2003-09-17 2005-03-24 Beijing E-World Technology Co.,Ltd. Procede et dispositif de quantification de vecteur multi-resolution multiple pour codage et decodage audio
EP1688917A1 (de) * 2003-12-26 2006-08-09 Matsushita Electric Industries Co. Ltd. Vokal/musikalische kodierungsvorrichtung und -methode
WO2007075098A1 (en) * 2005-12-26 2007-07-05 Intel Corporation Generalized multi-threshold decoder for low-density parity check codes
US7668712B2 (en) * 2004-03-31 2010-02-23 Microsoft Corporation Audio encoding and decoding with intra frames and adaptive forward error correction
WO2005096509A1 (en) * 2004-03-31 2005-10-13 Intel Corporation Multi-threshold message passing decoding of low-density parity check codes
BRPI0514940A (pt) * 2004-09-06 2008-07-01 Matsushita Electric Ind Co Ltd dispositivo de codificação escalável e método de codificação escalável
EP1840874B1 (de) * 2005-01-11 2019-04-10 NEC Corporation Vorrichtung, verfahren und programm zur audiokodierung
JP4800645B2 (ja) * 2005-03-18 2011-10-26 カシオ計算機株式会社 音声符号化装置、及び音声符号化方法
US7831421B2 (en) * 2005-05-31 2010-11-09 Microsoft Corporation Robust decoder
US7177804B2 (en) * 2005-05-31 2007-02-13 Microsoft Corporation Sub-band voice codec with multi-stage codebooks and redundant coding
US7707034B2 (en) * 2005-05-31 2010-04-27 Microsoft Corporation Audio codec post-filter
JP5032314B2 (ja) * 2005-06-23 2012-09-26 パナソニック株式会社 オーディオ符号化装置、オーディオ復号化装置およびオーディオ符号化情報伝送装置
KR101171098B1 (ko) * 2005-07-22 2012-08-20 삼성전자주식회사 혼합 구조의 스케일러블 음성 부호화 방법 및 장치
US8281210B1 (en) * 2006-07-07 2012-10-02 Aquantia Corporation Optimized correction factor for low-power min-sum low density parity check decoder (LDPC)
US8239190B2 (en) * 2006-08-22 2012-08-07 Qualcomm Incorporated Time-warping frames of wideband vocoder
JP4827661B2 (ja) * 2006-08-30 2011-11-30 富士通株式会社 信号処理方法及び装置
RU2464650C2 (ru) * 2006-12-13 2012-10-20 Панасоник Корпорэйшн Устройство и способ кодирования, устройство и способ декодирования
KR101412255B1 (ko) * 2006-12-13 2014-08-14 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 부호화 장치, 복호 장치 및 이들의 방법
EP2128858B1 (de) * 2007-03-02 2013-04-10 Panasonic Corporation Kodiervorrichtung und kodierverfahren
KR101403340B1 (ko) * 2007-08-02 2014-06-09 삼성전자주식회사 변환 부호화 방법 및 장치
EP2214163A4 (de) * 2007-11-01 2011-10-05 Panasonic Corp Codierungseinrichtung, decodierungseinrichtung und verfahren dafür
US8631060B2 (en) * 2007-12-13 2014-01-14 Qualcomm Incorporated Fast algorithms for computation of 5-point DCT-II, DCT-IV, and DST-IV, and architectures
EP2077550B8 (de) 2008-01-04 2012-03-14 Dolby International AB Audiokodierer und -dekodierer
EP2269188B1 (de) * 2008-03-14 2014-06-11 Dolby Laboratories Licensing Corporation Multimodale kodierung sprachähnlicher und sprachunähnlicher signale
KR20090122143A (ko) * 2008-05-23 2009-11-26 엘지전자 주식회사 오디오 신호 처리 방법 및 장치
ES2650492T3 (es) * 2008-07-10 2018-01-18 Voiceage Corporation Dispositivo y método de cuantificación de filtro LPC de múltiples referencias
WO2010044593A2 (ko) 2008-10-13 2010-04-22 한국전자통신연구원 Mdct 기반 음성/오디오 통합 부호화기의 lpc 잔차신호 부호화/복호화 장치
KR101649376B1 (ko) 2008-10-13 2016-08-31 한국전자통신연구원 Mdct 기반 음성/오디오 통합 부호화기의 lpc 잔차신호 부호화/복호화 장치
FR2938688A1 (fr) * 2008-11-18 2010-05-21 France Telecom Codage avec mise en forme du bruit dans un codeur hierarchique
KR20110001130A (ko) * 2009-06-29 2011-01-06 삼성전자주식회사 가중 선형 예측 변환을 이용한 오디오 신호 부호화 및 복호화 장치 및 그 방법
US8428959B2 (en) * 2010-01-29 2013-04-23 Polycom, Inc. Audio packet loss concealment by transform interpolation
JP5651980B2 (ja) * 2010-03-31 2015-01-14 ソニー株式会社 復号装置、復号方法、およびプログラム
WO2011122875A2 (ko) * 2010-03-31 2011-10-06 한국전자통신연구원 부호화 방법 및 장치, 그리고 복호화 방법 및 장치
EP3779981B1 (de) * 2010-04-13 2023-06-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio- oder videocodierer, audio- oder videodecodierer und zugehörige verfahren zur verarbeitung von mehrkanaligen audio- oder -videosignalen mittels variabler prädiktionsrichtung
EP3079152B1 (de) 2010-07-02 2018-06-06 Dolby International AB Audiodekodierung mit selektiver nachfilterung
JP5749462B2 (ja) * 2010-08-13 2015-07-15 株式会社Nttドコモ オーディオ復号装置、オーディオ復号方法、オーディオ復号プログラム、オーディオ符号化装置、オーディオ符号化方法、及び、オーディオ符号化プログラム
WO2012144128A1 (ja) * 2011-04-20 2012-10-26 パナソニック株式会社 音声音響符号化装置、音声音響復号装置、およびこれらの方法
US9264094B2 (en) 2011-06-09 2016-02-16 Panasonic Intellectual Property Corporation Of America Voice coding device, voice decoding device, voice coding method and voice decoding method
JP5801614B2 (ja) * 2011-06-09 2015-10-28 キヤノン株式会社 画像処理装置、画像処理方法
US9070361B2 (en) * 2011-06-10 2015-06-30 Google Technology Holdings LLC Method and apparatus for encoding a wideband speech signal utilizing downmixing of a highband component
JP5839848B2 (ja) 2011-06-13 2016-01-06 キヤノン株式会社 画像処理装置、画像処理方法
US9947331B2 (en) * 2012-05-23 2018-04-17 Nippon Telegraph And Telephone Corporation Encoding method, decoding method, encoder, decoder, program and recording medium
CN104282308B (zh) 2013-07-04 2017-07-14 华为技术有限公司 频域包络的矢量量化方法和装置
KR101883789B1 (ko) * 2013-07-18 2018-07-31 니폰 덴신 덴와 가부시끼가이샤 선형 예측 분석 장치, 방법, 프로그램 및 기록 매체
US10146500B2 (en) * 2016-08-31 2018-12-04 Dts, Inc. Transform-based audio codec and method with subband energy smoothing
EP3836027A4 (de) * 2018-08-10 2022-07-06 Yamaha Corporation Verfahren und vorrichtung zur erzeugung eines frequenzkomponentenvektors von zeitreihendaten
WO2021076297A1 (en) * 2019-10-19 2021-04-22 Google Llc Self-supervised pitch estimation
CN110708126B (zh) * 2019-10-30 2021-07-06 中电科思仪科技股份有限公司 一种宽带集成矢量信号调制装置及方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3750024A (en) * 1971-06-16 1973-07-31 Itt Corp Nutley Narrow band digital speech communication system
DE3226313A1 (de) * 1981-07-15 1983-02-03 Canon Kk Einrichtung zur informationsverarbeitung
CA1288182C (en) * 1987-06-02 1991-08-27 Mitsuhiro Azuma Secret speech equipment
CN1011991B (zh) * 1988-08-29 1991-03-13 里特机械公司 在纺织机械内的一种加热方法
JPH02272500A (ja) * 1989-04-13 1990-11-07 Fujitsu Ltd コード駆動音声符号化方式
IT1232084B (it) * 1989-05-03 1992-01-23 Cselt Centro Studi Lab Telecom Sistema di codifica per segnali audio a banda allargata
JPH03117919A (ja) * 1989-09-30 1991-05-20 Sony Corp ディジタル信号符号化装置
CA2010830C (en) * 1990-02-23 1996-06-25 Jean-Pierre Adoul Dynamic codebook for efficient speech coding based on algebraic codes
DE9006717U1 (de) * 1990-06-15 1991-10-10 Philips Patentverwaltung GmbH, 22335 Hamburg Anrufbeantworter für die digitale Aufzeichnung und Wiedergabe von Sprachsignalen
ES2164640T3 (es) * 1991-08-02 2002-03-01 Sony Corp Codificador digital con asignacion dinamica de bits de cuantificacion.
US5371853A (en) * 1991-10-28 1994-12-06 University Of Maryland At College Park Method and system for CELP speech coding and codebook for use therewith
JP3343965B2 (ja) * 1992-10-31 2002-11-11 ソニー株式会社 音声符号化方法及び復号化方法
JPH0787483A (ja) * 1993-09-17 1995-03-31 Canon Inc 画像符号化復号化装置、画像符号化装置及び画像復号化装置
JP3046213B2 (ja) * 1995-02-02 2000-05-29 三菱電機株式会社 サブバンド・オーディオ信号合成装置

Also Published As

Publication number Publication date
EP1262956A3 (de) 2003-01-08
TW321810B (de) 1997-12-01
AU7037396A (en) 1997-05-01
EP0770985B1 (de) 2004-03-03
BR9605251A (pt) 1998-07-21
DE69631728D1 (de) 2004-04-08
US5819212A (en) 1998-10-06
DE69634645D1 (de) 2005-05-25
AU725251B2 (en) 2000-10-12
EP0770985A2 (de) 1997-05-02
CN1154013A (zh) 1997-07-09
EP0770985A3 (de) 1998-10-07
KR970024629A (ko) 1997-05-30
EP1262956A2 (de) 2002-12-04
EP1262956B1 (de) 2005-04-20
CN1096148C (zh) 2002-12-11
DE69634645T2 (de) 2006-03-02

Similar Documents

Publication Publication Date Title
DE69631728T2 (de) Verfahren und Vorrichtung zur Sprachkodierung
DE69625874T2 (de) Verfahren und Vorrichtung zur Wiedergabe von Sprachsignalen, zur Dekodierung, zur Sprachsynthese und tragbares Funkendgerät
DE69619054T2 (de) Verfahren und Vorrichtung zur Sprachkodierung
DE60029990T2 (de) Glättung des verstärkungsfaktors in breitbandsprach- und audio-signal dekodierer
DE60121405T2 (de) Transkodierer zur Vermeidung einer Kaskadenkodierung von Sprachsignalen
DE69618422T2 (de) Verfahren zur Sprachdekodierung und tragbares Endgerät
DE69910239T2 (de) Verfahren und vorrichtung zur adaptiven bandbreitenabhängigen grundfrequenzsuche für die kodierung breitbandiger signale
DE69625880T2 (de) Verfahren und Vorrichtung zur Sprachkodierung
DE60011051T2 (de) Celp-transkodierung
DE69916321T2 (de) Kodierung eines verbesserungsmerkmals zur leistungsverbesserung in der kodierung von kommunikationssignalen
DE69816810T2 (de) Systeme und verfahren zur audio-kodierung
DE60006271T2 (de) Celp sprachkodierung mit variabler bitrate mittels phonetischer klassifizierung
DE69634179T2 (de) Verfahren und Vorrichtung zur Sprachkodierung und -dekodierung
DE69529356T2 (de) Wellenforminterpolation mittels Zerlegung in Rauschen und periodische Signalanteile
DE69614782T2 (de) Verfahren und Einrichtung zur Wiedergabe von Sprachsignalen und Verfahren zu seiner Übertragung
DE60219351T2 (de) Signaländerungsverfahren zur effizienten kodierung von sprachsignalen
DE69123500T2 (de) 32 Kb/s codeangeregte prädiktive Codierung mit niedrigen Verzögerung für Breitband-Sprachsignal
DE69735097T2 (de) Verfahren und vorrichtung zur verbesserung der sprachqualität in tandem-sprachkodierern
DE19811039B4 (de) Verfahren und Vorrichtungen zum Codieren und Decodieren von Audiosignalen
DE60110679T3 (de) Perzeptuelle Kodierung von Audiosignalen unter Verwendung von getrennter Reduzierung von Irrelevanz und Redundanz
DE10041512B4 (de) Verfahren und Vorrichtung zur künstlichen Erweiterung der Bandbreite von Sprachsignalen
DE60120766T2 (de) Indizieren von impulspositionen und vorzeichen in algebraischen codebüchern zur codierung von breitbandsignalen
DE69615302T2 (de) Maskierung des wahrnehmbaren Rauschens auf der Basis der Frequenzantwort eines Synthesefilters
DE69737489T2 (de) Formung des erkennbaren Rauschsignals in der Zeitdomäne mittels LPC-Voraussage im Frequenzraum
DE69934608T2 (de) Adaptive kompensation der spektralen verzerrung eines synthetisierten sprachresiduums

Legal Events

Date Code Title Description
8332 No legal effect for de
8370 Indication of lapse of patent is to be deleted
8364 No opposition during term of opposition
8320 Willingness to grant licences declared (paragraph 23)