[go: up one dir, main page]

DE60012860T2 - Verfahren zur Verarbeitung mehrerer digitaler Audiodatenströme - Google Patents

Verfahren zur Verarbeitung mehrerer digitaler Audiodatenströme Download PDF

Info

Publication number
DE60012860T2
DE60012860T2 DE60012860T DE60012860T DE60012860T2 DE 60012860 T2 DE60012860 T2 DE 60012860T2 DE 60012860 T DE60012860 T DE 60012860T DE 60012860 T DE60012860 T DE 60012860T DE 60012860 T2 DE60012860 T2 DE 60012860T2
Authority
DE
Germany
Prior art keywords
audio data
processing
frames
digital audio
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60012860T
Other languages
English (en)
Other versions
DE60012860D1 (de
Inventor
Abdellatif Benjelloun Toumi
Yannick Mahieux
Claude Lamblin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orange SA
Original Assignee
France Telecom SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by France Telecom SA filed Critical France Telecom SA
Application granted granted Critical
Publication of DE60012860D1 publication Critical patent/DE60012860D1/de
Publication of DE60012860T2 publication Critical patent/DE60012860T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • H04M3/561Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities by multiplexing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • H04M3/568Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities audio processing specific to telephonic conferencing, e.g. spatial distribution, mixing of participants

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zur Bearbeitung wenigstens eines codierten digitalen Audiodatenstroms, der in Form von Rahmen organisiert ist. Dieser Strom wird oder diese Ströme werden zum einen durch Algorithmen zur Codierung vom Frequenztyp, welche die psychoakustischen Eigenschaften des menschlichen Gehörs zur Herabsetzung der Datenrate ausnutzen, und zum anderen durch Algorithmen zur Quantisierung der auf diese Weise codierten Signale erhalten. Insbesondere findet die vorliegende Erfindung Anwendung, wenn in den betrachteten Audiodatenströmen keine Bitzuweisungsdaten, die für die Quantisierung verwendet werden, explizit vorliegen.
  • Ein derartiges Verfahren kann benutzt werden, um einen codierten Audiodatenstrom mit einer ersten Rate in einen anderen Strom mit einer zweiten Rate umzusetzen. Außerdem kann es benutzt werden, um mehrere codierte Audiodatenströme miteinander zu kombinieren, beispielsweise in einem Fernsprechkonferenzsystem.
  • Eine mögliche Anwendung des Verfahrens der vorliegenden Erfindung betrifft die Fernsprechkonferenz, insbesondere im Fall einer zentralisierten Kommunikationsarchitektur, die auf einer Mehrpunkt-Steuereinheit (MCU: Multipoint Control Unit (engl.)) beruht, die unter anderem die Rolle einer Audio-Überleiteinrichtung spielt, die das Kombinieren (oder Mischen) der Audioströme und danach ihre Leitweglenkung zu den betreffenden Endeinrichtungen ausführt.
  • Es wird jedoch angemerkt, dass das Verfahren der vorliegenden Erfindung auf ein Fernsprechkonferenzsystem angewendet werden kann, dessen Architektur mit Endeinrichtungen vermascht ist, die dann in einer Punkt-zu-Punkt-Verbindung sind.
  • Es sind weitere Anwendungen denkbar, vor allem in weiteren multimedialen Umgebungen, beispielsweise bei der Abfrage von Datenbankservern, die Audio-Objekte für die Gestaltung von virtuellen Szenen enthalten.
  • Außerdem bilden die Klangmontage und -aufbereitung, die in der Bearbeitung eines oder mehrerer komprimierter Bitströme bestehen, um daraus einen neuen Bitstrom zu erzeugen, einen Anwendungsbereich des Verfahrens der vorliegenden Erfindung.
  • Eines der Hauptprobleme, die für die Bearbeitung von codierten Audiodatenströmen zu lösen sind, ist jenes der Verringerung des Berechnungsaufwands, den diese Bearbeitung darstellt. Im Allgemeinen werden diese Bearbeitungen im Zeitbereich ausgeführt, so dass es erforderlich ist, eine Transformation der Audiodatenströme aus dem Frequenzbereich in den Zeitbereich auszuführen und dann, nach der Verarbeitung der zeitlichen Ströme, eine Rücktransformation aus dem Zeitbereich in den Frequenzbereich auszuführen. Diese Transformationen gehen mit einer Verzögerung durch den Algorithmus sowie einem erheblicher Rechenaufwand einher, was sich als hinderlich erweisen kann.
  • Insbesondere im Fall der Fernsprechkonferenz hat man versucht, die Gesamtverzögerung der Nachrichtenübermittlung zu verringern und folglich ihre Qualität hinsichtlich einer Interaktivität zu verbessern. Es wird hervorgehoben, dass die oben erwähnten Probleme im Fall der Fernsprechkonferenz auf Grund der hohen Anzahl an Zugriffen, die eine Mehrpunkt-Steuereinheit bieten kann, noch größer sind.
  • Für die Fernsprechkonferenz können die Audiodatenströme mittels mehrerer genormter Typen von Codierungsalgorithmen codiert sein. So gibt die Norm H.320, die für die Übertragung über das ISDN mit geringer Bandbreite spezifisch ist, mehrere Codierungsalgorithmen an (G.711, G.722, G.728). Genauso gibt die Norm H.323 mehrere Codierungsalgorithmen an (G.723.1, G.729 und MPEG-1).
  • Außerdem sieht die Norm G.722 im Kontext einer qualitativ hochwertigen Fernsprechkonferenz einen Codierungsalgorithmus vor, der über einer Bandbreite von 7 kHz und mit einer Unterteilung des Spektrums in zwei Unterbänder arbeitet. Es wird dann eine Codierung vom Typ Pulscode-Modulation mit differenzierter Anpassung über dem Signal jedes Bands ausgeführt.
  • Um das Problem der Verzögerung und der Komplexität, das durch die Bänke von um 90° phasenverschobenen spiegelbildlichen Filtern auf der Ebene der Mehrpunkt-Steuereinheit eingeführt wird, zu lösen, spezifiziert die Norm G.722 in ihrem Anhang ein Verfahren zur direkten Rekombination anhand der Signale der Unterbänder. Dieses Verfahren besteht darin, eine der Pulscode-Modulation mit differenzierter Anpassung entsprechende Decodierung zweier Abtastwerte, die jeweils aus den Unterbändern jedes Rahmens am Eingang der Mehrpunkt-Steuereinheit stammen, zu verwirklichen, über die Gesamtheit der betrachteten Eingangspfade zu summieren und schließlich eine Pulscode-Modulation mit differenzierter Anpassung auszuführen, bevor der Ausgangsrahmen konstruiert wird.
  • Eine der Lösungen, die vorgeschlagen wurden, um die Komplexität zu verringern, besteht darin, die Anzahl der Decodierer auf der Ebene der Mehrpunkt-Steuereinheit zu vermindern und folglich das Kombinieren der codierten Audiodatenströme nur über einem Teil der empfangenen Ströme auszuführen. Es gibt mehrere Strategien, um die zu berücksichtigenden Eingangspfade zu bestimmen. Beispielsweise erfolgt das Kombinieren mit den N' Signalen, die die höchsten Leistungen aufweisen, oder N' ist im Voraus definiert und fest, wobei die Leistung direkt anhand der Eingangscodewörter bestimmt wird. Das Kombinieren wird beispielsweise auch nur über aktive Ströme ausgeführt, so dass dann die Anzahl der zu berücksichtigenden Eingänge variabel ist.
  • Es wird angemerkt, dass diese Verfahren keine Lösungen zu dem Problem der Verringerung der Verzögerung liefern.
  • Eine weitere Anwendung des Verfahrens der vorliegenden Erfindung ist die Umsetzung eines Stroms codierter Audio- bzw. Tonsignale mit einer ersten Rate in einen anderen Strom mit einer zweiten Rate.
  • Eine solche Anwendung ist bei der Übertragung über verschiedene heterogene Netze, wobei die Datenrate an die von dem benutzten Übertragungsmedium bereitgestellte Bandbreite angepasst werden muss, interessant. Dies ist bei Netzen mit nicht gewährleisteter (oder unzuverlässiger) Dienstgüte der Fall, wo die Bandbreitenzuteilung von den Verkehrsbedingungen abhängt. Ein typisches Beispiel tritt beim Übergang aus einer Intranet-Umgebung (beispielsweise einem lokalen Ethernet mit 10 Mbits/s), wo die Bandbreitenbegrenzung weniger streng ist, in ein stärker gesättigtes Netz (Internet) auf. Die neue Fernsprechkonferenznorm H.323, die eine Interoperabilität zwischen Endeinrichtungen über Netze verschiedener Art (LAN mit nicht gewährleisteter Dienstgüte, ISDN, Breitband-ISDN, öffentliches Fernsprechnetz mit Vermittlung,...) ermöglicht, stellt ebenfalls ein Anwendungsfeld dar. Ein weiterer interessanter Fall tritt bei der Abfrage von Audio-Servern (beispielsweise Tonsignal auf Anforderung) auf. Die Audiodaten sind nämlich häufig in codierter Form, jedoch mit einem Kompressionsgrad gespeichert, der gering genug ist, um eine hohe Qualität zu bewahren, wobei die Übertragung über ein Netz eine weitere Verringerung der Datenrate erfordern kann.
  • Außerdem ist das Verfahren bekannt, das in dem Dokument US-A-5 570 363 beschrieben ist. Dieses Verfahren ist ein Verfahren zur Bearbeitung wenigstens eines codierten digitalen Audiodatenstroms, der in Form von Rahmen organisiert ist, die aus digitalen Audio- bzw. Tonsignalen gebildet sind, die von wenigstens einer Audio-Endeinrichtung codiert worden sind, um die bearbeiteten Rahmen auszugeben, die dann an einen nachfolgenden Verwendungsschritt geliefert, werden, wobei die Codierung der digitalen Tonsignale einen Schritt der Transformation aus dem Zeitbereich in den Frequenzbereich, um die Transformationskoeffizienten zu berechnen, und dann eine Quantisierung und eine Codierung der Transformationskoeffizienten gemäß einem Satz Quantisierer umfasst.
  • Das Problem, dessen Lösung die Erfindung anstrebt, ist die Verarbeitung unterschiedlicher digitaler Audiodatenströme, die mit unterschiedlichen Quantisierern quantisiert sein können. Die Lösung, die beschrieben ist, besteht darin, Klassen zu schaffen, die mit der Gesamtheit der bei der Codierung benutzten Quantisierer in Beziehung stehen, und nur die Signale ein und derselben Klasse zu dequantisieren und zu verarbeiten. Diese Klassen sind festgelegte Parameter des Systems, jedoch keine für das zu verarbeitende Signal spezifischen Parameter. Aus einem solchen Verfahren resultiert ein gewisser Mangel an Flexibilität, da zwei Ströme nur dann verarbeitet werden können, wenn sie der gleichen Klasse angehören. Die vorliegende Erfindung hat zum Ziel, dieses besondere Problem zu lösen.
  • Dazu ist ein Verfahren gemäß der vorliegenden Erfindung, wie es durch die beigefügten unabhängigen Ansprüche definiert ist, dadurch gekennzeichnet, dass
    • – der Satz Quantisierer anhand von Auswahlparametern bestimmt wird, die aus den digitalen Tonsignalen gewonnen werden, wobei die Rahmen außerdem die Auswahlparameter enthalten, und dass das Verfahren für wenigstens einen Audiodatenstrom, der von einer Endeinrichtung empfangen wird; die folgenden Schritte
    • – Gewinnen der Auswahlparameter aus den Rahmen des Audiodatenstroms und anhand der Auswahlparameter Bestimmen des Satzes Quantisierer, die während des von der Endeinrichtung durchgeführten Quantisierungsschritts verwendet wurden,
    • – teilweises Decodieren und Dequantisieren der Rahmen unter Verwendung des im vorhergehenden Schritt ermittelten Satzes Quantisierer, um die dequantisierten Werte der Transformationskoeffizienten, die von der Endeinrichtung berechnet wurden, wiederzugewinnen,
    • – Anwenden der eigentlichen Bearbeitung im Frequenzbereich auf die dequantisierten Transformationskoeffizienten, die im vorhergehenden Schritt erhalten worden sind, um bearbeitete Rahmen zu erzeugen,
    • – Übergeben der bearbeiteten Rahmen an den nachfolgenden Verwendungsschritt.
  • Das Ziel der vorliegenden Erfindung ist die Schaffung eines Verfahrens für die Bearbeitung wenigstens eines codierten digitalen Audiosignalstroms, das ermöglicht, die oben erwähnten Probleme zu lösen.
  • Sie betrifft folglich ein Verfahren zur Verarbeitung wenigstens eines codierten digitalen Audiodatenstroms, der in Form von Rahmen organisiert ist, die aus digitalen Audio- bzw. Tonsignalen gebildet sind, die codiert worden sind, indem sie zuerst einer Transformation aus dem Zeitbereich in den Frequenzbereich unterworfen wurden, um die Transformationskoeffizienten zu berechnen, und anschließend einem Schritt der Quantisierung und Codierung der Transformationskoeffizienten gemäß einem Satz Quantisierer, der anhand von Auswahlparametern bestimmt ist, die aus den digi talen Tonsignalen gewonnen wurden, wobei die Auswahlparameter ebenfalls in den Rahmen vorliegen.
  • Gemäß einem wesentlichen Merkmal der vorliegenden Erfindung umfasst das Verfahren, um die aus der Codierung hervorgegangenen Transformationskoeffizienten wiederzugewinnen, einen Schritt, um anhand der in den Rahmen des oder jedes codierten Audiodatenstroms enthaltenen Auswahlparameter den Satz Quantisierer zu bestimmen, der während des Quantisierungsschritts verwendet worden ist, einen Schritt einer teilweisen Decodierung, der darin besteht, den oder jeden codierten digitalen Audiodatenstrom unter Verwendung des auf diese Weise bestimmten Satzes Quantisierer zu decodieren und anschließend zu dequantisieren, um die aus der Codierung hervorgegangenen Transformationskoeffizienten wiederzugewinnen, und einen Schritt zur Bearbeitung der auf diese Weise wiedergewonnenen Transformationskoeffizienten im Frequenzbereich, um sie an einen nachfolgenden Schritt der Verwendung der verarbeiteten Rahmen zu liefern.
  • Gemäß einer ersten Ausführungsform besteht der nachfolgende Verwendungsschritt darin, die so bearbeiteten Rahmen in einem Schritt der Umquantisierung und Umcodierung der so bearbeiteten Transformationskoeffizienten teilweise umzucodieren.
  • Gemäß einem weiteren Merkmal der Erfindung besteht die Bearbeitung darin, die Transformationskoeffizienten, die aus der teilweisen Decodierung jedes der Rahmenströme hervorgegangen sind, zu summieren und das Ergebnis der Summation an den Umcodierungsschritt zu liefern.
  • Außerdem betrifft die vorliegende Erfindung ein Verfahren, wie es soeben beschrieben worden ist, das jedoch dafür vorgesehen ist, in einem Fernsprechkonferenzsystem mit mehreren Endeinrichtungen durchgeführt zu werden. Die Bearbeitung besteht dann darin, die Transformationskoeffizien ten, die jeweils aus den teilweisen Decodierungen der Rahmenströme von den Endeinrichtungen hervorgegangen sind, zu summieren und an den Schritt der Umcodierung, die einer Endeinrichtung zugeordnet ist, das Ergebnis der Summation zu liefern, wovon die Transformationskoeffizienten, die aus der teilweisen Decodierung der Rahmenströme von der Endeinrichtung hervorgegangen sind, subtrahiert werden.
  • Gemäß einer weiteren Ausführungsform der Erfindung ist das Verfahren der vorliegenden Erfindung dadurch gekennzeichnet, dass der nachfolgende Verwendungsschritt ein Schritt der Transformation aus dem Frequenzbereich in den Zeitbereich mit dem Ziel der Wiedergabe des Tonsignals ist. Ein derartiges Verfahren wird beispielsweise in einem Fernsprechkonferenzsystem mit mehreren Endeinrichtungen durchgeführt. Es ist dann dadurch gekennzeichnet, dass die Bearbeitung darin besteht, die Transformationskoeffizienten, die jeweils aus den teilweisen Decodierungen der von den Endeinrichtungen kommenden Rahmenströme hervorgegangen sind, zu summieren.
  • Gemäß einem weiteren Merkmal der Erfindung werden die Werte der Parameter für die Auswahl des Satzes Quantisierer ebenfalls der Bearbeitung unterworfen.
  • Wenn die Auswahlparameter für den Satz Quantisierer, die in den Audiodatenrahmen des Stroms oder jedes Stroms enthalten sind, Energiewerte der Tonsignale in im Voraus festgelegten Frequenzbändern sind, wobei die Gesamtheit als spektrale Einhüllende bezeichnet wird, besteht die Bearbeitung beispielsweise darin, die Transformationskoeffizienten, die aus der teilweisen Decodierung jedes Rahmenstroms hervorgegangen sind, zu summieren und das Ergebnis der Summation an den Umcodierungsschritt zu liefern und anschließend die Gesamtenergie in jedem Frequenzband durch Summieren der Energien der Rahmen zu bestimmen und das Ergebnis der Summation an den Umcodierungsschritt zu liefern.
  • Ein derartiges Verfahren, das in einem Fernsprechkonferenzsystem mit mehreren Endeinrichtung durchgeführt wird, ist dadurch gekennzeichnet, dass die Bearbeitung darin besteht, die Transformationskoeffizienten, die aus der teilweisen Codierung jedes der Rahmenströme hervorgegangen sind, die jeweils von den Endeinrichtungen stammen, zu summieren und an den Schritt der Umcodierung, die einer Endeinrichtung zugeordnet ist, das Ergebnis der Summation zu liefern, wovon die Transformationskoeffizienten, die aus der teilweisen Decodierung des von der Endeinrichtung kommenden Datenstroms hervorgegangen sind, subtrahiert werden, und dass sie darin besteht, die Gesamtenergie in jedem Frequenzband durch Summieren der Energien der von den Endeinrichtungen kommenden Rahmen zu bestimmen und an den Schritt der einer Endeinrichtung zugeordneten Umcodierung das Ergebnis der Summation zu liefern, wovon die Energie, die aus dem Rahmen hervorgegangen ist, der von der Endeinrichtung kommt, subtrahiert wird.
  • Gemäß einem weiteren Merkmal der Erfindung, wobei die Audiodatenrahmen des Stroms oder jedes Stroms eine Information zum Stimmhaftmachen des entsprechenden Tonsignals enthalten, bestimmt dann die Bearbeitung die Information zum Stimmhaftmachen des Tonsignals, das durch die Bearbeitung entsteht. Um diese Information zum Stimmhaftmachen des aus der Bearbeitung resultierenden Tonsignals zu bestimmen, kann das Verfahren beispielsweise darin bestehen, falls alle Rahmen aller Ströme den gleichen Zustand der Stimmhaftigkeit aufweisen, diesen Zustand der Stimmhaftigkeit als den aus der Bearbeitung resultierenden Zustand des Tonsignals anzusehen und andernfalls die Gesamtenergie der Gesamtheit der Tonsignale der Obertöne aufweisenden Rahmen zu bestimmen und die Energie der Gesamtheit der Tonsignale der keine Obertöne aufweisenden Rahmen zu bestimmen, dann den Zustand der Stimmhaftigkeit der Gesamtheit zu betrachten, deren Energie die Größe wie im Zustand der Stimmhaftigkeit des aus der Bearbeitung entstehenden Tonsignals hat.
  • Wenn die Audiodatenrahmen des Stroms oder jedes Stroms eine Information über den Klangcharakter des entsprechenden Tonsignals enthalten, kann die Bearbeitung, wenn alle Rahmen von der gleichen Art sind, die Information über den Klangcharakter aus dem aus der Bearbeitung resultierenden Tonsignal als Zustand der Signale der Rahmen bestimmen.
  • Gemäß einem weiteren Merkmal der Erfindung besteht das Verfahren darin, unter allen zu bearbeitenden Rahmen jenen zu suchen, der in einem gegebenen Band die maximale Energie aufweist, und die Koeffizienten des Ausgangsrahmens an den Koeffizienten des Rahmens in dem Band anzugleichen, wenn die Koeffizienten der Eingangsrahmen, die von jenem, der die maximale Energie in einem vorgegebenen Band aufweist, verschieden sind, durch die Mithörschwelle des Rahmens in dem Band verdeckt sind. Die Energien des Ausgangsrahmens in dem Band werden beispielsweise an die Maximalenergie des Eingangsrahmens in dem Band angeglichen.
  • Gemäß einem weiteren Merkmal der Erfindung ist, wenn der Schritt der Umquantisierung eine Vektorquantisierung mit größenverschachtelten Wörterbüchern ist, das Codewort des Bands am Ausgang gleich dem Codewort des Bands am Eingang, wenn das entsprechende Wörterbuch am Eingang des Bands in dem ausgewählten Wörterbuch am Ausgang enthalten ist, oder im gegenteiligen Fall, wenn das Ausgangswörterbuch in dem Eingangswörterbuch enthalten ist, aber der quantisierte Vektor, Element des Eingangswörterbuchs, auch ein Element des Ausgangswörterbuchs ist, andernfalls wird das Umkehrverfahren der Quantisierung und anschließend die Umquantisierung in dem Ausgangswörterbuch ausgeführt.
  • Beispielsweise ist der Schritt der Umquantisierung eine Vektorquantisierung mit größenverschachtelten Wörterbü chern, wobei die Wörterbücher aus einer Vereinigung von Permutationscodes zusammengestellt sind. Wenn dann das entsprechende Wörterbuch am Eingang des Bands in dem ausgewählten Wörterbuch am Ausgang enthalten ist, oder im gegenteiligen Fall, wenn das Ausgangswörterbuch in dem Eingangswörterbuch enthalten ist, aber der quantisierte Vektor, Element des Eingangswörterbuchs, außerdem ein Element des Ausgangswörterbuchs ist, ist das Codewort des Bands am Ausgang dem Codewort des Band am Eingang gleich, andernfalls werden das Umkehrverfahren der Quantisierung und dann die Umquantisierung in dem Ausgangswörterbuch ausgeführt, wobei das Umquantisierungsverfahren vorteilhaft dadurch beschleunigt wird, dass der nächste Nachbar des führenden Elements eines Vektors des Eingangswörterbuchs ein führendes Element des Ausgangswörterbuchs ist.
  • Die oben erwähnten sowie weitere Merkmale der Erfindung werden deutlicher beim Lesen der folgenden Beschreibung eines Ausführungsbeispiels, wobei die Beschreibung auf die beigefügte Zeichnung Bezug nimmt, worin
  • 1 ein Übersichtsschema eines Fernsprechkonferenzsystems mit zentralisierter Architektur ist, das so beschaffen ist, dass es ein Verfahren gemäß der vorliegenden Erfindung ausführt;
  • 2 ein Übersichtsschema einer Einheit zur Codierung im Frequenzbereich ist, die die psychoakustischen Eigenschaften des menschlichen Gehörs ausnutzt;
  • 3 ein Übersichtsschema einer Codiereinheit ist, die in einer Quelle für codierte Audio- bzw. Tonsignale wie etwa einer Endeinrichtung eines Fernsprechkonferenzsystems verwendet wird;
  • 4 ein Übersichtsschema einer Einheit für eine teilweise Codierung ist, die für die Durchführung eines Verfah rens gemäß der vorliegenden Erfindung verwendet wird;
  • 5 ein Übersichtsschema einer Einheit für eine teilweise Umcodierung ist, die für die Durchführung eines Verfahrens gemäß der vorliegenden Erfindung verwendet wird;
  • 6 ein Übersichtsschema einer Verarbeitungseinheit ist, die so beschaffen ist, dass sie das Verfahren der vorliegenden Erfindung ausführt; und
  • 7 ein Übersichtsschema eines Fernsprechkonferenzsystems mit vermaschter Architektur ist, das ein Verfahren gemäß der vorliegenden Erfindung ausführt.
  • Das in 1 gezeigte Fernsprechkonferenzsystem ist im Wesentlichen aus N Endeinrichtungen 101 bis 10N gebildet, die jeweils mit einer Mehrpunkt-Steuereinheit (MCU: Multipoint Control Unit (engl.)) verbunden sind.
  • Genauer ist jede Endeinrichtung 10 aus einem Codierer 11 gebildet, dessen Eingang die an die anderen Endeinrichtungen zu übertragenden Audiodaten empfängt und dessen Ausgang mit einem Eingang der Mehrpunkt-Steuereinheit 20 verbunden ist. Jede Endeinrichtung 10 umfasst außerdem einen Decodierer 12, dessen Eingang mit einem Ausgang der Mehrpunkt-Steuereinheit 20 verbunden ist und dessen Ausgang die Daten ausgibt, die von den übrigen Endeinrichtungen zu der betrachteten Endeinrichtung übertragen werden.
  • Im Allgemeinen ist der Codierer 11, wie etwa jener, der in 2 gezeigt ist, vom Frequenzwahrnehmungstyp. Er umfasst dann einerseits eine Einheit 110, die vorgesehen ist, um die Eingangsdaten einer Transformation aus dem Zeitbereich in den Frequenzbereich zu unterwerfen, und andererseits eine Quantisierungs- und Codiereinheit 111, um die Quantisierung und die anschließende Codierung der Koeffizienten, die aus der von der Einheit 110 ausgeführten Transformation hervorgegangenen sind, sicherzustellen.
  • Im Allgemeinen erfolgt die Quantisierung gemäß einem Satz Quantisierer, wobei jeder Quantisierer beispielsweise von einer bestimmten Anzahl von Werten abhängt, die von der Einheit 112 aus den zu codierenden Signalen gewonnen werden. Diese Werte bilden Auswahlparameter des Satzes Quantisierer.
  • Schließlich werden die quantisierten und codierten Koeffizienten von der Einheit 113 in Audiodatenrahmen formatiert.
  • Es wird angemerkt, dass, wie in der Folge zu sehen sein wird, der Codierer 11 auch Daten ausgeben kann, die die Werte betreffen, die Auswahlparameter der Quantisierer bilden. Es wird angemerkt, dass diese Werte die Energien der Tonsignale in festgelegten Frequenzbändern, die eine spektrale Einhüllende der eingehenden Tonsignale bilden, betreffen können.
  • Der Codierer 11 kann außerdem Daten mit Informationen über ein Stimmhaftmachen und Daten mit Informationen über den Klangcharakter senden.
  • Hingegen gibt der Codierer 11 im Rahmen der vorliegenden Erfindung keine expliziten Informationen aus, die die Quantisierer betreffen, die von dem von der Einheit 111 ausgeführten Quantisierungs- und Codierungsverfahren benutzt werden.
  • Was den Decodierer 12 jeder Endeinrichtung 10 anbelangt, so ist er so beschaffen, dass er die Umkehroperationen zu jenen ausführt, die von dem Codierer 11 ausgeführt werden. Er ist folglich so beschaffen, dass er die Koeffizienten, die in den Audiodatenrahmen enthalten sind, die von der Mehrpunkt-Steuereinheit 20 erhalten werden, dequantisiert (Umkehroperation der Quantisierung) und anschließend die Rücktrans formation zu jener ausführt, die von dem Codierer 11 ausgeführt wird, um Daten im Zeitbereich auszugeben. Der Dequantisierungsschritt erfordert die Kenntnis der Quantisierer, die bei dem Quantisierungsverfahren benutzt worden sind, wobei diese Kenntnis durch die Werte der Auswahlparameter, die in dem Rahmen vorliegen, gegeben ist. Außerdem kann er die Informationen über das Stimmhaftmachen und die Informationen über den Klangcharakter der von der Mehrpunkt-Steuereinheit 20 erhaltenen Daten nutzen.
  • Die in 1 gezeigte Mehrpunkt-Steuereinheit 20 gemäß der vorliegenden Erfindung ist im Wesentlichen aus einer Kombinationseinheit 21 gebildet, die so beschaffen ist, dass sie die an ihren Eingängen anliegenden Signale kombiniert und an den Eingang des Decodierers 12 einer Endeinrichtung 10m die Summe der Signale, die jeweils von allen Codierern 11 der N Endeinrichtungen ausgegeben werden, ausgenommen das von der Endeinrichtung 10m kommende Signal, ausgibt.
  • Genauer umfasst die Mehrpunkt-Steuereinheit 20 noch N Teil-Decodierer 221 bis 22n , die vorgesehen sind, um jeweils die von den Endeinrichtungen 101 bis 10n erzeugten Audiodatenrahmen zu empfangen, um sie zu decodieren und sie so an die Eingänge der Kombinationseinheit 21 zu liefern. Die Mehrpunkt-Steuereinheit 20 umfasst N Umcodierer 231 bis 23n , deren Ausgänge jeweils mit Eingängen der Decodierer 12 der Endeinrichtungen 101 bis 10N verbunden sind und deren Eingänge jeweils mit Ausgängen der Kombinationseinheit 21 verbunden sind.
  • Gemäß der Erfindung ist die Decodierung, die von jedem Decodierer 22 ausgeführt wird, eine teilweise Decodierung, die im Wesentlichen darin besteht, die wesentlichen Informationen, die in den Audiodatenrahmen enthalten sind, die an seinem Eingang anliegen, zu gewinnen und so die Koeffizienten der Transformation in den Frequenzbereich auszugeben.
  • Eventuell gibt jeder Decodierer 22 auch die Gesamtheit der Parameterwerte für die Auswahl des Quantisierers wie etwa die spektrale Einhüllende sowie die Informationen über das Stimmhaftmachen und den Klangcharakter an die Kombinationseinheit 21 aus.
  • Zur Vereinfachung wird im weiteren Verlauf der Beschreibung nur die spektrale Einhüllende betrachtet, wobei jedoch klar ist, dass die vorliegende Erfindung auch auf jeden Typ einer Gesamtheit von Parameterwerten, der ermöglicht, die Quantisierer auszuwählen, die zu benutzen sind oder die von dem betreffenden Verfahren benutzt worden sind, Anwendung findet.
  • In 1 ist mit
    Figure 00150001
    der Transformationskoeffizient vom Rang k des Rahmens, der an dem mit der Endeinrichtung 10m verbundenen Eingang Em anliegt, mit
    Figure 00150002
    die Energie des Audio- bzw. Tonsignals, das dem Rahmen entspricht, der über dem Eingang Em in dem Frequenzband mit dem Index j anliegt, mit
    Figure 00150003
    die Information über das Stimmhaftmachen dieses Signals und mit
    Figure 00150004
    die Information über den Klangcharakter ebenfalls dieses Signals bezeichnet. In der Folge wird die Gesamtheit der Energien
    Figure 00150005
    für alle Bänder j mit j von 1 bis M, wobei M die Gesamtzahl der Bänder ist, als „spektrale Einhüllende" bezeichnet. Sie wird als {e(j)} geschrieben.
  • Es wird angemerkt, dass im Stand der Technik die Decodierer 22 vorgesehen wurden, um die von den Endeinrichtungen 101 bis 10n kommenden Audiodatenrahmen zu decodieren und um sie zu bearbeiten, um die Synthese eines zeitlichen Signals zu verwirklichen, das dann im Zeitbereich von der Kombinationseinheit 21 verarbeitet wurde, was gemäß der vorliegenden Erfindung nicht der Fall ist, da die von der Einheit 21 ausgeführte Verarbeitung im Frequenzbereich verwirklicht wird. Die Kombinationseinheit 21 führt nämlich die Rekombi nation der von den Decodierern 221 bis 22N kommenden dequantisierten Rahmen aus, indem sie alle Transformationskoeffizienten
    Figure 00160001
    mit i ≠ m summiert und über jeden Ausgang Sm die neuen dequantisierten Koeffizienten
    Figure 00160002
    ausgibt, deren Wert durch die folgende Relation gegeben ist:
  • Figure 00160003
  • Wenn der Audiodatenrahmen, der von den Decodierern 221 bis 22N ausgegeben wird, ein Signal der spektralen Einhüllenden {e(j)} enthält, berechnet die Kombinationseinheit 21 für jeden Ausgang Sm ein neues Signal der spektralen Einhüllenden
    Figure 00160004
    indem sie die Energie
    Figure 00160005
    für jedes Band j unter Verwendung der folgenden Relation
    Figure 00160006
    neu berechnet.
  • Gegebenenfalls bestimmt die Kombinationseinheit 21 die Parameter, die für die Auswahl des Typs der Codierung und der Eigenschaften der Quantisierung der spektralen Einhüllenden
    Figure 00160007
    verwendet werden.
  • Außerdem werden die Stimmhaftigkeit/Stimmlosigkeit und der tonale/nicht tonale Charakter des über jeden Ausgang Sm zu liefernden Rahmens anhand der Stimmhaftigkeit und der Energie der Signale bestimmt, die den an den Eingängen E1 bis EN anliegenden Rahmen entsprechen, die verwendet worden sind, um ihn zu konstruieren.
  • Was die Umcodierer 231 bis 23N betrifft, so gehen sie umgekehrt zu den Teil-Decodierern 221 bis 22N vor, wobei sie gegebenenfalls die neue Übertragungsgeschwindigkeit DSm berücksichtigen, die für den betrachteten Pfad m erforderlich ist.
  • In 3 ist ein Codierer 30 des Typs gezeigt, der mit dem System der vorliegenden Erfindung als Codierer 11 einer Endeinrichtung 10 benutzt werden könnte. Es ist selbstverständlich, dass die vorliegende Erfindung nicht auf diesen Codierertyp beschränkt ist, sondern dass jeder Audiocodierertyp, der im Stande ist, Transformationskoeffizienten und Parameter für die Auswahl der Quantisierer auszugeben, geeignet sein könnte, wie etwa der von der internationalen Fernmeldeunion (ITU) unter der Bezeichnung „G-722.1" genormte Codierer oder jener, der von der internationalen Organisation für Normung (ISO) unter der Bezeichnung "MPEG-4 AAC" genormt worden ist. Die folgende Beschreibung stellt lediglich ein Ausführungsbeispiel dar.
  • Die am Eingang dieses Codierers 30 anliegenden Rahmen x(n) sind zunächst Gegenstand einer Transformation aus dem Zeitbereich in den Frequenzbereich, etwa einer modifizierten diskreten Cosinus-Transformation, in einer Einheit 31, die so beschaffen ist, dass sie die Koeffizienten dieser Transformation y(k) ausgibt. Der Codierer 30 umfasst außerdem eine Stimmhaftigkeits-Erfassungseinrichtung, die ermittelt, ob das Eingangssignal stimmhaft ist oder nicht, und eine digitale Stimmhaftigkeitsinformation ν ausgibt. Er umfasst außerdem eine Klangcharakter-Erfassungseinrichtung 33, die anhand der der von der Einheit 31 ausgegebenen Transformationskoeffizienten abschätzt, ob das Eingangssignal x(n) tonal ist oder nicht, und eine digitale Klangcharakter-Information t ausgibt. Außerdem umfasst er eine Maskierungseinheit 34, die auf der Grundlage der von der Einheit 31 ausgegebenen Transformationskoeffizienten, je nach ihrem Wert, der mit einem im Voraus festgelegten Schwellenwert verglichen wird, eine Maskierungsinformation ausgibt oder nicht.
  • Auf der Grundlage dieser Maskierungsinformation, die von der Einheit 34 ausgegeben wird, aber auch auf der Grundlage des Stimmhaftigkeitssignals ν und des Klangcharaktersignals t bestimmt eine Einheit 35 die Energie e(j) in jedem Band j einer Vielzahl von Bändern (im Allgemeinen einer Anzahl von 32) und gibt quantisiert und codiert ein Signal der spektralen Einhüllenden des laufenden Rahmens aus, der im Folgenden auf Grund der Tatsache, dass er quantisiert ist, mit {eq(j)} mit j = 1 bis M, wobei M die Gesamtzahl der Bänder ist, bezeichnet wird.
  • Schließlich wird für die Frequenzbänder, die nicht vollständig maskiert sind, von einer Einheit 36 im Hinblick auf eine Quantisierung der Transformationskoeffizienten, die in einer Quantisierungs- und Codiereinheit 37 erfolgt, eine dynamische Bitzuweisung vorgenommen.
  • Es wird angemerkt, dass die Bitzuweisungseinheit 36 die von der Einheit 35 ausgegebene spektrale Einhüllende benutzt.
  • Die Transformationskoeffizienten werden folglich in der Einheit 37 quantisiert, die dazu sowie zur Verringerung des Dynamikbereichs der Quantisierung die von der Einheit 31 kommenden Koeffizienten, die von der Einheit 34 ausgegebene Maskierungsinformation sowie die von der Einheit 35 ausgegebene spektrale Einhüllende {eq(j)} und das von der Einheit 36 ausgegebene Bitzuweisungssignal benutzt.
  • Die quantisierten Transformationskoeffizienten yq(k), die quantisierte Energie eq(j) in jedem Band, das Klangcharaktersignal t, das Stimmhaftigkeitssignal ν werden anschließend in einem Multiplexer 38 multiplexiert, um Audiodatenrahmen des codierten Signals zu bilden.
  • In 4 ist das Blockschema eines Teil-Decodierers 40 gezeigt, etwa desjenigen, der als Decodierer 22 einer Mehrpunkt-Steuereinheit 20 gemäß der Erfindung benutzt wird, für den Fall, dass auf der Ebene der Endeinrichtung ein Codierer, wie etwa jener, der in 3 gezeigt ist, benutzt wird.
  • Der in 4 gezeigte Teil-Decodierer ist im Wesentlichen aus einem Demultiplexer 41 gebildet, der die Eingangsrahmen demultiplexiert und so die quantisierten Koeffizienten yq(k), die Energie in jedem der Bänder eq(j), das Stimmhaftigkeitsinformationssignal ν und das Klangcharakterinformationssignal t ausgibt.
  • Das Energiesignal eq(j) in jedem der Bänder wird in einer Einheit 42 decodiert und dequantisiert, die dazu das Stimmhaftigkeitsinformationssignal ν und das Klangcharakterinformationssignal t benutzt. Es wird die Energie e(j) in jedem der Bänder j ausgegeben.
  • Von einer Einheit 43 wird eine Maskierungskurve pro Band bestimmt, die von einer Einheit 44 zur dynamischen Bitzuweisung benutzt wird, die zudem das Energiesignal e(j) in jedem der Bänder j benutzt, um ein Signal für die dynamische Bitzuweisung an eine Einheit 45 zur inversen Quantisierung auszugeben. Die Einheit 45 zur inversen Quantisierung ist so beschaffen, dass sie jeden der Transformationskoeffizienten yq(k) dequantisiert und außerdem das Energiesignal e(j) in jedem der entsprechenden Bänder benutzt.
  • So gibt der Teil-Decodierer für jeden Rahmen an seinem Eingang die Transformationskoeffizienten y(k), die Signale der Energien e(j) in jedem der Bänder, ein Stimmhaftigkeitsinformationssignal ν und ein Klangcharakterinformationssignal t aus.
  • Die Teil-Decodiereinheit 40 ermöglicht, für jeden Rahmen über den zu kombinierenden Pfad mit dem Index n, die Gesamtheit der K quantisierten Transformationskoeffizienten mit dem Index
    Figure 00190001
    mit k = 1 bis K, die Gesamtheit
    Figure 00190002
    der quantisierten Werte der Energien in den M Bändern j mit j = 1 bis M, die Klangcharakterinformation
    Figure 00190003
    und die Stimmhaftigkeitsinformation
    Figure 00190004
    zu verfügen.
  • Die Kombinationseinheit 20 hat zur Aufgabe, für eine Eingabe mit dem Index n die übrigen N-1 Eingaben zu kombinieren und am Ausgang mit dem Index n das aus dieser Kombination resultierende Signal auszugeben.
  • Genauer ist das Kombinationsverfahren, das von der Kombinationseinheit 21 ausgeführt wird, vorteilhaft folgendes:
  • Zuerst werden die Zwischenvariablen bestimmt, die der Summe der Transformationskoeffizienten mit dem Index
    Figure 00200001
    für alle Eingangsgrößen En und der Summe der Energien eEn(j) der quantisierten Werte der Energien in jedem Band j für alle Eingangsgrößen En entsprechen, mit
  • Figure 00200002
  • Dann werden die jedem Ausgangspfad Sm entsprechenden Werte abgeleitet, indem von den Zwischenvariablen y(k) und e(j) die Eingangssignale des Eingangs mit dem Index m subtrahiert werden:
  • Figure 00200003
  • Es wird angemerkt, dass die Anzahl der Bänder M sowie die Anzahl K der Transformationskoeffizienten, die bei den oben angegebenen Berechnungen benutzt werden, von der Übertragungsgeschwindigkeit des betrachteten Ausgangspfads abhängen. So ist beispielsweise, wenn die Übertragungsgeschwindigkeit für einen Pfad 16 kbits/s beträgt, die Anzahl der Bänder M = 26 statt 32.
  • Die Kombinationseinheit 21 führt außerdem die Bestimmung der Stimmhaftigkeit
    Figure 00200004
    des Rahmens über jedem Ausgang Sm aus. Dazu stützt sie sich auf den Zustand der Stimmhaftigkeit
    Figure 00200005
    der Rahmen der N-1 Eingänge mit den Indizes n (n ≠ m) sowie auf ihre Energie
    Figure 00210001
    Wenn alle Rahmen über den Eingangspfaden mit den Indizes n (n ≠ m) von der gleichen Art sind (Obertöne aufweisend oder keine Obertöne aufweisend), wird folglich der Rahmen über dem Ausgangspfad mit dem Index m als im gleichen Zustand angesehen. Wenn hingegen diese Eingangsrahmen nicht von der gleichen Art sind, dann werden die Gesamtenergie der Obertöne aufweisenden Rahmen sowie die Gesamtenergie der keine Obertöne aufweisenden Rahmen unabhängig voneinander berechnet. Dann ist der Zustand des Rahmens des Ausgangs mit dem Index m der gleiche wie jener der Gruppe von Rahmen, deren auf diese Weise berechnete Gesamtenergie am größten ist.
  • Es wird angemerkt, dass die Berechnung der Energie jedes Eingangsrahmens durch ein einfaches Kombinieren der Energien seiner Bänder, die aus der decodierten spektralen Einhüllenden gewonnen werden, erfolgt.
  • Außerdem führt die Kombinationseinheit 20 die Bestimmung des Klangcharakters
    Figure 00210002
    des Rahmens über jedem Ausgang Sm aus, wenn alle Eingangsrahmen mit dem Index n, die zur Berechnung des Rahmens über dem Ausgangspfad mit dem Index m beitragen, von der gleichen Art sind. In diesem besonderen Fall nimmt der Ausgangsrahmen mit dem Index m den gleichen Klangcharakterzustand an. Andernfalls wird die Bestimmung des Klangcharakters auf die Phase der teilweisen Umcodierung verschoben.
  • In 5 ist das Blockschema einer Einheit 50 zur teilweisen Umcodierung gezeigt, die in dem Anwendungsfall als Codierer 11 einer Endeinrichtung, nämlich als ein solcher Codierer, wie er in 3 gezeigt ist, verwendet wird.
  • Der in 5 gezeigte Teil-Umcodierer 50 ist so beschaffen, dass er an jedem Ausgang Sm der Kombinationseinheit 20 Transformationskoeffizienten
    Figure 00210003
    Energiesignale
    Figure 00210004
    in den Bändern j, ein Klangcharakterinformationssignal
    Figure 00210005
    und ein Stimmhaftigkeitsinformationssignal
    Figure 00220001
    ausgibt.
  • Die Neuberechnung des Klangcharakterinformationssignals
    Figure 00220002
    über dem Ausgang mit dem Index m erfolgt mittels einer Einheit 51, die über einen ersten Eingang das Klangcharakterinformationssignal
    Figure 00220003
    des Ausgangs mit dem Index m empfängt, wenn das Signal von der Kombinationseinheit 20 erfasst worden ist, und über einen zweiten Eingang alle Transformationskoeffizienten
    Figure 00220004
    für eine erneute Berechnung empfängt, wenn die Kombinationseinheit 20 sie nicht durchgeführt hat.
  • Das von der Einheit 51 kommende Klangcharakterinformationssignal
    Figure 00220005
    wird an einen Eingang eines Multiplexers 52 abgegeben. Außerdem wird es an eine Einheit 53 zur Codierung der spektralen Einhüllenden abgegeben, die außerdem das Stimmhaftigkeitssignal
    Figure 00220006
    über dem Ausgang Sm der Einheit 20 benutzt, um die Energien in allen betrachteten Bändern
    Figure 00220007
    zu codieren und zu quantisieren. Die quantisierten Energiesignale
    Figure 00220008
    werden an einen Eingang des Multiplexers 52 abgegeben.
  • Außerdem werden die (nicht quantisierten) Energiesignale
    Figure 00220009
    von einer Einheit 54 zur Bestimmung der Maskierungskurven genutzt, die für jedes Band j Maskierungssignale an eine dynamisch zuweisende Einheit 55 sowie an eine Maskierungseinheit 56 liefert.
  • Die Einheit 55 zur dynamischen Bitzuweisung empfängt außerdem die quantisierten Energiesignale
    Figure 00220010
    und bestimmt die Bitanzahl, die von einer Umquantisierungseinheit 57 benutzt wird, um die Transformationskoeffizienten
    Figure 00220011
    die von der Maskierungseinheit 56 nicht maskiert worden sind, zu quantisieren und um die Signale der quantisierten Transformationskoeffizienten
    Figure 00220012
    an den Multiplexer 52 abzugeben.
  • Die Umquantisierungseinheit 57 benutzt außerdem die quantisierten Energiesignale
    Figure 00230001
    in den Bändern j.
  • Der Multiplexer 52 ist so beschaffen, dass er die Gesamtheit dieser Signale in Form eines Ausgangsrahmens ausgibt.
  • Um die Komplexität, die auf den Vorgang der inversen Vektorquantisierung, der von der Einheit 45 jedes Decodierers 40 ausgeführt wird, und die anschließende Umquantisierung der Bänder bei Betrieb des Umcodieres 50, insbesondere der Einheit 57 des Umcodierers 50, zurückzuführen ist, zu verringern, benutzt das Verfahren der vorliegenden Erfindung eine Methode der Zwischensignalmaskierung in den Bändern j, um nach Möglichkeit nur die Koeffizienten und die Energie eines einzigen Eingangssignals in einem gegebenen Band zu bewahren. So wird für die Bestimmung des Signals über dem Band j , j = 1 bis M, des über dem Ausgang mit dem Index m anliegenden Rahmens zunächst unter allen Eingangsrahmen n ≠ m jener gesucht, der die maximale Energie
    Figure 00230002
    in dem Band j besitzt:
  • Figure 00230003
  • Anschließend wird getestet, ob die Koeffizienten der Rahmen
    Figure 00230004
    des Eingangs n ≠ m und n ≠ n0 in dem Band j alle mittels der Maskierungsschwelle
    Figure 00230005
    des Rahmens n0 in dem Band j maskiert sind. Es wird angemerkt, dass diese Schwelle
    Figure 00230006
    während der Phase der teilweisen Decodierung bestimmt worden ist, die von der Einheit 44 des Decodierers 40 ausgeführt worden ist.
  • Wenn die Koeffizienten
    Figure 00230007
    mittels der Schwelle
    Figure 00230008
    maskiert sind, d.h.
    wenn
    Figure 00230009
    ∀ n ≠ m, n0 und ∀ k ∈ Band (j), dann sind folglich die Koeffizienten der Ausgangsrahmen
    Figure 00230010
    sind dem Koeffizienten
    Figure 00230011
    des Rahmens des Eingangs n0, nämlich:
    Figure 00230012
    für k ∈ Band (j)
  • Genauso sind in diesem Fall die Energien
    Figure 00240001
    der Ausgangsrahmen in dem betrachteten Band j gleich der Maximalenergie
    Figure 00240002
    nämlich:
  • Figure 00240003
  • Die Koeffizienten der auf diese Weise berechneten Bänder des Ausgangsrahmens m werden während der Phase der teilweisen Umcodierung nicht einem Verfahren zu inversen Quantisierung/vollständigen Umquantisierung unterworfen.
  • Wenn die oben angegebene Bedingung nicht erfüllt ist, sind die Terme
    Figure 00240004
    durch die vorhergehenden Gleichungen gegeben.
  • Wenn eine Quantisierung vom algebraischen Vektortyp benutzt wird, um die Transformationskoeffizienten umzuquantisieren, stellt das Codewort mi, das für jedes Band i des Eingangsrahmens übertragen wird, den Index des quantisierten Vektors in einem Wörterbuch, mit C(bi,di) bezeichnet, von quantisierten Führungsvektoren mit der Bitzahl bi und der Dimension di dar. Aus diesem Codewort mi kann man den Vektor der Vorzeichen sign(i), in dem Wörterbuch C(bi, di) die Nummer Li des quantisierten Führungsvektors, der dem benachbarten Führungsvektor Ỹ(i) am nächsten ist, und ri des quantisierten Vektors Yq(i) in der Klasse des Führungsvektors Ỹq(i) gewinnen.
  • Das Umcodieren über dem Band i, um das Ausgangscodewort mi' zu erhalten, geschieht dann wie folgt:
  • Man decodiert das Codewort mi des Bands i und gewinnt die Nummer Li des quantisierten Führungsvektors Ỹq(i), den Rang ri und das Vorzeichen sign(i). Je nach der Anzahl der Bits bi und bi', die dem Band i am Eingang bzw. am Ausgang zugewiesen sind, sowie nach der Position des eingehenden quantisierten Führungsvektors sind in Bezug auf das neue Wör terbuch C (b'i, di) zwei Fälle zu betrachten.
  • Wenn die Bitanzahl am Ausgang b'i größer oder gleich der Bitanzahl am Eingang bi ist, dann ist das Codewort m'i des Ausgangsrahmens jenem des Eingangsrahmens mi gleich. Das Gleiche gilt, wenn die Bitanzahl am Ausgang b'i kleiner als die Bitanzahl am Eingang bi ist, aber gleichzeitig die Nummer Li des quantisierten Führungsvektors Ỹq(i) kleiner oder gleich der Kardinalzahl NL(b'i,di) des für die Quantisierung des Ausgangsrahmens verwendeten Wörterbuches ist.
  • Folglich gilt:
    Wenn (b'i ≥ bi) oder (b'i < bi und Li ≤ NL (b'i, di)), dann ist m'i = mi
  • In allen anderen Fällen decodiert man den Rahmen, um perm(i) (der Bestimmung von Yq(i) äquivalent) aus der Nummer Li und dem Rang ri wiederzugewinnen. Dieser Schritt kann schon bei der Operation der teilweisen Decodierung durchgeführt worden sein.
  • Man sucht dann in dem Wörterbuch C(b'i,di) den Vektor Ỹ'q(i) , der Ỹq(i) am nächsten ist, wobei L'i seine Nummer ist.
  • Anschließend wird der Rang r'i von Y'q(i), dem neuen quantisierten Vektor von Y(i), in der Klasse des führenden Elements Ỹ'q(i) unter Verwendung von perm(i) gesucht. Danach wird das Codewort m'i des Bands i des Ausgangsrahmens anhand der Nummer L'i, des Ranges r'i und des Vorzeichens sign(i) gesucht.
  • Außerdem findet die vorliegende Erfindung in jedem Verfahren zur Verarbeitung von digitalen Tonsignalen Anwendung.
  • In 6 ist ein Übersichtsschema einer derartigen Anwendung gezeigt.
  • Die codierten Signale, die von einer Endeinrichtung wie etwa einer Endeinrichtung 10 (siehe 1) kommen, werden in einer Einheit 60 einer teilweisen Decodierung unterzogen, wie etwa jener, die in einer Decodiereinheit 40 (siehe auch 4) ausgeführt wird. Die auf diese Weise teilweise decodierten Signale werden dann in einer Einheit 61 einer besonderen anzuwendenden Verarbeitung unterzogen.
  • Schließlich werden sie nach einer Bearbeitung in einer Einheit 62, die vom Typ der Einheit 50 ist, die in 5 gezeigt ist, umcodiert.
  • Beispielsweise ist die besondere Bearbeitung, von der hier die Rede ist, eine Audiocodeumsetzung, um die codierten Ton- bzw. Audiosignale mit einer ersten Datenrate (von beispielsweise 24 kbits/s) auf eine zweite Datenrate (beispielsweise 16 kbits/s) umzusetzen. In diesem besonderen Fall besteht die Verarbeitung, die in der Einheit 61 ausgeführt wird, im Wesentlichen aus einer neuen Zuweisung der Bits auf der Grundlage der zur Verfügung stehenden, zweiten Datenrate. Es wird angemerkt, dass in diesem Fall der Rahmen am Ausgang der Einheit 62 die gleichen Nebeninformationen zum Klancharakter, zum Stimmhaftmachen und zur codierten spektralen Einhüllenden wie der Rahmen, der am Eingang. der Einheit 60 vorlieg, aufweist.
  • In 7 ist das Übersichtsschema einer Fernsprechkonferenzendeinrichtung vermaschter Architektur gezeigt. Es umfasst genau so viele Teil-Codierer 70 wie Eingänge für die Rahmen, die von anderen Endeinrichtungen kommen. Diese Teil-Codierer 70 besitzen Ausgänge, die jeweils mit den Eingängen einer Kombinationseinheit 71 verbunden sind, welche dann einen summierten Rahmen im Frequenzbereich liefert. Die Transformation dieses Rahmens in den Zeitbereich erfolgt dann durch eine Einheit 72, die ein digitales Ton- bzw. Audiosignal ausgibt.

Claims (17)

  1. Verfahren für die Ausführung einer Bearbeitung wenigstens eines codierten digitalen Audiodatenstroms, der in Form von Rahmen organisiert ist, die aus digitalen Tonsignalen gebildet sind, die von wenigstens einer Audio-Endeinrichtung codiert worden sind, um die bearbeiteten Rahmen einem nachfolgenden Verwendungsschritt zu übergeben, wobei die Codierung der digitalen Tonsignale zunächst die Transformation der digitalen Tonsignale aus dem Zeitbereich in den Frequenzbereich umfasst, um die Transformationskoeffizienten zu berechnen, und dann einen Schritt der Quantisierung und Codierung der Transformationskoeffizienten gemäß einem Satz Quantisierer umfasst, wobei die Rahmen die auf diese Weise codierten Transformationskoeffizienten enthalten, dadurch gekennzeichnet, dass – der Satz Quantisierer anhand von Auswahlparametern bestimmt wird, die aus den digitalen Tonsignalen gewonnen werden, wobei die Rahmen außerdem die Auswahlparameter enthalten, und dass das Verfahren für wenigstens einen Audiodatenstrom, der von einer Endeinrichtung empfangen wird, die folgenden Schritte umfasst: – Gewinnen der Auswahlparameter aus den Rahmen des Audiodatenstroms und anhand der Auswahlparameter Bestimmen des Satzes Quantisierer, die während des von der Endeinrichtung durchgeführten Quantisierungsschritts verwendet wurden, – teilweises Decodieren und Dequantisieren der Rahmen unter Verwendung des im vorhergehenden Schritt ermittelten Satzes Quantisierer, um die dequantisierten Werte der Transformationskoeffizienten, die von der Endeinrichtung berechnet wurden, abzudecken, – Anwenden der eigentlichen Bearbeitung im Frequenzbereich auf die dequantisierten Transformationskoeffizienten, die im vorhergehenden Schritt erhalten worden sind, um bearbeitete Rahmen zu erzeugen, – Übergeben der bearbeiteten Rahmen an den nachfolgenden Verwendungsschritt.
  2. Verfahren für die Ausführung einer Bearbeitung wenigstens eines codierten digitalen Audiodatenstroms nach Anspruch 1, dadurch gekennzeichnet, dass der nachfolgende Verwendungsschritt umfasst, die so bearbeiteten Rahmen in einem Schritt der Umquantisierung und Umcodierung der so bearbeiteten Transformationskoeffizienten teilweise umzucodieren.
  3. Verfahren für die Ausführung einer Bearbeitung wenigstens eines codierten digitalen Audiodatenstroms nach Anspruch 2, dadurch gekennzeichnet, dass die Bearbeitung umfasst, die Transformationskoeffizienten, die aus der teilweisen Decodierung der Rahmen hervorgegangen sind, die Rahmenströmen angehören, die von mehreren Audio-Endeinrichtungen erzeugt sind, zu summieren und das Ergebnis der Summation an den Umcodierungsschritt zu liefern.
  4. Verfahren für die Ausführung einer Bearbeitung wenigstens eines codierten digitalen Audiodatenstroms nach Anspruch 3, das dafür bestimmt ist, in einem Fernsprechkonferenzsystem mit mehreren Endeinrichtungen benutzt zu werden, dadurch gekennzeichnet, dass die Bearbeitung umfasst, die dequantisierten Transformationskoeffizienten, die durch den Schritt der teilweisen Decodierung der Rahmen erhalten worden sind, die Rahmenströmen angehören, die von mehreren Audio-Endeinrichtungen kommen, zu summieren, von den summierten Koeffizienten die dequantisierten Transformationskoeffizienten, die aus der teilweisen Decodierung des Rahmenstroms hervorgegangen sind, der von einer der Audio-Endeinrichtungen kommt, zu subtrahieren und das auf diese weise erhaltene Ergebnis an den nachfolgenden Verwendungsschritt, der die Audio-Endeinrichtung betrifft, zu liefern.
  5. Verfahren für die Ausführung einer Bearbeitung wenigstens eines codierten digitalen Audiodatenstroms nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass der nachfolgende Verwendungsschritt ein Schritt der Transformation aus dem Frequenzbereich in den Zeitbereich mit dem Ziel der Wiedergabe des Tonsignals ist.
  6. Verfahren für die Ausführung einer Bearbeitung wenigstens eines codierten digitalen Audiodatenstroms nach Anspruch 5, das dazu bestimmt ist, in einem Fernsprechkonferenzsystem mit mehreren Endeinrichtungen benutzt zu werden, dadurch gekennzeichnet, dass die Bearbeitung umfasst, die Transformationskoeffizienten, die jeweils aus den teilweisen Decodierungen der von den Endeinrichtungen kommenden Rahmenströme hervorgegangen sind, zu summieren.
  7. Verfahren für die Ausführung einer Bearbeitung wenigstens eines codierten digitalen Audiodatenstroms nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Werte der Parameter für die Auswahl des Satzes Quantisierer ebenfalls der Bearbeitung unterworfen werden.
  8. Verfahren für die Ausführung einer Bearbeitung wenigstens eines codierten digitalen Audiodatenstroms nach Anspruch 7, bei dem die Parameter für die Auswahl des Satzes Quantisierer, die in den Audiodatenrahmen des Stroms oder jedes Stroms enthalten sind, die Gesamtheit der Energiewerte der Tonsignale in im Voraus festgelegten Frequenzbändern sind, wobei die Gesamtheit als spektrale Einhüllende bezeichnet wird, dadurch gekennzeichnet, das die Bearbeitung umfasst, die Transformationskoeffizienten, die aus der teilweisen Decodierung jedes Rahmenstroms hervorgegangen sind, zu summieren und das Ergebnis der Summation an den Schritt der Umcodierung zu liefern, und dass sie umfasst, die Gesamtenergie in jedem Frequenzband durch Summieren der Energien der Rahmen zu bestimmen und das Ergebnis der Summation an den Schritt der Umcodierung zu liefern.
  9. Verfahren für die Ausführung einer Bearbeitung wenigstens eines codierten digitalen Audiodatenstroms nach Anspruch 8, das dafür bestimmt ist, in einem Fernsprechkonferenzsystem mit mehreren Endeinrichtungen benutzt zu werden, dadurch gekennzeichnet, dass die Bearbeitung umfasst, die Transformationskoeffizienten, die aus der teilweisen Codierung jedes der Rahmenströme hervorgegangen sind, die jeweils von den Endeinrichtungen kommen, zu summieren und an den Schritt der einer Endeinrichtung zugeordneten Umcodierung das Ergebnis der Summation zu liefern, von dem die Transformationskoeffizienten, die aus der teilweisen Decodierung des von der Endeinrichtung kommenden Rahmenstroms hervorgegangen sind, subtrahiert werden, und dass sie umfasst, die Gesamtenergie in jedem Frequenzband durch Summieren der Energien der von den Endeinrichtungen kommenden Rahmen zu bestimmen und an den Schritt der einer Endeinrichtung zugeordneten Umcodierung das Ergebnis der Summation zu liefern, von dem die Energie, die aus dem Rahmen hervorgegangen ist, der von der Endeinrichtung kommt, subtrahiert wird.
  10. Verfahren für die Ausführung einer Bearbeitung wenigstens eines codierten digitalen Audiodatenstroms nach einem der vorhergehenden Ansprüche, wobei die Audiodatenrahmen des Stroms oder jedes Stroms eine Information zum Stimmhaftmachen des entsprechenden Tonsignals enthalten, dadurch gekennzeichnet, dass die Bearbeitung die Information zum Stimmhaftmachen des Tonsignals bestimmt, das durch die Bearbeitung entsteht.
  11. Verfahren für die Ausführung einer Bearbeitung wenigstens eines codierten digitalen Audiodatenstroms nach Anspruch 10, dadurch gekennzeichnet, dass es hinsichtlich der Bestimmung der Information zum Stimmhaftmachen des aus der Bearbeitung entstehenden Tonsignals umfasst, wenn alle Rahmen aller Ströme den gleichen Zustand der Stimmhaftigkeit aufweisen, diesen Zustand der Stimmhaftigkeit als Zustand des. durch die Bearbeitung entstehenden Tonsignals zu betrachten, und andernfalls die Gesamtenergie aus der Gesamtheit der Tonsignale der Obertöne aufweisenden Rahmen und die Energie der Gesamtheit der Tonsignale der keine Obertöne aufweisenden Rahmen zu bestimmen, dann den Zustand der Stimmhaftigkeit der Gesamtheit zu betrachten, deren Energie die Größe wie im Zustand der Stimmhaftigkeit- des aus der Bearbeitung entstehenden Tonsignals hat.
  12. Verfahren für die Ausführung einer Bearbeitung wenigstens eines codierten digitalen Audiodatenstroms nach einem der Ansprüche 1 bis 11, bei dem die Audiodatenrahmen des Stroms oder jedes Stroms eine Information über den Klangcharakter des entsprechenden Audiodatensignals enthalten, dadurch gekennzeichnet, dass die Bearbeitung, wenn alle Rahmen von der gleichen Art sind, die Information über den Klang charakter des aus der Bearbeitung entstehenden Tonsignals als Zustand der Signale der Rahmen bestimmt.
  13. Verfahren für die Ausführung einer Bearbeitung wenigstens eines codierten digitalen Audiodatenstroms nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass es umfasst, unter allen zu bearbeitenden Rahmen jenen zu suchen, der in einem gegebenen Band die maximale Energie aufweist, und die Koeffizienten des Ausgangsrahmens an den Koeffizienten des Rahmens in dem Band anzugleichen, wenn die Koeffizienten der Eingangsrahmen, die von jenem, der die maximale Energie in einem vorgegebenen Band aufweist, verschieden sind, durch die Mithörschwelle des Rahmens in dem Band verdeckt sind.
  14. Verfahren für die Ausführung einer Bearbeitung wenigstens eines codierten digitalen Audiodatenstroms nach Anspruch 13, dadurch gekennzeichnet, dass die Energien des Ausgangsrahmens in dem Band an die Maximalenergie des Eingangsrahmens in dem Band angeglichen werden.
  15. Verfahren für die Ausführung einer Bearbeitung wenigstens eines codierten digitalen Audiodatenstroms nach einem der vorhergehenden Ansprüche, wobei der Schritt der Umquantisierung eine Vektorquantisierung mit größenverschachtelten Wörterbüchern ist, dadurch gekennzeichnet, dass, wenn das entsprechende Wörterbuch am Eingang des Bands in dem ausgewählten Wörterbuch am Ausgang enthalten ist, oder im gegenteiligen Fall, wenn das Ausgangswörterbuch in dem Eingangswörterbuch enthalten ist, aber der quantifizierte Vektor, Element des Eingangswörterbuchs, auch ein Element des Ausgangswörterbuchs ist, das Codewort des Bands am Ausgang gleich dem Codewort des Bands am Eingang ist, andernfalls das Umkehrverfahren der Quantisierung und anschließend die Umquantisierung in dem Ausgangswörterbuch ausgeführt wird.
  16. Verfahren für die Ausführung einer Bearbeitung wenigstens eines codierten digitalen Audiodatenstroms nach Anspruch 15, bei dem der Schritt der Umquantisierung eine Vektorquantifizierung mit größenverschachtelten Wörterbüchern ist, wobei die Wörterbücher aus einer Vereinigung von Permutationscodes zusammengestellt sind, dadurch gekennzeichnet, dass, wenn das entsprechende Wörterbuch am Eingang des Bands in dem ausgewählten Wörterbuch am Ausgang enthalten ist, oder im gegenteiligen Fall, wenn das Ausgangswörterbuch in dem Eingangswörterbuch enthalten ist, aber der quantisierte Vektor, Element des Eingangswörterbuchs, außerdem ein Element des Ausgangswörterbuchs ist, das Codewort des Bands am Ausgang dem Codewort des Bands am Eingang gleich ist, andernfalls das Umkehrverfahren der Quantisierung und dann die Umquantisierung in dem Ausgangswörterbuch ausgeführt wird, wobei das Umquantisierungsverfahren vorteilhaft dadurch beschleunigt wird, dass der nächste Nachbar des führenden Elements eines Vektors des Eingangswörterbuchs ein führendes Element des Ausgangswörterbuchs ist.
  17. Vorrichtung für die Ausführung einer Bearbeitung wenigstens eines codierten digitalen Audiodatenstroms, die Mittel umfasst, um jeden der Schritte eines Verfahrens gemäß einem der vorhergehenden Ansprüchen auszuführen.
DE60012860T 1999-12-08 2000-11-22 Verfahren zur Verarbeitung mehrerer digitaler Audiodatenströme Expired - Lifetime DE60012860T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR9915574 1999-12-08
FR9915574A FR2802329B1 (fr) 1999-12-08 1999-12-08 Procede de traitement d'au moins un flux binaire audio code organise sous la forme de trames

Publications (2)

Publication Number Publication Date
DE60012860D1 DE60012860D1 (de) 2004-09-16
DE60012860T2 true DE60012860T2 (de) 2005-08-18

Family

ID=9553092

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60012860T Expired - Lifetime DE60012860T2 (de) 1999-12-08 2000-11-22 Verfahren zur Verarbeitung mehrerer digitaler Audiodatenströme

Country Status (6)

Country Link
US (1) US6807526B2 (de)
EP (1) EP1107230B1 (de)
JP (1) JP2001202097A (de)
CA (1) CA2327627C (de)
DE (1) DE60012860T2 (de)
FR (1) FR2802329B1 (de)

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7447639B2 (en) * 2001-01-24 2008-11-04 Nokia Corporation System and method for error concealment in digital audio transmission
US7069208B2 (en) 2001-01-24 2006-06-27 Nokia, Corp. System and method for concealment of data loss in digital audio transmission
US7461002B2 (en) * 2001-04-13 2008-12-02 Dolby Laboratories Licensing Corporation Method for time aligning audio signals using characterizations based on auditory events
US7711123B2 (en) 2001-04-13 2010-05-04 Dolby Laboratories Licensing Corporation Segmenting audio signals into auditory events
US7610205B2 (en) * 2002-02-12 2009-10-27 Dolby Laboratories Licensing Corporation High quality time-scaling and pitch-scaling of audio signals
KR100477701B1 (ko) * 2002-11-07 2005-03-18 삼성전자주식회사 Mpeg 오디오 인코딩 방법 및 mpeg 오디오 인코딩장치
EP1559101A4 (de) * 2002-11-07 2006-01-25 Samsung Electronics Co Ltd Mpeg-audiocodierungsverfahren und vorrichtung
IN2010KN02913A (de) * 2003-05-28 2015-05-01 Dolby Lab Licensing Corp
US7460684B2 (en) 2003-06-13 2008-12-02 Nielsen Media Research, Inc. Method and apparatus for embedding watermarks
US7912226B1 (en) * 2003-09-12 2011-03-22 The Directv Group, Inc. Automatic measurement of audio presence and level by direct processing of an MPEG data stream
FR2867648A1 (fr) * 2003-12-10 2005-09-16 France Telecom Transcodage entre indices de dictionnaires multi-impulsionnels utilises en codage en compression de signaux numeriques
FR2867649A1 (fr) * 2003-12-10 2005-09-16 France Telecom Procede de codage multiple optimise
US7480267B2 (en) * 2004-02-06 2009-01-20 M-Stack Limited Apparatus and method for operating a communications device in a mobile communications network
ATE430360T1 (de) 2004-03-01 2009-05-15 Dolby Lab Licensing Corp Mehrkanalige audiodekodierung
NZ552644A (en) 2004-07-02 2008-09-26 Nielsen Media Res Inc Methods and apparatus for mixing compressed digital bit streams
US7508947B2 (en) * 2004-08-03 2009-03-24 Dolby Laboratories Licensing Corporation Method for combining audio signals using auditory scene analysis
US8199933B2 (en) 2004-10-26 2012-06-12 Dolby Laboratories Licensing Corporation Calculating and adjusting the perceived loudness and/or the perceived spectral balance of an audio signal
JP5101292B2 (ja) 2004-10-26 2012-12-19 ドルビー ラボラトリーズ ライセンシング コーポレイション オーディオ信号の感知音量及び/又は感知スペクトルバランスの計算と調整
TWI397903B (zh) 2005-04-13 2013-06-01 Dolby Lab Licensing Corp 編碼音訊之節約音量測量技術
US7927617B2 (en) * 2005-04-18 2011-04-19 Basf Aktiengesellschaft Preparation comprising at least one conazole fungicide
US20060235883A1 (en) * 2005-04-18 2006-10-19 Krebs Mark S Multimedia system for mobile client platforms
KR101251426B1 (ko) * 2005-06-03 2013-04-05 돌비 레버러토리즈 라이쎈싱 코오포레이션 디코딩 명령으로 오디오 신호를 인코딩하기 위한 장치 및방법
TWI396188B (zh) * 2005-08-02 2013-05-11 Dolby Lab Licensing Corp 依聆聽事件之函數控制空間音訊編碼參數的技術
US8504181B2 (en) * 2006-04-04 2013-08-06 Dolby Laboratories Licensing Corporation Audio signal loudness measurement and modification in the MDCT domain
TWI517562B (zh) 2006-04-04 2016-01-11 杜比實驗室特許公司 用於將多聲道音訊信號之全面感知響度縮放一期望量的方法、裝置及電腦程式
ATE493794T1 (de) 2006-04-27 2011-01-15 Dolby Lab Licensing Corp Tonverstärkungsregelung mit erfassung von publikumsereignissen auf der basis von spezifischer lautstärke
CA2663904C (en) * 2006-10-10 2014-05-27 Qualcomm Incorporated Method and apparatus for encoding and decoding audio signals
EP2958106B1 (de) 2006-10-11 2018-07-18 The Nielsen Company (US), LLC Verfahren und vorrichtung zur einbettung von codes in komprimierte audiodatenströme
US8036903B2 (en) 2006-10-18 2011-10-11 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Analysis filterbank, synthesis filterbank, encoder, de-coder, mixer and conferencing system
EP2082480B1 (de) 2006-10-20 2019-07-24 Dolby Laboratories Licensing Corporation Audiodynamikverarbeitung unter verwendung eines reset
US8521314B2 (en) * 2006-11-01 2013-08-27 Dolby Laboratories Licensing Corporation Hierarchical control path with constraints for audio dynamics processing
AU2007331763B2 (en) 2006-12-12 2011-06-30 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Encoder, decoder and methods for encoding and decoding data segments representing a time-domain data stream
FR2910752B1 (fr) * 2006-12-22 2009-03-20 Commissariat Energie Atomique Procede de codage spatio-temporel pour systeme de communication multi-antenne de type uwb impulsionnel
JP5192544B2 (ja) * 2007-07-13 2013-05-08 ドルビー ラボラトリーズ ライセンシング コーポレイション 聴覚情景分析とスペクトルの歪みを用いた音響処理
KR101597375B1 (ko) * 2007-12-21 2016-02-24 디티에스 엘엘씨 오디오 신호의 인지된 음량을 조절하기 위한 시스템
US8538042B2 (en) 2009-08-11 2013-09-17 Dts Llc System for increasing perceived loudness of speakers
EP2362387A1 (de) * 2010-02-26 2011-08-31 Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. Wasserzeichenerzeuger, Wasserzeichendecodierer, Verfahren zur Bereitstellung eines Wasserzeichensignals in Abhängigkeit binärer Benachrichtigungsdaten, Verfahren zur Bereitstellung binärer Benachrichtigungsdaten in Abhängigkeit eines Wasserzeichensignals und Computerprogramm mit differentieller Codierung
US9729120B1 (en) 2011-07-13 2017-08-08 The Directv Group, Inc. System and method to monitor audio loudness and provide audio automatic gain control
US9312829B2 (en) 2012-04-12 2016-04-12 Dts Llc System for adjusting loudness of audio signals in real time
WO2014049192A1 (en) * 2012-09-26 2014-04-03 Nokia Corporation A method, an apparatus and a computer program for creating an audio composition signal
WO2017220528A1 (en) * 2016-06-22 2017-12-28 Dolby International Ab Audio decoder and method for transforming a digital audio signal from a first to a second frequency domain
JP7092048B2 (ja) * 2019-01-17 2022-06-28 日本電信電話株式会社 多地点制御方法、装置及びプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2010830C (en) * 1990-02-23 1996-06-25 Jean-Pierre Adoul Dynamic codebook for efficient speech coding based on algebraic codes
JP2598159B2 (ja) * 1990-08-28 1997-04-09 三菱電機株式会社 音声信号処理装置
ES2087522T3 (es) * 1991-01-08 1996-07-16 Dolby Lab Licensing Corp Descodificacion/codificacion para campos sonoros multidimensionales.
US5274740A (en) * 1991-01-08 1993-12-28 Dolby Laboratories Licensing Corporation Decoder for variable number of channel presentation of multidimensional sound fields
US5390177A (en) * 1993-03-24 1995-02-14 At&T Corp. Conferencing arrangement for compressed information signals
AU7960994A (en) * 1993-10-08 1995-05-04 Comsat Corporation Improved low bit rate vocoders and methods of operation therefor
US5570363A (en) * 1994-09-30 1996-10-29 Intel Corporation Transform based scalable audio compression algorithms and low cost audio multi-point conferencing systems
JPH1075310A (ja) * 1996-08-29 1998-03-17 Nec Corp 多地点テレビ会議システム
GB2321577B (en) * 1997-01-27 2001-08-01 British Broadcasting Corp Audio compression
US6230130B1 (en) * 1998-05-18 2001-05-08 U.S. Philips Corporation Scalable mixing for speech streaming
TW376611B (en) * 1998-05-26 1999-12-11 Koninkl Philips Electronics Nv Transmission system with improved speech encoder

Also Published As

Publication number Publication date
JP2001202097A (ja) 2001-07-27
FR2802329B1 (fr) 2003-03-28
US20010027393A1 (en) 2001-10-04
CA2327627C (en) 2012-02-07
EP1107230A1 (de) 2001-06-13
US6807526B2 (en) 2004-10-19
FR2802329A1 (fr) 2001-06-15
CA2327627A1 (en) 2001-06-08
EP1107230B1 (de) 2004-08-11
DE60012860D1 (de) 2004-09-16

Similar Documents

Publication Publication Date Title
DE60012860T2 (de) Verfahren zur Verarbeitung mehrerer digitaler Audiodatenströme
DE69603743T2 (de) Verfahren und gerät zum kodieren, behandeln und dekodieren von audiosignalen
DE69833834T2 (de) Skalierbares Audiokodier-und Dekodierverfahren und Gerät
DE19747132C2 (de) Verfahren und Vorrichtungen zum Codieren von Audiosignalen sowie Verfahren und Vorrichtungen zum Decodieren eines Bitstroms
DE69834010T2 (de) Skalierbares stereo Tonkodierungs- und Tondekodierungsverfahren und Vorrichtung dafür
DE102006022346B4 (de) Informationssignalcodierung
EP0954909B1 (de) Verfahren zum codieren eines audiosignals
EP0931386B1 (de) Verfahren zum signalisieren einer rauschsubstitution beim codieren eines audiosignals
DE60121592T2 (de) Kodierung und dekodierung eines digitalen signals
EP0750811B1 (de) Verfahren zum codieren mehrerer audiosignale
DE69735097T2 (de) Verfahren und vorrichtung zur verbesserung der sprachqualität in tandem-sprachkodierern
DE60319590T2 (de) Verfahren zur codierung und decodierung von audio mit variabler rate
DE602004001868T2 (de) Verfahren zum bearbeiten komprimierter audiodaten zur räumlichen wiedergabe
DE69432012T2 (de) Wahrnehmungsgebundene Kodierung von Audiosignalen
DE69432142T2 (de) Verfahren und vorrichtung zur effizienten transkodierung
DE69927578T2 (de) Verfahren und vorrichtung zur durchführung einer mehrparteienkommunikation für ein kommunikationssystem
DE60120504T2 (de) Verfahren zur transcodierung von audiosignalen, netzwerkelement, drahtloses kommunikationsnetzwerk und kommunikationssystem
DE19811039A1 (de) Verfahren und Vorrichtungen zum Codieren und Decodieren von Audiosignalen
DE602004004950T2 (de) Vorrichtung und Verfahren zum bitraten-skalierbaren Sprachkodieren und -dekodieren
DE4320990A1 (de) Verfahren zur Redundanzreduktion
EP1338004A1 (de) Verfahren und vorrichtung zum erzeugen bzw. decodieren eines skalierbaren datenstroms unter berücksichtigung einer bitsparkasse, codierer und skalierbarer codierer
EP1023777B1 (de) Verfahren und vorrichtung zur erzeugung eines bitratenskalierbaren audio-datenstroms
DE60224005T2 (de) Verfahren und vorrichtung zur verarbeitung von mehreren audiobitströmen
DE69028434T2 (de) System zur Codierung von Breitbandaudiosignalen
DE60217612T2 (de) Verfahren und Vorrichtung zur Kodierung und Dekodierung von Sprachsignalen

Legal Events

Date Code Title Description
8364 No opposition during term of opposition