[go: up one dir, main page]

ES2534972T3 - Predicción lineal basada en esquema de codificación utilizando conformación de ruido de dominio espectral - Google Patents

Predicción lineal basada en esquema de codificación utilizando conformación de ruido de dominio espectral Download PDF

Info

Publication number
ES2534972T3
ES2534972T3 ES12705820.4T ES12705820T ES2534972T3 ES 2534972 T3 ES2534972 T3 ES 2534972T3 ES 12705820 T ES12705820 T ES 12705820T ES 2534972 T3 ES2534972 T3 ES 2534972T3
Authority
ES
Spain
Prior art keywords
spectrum
linear prediction
autocorrelation
audio encoder
spectral
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES12705820.4T
Other languages
English (en)
Inventor
Goran MARKOVIC
Guillaume Fuchs
Nikolaus Rettelbach
Christian Helmrich
Benjamin SCHUBERT
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Application granted granted Critical
Publication of ES2534972T3 publication Critical patent/ES2534972T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/028Noise substitution, i.e. substituting non-tonal spectral components by noisy source
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/10Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/012Comfort noise or silence coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0212Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/022Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
    • G10L19/025Detection of transients or attacks for time/frequency resolution switching
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/03Spectral prediction for preventing pre-echo; Temporary noise shaping [TNS], e.g. in MPEG2 or MPEG4
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • G10L19/07Line spectrum pair [LSP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/10Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation
    • G10L19/107Sparse pulse excitation, e.g. by using algebraic codebook
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • G10L19/13Residual excited linear prediction [RELP]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/22Mode decision, i.e. based on audio signal content versus external parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/06Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being correlation coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/022Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/26Pre-filtering or post-filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Quality & Reliability (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Algebra (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

Codificador de audio que comprende un descompositor espectral (10) para descomponer espectralmente, usando un MDCT, una señal de audio de entrada (12) en un espectograma (14) de una secuencia de espectros; una computadora de autocorrelación (50) configurada para calcular una autocorrelación de un espectro actual de la secuencia de espectros; una computadora de coeficiente de predicción lineal (52) configurada para calcular coeficientes de predicción lineal en base a la correlación; un formador de dominio espectral (22) configurado para formar espectralmente el espectro actual en base a los coeficientes de predicción lineal y una etapa de cuantificación (24) configurada para cuantizar el espectro formado espectralmente; en donde el codificador de audio está configurado para insertar información relativa al espectro formado espectralmente e información relativa a los coeficientes de predicción lineal en una corriente de datos, en donde la computadora de autocorrelación está configurada para, al calcular la autocorrelación del espectro actual, calcular el espectro de potencia del espectro actual y someter el espectro de potencia a una transformada de ODFT inversa.

Description

Predicción lineal basada en esquema de codificación utilizando conformación de ruido de dominio espectral
[0001] La presente invención se refiere a un códec [codificador–decodificador] de audio sobre la base de la predicción lineal usando la conformación de ruido en el dominio de la frecuencia, tal como el modo TCX [sigla en inglés de: excitación codificada de transformada] conocido de la USAC [sigla en inglés de: codificación de habla y audio unificada].
[0002] Como códec de audio relativamente nuevo, el USAC ha sido recientemente finalizado. El USAC es un códec que soporta el cambio entre varios modos de codificación, tales como un modo de codificación del tipo AAC [sigla en inglés de: codificación de audio avanzada], un modo de codificación en el dominio del tiempo usando la codificación de predicción lineal, a decir, ACELP [sigla en inglés de: Predicción Lineal excitada por código algebraico (algoritmo de codificación de habla)], y la codificación de excitación codificada por transformada que forma un modo de codificación intermedio de acuerdo con el cual la conformación en el dominio espectral se controla usando los coeficientes de predicción lineal transmitidos por medio de la corriente de datos. En la solicitud WO 2011147950, se ha hecho una propuesta para tornar el esquema de codificación USAC más adecuado para aplicaciones de bajo retardo, mediante la exclusión del modo de codificación de tipo AAC de la disponibilidad, y la restricción de los modos de codificación solo a ACELP y TCX. Además, se ha propuesto reducir la longitud de trama.
[0003] Sin embargo, sería favorable contar con una posibilidad práctica de reducir la complejidad de un esquema de codificación sobre la base de la predicción lineal usando la conformación de dominio espectral, y a la vez, lograr una eficiencia de codificación similar en términos de, por ejemplo, el sentido de la relación de tasa/distorsión.
[0004] Por lo tanto, un objetivo de la presente invención es proporcionar dicho esquema de codificación sobre la base de la predicción lineal usando la conformación de dominio espectral, a fin de permitir una reducción de la complejidad, con una eficiencia de codificación comparable o aun mayor.
[0005] Este objetivo es logrado por el objeto del asunto de las reivindicaciones independientes pendientes.
[0006] Una idea básica que subyace a la presente invención es que un concepto de codificación que se basa en la predicción lineal y que utiliza la conformación de ruido de dominio espectral puede tornarse menos complejo con una eficiencia de codificación comparable en términos de, por ejemplo, la relación de tasa/distorsión, si la descomposición espectral de la señal de entrada de audio en un espectrograma que comprende una secuencia de espectros se usa tanto para el cómputo del coeficiente de predicción lineal como para la entrada para una conformación de dominio espectral sobre la base de los coeficientes de predicción lineal.
[0007] En este sentido, se ha hallado que la eficiencia de codificación permanece, aun si se usa dicha transformada superpuesta para la descomposición espectral que causa aliasing y necesita la cancelación del aliasing del tiempo, tal como transformadas superpuestas críticamente muestreadas, por ejemplo, una MDCT [sigla en inglés de: transformada de coseno discreta modificada].
[0008] Las implementaciones convenientes de los aspectos de la presente invención son el objeto de las reivindicaciones dependientes.
[0009] En particular, las realizaciones preferidas de la presente solicitud se describen con respecto a las figuras, en las cuales: la Fig. 1 muestra un diagrama de bloques de un codificador de audio de acuerdo con una comparación o realización; la Fig. 2 muestra un codificador de audio de acuerdo con una realización de la presente solicitud; la Fig. 3 muestra un diagrama de bloques de un posible decodificador de audio que se adapta al codificador de audio de laFig.2; y la Fig. 4 muestra un diagrama de bloques de un codificador de audio alternativo de acuerdo con una realización de la presente solicitud.
[00010] A fin de facilitar la comprensión de los principales aspectos y ventajas de las realizaciones de la presente invención que se describe adicionalmente a continuación, se hace referencia preliminar a la Fig. 1, que muestra un codificador de audio sobre la base de la predicción lineal usando la conformación de ruido de dominio espectral.
[00011] En particular, el codificador de audio de la Fig. 1 comprende un descomponedor espectral 10, para la descomposición espectral de una señal de audio de entrada 12 en un espectrograma que consiste en una secuencia de espectros, que se indica en 14 en la Fig. 1. Como se muestra en la Fig. 1, el descomponedor espectral 10 puede utilizar una MDCT a fin de transferir la señal de audio de entrada 10 del dominio del tiempo al dominio espectral. En particular, un ventaneador 16 precede el módulo MDCT 18 del descomponedor espectral 10, de manera de ventanear porciones de superposición mutua de la señal de audio de entrada 12, cuyas porciones ventaneadas son individualmente sometidas a la respectiva transformada en el módulo MDCT 18, a fin de obtener los espectros de la secuencia de espectros del espectrograma 14. Sin embargo, el descomponedor espectral 10, alternativamente,
15
25
35
45
55
65
puede utilizar cualquier otra transformada superpuesta que cause aliasing, tal como cualquier otra transformada superpuesta críticamente muestreada.
[00012] Asimismo, el codificador de audio de la Fig. 1 comprende un analizador de predicción lineal 20 para el análisis de la señal de audio de entrada 12, de manera de derivar de allí los coeficientes de predicción lineal. Un conformador de dominio espectral 22 del codificador de audio de la Fig. 1 está configurado para conformar espectralmente un espectro corriente de la secuencia de espectros del espectrograma 14, sobre la base de los coeficientes de predicción lineal proporcionados por el analizador de predicción lineal 20. En particular, el conformador de dominio espectral 22 está configurado para conformar espectralmente un espectro corriente que entra en el conformador de dominio espectral 22 de acuerdo con una función de transferencia que corresponde a una función de transferencia de filtro de análisis de predicción lineal mediante la conversión de los coeficientes de predicción lineal del analizador 20, en valores de peso espectrales y la aplicación de estos valores de peso como divisores, de manera de formar o conformar espectralmente el espectro corriente. El espectro conformado se somete a la cuantificación en un cuantificador 24 del codificador de audio de la Fig. 1. Debido a la conformación en el conformador de dominio espectral 22, el ruido de la cuantificación que resulta con la desconformación del espectro cuantificado del lado del decodificador es cambiado de modo de ocultarse, es decir, la codificación es lo más perceptivamente transparente posible.
[00013] Solo por razones de integridad, se observa que un módulo de conformación de ruido temporal 26 puede someter opcionalmente los espectros avanzados desde el descomponedor espectral 10 hacia el conformador de dominio espectral 22, a un conformador de ruido temporal, y un módulo de énfasis de baja frecuencia 28 puede filtrar adaptativamente cada salida de espectro conformado del conformador de dominio espectral 22, antes de la cuantificación 24.
[00014] El espectro cuantificado y espectralmente conformado se inserta en la corriente de datos 30 junto con información sobre los coeficientes de predicción lineal utilizados en la conformación espectral, de manera que, del lado de la decodificación, pueden efectuarse la desconformación y descuantificación.
[00015] La mayoría de las partes del códec de audio, excepto el módulo TNS [sigla en inglés de: conformación de ruido temporal] 26, que se muestran en la Fig. 1 son, por ejemplo, representadas y descriptas en el nuevo códec de audio USAC, y en particular, dentro de su modo TCX. Por lo tanto, para más detalles, se hace referencia ejemplarmente a las pautas USAC, por ejemplo, [1].
[00016] Sin embargo, se proporciona mayor énfasis en lo que sigue con respecto al analizador de predicción lineal
20. Como se expone en la Fig. 1, el analizador de predicción lineal 20 opera directamente sobre la señal de audio de entrada 12. Un módulo de preénfasis 32 prefiltra la señal de audio de entrada 12, por ejemplo, mediante la filtración FIR, y a continuación, se deriva en forma continua una autocorrelación por medio de una concatenación de un ventaneador 34, un autocorrelacionador 36 y ventaneador de demora 38. El ventaneador 34 forma porciones ventaneadas a partir de la señal de audio de entrada prefiltrada, cuyas porciones ventaneadas pueden superponerse mutuamente en el tiempo. El autocorrelacionador 36 computa una autocorrelación por porción ventaneada que sale del ventaneador 34, y el ventaneador de demora 38 es proporcionado en forma opcional a fin de aplicar una función de ventana de demora sobre las autocorrelaciones, a fin de tornar las autocorrelaciones más adecuadas para el siguiente algoritmo de estimación de parámetro de predicción lineal. En particular, un estimador de parámetro de predicción lineal 40 recibe la salida de la ventana de demora, y realiza, por ejemplo, un algoritmo de Wiener– Levinson–Durbin u otro algoritmo adecuado, sobre las autocorrelaciones ventaneadas, de manera de derivar coeficientes de predicción lineal por autocorrelación. Dentro del formador de dominio espectral 22, los coeficientes de predicción lineal resultantes se pasan a través de una cadena de módulos 42, 44, 46 y 48. El módulo 42 es responsable de la transferencia de información de los coeficientes de predicción lineal dentro de la corriente de datos 30, al lado de la decodificación. Como se expone en la Fig. 1, el insertador de la corriente de datos de coeficientes de predicción lineal 42 puede ser configurado para realizar una cuantificación de los coeficientes de predicción lineal determinados por el analizador de predicción lineal 20 en un par espectral lineal o dominio de frecuencia espectral lineal, con la codificación de los coeficientes cuantificados en la corriente de datos 30 y la reconversión de los valores de predicción cuantificados en coeficientes de LPC [sigla en inglés de: codificación lineal predictiva], nuevamente. En forma opcional, puede usarse cierta interpolación a fin de reducir una tasa de actualización a la cual es proporcionada la información sobre los coeficientes de predicción lineal dentro de la corriente de datos 30. Por lo tanto, el módulo subsiguiente 44, que es responsable de someter los coeficientes de predicción lineal relacionados con el espectro corriente que ingresa en el conformador de dominio espectral 22, a algún proceso de pesado, tiene acceso a los coeficientes de predicción lineal, ya que estos también están disponibles del lado de la decodificación, es decir, tiene acceso a los coeficientes de predicción lineal cuantificados. Un módulo subsiguiente 46 convierte los coeficientes de predicción lineal pesados en pesos espectrales, que son entonces aplicados por el módulo conformador de ruido de dominio de frecuencia 48 a fin de conformar espectralmente el espectro corriente de llegada.
[00017] Como resulta claro de la descripción anterior, el análisis de predicción lineal realizado por el analizador 20 causa exceso, que se suma por completo a la descomposición espectral y la conformación de dominio espectral efectuadas en los bloques 10 y 22, y en consecuencia, el exceso computacional es considerable.
15
25
35
45
55
[00018] La Fig. 2 muestra un codificador de audio de acuerdo con una realización de la presente solicitud, que ofrece eficiencia de codificación comparable, si bien tiene reducida complejidad de codificación.
[00019] En síntesis, en el codificador de audio de la Fig. 2 que representa una realización de la presente solicitud, el analizador de predicción lineal de la Fig. 1 es reemplazado por una concatenación de una computadora de autocorrelación 50 y una computadora de coeficiente de predicción lineal 52 conectadas en serie entre el descomponedor espectral 10 y el conformador de dominio espectral 22. La motivación para la modificación de la Fig. 1 a la Fig. 2 y la explicación matemática que revela la funcionalidad detallada de los módulos 50 y 52 se proporcionarán en lo que sigue. Sin embargo, es evidente que el excedente computacional del codificador de audio de la Fig. 2 es menor en comparación con el codificador de audio de la Fig. 1, considerando que la computadora de autocorrelación 50 involucra cómputos menos complejos en comparación con una secuencia de cómputos involucrada en la autocorrelación y el ventaneado antes de la autocorrelación.
[00020] Antes de describir el entramado detallado y matemático de la realización de la Fig. 2, se describe brevemente la estructura del codificador de audio de la Fig. 2. En particular, el codificador de audio de la Fig. 2, que se indica generalmente usando el signo de referencia 60, comprende una entrada 62 para recibir la señal de audio de entrada 12, y una salida 64, para la salida de la corriente de datos 30 en la cual el codificador de audio codifica la señal de audio de entrada 12. El descomponedor espectral 10, el conformador de ruido temporal 26, el conformador de dominio espectral 22, en enfatizador de baja frecuencia 28 y el cuantificador 24 están conectados en serie en el orden mencionado, entre la entrada 62 y la salida 64. El conformador de ruido temporal 26 y el enfatizador de baja frecuencia 28 son módulos opcionales, y, de acuerdo con una realización alternativa, pueden omitirse. Si se presenta, el conformador de ruido temporal 26 puede estar configurado para ser activado en forma adaptativa; es decir, la conformación de ruido temporal por el conformador de ruido temporal 26 puede ser activada o desactivada de acuerdo con la característica de señal de audio de entrada, por ejemplo, donde el resultado de la decisión es transferido, por ejemplo, al lado de la decodificación por medio de la corriente de datos 30, como se explicará en más detalle a continuación.
[00021] Como se expone en la Fig. 1, el conformador de dominio espectral 22 de la Fig. 2 es internamente construido como se ha descripto con respecto a la Fig. 1. Sin embargo, la estructura interna de la Fig. 2 no debe ser interpretada como una cuestión decisiva, y la estructura interna del conformador de dominio espectral 22 además puede ser diferente en comparación con la estructura exacta que se muestra en la Fig. 2.
[00022] La computadora de coeficiente de predicción lineal 52 de la Fig. 2 comprende el ventaneador de demora 38 y el estimador de coeficiente de predicción lineal 40 que están conectados en serie entre la computadora de autocorrelación 50 por una parte, y el conformador de dominio espectral 22, por otra parte. Debe observarse que el ventaneador de demora, por ejemplo, es también un rasgo opcional. Si se presenta, la ventana aplicada por el ventaneador de demora 38 sobre las autocorrelaciones individuales provistas por la computadora de autocorrelación 50 podría ser una ventana conformada de tipo gaussiana o binomial. Con respecto al estimador de coeficiente de predicción lineal 40, se observa que este no necesariamente utiliza el algoritmo de Wiener–Levinson–Durbin. En cambio, podría usarse un algoritmo diferente a fin de computar los coeficientes de predicción lineal.
[00023] Internamente, la computadora de autocorrelación 50 comprende una secuencia de una computadora de espectro de potencia 54 seguida de un torcedor de escala/pesador de espectro 56, que, a su vez, es seguido de un transformador inverso 58. Los detalles y la significación de la secuencia de módulos 54 a 58 se describirán en más detalle a continuación.
[00024] A fin de comprender la razón por la cual es posible la utilización conjunta de la descomposición espectral del descomponedor 10 tanto para la conformación de ruido de dominio espectral dentro del conformador 22, como para el cómputo de coeficientes de predicción lineal, debe considerarse el teorema de Wiener–Khinichin, que demuestra que puede calcularse una autocorrelación empleando una DFT [sigla en inglés de: transformada de frecuencia
discreta]:
mR
= N 1 ∑ − = km N i k N k S e 2π 1 0 m = 0,...,N 1−
donde:
[00025] Por lo tanto, Rm son los coeficientes de autocorrelación de la autocorrelación de la porción de señal xn cuya DFT es Xk. 5 [00026] Por lo tanto, si el descomponedor espectral 10 utiliza una DFT a fin de implementar la transformada superpuesta y generar la secuencia de espectros de la señal de audio de entrada 12, entonces el calculador de autocorrelación 50 podrá realizar un cálculo más rápido de una autocorrelación en su salida, solamente obedeciendo el teorema de Wiener–Khinichin recién mencionado. 10 [00027] Si son requeridos los valores para todas las demoras m de la autocorrelación, la DFT del descomponedor espectral 10 podría efectuarse usando una FFT [sigla en inglés de: transformada rápida de Fourier], y podría usarse una FFT inversa dentro de la computadora de autocorrelación 50 a fin de derivar de allí la autocorrelación empleando la fórmula recién mencionada. Sin embargo, cuando solo son necesarias las demoras M<<N, será más 15 rápido utilizar una FFT para la descomposición espectral y aplicar directamente una DFT [sigla en inglés de: transformada de Fourier discreta] inversa de manera de obtener los coeficientes de autocorrelación pertinentes. [00028] Lo mismo se aplica cuando la DFT mencionada anteriormente es reemplazada con una ODFT, es decir, una DFT de frecuencia excedente, donde una DFT generalizada de una secuencia de tiempo x se define como: 20
y
se establece para ODFT (DFT de frecuencia excedente). [00029] Sin embargo, si se usa una MDCT en la realización de la Fig. 2, en lugar de una DFT o FFT, las cosas
30 difieren. La MDCT involucra una transformada de coseno discreta de tipo IV, y solo revela un espectro de valor real. Es decir, la información de fase se pierde por esta transformación. La MDCT puede anotarse como:
35 donde xn con n = 0 … 2N–1 define una porción ventaneada corriente de la señal de audio de entrada 12 como salida del ventaneador 16, y Xk es, en consecuencia, el coeficiente espectral k del espectro resultante para esta porción ventaneada. [00030] La computadora de espectro de potencia 54 calcula, a partir de la salida de la MDCT, el espectro de
40 potencia mediante el cuadrado de cada coeficiente de transformada Xk de acuerdo con:
[00031] La relación entre un espectro de MDCT definido por Xk y un espectro de ODFT XkODFT puede anotarse 45 como:
50 [00032] Esto significa que el uso de la MDCT en lugar de una ODFT como entrada para la computadora de autocorrelación 50 que realiza la MDCT para el procedimiento de autocorrelación es equivalente a la autocorrelación obtenida a partir de la ODFT con un peso de espectro de:
55
15
25
35
45
55
[00033] Esta distorsión de la autocorrelación determinada, sin embargo, es transparente para el lado de la decodificación, ya que la conformación de dominio espectral dentro del conformador 22 tiene lugar exactamente en el mismo dominio espectral que aquel del descomponedor espectral 10, a decir, la MDCT. En otros términos, debido a que la conformación de ruido de dominio de frecuencia por el conformador de ruido de dominio de frecuencia 48 de la Fig. 2 se aplica en el dominio MDCT, esto efectivamente significa que el peso del espectro fkmdct cancela la modulación de la MDCT, y produce resultados similares a los que produciría una LPC convencional como se muestra en la Fig. 1 cuando la MDCT es reemplazada con una ODFT.
[00034] Por lo tanto, en la computadora de autocorrelación 50, el transformador inverso 58 realiza una ODFT inversa, y una ODFT inversa de una entrada real simétrica es igual a una DCT tipo II:
[00035] En consecuencia, esto permite un rápido cómputo de la LPC sobre la base de MDCT en la computadora de autocorrelación 50 de la Fig. 2, ya que la autocorrelación determinada por la ODFT inversa en la salida del transformador inverso 58 vuelve a un costo computacional relativamente bajo, ya que solo son necesarios pasos computacionales menores, tales como el cuadrado recién mencionado, la computadora de espectro de potencia 54 y la ODFT inversa en el transformador inverso 58.
[00036] Los detalles con respecto al torcedor de escala/pesador de espectro 56 aún no han sido descriptos. En particular, este módulo es opcional, y puede omitirse o ser reemplazado por un decimador de dominio de frecuencia. Los detalles con respecto a posibles medidas realizadas por el módulo 56 se describen a continuación. Antes, sin embargo, se reseñan algunos detalles referidos a algunos de los otros elementos expuestos en la Fig. 2. Con respecto al ventaneador de demora 38, por ejemplo, se observa que este puede realizar una compensación de ruido blanco a fin de mejorar el acondicionamiento de la estimación de coeficiente de predicción lineal realizada por el estimador 40. El peso de LPC efectuado en el módulo 44 es opcional, aunque, si se presenta, puede realizarse a fin de lograr una expansión de ancho de banda real. Esto es, los polos de las LPC son movidos hacia el origen por un factor constante de acuerdo con, por ejemplo:
[00037] Por lo tanto, el peso de LPC efectuado de esta manera se aproxima al enmascaramiento simultáneo. Una constante de γ = 0,92 o entre 0,85 y 0,95, inclusive produce buenos resultados.
[00038] Con referencia al módulo 42, se observa que puede usarse la codificación de tasa de bits variable o algún otro esquema de codificación de entropía, a fin de codificar la información relacionada con los coeficientes de predicción lineal en la corriente de datos 30. Como ya se mencionó anteriormente, la cuantificación podría realizarse en el dominio LSP/LSF, aunque el dominio ISP/ISF también es viable.
[00039] Con respecto al módulo LPC–a–MDCT 46, que convierte la LPC en valores de peso espectral que se denominan, en el caso del dominio MDCT, ganancias MDCT en lo que sigue, se hace referencia, por ejemplo, al códec USAC, donde se explica en detalle esta transformada. En síntesis, los coeficientes de LPC pueden ser sometidos a una ODFT a fin de obtener ganancias de MDCT; entonces puede usarse la inversa como ponderaciones para la conformación del espectro en el módulo 48 mediante la aplicación de las ponderaciones resultantes sobre las respectivas bandas del espectro. Por ejemplo, 16 coeficientes LPC son convertidos en ganancias MDCT. Naturalmente, en lugar de pesar usando la inversa, se emplea la ponderación usando las ganancias MDCT en forma no invertida, del lado del decodificador, a fin de obtener una función de transferencia que se asemeja a un filtro de síntesis LPC a fin de formar el ruido de cuantificación como ya sea ha mencionado. En consecuencia, resumiendo, en el módulo 46, las ganancias utilizadas por FDNS 48 se obtienen de los coeficientes de predicción lineal usando una ODFT, y se denominan ganancias MDCT en el caso de usar MDCT.
[00040] Por razones de integridad, la Fig. 3 muestra una posible implementación para un codificador de audio que podría usarse a fin de reconstruir la señal de audio de la corriente de datos 30, nuevamente. El decodificador de la Fig. 3 comprende un desenfatizador de baja frecuencia 80, que es opcional; un desconformador de dominio espectral 82, un desconformador de ruido temporal 84, que también es opcional, y un conversor de dominio espectral–a–tiempo 86, que están conectados en serie entre una entrada de corriente de datos 88 del decodificador de audio en el cual entra la corriente de datos 30, y una salida 90 del decodificador de audio, donde sale la señal de audio reconstruida. El desenfatizador de baja frecuencia recibe de la corriente de datos 30 el espectro cuantificado y espectralmente conformado, y realiza allí una filtración, que es inversa a la función de transferencia del enfatizador de baja frecuencia de la Fig. 2. Como ya se mencionó, el desenfatizador 80, sin embargo, es opcional.
15
25
35
45
55
65
[00041] El desconformador de dominio espectral 82 tiene una estructura que es muy similar a aquella del conformador de dominio espectral 22 de la Fig. 2. En particular, internamente, comprende una concatenación de extractor de LPC 92, pesador de LPC 94, que es igual al pesador de LPC 44, un conversor de LPC a MDCT 96, que también es igual al módulo 46 de la Fig. 2, y un conformador de ruido de dominio de frecuencia 98, que aplica las ganancias de MDCT sobre el espectro (desenfatizado) de llegada de manera inversa a FDNS 48 de la Fig. 2, es decir, mediante la multiplicación, en lugar de la división, a fin de obtener una función de transferencia que corresponde a un filtro de síntesis de predicción lineal de los coeficientes de predicción lineal extraídos de la corriente de datos 30 por el extractor LPC 92. El extractor LPC 92 puede realizar la retransformada mencionada anteriormente a partir de un correspondiente dominio de cuantificación tal como LSP/LSF o ISP/ISF, a fin de obtener los coeficientes de predicción lineal para los espectros individuales codificados en la corriente de datos 30 para las porciones de superposición mutua consecutivas de la señal de audio por reconstruir.
[00042] El conformador de ruido de dominio de tiempo 84 revierte la filtración del módulo 26 de la Fig. 2, y a continuación se describen en más detalle posibles implementaciones para estos módulos. Sin embargo, en cualquier caso, el módulo TNS 84 de la Fig. 3 es opcional, y puede omitirse, como ya se ha mencionado también con respecto al módulo TNS 26 de la Fig. 2.
[00043] El componedor espectral 86 comprende, internamente, un transformador inverso 100 que realiza, por ejemplo, una IMDCT individualmente sobre los espectros desconformados de llegada, seguido de un cancelador del aliasing, tal como un agregador de superposición–adición 102, configurado para registrar temporalmente en forma correcta las versiones ventaneadas reconstruidas que salen del retransformador 100, a fin de efectuar la cancelación del aliasing de tiempo entre ellas y dar salida a la señal de audio reconstruida en la salida 90.
[00044] Como ya se menciona con anterioridad, debido a la conformación de dominio espectral 22 de acuerdo con una función de transferencia correspondiente a un filtro de análisis de LPC definido por los coeficientes de LPC proporcionados dentro de la corriente de datos 30, la cuantificación en el cuantificador 24, que tiene, por ejemplo, un ruido espectralmente llano, es conformada por el desconformador de dominio espectral 82 en un lado de la decodificación, de manera tal de ocultarse debajo del umbral de enmascarado.
[00045] Existen diferentes posibilidades para la implementación del módulo TNS 26 y su inversa, en el decodificador, a decir, el módulo 84. La conformación de ruido temporal es para la conformación del ruido en el sentido temporal dentro de las porciones de tiempo a las que se refieren los espectros individuales espectralmente formados por el conformador de dominio espectral. La conformación de ruido temporal es especialmente útil en el caso de presentarse transitoriedades dentro de la respectiva porción de tiempo a la cual se refiere el espectro corriente. De acuerdo con una realización específica, el conformador de ruido temporal 26 está configurado como un predictor de espectro configurado para filtrar predictivamente el espectro corriente o la secuencia de espectros que sale del descomponedor espectral 10 a lo largo de una dimensión espectral. Es decir, el predictor de espectro 26 además puede determinar los coeficientes de filtro de predicción que pueden insertarse en la corriente de datos 30. Esto es ilustrado por una línea de puntos en la Fig. 2. En consecuencia, los espectros filtrados de ruido temporal son allanados a lo largo de la dimensión espectral, y debido a la relación entre el dominio espectral y el dominio de tiempo, la filtración inversa dentro del desconformador de ruido de dominio de tiempo 84 de acuerdo con los filtros de predicción de conformación de ruido de dominio de tiempo transmitidos dentro de la corriente de datos 30, la desconformación conduce a un ocultamiento o a una compresión del ruido dentro de los tiempo en los cuales se produce el ataque o las transitorias. Se evitan de este modo los así denominados preecos.
[00046] En otros términos, mediante la filtración predictiva del espectro corriente en el conformador de ruido de dominio de tiempo 26, el conformador de ruido de dominio de tiempo 26 obtiene un recordatorio de espectro, es decir, el espectro predictivamente filtrado que es adelantado al conformador de dominio espectral 22, donde se insertan los correspondientes coeficientes de predicción en la corriente de datos 30. El desconformador de ruido de dominio de tiempo 84, a su vez, recibe del desconformador de dominio espectral 82 el espectro desconformado, y revierte la filtración en el dominio del tiempo a lo largo del dominio espectral mediante la filtración inversa de este espectro de acuerdo con los filtros de predicción recibidos desde la corriente de datos, o extraídos de la corriente de datos 30. En otros términos, el conformador de ruido de dominio de tiempo 26 utiliza un filtro de predicción de análisis, tal como un filtro de predicción lineal, mientras que el desconformador de ruido de dominio de tiempo 84 utiliza un correspondiente filtro de síntesis sobre la base de los mismos coeficientes de predicción.
[00047] Como ya se mencionó, el codificador de audio puede configurarse a fin de decidir permitir o deshabilitar la conformación de ruido temporal, de acuerdo con la ganancia de predicción de filtro o con una tonalidad o transitoriedad de la señal de entrada de audio 12 en la respectiva porción de tiempo correspondiente al espectro corriente. Nuevamente, la información respectiva sobre la decisión es insertada en la corriente de datos 30.
[00048] En lo que sigue, se analiza la posibilidad de acuerdo con la cual la computadora de autocorrelación 50 es configurada para computar la autocorrelación de la versión del espectro predictivamente filtrada, es decir, filtrada por TNS, en lugar del espectro no filtrado que se muestra en la Fig. 2. Existen dos posibilidades: los espectros filtrados por TNS pueden usarse cada vez que se aplica TNS, o de una manera seleccionada por el codificador de audio
15
25
35
45
55
sobre la base, por ejemplo, de características de la señal de audio de entrada 12 por codificar. En consecuencia, el codificador de audio de la Fig. 4 difiere del codificador de audio de la Fig. 2, en que la salida de la computadora de autocorrelación 50 está conectada tanto a la salida del descomponedor espectral 10 como a la salida del módulo TNS 26.
[00049] Como se acaba de mencionar, el espectro de MDCT filtrado por TNS como salida del descomponedor espectral 10 puede usarse como una entrada o base para el cómputo de autocorrelación dentro de la computadora
50. Como se menciona, el espectro filtrado por TNS podría usarse cada vez que se aplica TNS, o el codificador de audio podría decidir, para los espectros a los cuales se aplica TNS, entre el uso del espectro no filtrado o el espectro filtrado por TNS. La decisión podría tomarse, como se menciona anteriormente, de acuerdo con las características de la señal de entrada de audio. Sin embargo, la decisión podría ser transparente para el decodificador, que solamente aplica la información de coeficientes de LPC para la desconformación de dominio de frecuencia. Otra posibilidad sería que el codificador de audio cambie entre el espectro filtrado por TNS y el espectro no filtrado, para espectros a los cuales se aplica TNS, es decir, tomar la decisión entre estas dos opciones para estos espectros, de acuerdo con una longitud de transformada seleccionada del descomponedor espectral 10.
[00050] Con mayor precisión, el descomponedor 10 en la Fig. 4 puede configurarse para cambiar entre diferentes longitudes de transformada en la descomposición espectral de la señal de entrada de audio, de manera que los espectros que salen del descomponedor espectral 10 serán de diferente resolución espectral. Es decir, el descomponedor espectral, por ejemplo, utilizará una transformada superpuesta tal como la MDCT, a fin de transformar porciones de tiempo de superposición mutua de diferente longitud, en transformadas o espectros de también diversas longitudes, donde la longitud de la transformada de los espectros corresponde a la longitud de las correspondiente porciones de tiempo de superposición. En dicho caso, la computadora de autocorrelación 50 podría configurarse a fin de computar la autocorrelación a partir del espectro corriente predictivamente filtrado o filtrado por TNS, en el caso de que una resolución espectral del espectro corriente cumpla con un criterio predeterminado, o a partir del espectro corriente no predictivamente filtrado, es decir, si filtrar, en el caso de que la resolución espectral del espectro corriente no cumpla con el criterio predeterminado. El criterio predeterminado podría ser, por ejemplo, que la resolución espectral del espectro corriente exceda cierto umbral. Por ejemplo, el uso del espectro filtrado por TNS como salida del módulo TNS 26 para el cómputo de la autocorrelación es beneficioso para tramas más largas (porciones de tiempo), tales como tramas de más de 15 ms, si bien puede ser inconveniente para tramas cortas (porciones temporales), más cortas que, por ejemplo, 15 ms, y en consecuencia, la entrada en la computadora de autocorrelación 50 para tramas más largas puede ser el espectro de MDCT filtrado por TNS, mientras que para tramas más cortas, el espectro de MDCT como salida del descomponedor 10 puede usarse directamente.
[00051] Hasta la fecha, no se habían descripto aún las modificaciones pertinentes preceptivas que podrían efectuarse sobre el espectro de potencia dentro del módulo 56. Ahora, se explican diversas medidas, que podrían aplicarse individualmente o en combinación sobre todas las realizaciones y variantes descriptas hasta ahora. En particular, podría aplicarse una ponderación de espectro mediante el módulo 56 sobre le espectro de potencia que sale de la computadora de espectro de potencia 54. La ponderación de espectro podría ser:
donde Sk son los coeficientes del espectro de potencia como se menciona anteriormente.
[00052] La ponderación espectral puede usarse como un mecanismo para la distribución del ruido de cuantificación de acuerdo con aspectos psicoacústicos. La ponderación de espectro correspondiente a un preénfasis en el sentido de la Fig. 1 podría definirse mediante:
[00053] Además, podría usarse la deformación de escala dentro del módulo 56. El espectro completo podría dividirse, por ejemplo, en bandas M para espectros correspondientes a tramas o porciones de tiempo de una longitud de muestra de l1, y bandas 2M, para espectros correspondientes a porciones de tiempo de tramas que tienen una longitud de muestra de l2, donde l2 puede ser el doble de l1, donde l1 puede ser 64, 128 o 256. En particular, la división podría obedecer:
[00054] La división de banda podría incluir la deformación de frecuencia a una aproximación de la escala Bark de acuerdo con:
5
10
15
20
25
30
35
40
45
50
55
alternativamente, las bandas podrían distribuirse igualmente para formar una escala lineal, de acuerdo con:
[00055] Para los espectros de tramas de longitud l1, por ejemplo, una cantidad de bandas podría ser entre 20 y 40, y entre 48 y 72, para espectros que pertenecen a tramas de longitud l2, donde se prefieren 32 bandas para espectros de tramas de longitud l1, y 64 bandas para espectros de tramas de longitud l2.
[00056] La ponderación espectral y la deformación de frecuencia opcionalmente efectuadas por el módulo opcional 56 podrían considerarse un medio de asignación de bits (conformación de ruido de cuantificación). La ponderación de espectro en una escala lineal correspondiente al preénfasis podría realizarse usando una constante µ = 0,9 o una constante que se encuentra entre 0,8 y 0,95, de manera que el correspondiente preénfasis corresponderá aproximadamente a la deformación de escala Bark.
[00057] La modificación del espectro de potencia dentro del módulo 56 puede incluir la diseminación del espectro de potencia, el modelado del enmascarado simultáneo, y en consecuencia, el reemplazo de los módulos de ponderación LPC 44 y 94.
[00058] Si se utiliza una escala lineal, y se aplica la ponderación de espectro correspondiente al preénfasis, entonces los resultados del codificador de audio de la Fig. 4 obtenidos del lado de la decodificación, es decir, en la salida del decodificador de audio de la Fig. 3, son perceptivamente muy similares al resultado de reconstrucción convencional obtenido de acuerdo con la realización de la Fig. 1.
[00059] Algunos resultados de prueba de escucha se han logrado usando las realizaciones identificadas anteriormente. De estas pruebas, resultó que el análisis de LPC convencional que se muestra en la Fig. 1 y el análisis de LPC sobre la base de MDCT de escala lineal produjeron resultados perceptivamente equivalentes cuando:
la ponderación de espectro en el análisis de LPC sobre la base de MDCT corresponde al preénfasis en el análisis de LPC convencional;
se usa el mismo ventaneado dentro de la descomposición espectral, tal como una ventana de seno de baja superposición; y
se usa la escala lineal en el análisis de LPC sobre la base de MDCT.
[00060] La diferencia imperceptible entre el análisis de LPC convencional y el análisis de LPC sobre la base de MDCT de escala lineal probablemente provenga del hecho de que la LPC se usa para la conformación de ruido de cuantificación, y de que hay suficientes bits a 48 kbit/s para codificar los coeficientes de MDCT de manera suficientemente precisa.
[00061] Además, resultó que el uso de la escala de Bark o la escala no lineal mediante la aplicación de la deformación de escala dentro del módulo 56 logró resultados de eficiencia de codificación o de pruebas de escucha de acuerdo con los cuales la escala de Bark supera la escala lineal para las piezas de audio de prueba Applause (aplauso), Fatboy (chico gordo), RockYou (mecer), Waiting (esperar), bohemian (bohemio), fuguepremikres, kraftwerk, lesvoleurs, teardrop (lágrima).
[00062] La escala de Bark falla en gran medida para hockey y linchpin (cabilla). Otro ítem que tiene problemas en la escala de Bark es bibilolo, que no se incluyó en la prueba, ya que presenta una música experimental con estructura de espectro específica. Algunos oyentes además expresaron fuerte desagrado del ítem bibilolo.
[00063] Sin embargo, es posible que el codificador de audio de las Figs. 2 y 4 cambie entre diferentes escalas. Es decir, el módulo 56 podría aplicar diferentes escalas para diferentes espectros de acuerdo con las características de la señal de audio tales como la transitoriedad o tonalidad, o usar diferentes escalas de frecuencia para producir múltiples señales cuantificadas y una medida para determinar la mejor de las señales cuantificadas, perceptivamente. Resultó que el cambio de escala logra mejoramientos en presencia de transitoriedades, tales como las transitoriedades en RockYou y linchpin, en comparación con ambas versiones no cambiadas (escalas de Bark y lineal).
15
25
35
45
55
65
[00064] Debe mencionarse que las realizaciones reseñadas con anterioridad podrían usarse como el modo TCX en un códec de audio de múltiples modos, tal como un códec que soporta ACELP, y la realización reseñada anteriormente, como un modo de tipo TCX. Como entramado, podrían usarse las tramas de una longitud constante, tal como de 20 ms. De esta manera, podría obtenerse una clase de versión de bajo retardo del códec USAC, que es muy eficiente. Como el TNS, podría usarse el TNS de AAC–ELD. A fin de reducir la cantidad de bits utilizada para la información de lado, el número de filtros podría fijarse en dos, uno que opera a de 600 Hz a 4500 Hz, y un segundo, de 4500 Hz al final del espectro del codificador núcleo. Los filtros podrían ser independientemente encendidos y apagados. Los filtros podrían aplicarse y transmitirse como un enrejado usando coeficientes Parcor. El orden máximo de un filtro podría establecerse en ocho, y podrían usarse cuatro bits por coeficiente de filtro. Podría usarse la codificación Huffman para reducir el número de bits utilizados para el orden de un filtro y para sus coeficientes.
[00065] Si bien se han descripto algunos aspectos en el contexto de un aparato, es claro que estos aspectos además representan una descripción del correspondiente método, donde un bloque o dispositivo corresponde a un paso de método o un rasgo de un paso de método. En forma análoga, los aspectos que se describen en el contexto de un paso de método representan además una descripción de un correspondiente bloque, ítem o rasgo de un correspondiente aparato. Algunos o la totalidad de los pasos de método pueden ejecutarse mediante (o usando) un aparato de soporte físico, por ejemplo, un microprocesador, una computadora programable o un circuito electrónico. En algunas realizaciones, algunos de uno o más de los pasos de método más importantes pueden ser ejecutados por dicho aparato.
[00066] De acuerdo con ciertos requisitos de implementación, las realizaciones de la invención pueden ser implementadas en soporte físico o en soporte lógico. La implementación puede realizarse usando un medio de almacenamiento digital, por ejemplo, un disco flexible, un DVD [disco versátil digital], un Blu–Ray, un CD [disco compacto], una ROM [sigla en inglés de: memoria de solo lectura], una PROM [sigla en inglés de: memoria de solo lectura programable], una EPROM [sigla en inglés de: memoria de solo lectura programable borrable], una EEPROM [sigla en inglés de: memoria de solo lectura programable y borrable electrónicamente] o una memoria FLASH, que tienen señales de control legibles electrónicamente allí almacenadas, que cooperan (o son capaces de cooperar) con un sistema de computadora programable de manera de efectuar el respectivo método. Por lo tanto, el medio de almacenamiento digital puede ser legible por computadora.
[00067] Algunas realizaciones de acuerdo con la invención comprenden un portador de datos que tiene señales de control legibles electrónicamente, que son capaces de cooperar con un sistema de computadora programable, de modo de realizar uno de los métodos que se describen en esta solicitud.
[00068] En general, las realizaciones de la presente invención pueden implementarse como un producto de programa para computadora con un código de programa, donde el código de programa opera para llevar a cabo uno de los métodos cuando el producto de programa de computadora se ejecuta en una computadora. El código de programa, por ejemplo, puede ser almacenado en un portador legible por una máquina.
[00069] Otras realizaciones comprenden el programa de computadora para realizar uno de los métodos que se describen en esta solicitud, almacenado en un portador legible por una máquina.
[00070] En otras palabras, una realización del método de la invención, es, por lo tanto, un programa para computadora que tiene un código de programa para realizar uno de los métodos que se describen en esta solicitud, cuando el programa de computadora se ejecuta en una computadora.
[00071] Una realización adicional de los métodos de la invención es, por lo tanto, un portador de datos (o un medio de almacenamiento digital, o un medio legible por computadora) que comprende, allí grabado, el programa de computadora para efectuar uno de los métodos que se describen en esta solicitud. El portador de datos, el medio de almacenamiento digital o el medio grabado habitualmente son tangibles y/o no transicionales.
[00072] Una realización adicional del método de la invención es, por lo tanto, una corriente de datos o una secuencia de señales que representa el programa de computadora para realizar uno de los métodos que se describen en esta solicitud. La corriente de datos o la secuencia de señales, por ejemplo, puede configurarse para ser transferida por medio de una conexión de comunicación de datos, por ejemplo, mediante la Internet.
[00073] Una realización adicional comprende un medio de procesamiento, por ejemplo, una computadora, o un dispositivo lógico programable, configurado o adaptado para realizar uno de los métodos que se describen en esta solicitud.
[00074] Una realización más comprende una computadora que tiene instalado el programa de computadora para llevar a cabo uno de los métodos que se describen en la presente solicitud.
[00075] Una realización adicional de acuerdo con la invención comprende un aparato o un sistema configurado para la transferencia (por ejemplo, de manera electrónica u óptica) de un programa de computadora para la realización de uno de los métodos que se describen en esta solicitud, a un receptor. El receptor puede ser, por ejemplo, una
computadora, un dispositivo móvil, un dispositivo de memoria o similar. El aparato o el sistema, por ejemplo, puede comprender un servidor de archivo para la transferencia del programa de computadora al receptor.
[00076] En algunas realizaciones, puede usarse un dispositivo lógico programable (por ejemplo, un serie de puertas
5 lógicas programable en campo) a fin de llevar a cabo algunas o todas las funcionalidades de los métodos que se describen en esta solicitud. En algunas realizaciones, una serie de puertas lógicas programable en campo puede cooperar con un microprocesador, a fin de llevar a cabo uno de los métodos que se describen en esta solicitud. En general, los métodos se llevan a cabo, preferentemente, por medio de cualquier aparato de soporte físico.
10 [00077] Las realizaciones descriptas con anterioridad son meramente ilustrativas de los principios de la presente invención. Debe entenderse que serán evidentes para los expertos en la técnica modificaciones y variaciones de las disposiciones y los detalles que se describen en esta solicitud. Por lo tanto, se tiene la intención de limitarse solo al alcance de las reivindicaciones de patente inminentes, y no a los detalles específicos que se presentan a modo de descripción y explicación de las realizaciones de la presente solicitud.
15
Literatura:
[00078]
20 [1]: USAC codec (Unified Speech and Audio Codec), ISO/IEC CD 23003–3 fechado el 24 de septiembre de 2010.
15
25
35
45
55
65

Claims (12)

  1. REIVINDICACIONES
    1.
    Codificador de audio que comprende un descompositor espectral (10) para descomponer espectralmente, usando un MDCT, una señal de audio de entrada (12) en un espectograma (14) de una secuencia de espectros; una computadora de autocorrelación (50) configurada para calcular una autocorrelación de un espectro actual de la secuencia de espectros; una computadora de coeficiente de predicción lineal (52) configurada para calcular coeficientes de predicción lineal en base a la correlación; un formador de dominio espectral (22) configurado para formar espectralmente el espectro actual en base a los coeficientes de predicción lineal y una etapa de cuantificación (24) configurada para cuantizar el espectro formado espectralmente; en donde el codificador de audio está configurado para insertar información relativa al espectro formado espectralmente e información relativa a los coeficientes de predicción lineal en una corriente de datos, en donde la computadora de autocorrelación está configurada para, al calcular la autocorrelación del espectro actual, calcular el espectro de potencia del espectro actual y someter el espectro de potencia a una transformada de ODFT inversa.
  2. 2.
    El codificador de audio según la reivindicación 1, que comprende: un predictor de espectro (26) configurado para filtrar predictivamente el espectro actual a lo largo de una dimensión espectral, en donde el formador de dominio espectral está configurado para formar espectralmente el espectro actual filtrado predictivamente, y el codificador de audio está configurado para insertar información relativa a como invertir el filtrado predictivo en la corriente de datos.
  3. 3.
    El codificador de audio según la reivindicación 2, en donde el predictor de espectro está configurado para efectuar filtrado de predicción lineal en el espectro actual a lo largo de la dimensión espectral, en donde el formador de corriente de datos está configurado de tal manera que la información relativa a como invertir el filtrado predictivo comprende información relativa a coeficientes de predicción lineales adicionales subyacentes al filtrado de predicción lineal relativo al espectro actual a lo largo de la dimensión espectral.
  4. 4.
    El codificador de audio según la reivindicación 2 o 3, en donde el codificador de audio está configurado para decidir habilitar o deshabilitar el predictor de espectro dependiendo de la tonalidad o transitoriedad de la señal de entrada de audio o una ganancia de predicción de filtro, en donde el codificador de audio está configurado para insertar información relativa a la decisión.
  5. 5.
    El codificador de audio según cualquiera de las reivindicaciones 2 a 4, en donde la computadora de autocorrelación está configurada para calcular la autocorrelación del espectro actual filtrado predictivamente.
  6. 6.
    El codificador de audio según cualquiera de las reivindicaciones 2 a 5, en donde el descompositor espectral
    (10) está configurado para conmutar entre diferentes longitudes de transformada al descomponer espectralmente de la señal de entrada de audio (12) de tal manera que los espectros son de resolución espectral diferente, en donde la computadora de autocorrelación (50) está configurada para calcular la autocorrelación del espectro actual filtrado predictivamente en caso de una resolución espectral del espectro actual que satisfaga un criterio predeterminado, o del espectro actual no filtrado predictivamente en caso de que la resolución espectral del espectro actual no satisfaga el criterio predeterminado.
  7. 7.
    El codificador de audio según la reivindicación 6, en donde la computadora de autocorrelación está configurada de tal manera que el criterio predeterminado se satisface si la resolución espectral del espectro actual es más alta que un umbral de resolución espectral.
  8. 8.
    El codificador de audio según cualquiera de las reivindicaciones 1 a 7, en donde la computadora de autocorrelación está configurada para, al calcular la autocorrelación del espectro actual, ponderar perceptualmente el espectro de potencia y someter el espectro de potencia a la transformada de ODFT inversa como ponderada perceptualmente.
  9. 9.
    El codificador de audio según la reivindicación 8, en donde la computadora de autocorrelación está configurada para cambiar una escala de frecuencia del espectro actual y para efectuar la ponderación perceptual del espectro de potencia en la escala de frecuencia cambiada.
  10. 10.
    El codificador de audio según cualquiera de las reivindicaciones 1 a 9, en donde el codificador de audio está configurado para insertar la información relativa a los coeficientes de predicción lineal en la corriente de datos de una forma cuantizada, en donde el formador de dominio espectral está configurado para formar espectralmente el espectro actual en base a los coeficientes de predicción lineales cuantizados.
  11. 11.
    El codificador de audio según la reivindicación 10, en donde el codificador de audio está configurado para insertar la información relativa a los coeficientes de predicción lineal en la corriente de datos de una forma de
    acuerdo con la cual la cuantificación de los coeficientes de predicción lineal ocurre en el dominio LSF o LSP.
  12. 12. Método de codificación que comprende descomponer espectralmente, usando un MDCT, una señal de entrada de audio (12) en un espectograma (14) de
    5 una secuencia de espectros; calcular una autocorrelación de un espectro actual de la secuencia de espectros; calcular coeficientes de predicción lineal en base a la autocorrelación; formar espectralmente el espectro actual en base a los coeficientes de predicción lineal; cuantificar el espectro formado espectralmente; e
    10 insertar información relativa al espectro formado espectralmente cuantizado e información relativa a los coeficientes de predicción lineal en una corriente de datos, en donde el cálculo de la autocorrelación del espectro actual comprende calcular el espectro de potencia del espectro actual y someter el espectro de potencia a una transformada de ODFT inversa.
    15 13. Programa de computadora provistp de un código de programa pararealizar, cuando se ejecuta en una computadora, un método según la reivindicación 12.
ES12705820.4T 2011-02-14 2012-02-14 Predicción lineal basada en esquema de codificación utilizando conformación de ruido de dominio espectral Active ES2534972T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161442632P 2011-02-14 2011-02-14
US201161442632P 2011-02-14
PCT/EP2012/052455 WO2012110476A1 (en) 2011-02-14 2012-02-14 Linear prediction based coding scheme using spectral domain noise shaping

Publications (1)

Publication Number Publication Date
ES2534972T3 true ES2534972T3 (es) 2015-04-30

Family

ID=71943596

Family Applications (1)

Application Number Title Priority Date Filing Date
ES12705820.4T Active ES2534972T3 (es) 2011-02-14 2012-02-14 Predicción lineal basada en esquema de codificación utilizando conformación de ruido de dominio espectral

Country Status (19)

Country Link
US (1) US9595262B2 (es)
EP (1) EP2676266B1 (es)
JP (1) JP5625126B2 (es)
KR (1) KR101617816B1 (es)
CN (1) CN103477387B (es)
AR (1) AR085794A1 (es)
AU (1) AU2012217156B2 (es)
BR (2) BR112013020587B1 (es)
CA (1) CA2827277C (es)
ES (1) ES2534972T3 (es)
HK (1) HK1192050A1 (es)
MX (1) MX2013009346A (es)
MY (1) MY165853A (es)
PL (1) PL2676266T3 (es)
RU (1) RU2575993C2 (es)
SG (1) SG192748A1 (es)
TW (1) TWI488177B (es)
WO (1) WO2012110476A1 (es)
ZA (1) ZA201306840B (es)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2558229T3 (es) * 2008-07-11 2016-02-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Codificador y decodificador de audio para codificar tramas de señales de audio muestreadas
MY163358A (en) * 2009-10-08 2017-09-15 Fraunhofer-Gesellschaft Zur Förderung Der Angenwandten Forschung E V Multi-mode audio signal decoder,multi-mode audio signal encoder,methods and computer program using a linear-prediction-coding based noise shaping
WO2012152764A1 (en) * 2011-05-09 2012-11-15 Dolby International Ab Method and encoder for processing a digital stereo audio signal
TR201908919T4 (tr) 2013-01-29 2019-07-22 Fraunhofer Ges Forschung Celp benzeri kodlayıcılar için yan bilgi olmadan gürültü doldurumu.
LT3751566T (lt) 2014-04-17 2024-07-25 Voiceage Evs Llc Būdai, kodavimo įrenginys ir dekoderis, skirti garso signalų linijiniam nuspėjamajam kodavimui ir dekodavimui pereinant tarp kadrų su skirtingais diskretizavimo dažniais
PL3696816T3 (pl) * 2014-05-01 2021-10-25 Nippon Telegraph And Telephone Corporation Urządzenie generujące sekwencję okresowej połączonej obwiedni, sposób generowania sekwencji okresowej połączonej obwiedni, program do generowania sekwencji okresowej połączonej obwiedni i nośnik rejestrujący
EP2980798A1 (en) * 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Harmonicity-dependent controlling of a harmonic filter tool
US10310826B2 (en) * 2015-11-19 2019-06-04 Intel Corporation Technologies for automatic reordering of sparse matrices
ES2932053T3 (es) * 2016-01-22 2023-01-09 Fraunhofer Ges Forschung Codificación de audio estéreo con normalización basada en ild antes de la decisión media/lateral
EP3382701A1 (en) * 2017-03-31 2018-10-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for post-processing an audio signal using prediction based shaping
EP3483883A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio coding and decoding with selective postfiltering
EP3483886A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Selecting pitch lag
WO2019091573A1 (en) 2017-11-10 2019-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for encoding and decoding an audio signal using downsampling or interpolation of scale parameters
EP3483880A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Temporal noise shaping
EP3483879A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Analysis/synthesis windowing function for modulated lapped transformation
EP3483878A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio decoder supporting a set of different loss concealment tools
EP3483882A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Controlling bandwidth in encoders and/or decoders
WO2019091576A1 (en) 2017-11-10 2019-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoders, audio decoders, methods and computer programs adapting an encoding and decoding of least significant bits
EP3483884A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Signal filtering
MX2020014077A (es) 2018-07-04 2021-03-09 Fraunhofer Ges Forschung Codificador multise?al, decodificador multise?al, y metodos relacionados que utilizan blanqueado de se?al o post procesamiento de se?al.
DE102020210917B4 (de) 2019-08-30 2023-10-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung eingetragener Verein Verbesserter M/S-Stereo-Codierer und -Decodierer
KR20230043876A (ko) * 2020-07-07 2023-03-31 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 다중 채널 오디오 신호의 채널에 대한 스케일 파라미터의 공동 코딩을 사용하는 오디오 디코더, 오디오 인코더 및 관련 방법
US20240055009A1 (en) * 2022-08-11 2024-02-15 Electronics And Telecommunications Research Institute Apparatus for encoding and decoding audio signal and method of operation thereof
TWI864704B (zh) * 2023-04-26 2024-12-01 弗勞恩霍夫爾協會 用於音訊編碼器中之尺度參數之諧度相依傾斜控制之設備及方法
WO2024223042A1 (en) 2023-04-26 2024-10-31 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for harmonicity-dependent tilt control of scale parameters in an audio encoder

Family Cites Families (211)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3432822B2 (ja) 1991-06-11 2003-08-04 クゥアルコム・インコーポレイテッド 可変速度ボコーダ
US5408580A (en) 1992-09-21 1995-04-18 Aware, Inc. Audio compression system employing multi-rate signal analysis
SE501340C2 (sv) 1993-06-11 1995-01-23 Ericsson Telefon Ab L M Döljande av transmissionsfel i en talavkodare
BE1007617A3 (nl) 1993-10-11 1995-08-22 Philips Electronics Nv Transmissiesysteem met gebruik van verschillende codeerprincipes.
US5657422A (en) 1994-01-28 1997-08-12 Lucent Technologies Inc. Voice activity detection driven noise remediator
US5784532A (en) 1994-02-16 1998-07-21 Qualcomm Incorporated Application specific integrated circuit (ASIC) for performing rapid speech compression in a mobile telephone system
US5684920A (en) * 1994-03-17 1997-11-04 Nippon Telegraph And Telephone Acoustic signal transform coding method and decoding method having a high efficiency envelope flattening method therein
US5568588A (en) 1994-04-29 1996-10-22 Audiocodes Ltd. Multi-pulse analysis speech processing System and method
KR100419545B1 (ko) 1994-10-06 2004-06-04 코닌클리케 필립스 일렉트로닉스 엔.브이. 다른코딩원리들을이용한전송시스템
US5537510A (en) * 1994-12-30 1996-07-16 Daewoo Electronics Co., Ltd. Adaptive digital audio encoding apparatus and a bit allocation method thereof
SE506379C3 (sv) 1995-03-22 1998-01-19 Ericsson Telefon Ab L M Lpc-talkodare med kombinerad excitation
US5727119A (en) 1995-03-27 1998-03-10 Dolby Laboratories Licensing Corporation Method and apparatus for efficient implementation of single-sideband filter banks providing accurate measures of spectral magnitude and phase
JP3317470B2 (ja) 1995-03-28 2002-08-26 日本電信電話株式会社 音響信号符号化方法、音響信号復号化方法
US5754733A (en) * 1995-08-01 1998-05-19 Qualcomm Incorporated Method and apparatus for generating and encoding line spectral square roots
US5659622A (en) 1995-11-13 1997-08-19 Motorola, Inc. Method and apparatus for suppressing noise in a communication system
US5890106A (en) 1996-03-19 1999-03-30 Dolby Laboratories Licensing Corporation Analysis-/synthesis-filtering system with efficient oddly-stacked singleband filter bank using time-domain aliasing cancellation
US5848391A (en) 1996-07-11 1998-12-08 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Method subband of coding and decoding audio signals using variable length windows
JP3259759B2 (ja) 1996-07-22 2002-02-25 日本電気株式会社 音声信号伝送方法及び音声符号復号化システム
US5960389A (en) 1996-11-15 1999-09-28 Nokia Mobile Phones Limited Methods for generating comfort noise during discontinuous transmission
JPH10214100A (ja) 1997-01-31 1998-08-11 Sony Corp 音声合成方法
US6134518A (en) 1997-03-04 2000-10-17 International Business Machines Corporation Digital audio signal coding using a CELP coder and a transform coder
SE512719C2 (sv) 1997-06-10 2000-05-02 Lars Gustaf Liljeryd En metod och anordning för reduktion av dataflöde baserad på harmonisk bandbreddsexpansion
JP3223966B2 (ja) 1997-07-25 2001-10-29 日本電気株式会社 音声符号化/復号化装置
US6070137A (en) 1998-01-07 2000-05-30 Ericsson Inc. Integrated frequency-domain voice coding using an adaptive spectral enhancement filter
ES2247741T3 (es) 1998-01-22 2006-03-01 Deutsche Telekom Ag Metodo para conmutacion controlada por señales entre esquemas de codificacion de audio.
GB9811019D0 (en) 1998-05-21 1998-07-22 Univ Surrey Speech coders
US6173257B1 (en) 1998-08-24 2001-01-09 Conexant Systems, Inc Completed fixed codebook for speech encoder
US6439967B2 (en) 1998-09-01 2002-08-27 Micron Technology, Inc. Microelectronic substrate assembly planarizing machines and methods of mechanical and chemical-mechanical planarization of microelectronic substrate assemblies
SE521225C2 (sv) 1998-09-16 2003-10-14 Ericsson Telefon Ab L M Förfarande och anordning för CELP-kodning/avkodning
US7272556B1 (en) 1998-09-23 2007-09-18 Lucent Technologies Inc. Scalable and embedded codec for speech and audio signals
US7124079B1 (en) 1998-11-23 2006-10-17 Telefonaktiebolaget Lm Ericsson (Publ) Speech coding with comfort noise variability feature for increased fidelity
FI114833B (fi) 1999-01-08 2004-12-31 Nokia Corp Menetelmä, puhekooderi ja matkaviestin puheenkoodauskehysten muodostamiseksi
DE19921122C1 (de) 1999-05-07 2001-01-25 Fraunhofer Ges Forschung Verfahren und Vorrichtung zum Verschleiern eines Fehlers in einem codierten Audiosignal und Verfahren und Vorrichtung zum Decodieren eines codierten Audiosignals
JP4024427B2 (ja) * 1999-05-24 2007-12-19 株式会社リコー 線形予測係数抽出装置、線形予測係数抽出方法、およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体
CN1145928C (zh) 1999-06-07 2004-04-14 艾利森公司 用参数噪声模型统计量产生舒适噪声的方法及装置
JP4464484B2 (ja) 1999-06-15 2010-05-19 パナソニック株式会社 雑音信号符号化装置および音声信号符号化装置
US6236960B1 (en) 1999-08-06 2001-05-22 Motorola, Inc. Factorial packing method and apparatus for information coding
US6636829B1 (en) 1999-09-22 2003-10-21 Mindspeed Technologies, Inc. Speech communication system and method for handling lost frames
JP4907826B2 (ja) 2000-02-29 2012-04-04 クゥアルコム・インコーポレイテッド 閉ループのマルチモードの混合領域の線形予測音声コーダ
JP2002118517A (ja) 2000-07-31 2002-04-19 Sony Corp 直交変換装置及び方法、逆直交変換装置及び方法、変換符号化装置及び方法、並びに復号装置及び方法
FR2813722B1 (fr) 2000-09-05 2003-01-24 France Telecom Procede et dispositif de dissimulation d'erreurs et systeme de transmission comportant un tel dispositif
US6847929B2 (en) 2000-10-12 2005-01-25 Texas Instruments Incorporated Algebraic codebook system and method
CA2327041A1 (en) 2000-11-22 2002-05-22 Voiceage Corporation A method for indexing pulse positions and signs in algebraic codebooks for efficient coding of wideband signals
US6636830B1 (en) 2000-11-22 2003-10-21 Vialta Inc. System and method for noise reduction using bi-orthogonal modified discrete cosine transform
US20040142496A1 (en) 2001-04-23 2004-07-22 Nicholson Jeremy Kirk Methods for analysis of spectral data and their applications: atherosclerosis/coronary heart disease
US7136418B2 (en) 2001-05-03 2006-11-14 University Of Washington Scalable and perceptually ranked signal coding and decoding
US7206739B2 (en) 2001-05-23 2007-04-17 Samsung Electronics Co., Ltd. Excitation codebook search method in a speech coding system
US20020184009A1 (en) 2001-05-31 2002-12-05 Heikkinen Ari P. Method and apparatus for improved voicing determination in speech signals containing high levels of jitter
US20030120484A1 (en) 2001-06-12 2003-06-26 David Wong Method and system for generating colored comfort noise in the absence of silence insertion description packets
DE10129240A1 (de) 2001-06-18 2003-01-02 Fraunhofer Ges Forschung Verfahren und Vorrichtung zum Verarbeiten von zeitdiskreten Audio-Abtastwerten
US6879955B2 (en) 2001-06-29 2005-04-12 Microsoft Corporation Signal modification based on continuous time warping for low bit rate CELP coding
DE10140507A1 (de) 2001-08-17 2003-02-27 Philips Corp Intellectual Pty Verfahren für die algebraische Codebook-Suche eines Sprachsignalkodierers
US7711563B2 (en) 2001-08-17 2010-05-04 Broadcom Corporation Method and system for frame erasure concealment for predictive speech coding based on extrapolation of speech waveform
KR100438175B1 (ko) 2001-10-23 2004-07-01 엘지전자 주식회사 코드북 검색방법
US7240001B2 (en) 2001-12-14 2007-07-03 Microsoft Corporation Quality improvement techniques in an audio encoder
CA2365203A1 (en) 2001-12-14 2003-06-14 Voiceage Corporation A signal modification method for efficient coding of speech signals
US6934677B2 (en) 2001-12-14 2005-08-23 Microsoft Corporation Quantization matrices based on critical band pattern information for digital audio wherein quantization bands differ from critical bands
DE10200653B4 (de) 2002-01-10 2004-05-27 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Skalierbarer Codierer, Verfahren zum Codieren, Decodierer und Verfahren zum Decodieren für einen skalierten Datenstrom
CA2388439A1 (en) 2002-05-31 2003-11-30 Voiceage Corporation A method and device for efficient frame erasure concealment in linear predictive based speech codecs
CA2388358A1 (en) 2002-05-31 2003-11-30 Voiceage Corporation A method and device for multi-rate lattice vector quantization
CA2388352A1 (en) 2002-05-31 2003-11-30 Voiceage Corporation A method and device for frequency-selective pitch enhancement of synthesized speed
US7302387B2 (en) 2002-06-04 2007-11-27 Texas Instruments Incorporated Modification of fixed codebook search in G.729 Annex E audio coding
US20040010329A1 (en) 2002-07-09 2004-01-15 Silicon Integrated Systems Corp. Method for reducing buffer requirements in a digital audio decoder
DE10236694A1 (de) 2002-08-09 2004-02-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum skalierbaren Codieren und Vorrichtung und Verfahren zum skalierbaren Decodieren
US7502743B2 (en) 2002-09-04 2009-03-10 Microsoft Corporation Multi-channel audio encoding and decoding with multi-channel transform selection
US7299190B2 (en) 2002-09-04 2007-11-20 Microsoft Corporation Quantization and inverse quantization for audio
JP3646939B1 (ja) * 2002-09-19 2005-05-11 松下電器産業株式会社 オーディオ復号装置およびオーディオ復号方法
BR0315179A (pt) 2002-10-11 2005-08-23 Nokia Corp Método e dispositivo para codificar um sinal de fala amostrado compreendendo quadros de fala
US7343283B2 (en) 2002-10-23 2008-03-11 Motorola, Inc. Method and apparatus for coding a noise-suppressed audio signal
US7363218B2 (en) 2002-10-25 2008-04-22 Dilithium Networks Pty. Ltd. Method and apparatus for fast CELP parameter mapping
KR100463559B1 (ko) 2002-11-11 2004-12-29 한국전자통신연구원 대수 코드북을 이용하는 켈프 보코더의 코드북 검색방법
KR100463419B1 (ko) 2002-11-11 2004-12-23 한국전자통신연구원 적은 복잡도를 가진 고정 코드북 검색방법 및 장치
KR100465316B1 (ko) 2002-11-18 2005-01-13 한국전자통신연구원 음성 부호화기 및 이를 이용한 음성 부호화 방법
KR20040058855A (ko) 2002-12-27 2004-07-05 엘지전자 주식회사 음성 변조 장치 및 방법
US7876966B2 (en) 2003-03-11 2011-01-25 Spyder Navigations L.L.C. Switching between coding schemes
US7249014B2 (en) 2003-03-13 2007-07-24 Intel Corporation Apparatus, methods and articles incorporating a fast algebraic codebook search technique
US20050021338A1 (en) 2003-03-17 2005-01-27 Dan Graboi Recognition device and system
KR100556831B1 (ko) 2003-03-25 2006-03-10 한국전자통신연구원 전역 펄스 교체를 통한 고정 코드북 검색 방법
WO2004090870A1 (ja) 2003-04-04 2004-10-21 Kabushiki Kaisha Toshiba 広帯域音声を符号化または復号化するための方法及び装置
DE10321983A1 (de) 2003-05-15 2004-12-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Einbetten einer binären Nutzinformation in ein Trägersignal
WO2005001814A1 (en) 2003-06-30 2005-01-06 Koninklijke Philips Electronics N.V. Improving quality of decoded audio by adding noise
DE10331803A1 (de) 2003-07-14 2005-02-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Umsetzen in eine transformierte Darstellung oder zum inversen Umsetzen der transformierten Darstellung
US7565286B2 (en) 2003-07-17 2009-07-21 Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of Industry, Through The Communications Research Centre Canada Method for recovery of lost speech data
DE10345996A1 (de) 2003-10-02 2005-04-28 Fraunhofer Ges Forschung Vorrichtung und Verfahren zum Verarbeiten von wenigstens zwei Eingangswerten
DE10345995B4 (de) 2003-10-02 2005-07-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Verarbeiten eines Signals mit einer Sequenz von diskreten Werten
US7418396B2 (en) 2003-10-14 2008-08-26 Broadcom Corporation Reduced memory implementation technique of filterbank and block switching for real-time audio applications
US20050091041A1 (en) 2003-10-23 2005-04-28 Nokia Corporation Method and system for speech coding
US20050091044A1 (en) 2003-10-23 2005-04-28 Nokia Corporation Method and system for pitch contour quantization in audio coding
KR20070001115A (ko) 2004-01-28 2007-01-03 코닌클리케 필립스 일렉트로닉스 엔.브이. 복소수 값 데이터를 이용하는 오디오 신호 디코딩
AU2004317109B2 (en) 2004-02-12 2008-05-22 Core Wireless Licensing S.A.R.L. Classified media quality of experience
DE102004007200B3 (de) 2004-02-13 2005-08-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audiocodierung
CA2457988A1 (en) 2004-02-18 2005-08-18 Voiceage Corporation Methods and devices for audio compression based on acelp/tcx coding and multi-rate lattice vector quantization
FI118834B (fi) 2004-02-23 2008-03-31 Nokia Corp Audiosignaalien luokittelu
FI118835B (fi) 2004-02-23 2008-03-31 Nokia Corp Koodausmallin valinta
EP1722359B1 (en) 2004-03-05 2011-09-07 Panasonic Corporation Error conceal device and error conceal method
WO2005096274A1 (fr) * 2004-04-01 2005-10-13 Beijing Media Works Co., Ltd Dispositif et procede de codage/decodage audio ameliores
GB0408856D0 (en) 2004-04-21 2004-05-26 Nokia Corp Signal encoding
ES2338117T3 (es) 2004-05-17 2010-05-04 Nokia Corporation Codificacion de audio con diferentes longitudes de trama de codificacion.
JP4168976B2 (ja) 2004-05-28 2008-10-22 ソニー株式会社 オーディオ信号符号化装置及び方法
US7649988B2 (en) 2004-06-15 2010-01-19 Acoustic Technologies, Inc. Comfort noise generator using modified Doblinger noise estimate
US8160274B2 (en) 2006-02-07 2012-04-17 Bongiovi Acoustics Llc. System and method for digital signal processing
US7630902B2 (en) 2004-09-17 2009-12-08 Digital Rise Technology Co., Ltd. Apparatus and methods for digital audio coding using codebook application ranges
KR100656788B1 (ko) 2004-11-26 2006-12-12 한국전자통신연구원 비트율 신축성을 갖는 코드벡터 생성 방법 및 그를 이용한 광대역 보코더
EP1846921B1 (en) 2005-01-31 2017-10-04 Skype Method for concatenating frames in communication system
EP1845520A4 (en) 2005-02-02 2011-08-10 Fujitsu Ltd SIGNAL PROCESSING METHOD AND SIGNAL PROCESSING DEVICE
US20070147518A1 (en) 2005-02-18 2007-06-28 Bruno Bessette Methods and devices for low-frequency emphasis during audio compression based on ACELP/TCX
US8155965B2 (en) 2005-03-11 2012-04-10 Qualcomm Incorporated Time warping frames inside the vocoder by modifying the residual
US7707034B2 (en) 2005-05-31 2010-04-27 Microsoft Corporation Audio codec post-filter
RU2296377C2 (ru) 2005-06-14 2007-03-27 Михаил Николаевич Гусев Способ анализа и синтеза речи
EP1897085B1 (en) 2005-06-18 2017-05-31 Nokia Technologies Oy System and method for adaptive transmission of comfort noise parameters during discontinuous speech transmission
FR2888699A1 (fr) 2005-07-13 2007-01-19 France Telecom Dispositif de codage/decodage hierachique
KR100851970B1 (ko) * 2005-07-15 2008-08-12 삼성전자주식회사 오디오 신호의 중요주파수 성분 추출방법 및 장치와 이를이용한 저비트율 오디오 신호 부호화/복호화 방법 및 장치
US7610197B2 (en) 2005-08-31 2009-10-27 Motorola, Inc. Method and apparatus for comfort noise generation in speech communication systems
RU2312405C2 (ru) 2005-09-13 2007-12-10 Михаил Николаевич Гусев Способ осуществления машинной оценки качества звуковых сигналов
US20070174047A1 (en) 2005-10-18 2007-07-26 Anderson Kyle D Method and apparatus for resynchronizing packetized audio streams
US7720677B2 (en) 2005-11-03 2010-05-18 Coding Technologies Ab Time warped modified transform coding of audio signals
US8255207B2 (en) 2005-12-28 2012-08-28 Voiceage Corporation Method and device for efficient frame erasure concealment in speech codecs
WO2007080211A1 (en) 2006-01-09 2007-07-19 Nokia Corporation Decoding of binaural audio signals
CN101371296B (zh) 2006-01-18 2012-08-29 Lg电子株式会社 用于编码和解码信号的设备和方法
US20110057818A1 (en) * 2006-01-18 2011-03-10 Lg Electronics, Inc. Apparatus and Method for Encoding and Decoding Signal
US8032369B2 (en) 2006-01-20 2011-10-04 Qualcomm Incorporated Arbitrary average data rates for variable rate coders
FR2897733A1 (fr) 2006-02-20 2007-08-24 France Telecom Procede de discrimination et d'attenuation fiabilisees des echos d'un signal numerique dans un decodeur et dispositif correspondant
FR2897977A1 (fr) 2006-02-28 2007-08-31 France Telecom Procede de limitation de gain d'excitation adaptative dans un decodeur audio
EP1852848A1 (en) 2006-05-05 2007-11-07 Deutsche Thomson-Brandt GmbH Method and apparatus for lossless encoding of a source signal using a lossy encoded data stream and a lossless extension data stream
US7959940B2 (en) 2006-05-30 2011-06-14 Advanced Cardiovascular Systems, Inc. Polymer-bioceramic composite implantable medical devices
WO2007138511A1 (en) * 2006-05-30 2007-12-06 Koninklijke Philips Electronics N.V. Linear predictive coding of an audio signal
JP4810335B2 (ja) 2006-07-06 2011-11-09 株式会社東芝 広帯域オーディオ信号符号化装置および広帯域オーディオ信号復号装置
US8255213B2 (en) 2006-07-12 2012-08-28 Panasonic Corporation Speech decoding apparatus, speech encoding apparatus, and lost frame concealment method
US8812306B2 (en) 2006-07-12 2014-08-19 Panasonic Intellectual Property Corporation Of America Speech decoding and encoding apparatus for lost frame concealment using predetermined number of waveform samples peripheral to the lost frame
US7933770B2 (en) 2006-07-14 2011-04-26 Siemens Audiologische Technik Gmbh Method and device for coding audio data based on vector quantisation
JP5031030B2 (ja) 2006-07-24 2012-09-19 ソニー株式会社 ヘア/ファーパイプラインにおいて使用するためのヘアモーション合成システム及び最適化技術
US7987089B2 (en) 2006-07-31 2011-07-26 Qualcomm Incorporated Systems and methods for modifying a zero pad region of a windowed frame of an audio signal
US20080046233A1 (en) 2006-08-15 2008-02-21 Broadcom Corporation Packet Loss Concealment for Sub-band Predictive Coding Based on Extrapolation of Full-band Audio Waveform
US7877253B2 (en) 2006-10-06 2011-01-25 Qualcomm Incorporated Systems, methods, and apparatus for frame erasure recovery
DE102006049154B4 (de) 2006-10-18 2009-07-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Kodierung eines Informationssignals
US8417532B2 (en) 2006-10-18 2013-04-09 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Encoding an information signal
US8126721B2 (en) 2006-10-18 2012-02-28 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Encoding an information signal
US8041578B2 (en) 2006-10-18 2011-10-18 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Encoding an information signal
US8036903B2 (en) 2006-10-18 2011-10-11 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Analysis filterbank, synthesis filterbank, encoder, de-coder, mixer and conferencing system
EP3848928B1 (en) 2006-10-25 2023-03-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for generating complex-valued audio subband values
DE102006051673A1 (de) 2006-11-02 2008-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Nachbearbeiten von Spektralwerten und Encodierer und Decodierer für Audiosignale
ATE547898T1 (de) 2006-12-12 2012-03-15 Fraunhofer Ges Forschung Kodierer, dekodierer und verfahren zur kodierung und dekodierung von datensegmenten zur darstellung eines zeitdomänen-datenstroms
FR2911228A1 (fr) 2007-01-05 2008-07-11 France Telecom Codage par transformee, utilisant des fenetres de ponderation et a faible retard.
KR101379263B1 (ko) 2007-01-12 2014-03-28 삼성전자주식회사 대역폭 확장 복호화 방법 및 장치
FR2911426A1 (fr) 2007-01-15 2008-07-18 France Telecom Modification d'un signal de parole
US7873064B1 (en) 2007-02-12 2011-01-18 Marvell International Ltd. Adaptive jitter buffer-packet loss concealment
CN101622665B (zh) 2007-03-02 2012-06-13 松下电器产业株式会社 编码装置以及编码方法
WO2008108083A1 (ja) 2007-03-02 2008-09-12 Panasonic Corporation 音声符号化装置および音声符号化方法
JP4708446B2 (ja) 2007-03-02 2011-06-22 パナソニック株式会社 符号化装置、復号装置およびそれらの方法
DE102007013811A1 (de) 2007-03-22 2008-09-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur zeitlichen Segmentierung eines Videos in Videobildfolgen und zur Auswahl von Keyframes für das Auffinden von Bildinhalten unter Einbeziehung einer Subshot-Detektion
JP2008261904A (ja) 2007-04-10 2008-10-30 Matsushita Electric Ind Co Ltd 符号化装置、復号化装置、符号化方法および復号化方法
US8630863B2 (en) 2007-04-24 2014-01-14 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding audio/speech signal
PT2827327T (pt) 2007-04-29 2020-08-27 Huawei Tech Co Ltd Método para codificação de impulsos de excitação
CN101388210B (zh) 2007-09-15 2012-03-07 华为技术有限公司 编解码方法及编解码器
KR101196506B1 (ko) 2007-06-11 2012-11-01 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 임펄스형 부분 및 정적 부분을 갖는 오디오 신호를 인코딩하는 오디오 인코더 및 인코딩 방법, 디코더, 디코딩 방법 및 인코딩된 오디오 신호
US9653088B2 (en) 2007-06-13 2017-05-16 Qualcomm Incorporated Systems, methods, and apparatus for signal encoding using pitch-regularizing and non-pitch-regularizing coding
KR101513028B1 (ko) 2007-07-02 2015-04-17 엘지전자 주식회사 방송 수신기 및 방송신호 처리방법
US8185381B2 (en) 2007-07-19 2012-05-22 Qualcomm Incorporated Unified filter bank for performing signal conversions
CN101110214B (zh) 2007-08-10 2011-08-17 北京理工大学 一种基于多描述格型矢量量化技术的语音编码方法
US8428957B2 (en) * 2007-08-24 2013-04-23 Qualcomm Incorporated Spectral noise shaping in audio coding based on spectral dynamics in frequency sub-bands
DK2186088T3 (en) 2007-08-27 2018-01-15 ERICSSON TELEFON AB L M (publ) Low complexity spectral analysis / synthesis using selectable time resolution
JP4886715B2 (ja) 2007-08-28 2012-02-29 日本電信電話株式会社 定常率算出装置、雑音レベル推定装置、雑音抑圧装置、それらの方法、プログラム及び記録媒体
US8566106B2 (en) 2007-09-11 2013-10-22 Voiceage Corporation Method and device for fast algebraic codebook search in speech and audio coding
CN100524462C (zh) 2007-09-15 2009-08-05 华为技术有限公司 对高带信号进行帧错误隐藏的方法及装置
US8576096B2 (en) 2007-10-11 2013-11-05 Motorola Mobility Llc Apparatus and method for low complexity combinatorial coding of signals
KR101373004B1 (ko) 2007-10-30 2014-03-26 삼성전자주식회사 고주파수 신호 부호화 및 복호화 장치 및 방법
CN101425292B (zh) 2007-11-02 2013-01-02 华为技术有限公司 一种音频信号的解码方法及装置
DE102007055830A1 (de) 2007-12-17 2009-06-18 Zf Friedrichshafen Ag Verfahren und Vorrichtung zum Betrieb eines Hybridantriebes eines Fahrzeuges
CN101483043A (zh) 2008-01-07 2009-07-15 中兴通讯股份有限公司 基于分类和排列组合的码本索引编码方法
CN101488344B (zh) 2008-01-16 2011-09-21 华为技术有限公司 一种量化噪声泄漏控制方法及装置
DE102008015702B4 (de) 2008-01-31 2010-03-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Bandbreitenerweiterung eines Audiosignals
KR101253278B1 (ko) 2008-03-04 2013-04-11 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 복수의 입력 데이터 스트림을 믹싱하는 장치 및 방법
US8000487B2 (en) 2008-03-06 2011-08-16 Starkey Laboratories, Inc. Frequency translation by high-frequency spectral envelope warping in hearing assistance devices
FR2929466A1 (fr) 2008-03-28 2009-10-02 France Telecom Dissimulation d'erreur de transmission dans un signal numerique dans une structure de decodage hierarchique
EP2107556A1 (en) 2008-04-04 2009-10-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio transform coding using pitch correction
US8768690B2 (en) 2008-06-20 2014-07-01 Qualcomm Incorporated Coding scheme selection for low-bit-rate applications
MY181247A (en) 2008-07-11 2020-12-21 Frauenhofer Ges Zur Forderung Der Angenwandten Forschung E V Audio encoder and decoder for encoding and decoding audio samples
CN102089812B (zh) 2008-07-11 2013-03-20 弗劳恩霍夫应用研究促进协会 用以使用混叠切换方案将音频信号编码/解码的装置与方法
MX2011000375A (es) 2008-07-11 2011-05-19 Fraunhofer Ges Forschung Codificador y decodificador de audio para codificar y decodificar tramas de una señal de audio muestreada.
EP2144230A1 (en) 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Low bitrate audio encoding/decoding scheme having cascaded switches
MY154452A (en) 2008-07-11 2015-06-15 Fraunhofer Ges Forschung An apparatus and a method for decoding an encoded audio signal
EP2144171B1 (en) 2008-07-11 2018-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder and decoder for encoding and decoding frames of a sampled audio signal
RU2621965C2 (ru) 2008-07-11 2017-06-08 Фраунхофер-Гезелльшафт цур Фёрдерунг дер ангевандтен Форшунг Е.Ф. Передатчик сигнала активации с деформацией по времени, кодер звукового сигнала, способ преобразования сигнала активации с деформацией по времени, способ кодирования звукового сигнала и компьютерные программы
US8352279B2 (en) 2008-09-06 2013-01-08 Huawei Technologies Co., Ltd. Efficient temporal envelope coding approach by prediction between low band signal and high band signal
US8380498B2 (en) 2008-09-06 2013-02-19 GH Innovation, Inc. Temporal envelope coding of energy attack signal by using attack point location
US8577673B2 (en) 2008-09-15 2013-11-05 Huawei Technologies Co., Ltd. CELP post-processing for music signals
DE102008042579B4 (de) 2008-10-02 2020-07-23 Robert Bosch Gmbh Verfahren zur Fehlerverdeckung bei fehlerhafter Übertragung von Sprachdaten
CN102177426B (zh) 2008-10-08 2014-11-05 弗兰霍菲尔运输应用研究公司 多分辨率切换音频编码/解码方案
KR101315617B1 (ko) 2008-11-26 2013-10-08 광운대학교 산학협력단 모드 스위칭에 기초하여 윈도우 시퀀스를 처리하는 통합 음성/오디오 부/복호화기
CN101770775B (zh) 2008-12-31 2011-06-22 华为技术有限公司 信号处理方法及装置
MY205240A (en) 2009-01-16 2024-10-09 Dolby Int Ab Cross product enhanced harmonic transposition
RU2542668C2 (ru) 2009-01-28 2015-02-20 Фраунхофер-Гезелльшафт цур Фёрдерунг дер ангевандтен Форшунг Е.Ф. Звуковое кодирующее устройство, звуковой декодер, кодированная звуковая информация, способы кодирования и декодирования звукового сигнала и компьютерная программа
US8457975B2 (en) 2009-01-28 2013-06-04 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio decoder, audio encoder, methods for decoding and encoding an audio signal and computer program
EP2214165A3 (en) 2009-01-30 2010-09-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus, method and computer program for manipulating an audio signal comprising a transient event
EP2234103B1 (en) 2009-03-26 2011-09-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Device and method for manipulating an audio signal
KR20100115215A (ko) 2009-04-17 2010-10-27 삼성전자주식회사 가변 비트율 오디오 부호화 및 복호화 장치 및 방법
EP2446539B1 (en) 2009-06-23 2018-04-11 Voiceage Corporation Forward time-domain aliasing cancellation with application in weighted or original signal domain
JP5267362B2 (ja) 2009-07-03 2013-08-21 富士通株式会社 オーディオ符号化装置、オーディオ符号化方法及びオーディオ符号化用コンピュータプログラムならびに映像伝送装置
CN101958119B (zh) 2009-07-16 2012-02-29 中兴通讯股份有限公司 一种改进的离散余弦变换域音频丢帧补偿器和补偿方法
US8635357B2 (en) 2009-09-08 2014-01-21 Google Inc. Dynamic selection of parameter sets for transcoding media data
EP2473995B9 (en) 2009-10-20 2016-12-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio signal encoder, audio signal decoder, method for providing an encoded representation of an audio content, method for providing a decoded representation of an audio content and computer program for use in low delay applications
MX2012004648A (es) 2009-10-20 2012-05-29 Fraunhofer Ges Forschung Codificacion de señal de audio, decodificador de señal de audio, metodo para codificar o decodificar una señal de audio utilizando una cancelacion del tipo aliasing.
CN102859589B (zh) 2009-10-20 2014-07-09 弗兰霍菲尔运输应用研究公司 多模式音频编译码器及其适用的码簿激励线性预测编码
CN102081927B (zh) 2009-11-27 2012-07-18 中兴通讯股份有限公司 一种可分层音频编码、解码方法及系统
US8423355B2 (en) 2010-03-05 2013-04-16 Motorola Mobility Llc Encoder for audio signal including generic audio and speech frames
US8428936B2 (en) 2010-03-05 2013-04-23 Motorola Mobility Llc Decoder for audio signal including generic audio and speech frames
WO2011127832A1 (en) 2010-04-14 2011-10-20 Huawei Technologies Co., Ltd. Time/frequency two dimension post-processing
TW201214415A (en) 2010-05-28 2012-04-01 Fraunhofer Ges Forschung Low-delay unified speech and audio codec
TWI480856B (zh) 2011-02-14 2015-04-11 Fraunhofer Ges Forschung 音訊編解碼器中之雜訊產生技術
AU2012217269B2 (en) 2011-02-14 2015-10-22 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for processing a decoded audio signal in a spectral domain
WO2013075753A1 (en) 2011-11-25 2013-05-30 Huawei Technologies Co., Ltd. An apparatus and a method for encoding an input signal

Also Published As

Publication number Publication date
BR112013020592A2 (pt) 2016-10-18
TW201246189A (en) 2012-11-16
CA2827277A1 (en) 2012-08-23
AU2012217156A1 (en) 2013-08-29
SG192748A1 (en) 2013-09-30
CN103477387A (zh) 2013-12-25
EP2676266B1 (en) 2015-03-11
AR085794A1 (es) 2013-10-30
PL2676266T3 (pl) 2015-08-31
RU2013142133A (ru) 2015-03-27
MY165853A (en) 2018-05-18
CN103477387B (zh) 2015-11-25
US9595262B2 (en) 2017-03-14
JP5625126B2 (ja) 2014-11-12
US20130332153A1 (en) 2013-12-12
WO2012110476A1 (en) 2012-08-23
TWI488177B (zh) 2015-06-11
KR20130133848A (ko) 2013-12-09
BR112013020592B1 (pt) 2021-06-22
KR101617816B1 (ko) 2016-05-03
MX2013009346A (es) 2013-10-01
BR112013020587A2 (pt) 2018-07-10
HK1192050A1 (en) 2014-08-08
JP2014510306A (ja) 2014-04-24
EP2676266A1 (en) 2013-12-25
AU2012217156B2 (en) 2015-03-19
RU2575993C2 (ru) 2016-02-27
ZA201306840B (en) 2014-05-28
BR112013020587B1 (pt) 2021-03-09
CA2827277C (en) 2016-08-30

Similar Documents

Publication Publication Date Title
ES2534972T3 (es) Predicción lineal basada en esquema de codificación utilizando conformación de ruido de dominio espectral
ES2683077T3 (es) Codificador y decodificador de audio para codificar y decodificar tramas de una señal de audio muestreada
JP6173288B2 (ja) マルチモードオーディオコーデックおよびそれに適応されるcelp符号化
ES2953084T3 (es) Decodificador de audio para procesar audio estéreo usando una dirección de predicción variable
CN102884574B (zh) 音频信号编码器、音频信号解码器、使用混迭抵消来将音频信号编码或解码的方法
EP2980794A1 (en) Audio encoder and decoder using a frequency domain processor and a time domain processor
EP3944236A1 (en) Audio encoder and decoder using a frequency domain processor, a time domain processor, and a cross processor for continuous initialization
JP7420848B2 (ja) プロセッサおよびトランケートされた分析または合成窓のオーバーラップ部分を使用したオーディオ信号の処理方法
CN112786061A (zh) 对编码音频信号解码的解码器和编码音频信号的编码器
CN103109318A (zh) 利用前向混迭消除技术的编码器
EP3311380B1 (en) Downscaled decoding of audio signals
BR122024012455A2 (pt) Pós-processador, pré-processador, codificador de áudio, decodificador de áudio e métodos relacionados para aprimoramento do processamento transiente