CN103035248B - 音频信号编码方法和装置 - Google Patents
音频信号编码方法和装置 Download PDFInfo
- Publication number
- CN103035248B CN103035248B CN201110297791.5A CN201110297791A CN103035248B CN 103035248 B CN103035248 B CN 103035248B CN 201110297791 A CN201110297791 A CN 201110297791A CN 103035248 B CN103035248 B CN 103035248B
- Authority
- CN
- China
- Prior art keywords
- frequency
- audio signal
- time delay
- coding
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/12—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/26—Pre-filtering or post-filtering
- G10L19/265—Pre-filtering, e.g. high frequency emphasis prior to encoding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/0204—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/087—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters using mixed excitation models, e.g. MELP, MBE, split band LPC or HVXC
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/038—Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Mathematical Physics (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
本发明涉及一种音频信号编码方法和装置,所述方法包括:将音频信号分为高频音频信号和低频音频信号;利用低频音频信号特征对所述低频音频信号用相应的低频编码方式编码;根据所述低频编码方式和/或所述音频信号的特征,选择带宽扩展模式对所述高频音频信号编码。本发明实施例音频信号编码方法和装置可以根据低频信号的编码模式和/或音频信号的特点来确定高频音频信号带宽扩展的编码方式,从而弥补带宽扩展局限于采用单一编码模式,实现自适应的编码,优化音频编码质量。
Description
技术领域
本发明涉及通信领域,尤其涉及一种音频信号编码方法和装置。
背景技术
在音频编码时,由于比特率的限制和考虑到人耳的听觉特性,所以优先编码低频带音频信号的信息,而丢弃高频带音频信号的信息。但随着网络技术的发展,网络带宽限制越来越小,同时随着人们对音质越来越高的要求,希望通过增加信号的带宽而恢复高频带音频信号的信息。由此提高音频信号的音质,可以通过带宽扩展(BandWidth Extension,BWE)技术实现。
带宽扩展可以扩大音频信号频带范围、提高信号质量,例如G.729.1中的时域(Time Domain,TD)带宽扩展算法,活动图像专家组(Moving PictureExperts Group,MPEG)中的频带复制(Spectral Band Replication,SBR)技术,以及国际电信联盟(International Telecommunication Union,ITU-T)G.722B/G.711.1D中的频域(Frequency Domain,FD)带宽扩展算法。
图1和图2为现有技术的带宽扩展的示意图,即无论低频(如小于6.4kHz)音频信号的编码是时域编码(TD coding)或者频域编码(FD coding),而高频(如6.4-16/14kHz)音频信号的带宽扩展都为时域带宽扩展(TD-BWE)或者都为频域带宽扩展(FD-BWE)。
所以现有技术中,对于高频的音频信号的编码只是时域带宽扩展的时域编码或只是频域带宽扩展的频域编码,而不会考虑低频音频信号的编码方式,也不会考虑音频信号的特性。
发明内容
本发明实施例的音频信号编码方法和装置,在带宽扩展时可以根据低频信号的编码方式和/或音频信号的特点来对高频音频信号进行编码,实现自适应编码,而非固定编码模式。
本发明实施例提供了一种音频信号编码方法,所述方法包括:
将音频信号分为高频音频信号和低频音频信号;
根据低频音频信号的特征对所述低频音频信号利用相应的低频编码方式编码;
根据所述低频编码方式和/或所述音频信号的特征,选择带宽扩展模式对所述高频音频信号编码。
本发明实施例提供了一种音频信号编码装置,所述装置包括:
划分单元,用于将音频信号分为高频音频信号和低频音频信号;
低频信号编码单元,用于根据低频音频信号的特征对所述低频音频信号利用相应的低频编码方式编码;
高频信号编码单元,用于根据所述低频编码方式和/或所述音频信号的特征,选择带宽扩展模式对所述高频音频信号编码。
本发明实施例音频信号编码方法和装置可以根据低频信号的编码模式和/或音频信号的特点来确定高频音频信号带宽扩展的编码方式,避免带宽扩展时不考虑低频信号的编码模式和音频信号的特点,从而弥补带宽扩展局限于采用单一编码模式,实现自适应的编码,优化音频编码质量。
附图说明
图1为现有技术的带宽扩展的示意图之一;
图2为现有技术的带宽扩展的示意图之二;
图3为本发明实施例音频信号编码方法的流程图;
图4为本发明实施例音频信号编码方法的带宽扩展示意图之一;
图5为本发明实施例音频信号编码方法的带宽扩展示意图之二;
图6为本发明实施例音频信号编码方法的带宽扩展示意图之三;
图7为ITU-T G.718中的分析窗示意图;
图8为本发明音频信号编码方法的不同高频音频信号的加窗示意图;
图9为本发明音频信号编码方法中基于高频信号高延时窗的BWE示意图;
图10为本发明音频信号编码方法中基于高频信号零延时窗的BWE示意图;
图11为本发明实施例音频信号处理装置的示意图;
图12为本发明实施例另一音频信号处理装置的示意图。
具体实施方式
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
本发明实施例可以根据低频带音频信号的编码方式和音频信号的特点来确定频带扩展的方法是时域带宽扩展还是频域带宽扩展。
这样当低频编码是时域编码时,高频编码可以是时域带宽扩展,也可以是频域带宽扩展;而低频编码是频域编码时,高频编码可以是时域带宽扩展,也可以是频域带宽扩展。
图3为本发明实施例音频信号编码方法的流程图,如图所示,本发明实施例音频信号编码方法具体包括如下步骤:
步骤101,将音频信号分为高频音频信号和低频音频信号;
因为低频的音频信号需要直接编码,而高频的音频信号必须经过带宽扩展来进行编码;
步骤102,根据低频音频信号的特征对所述低频音频信号利用相应的低频编码方式编码;
对低频音频信号编码具有两种方式,可以是时域编码或频域编码方式,例如对于语音音频信号,则利用时域编码对低频语音信号进行编码,而对于音乐音频信号,则利用频域编码对低频音乐信号进行编码;因为通常来讲说语音信号采用时域编码的效果比较好,例如码激励线性预测(Code ExcitedLinear Prediction,CELP),而音乐信号采用频域编码的效果比较好,例如使用改进离散余弦变换(Modified Discrete Cosine Transform,MDCT)或快速傅立叶变换(Fast Fourier Transform,FFT)等。
步骤103,根据低频编码方式或音频信号的特征,选择带宽扩展模式对高频音频信号编码。
本步骤是说明了对高频音频信号编码时的几种可能性,一是根据低频信号的编码方式来决定高频音频信号的编码方式,二是根据音频信号的特征来对决定高频音频信号的编码方式,三是同时参考低频信号的编码方式和音频信号的特征来对决定高频音频信号的编码方式。
低频音频信号的编码方式可能是时域编码或者频域编码,而音频信号的特征可以是语音音频信号或者音乐音频信号,高频音频信号编码方式可以是时域带宽扩展模式或者频域带宽扩展模式,对于高频音频信号的带宽扩展需要参考低频音频信号的编码方式或音频信号特征来编码。
根据所述低频编码方式或所述音频信号的特征,选择带宽扩展模式对所述高频音频信号编码,选择的带宽扩展模式与低频编码方式或音频信号的特征对应,属于同一个域编码方式。
一个实施例中,所选择的带宽扩展模式与低频编码方式对应:当低频音频信号采用时域编码方式时,选择时域带宽扩展模式对高频音频信号进行时域编码;当低频音频信号采用频域编码方式,选择频域带宽扩展模式对高频音频信号进行频域编码。即:高频音频信号的编码方式与低频编码方式属于同一个域编码方式(时域编码或者频域编码)。
另一个实施例中,与音频信号特征适合的低频编码方式对应:当音频信号为语音信号时,选择时域带宽扩展模式对高频音频信号进行时域编码;当音频信号为音乐信号时,选择频域带宽扩展模式对高频音频信号进行频域编码。即:高频音频信号的编码方式与音频信号特征适合的低频编码方式属于同一个域编码方式(时域编码或者频域编码)。
另一个实施例中,综合考虑低频编码方式和音频信号的特征,选择带宽扩展模式对高频音频信号编码:当低频音频信号为时域编码方式,且音频信号为语音信号时,选择时域带宽扩展模式对高频音频信号进行时域编码;否则选择频域带宽扩展模式对高频音频信号进行频域编码。
参见图4的本发明实施例音频信号编码方法的带宽扩展示意图之一所示,低频音频信号,例如0-6.4kHz的音频信号可能是时域编码TD coding或者频域编码FD coding,而高频音频信号,例如6.4-16/14kHz的音频信号的带宽扩展可能是时域带宽扩展TD-BWE或者频域带宽扩展FD-BWE。
也就是说本发明实施例的音频信号编码方法中,低频音频信号的编码方式与高频信号的带快扩展之间没有一一对应的关系。例如,如果低频音频信号是时域编码TD coding,其高频音频信号的带宽扩展既可能是时域带宽扩展TD-BWE,也可能是频域带宽扩展FD-BWE;而如果低频音频信号是频域编码FDcoding,其高频音频信号的带宽扩展同样可能是时域带宽扩展TD-BWE,也可能是频域带宽扩展FD-BWE。
具体的,一种选择带宽扩展模式对高频音频信号编码的方式是根据低频音频信号的低频编码方式进行处理,一并参见图5的本发明实施例音频信号编码方法的带宽扩展示意图之二所示,低频(0-6.4kHz)音频信号是时域编码TD coding时,高频(6.4-16/14kHz)音频信号同样也是时域带宽扩展TD-BWE的时域编码;低频(0-6.4kHz)音频信号是频域编码FD coding时,高频(6.4-16/14kHz)音频信号同样也是频域带宽扩展FD-BWE的频域编码。
所以高频音频信号编码的方式与低频音频信号的编码方式是属于相同域的,而不参考音频信号/低音音频信号的特征,也就是说高频音频信号的编码参照低频音频信号编码的方式进行处理的,与音频信号/低音音频信号的特征无关。
因此,根据低频信号的编码方式来确定高频音频信号带宽扩展的编码方式,避免带宽扩展时不考虑低频音频信号的编码方式,弥补带宽扩展对不同音频信号编码质量的局限性,实现自适应的编码,优化音频编码质量。
另外一种选择带宽扩展模式对高频音频信号编码的方式,是根据音频信号或者低频音频信号的特征来处理。例如如果音频信号/低频音频信号是语音音频信号,则利用时域编码对高频音频信号进行编码,而如果音频信号/低频音频信号是音乐音频信号,则利用频域编码对高频音频信号进行编码。
同时参见图4所示,高频音频信号带宽扩展的编码只参考音频信号/低音音频信号的特征,而无论低频音频信号的编码方式,所以低频音频信号是时域编码时,高频音频信号可能是时域编码也可能是频域编码,而低频音频信号是频域编码时,高频音频信号可能是频域编码也可能是时域编码。
因此,根据音频信号/低频信号的特点来确定高频音频信号带宽扩展的编码方式,避免带宽扩展时不考虑音频信号/低频音频信号的特点,弥补带宽扩展对不同音频信号编码质量的局限性,实现自适应的编码,优化音频编码质量。
再有一种选择带宽扩展模式对高频音频信号编码的方式,既要根据低频音频信号的编码方式也要根据音频信号/低频音频信号的特征。例如当低频音频信号为时域编码方式,而且音频信号/低频音频信号为语音信号时,选择时域带宽扩展模式对高频音频信号进行时域编码;而当低频音频信号为频域编码方式,或者低频音频信号为时域编码方式,且音频信号/低频音频信号为音乐信号时,选择频域带宽扩展模式对高频音频信号进行频域编码。
图6为本发明实施例音频信号编码方法的带宽扩展示意图之三,如图所示,当低频(6.4-16/14kHz)音频信号为时域编码TD coding时,高频(6.4-16/14kHz)音频信号可以是频域带宽扩展FD-BWE的频域编码,也可以是时域带宽扩展TD-BWE的时域编码;而当低频(6.4-16/14kHz)音频信号为频域编码FDcoding时,高频(6.4-16/14kHz)音频信号同样是频域带宽扩展FD-BWE的频域编码。
因此,根据低频信号的编码模式和音频信号/低频信号的特点来确定高频音频信号带宽扩展的编码方式,避免带宽扩展时不考虑低频信号的编码模式和音频信号/低频音频信号的特点,弥补带宽扩展对不同音频信号编码质量的局限性,实现自适应的编码,优化音频编码质量。
本发明实施例音频信号的编码方法中对于低频音频信号的编码方式可以是时域编码或者频域编码,而带宽扩展方法也是两种,时域带宽扩展和频域带宽扩展,可以对应不同的低频带编码方式。
时域带宽扩展和频域带宽扩展有可能延时不同,所以需要延时对齐,以达到统一的延时。
假设所有低频音频信号编码延时相同,这样时域带宽扩展和频域带宽扩展的延时最好也相同,通常时域带宽扩展的延时是固定的,而频域带宽扩展的延时是可调的,所以可以通过调整频域带宽扩展的延时来实现延时统一。
本发明实施例可以实现相对于解码低频信号的零延时带宽扩展,此处零延时是相对于低频带而言,因为非对称窗本身是有延时的。而且本发明实施例可以对高频带信号进行不同的加窗,此处采用的是非对称的窗,如图7所示的ITU-T G.718中的分析窗。而且可以实现从相对于解码低频信号的零延时到相对于解码低频信号的高频窗自身延时之间的任一延时,如图8所示。
图8为本发明音频信号编码方法的不同高频音频信号的加窗示意图,如图所示,对于不同帧(frame),例如对于(m-1)帧frame、(m)帧frame和(m+1)帧frame,可以实现高频信号高延时窗(High delay windowing)、高频信号低延时窗(Low delay windowing)和高频信号零延时窗(Zero delaywindowing)。这里高频信号各延时窗并没有考虑窗本身的延时,只是考虑不同的高频信号的加窗方式。
图9为本发明音频信号编码方法中高频信号高延时窗的BWE示意图,如图所示,当输入帧的低频音频信号完全解码后,用解码后的低频音频信号作为高频激励信号,输入帧高频音频信号的加窗是根据输入帧低频音频信号解码的延时来确定。
例如,编解码的低频音频信号延时为D1ms,在编码端编码器Encoder对高频音频信号进行时频变换时,将延时D1ms的高频音频信号进行时频变换,而高频音频信号的加窗变换会产生D2毫秒的延时,所以在解码端解码器Decoder解码的高频带信号的总延时为D1+D2毫秒;这样相对解码的低频音频信号,高频音频信号有额外D2毫秒延时,即解码的低频音频信号需要额外延时D2毫秒和解码的高频音频信号对齐,输出信号总延时为D1+D2。而在解码端,因为高频激励信号需要从低频音频信号的预测中得到,所以对解码端的低频音频信号和编码端的高频音频信号来说,均做同样的时频变换处理,而由于编码端的高频音频信号和解码端的低频音频信号都是对延时D1毫秒后的音频信号做时频变换,因此激励信号是对齐的。
图10为本发明音频信号编码方法中高频信号零延时窗BWE示意图,如图所示,是编码端对当前接收的帧的高频音频信号直接进行加窗,解码端时频变换处理用当前帧解码的低频音频信号作为激励信号,虽然激励信号可能会有一定错位,但是经过对激励信号进行修正,错位的影响可以忽略不计。
例如,解码的低频带信号延时为D1毫秒,而编码端对高频带信号做时频变换时不做延时处理,而只是由于高频信号加窗变换会产生D2毫秒的延时,所以在解码端解码的高频带信号的总延时为D2毫秒。
当D1等于D2时,解码的低频音频信号不需要额外延时即能和解码的高频音频信号对齐;但在解码端预测高频带激励信号是从对延时D1毫秒后的低频音频信号做时频变换得到的频域信号中得到的,所以,高频激励信号和低频激励信号没有对齐,具有D1毫秒的错位。解码信号相对于编码端信号总体延时是D1或者D2。
当D1不等于D2时,例如D1小于D2时,解码信号相对于编码端信号总体延时是D2毫秒,高频激励信号和低频激励信号之间的错位是D1毫秒,解码的低频音频信号需要额外延时(D2-D1)毫秒和解码的高频音频信号对齐。如D1大于D2时,这样解码信号相对于编码端信号总体延时是D1毫秒,高频激励信号和低频激励信号之间的错位是D1毫秒,解码的高频音频信号需要额外延时(D1-D2)毫秒和解码的低频音频信号对齐。
介于如上高频信号零延时窗和高延时窗之间的BWE,是编码端对当前接收的帧的高频音频信号延时D3毫秒后进行加窗,该延时介于0和D1毫秒之间,解码端时频变换处理用低频音频信号当前帧解码信号作为激励信号,虽然激励信号可能会有一定错位,但是经过对激励信号进行修正,错位的影响可以忽略不计。
当D1等于D2时,解码的低频音频信号需要额外延时D3毫秒和解码的高频音频信号对齐;但在解码端预测高频带激励信号是从对延时D1毫秒后的低频音频信号做时频变换得到的频域信号中得到的,所以,高频激励信号和低频激励信号没有对齐,具有(D1-D3)毫秒的错位。解码信号相对于编码端信号总体延时是(D2+D3)或者(D1+D3)毫秒。
当D1不等于D2时,例如D1小于D2时,解码信号相对于编码端信号总体延时是(D2+D3)毫秒,高频激励信号和低频激励信号之间的错位是(D1-D3)毫秒,解码的低频音频信号需要额外延时(D2+D3-D1)毫秒和解码的高频音频信号对齐。
如D1大于D2时,这样解码信号相对于编码端信号总体延时是max(D1,D2+D3)毫秒,高频激励信号和低频激励信号之间的错位是(D1-D3)毫秒,其中max(a,b)表示取a和b的较大的一个值。当max(D1,D2+D3)=D2+D3时,解码的低频音频信号需要额外延时(D2+D3-D1)毫秒和解码的高频音频信号对齐,当max(D1,D2+D3)=D1时,解码的高频音频信号需要额外延时(D1-D2-D3)毫秒和解码的低频音频信号对齐;举一特例,当D3=(D1-D2)毫秒,这样解码信号相对于编码端信号总体延时是D1毫秒,高频激励信号和低频激励信号之间的错位是D2毫秒,此时解码的低频音频信号不需要额外延时即能和解码的高频音频信号对齐。
所以,本发明实施例在时域带宽扩展中需要对频域带宽扩展的状态保持更新,因为下一帧有可能是频域带宽扩展,同理在频域带宽扩展中需要对时域带宽扩展的状态保持更新,因为到下一帧有可能是时域带宽扩展,由此通过这种方法来实现带宽切换的连续性。
以上实施例是对于本发明音频信号编码方法的,同样,可以利用音频信号处理装置来实现。图11为本发明实施例音频信号处理装置的示意图,如图所示,本发明实施例信号处理装置具体包括:划分单元11、低频信号编码单元12和高频信号编码单元13。
划分单元11用于将音频信号分为高频音频信号和低频音频信号;低频信号编码单元12用于根据低频音频信号的特征对所述低频音频信号利用相应的低频编码方式编码;而编码方式可以是时域编码或频域编码方式,例如对于语音音频信号,利用时域编码对低频语音信号进行编码,而对于音乐音频信号,利用频域编码对低频音乐信号进行编码。因为通常来讲说语音信号采用时域编码的效果比较好,而音乐信号采用频域编码的效果比较好。
高频信号编码单元13用于根据所述低频编码方式和/或所述音频信号的特征,选择带宽扩展模式对所述高频音频信号编码。
具体的,如果低频信号编码单元12采用时域编码,则高频信号编码单元13选择时域带宽扩展模式对所述高频音频信号进行时域或频域编码;而如果低频信号编码单元12采用频域编码,则高频信号编码单元13选择频域带宽扩展模式对所述高频音频信号进行时域或频域编码。
另外,如果音频信号/低频音频信号是语音音频信号,则高频信号编码单元13利用时域编码对高频频语音信号进行编码,而如果音频信号/低频音频信号是音乐音频信号,则高频信号编码单元13利用频域编码对高频频音乐信号进行编码。此时不考虑低频音频信号的编码模式。
再有,当低频信号编码单元12对低频音频信号采用时域编码方式,而且音频信号/低频音频信号为语音信号时,高频信号编码单元13选择时域带宽扩展模式对高频音频信号进行时域编码;而当低频信号编码单元12对低频音频信号采用频域编码方式,或者低频信号编码单元12对低频音频信号采用时域编码方式,且音频信号/低频音频信号为音乐信号时,选择频域带宽扩展模式对高频音频信号进行频域编码。
图12为本发明实施例另一音频信号处理装置的示意图,如图所示,本发明实施例信号处理装置还具体包括:低频信号解码单元14。
低频信号解码单元14用于对低频音频信号解码;低频音频信号编解码产生第一延时D1。
具体的,如果高频音频信号有延时窗时,高频信号编码单元13用于对高频音频信号进行第一延时D1后编码,高频音频信号编码产生第二延时D2;使得音频信号编解码延时是第一延时D1和第二延时D2之和(D1+D2)。
如果高频音频信号没有延时窗时,高频信号编码单元13用于对高频音频信号编码,高频音频信号编码产生第二延时D2;当第一延时D1小于等于第二延时D2时,低频信号编码单元12对低频音频信号编码后延时第二延时D2与第一延时D1之差(D2-D1),使得音频信号编解码延时是第二延时D2;当第一延时D1大于第二延时D2时,低频信号编码单元12对高频音频信号对高频音频信号编码后延时第一延时D1与第二延时D2之差(D1-D2);使得音频信号编解码延时是第一延时D1。
如果高频音频信号为中间延时窗时,高频信号编码单元13用于对高频音频信号进行第三延时D3后编码,高频音频信号编码产生第二延时D2;当第一时延小于等于第二时延时,低频信号编码单元12对低频音频信号编码后延时第二延时D2和第三延时D3与第一延时D1之差(D2+D3-D1),使得音频信号编解码延时是第二延时D2和第三延时D3之和(D2+D3);当第一时延大于第二时延时,具有两种可能性,如果第一延时D1大于等于第二延时D2和第三延时D3之和(D2+D3),高频信号编码单元13对高频音频信号编码后延时第一延时D1与第二延时D2、第三延时D3和之差(D1-D2-D3),如果第一延时D1小于第二延时D2和第三延时D3之和(D2+D3),低频信号编码单元12对低频音频信号编码后延时第二延时D2加第三延时D3与第一延时D1之差(D2+D3-D1),使得音频信号编解码延时是第一延时D1或第二延时D2和第三延时D3之和(D2+D3)。
因此,本发明实施例音频信号编码装置可以根据低频信号的编码模式和/或音频信号/低频信号的特点来确定高频音频信号带宽扩展的编码方式,避免带宽扩展时不考虑低频信号的编码模式和音频信号/低频音频信号的特点,弥补带宽扩展对不同音频信号编码质量的局限性,实现自适应的编码,优化音频编码质量。
专业人员应该还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (14)
1.一种音频信号编码方法,其特征在于,所述方法包括:
将音频信号分为高频音频信号和低频音频信号;
根据低频音频信号的特征利用时域编码或频域编码方式对所述低频音频信号编码;
根据所述低频音频信号的时域编码方式或频域编码方式,或者根据所述音频信号为语音信号或者音乐信号,选择时域带宽扩展模式或者频域带宽扩展模式对所述高频音频信号进行编码。
2.根据权利要求1所述的音频信号编码方法,其特征在于,所述根据所述低频编码方式,选择带宽扩展模式对所述高频音频信号编码具体为,根据所述低频音频信号的时域编码方式,选择时域带宽扩展模式对所述高频音频信号进行时域编码;或根据所述低频音频信号的频域编码方式,选择频域带宽扩展模式对所述高频音频信号进行频域编码。
3.根据权利要求1所述的音频信号编码方法,其特征在于,所述根据所述音频信号的特征,选择带宽扩展模式对所述高频音频信号编码具体为,所述音频信号为语音信号,选择时域带宽扩展模式对所述高频音频信号进行时域编码;所述音频信号为音乐信号,选择频域带宽扩展模式对所述高频音频信号进行频域编码。
4.根据权利要求1所述的音频信号编码方法,其特征在于,所述根据所述低频编码方式和所述音频信号的特征,选择带宽扩展模式对所述高频音频信号编码具体为,所述低频音频信号为时域编码方式,且所述音频信号为语音信号,则选择时域带宽扩展模式对所述高频音频信号进行时域编码;否则选择频域带宽扩展模式对所述高频音频信号进行频域编码。
5.根据权利要求1所述的音频信号编码方法,其特征在于,所述方法还包括:
对所述低频音频信号解码,所述低频音频信号编解码产生第一延时;
所述对所述高频音频信号编码具体为,对所述高频音频信号编码,所述高频音频信号编码产生第二延时。
6.根据权利要求5所述的音频信号编码方法,其特征在于,所述对所述高频音频信号编码具体为,对所述高频音频信号进行第一延时后编码,使得所述音频信号编解码延时是第一延时和第二延时之和。
7.根据权利要求5所述的音频信号编码方法,其特征在于,当所述第一延时小于等于第二延时时,对所述低频音频信号编码后延时第二延时与第一延时之差,使得音频信号编解码延时是第二延时;当所述第一延时大于第二延时时,对所述高频音频信号编码后延时第一延时与第二延时之差;使得音频信号编解码延时是第一延时。
8.根据权利要求5所述的音频信号编码方法,其特征在于,所述方法还包括:所述对所述高频音频信号编码具体为,对所述高频音频信号进行第三延时后编码;
当所述第一延时小于等于第二延时时,对所述低频音频信号编码后延时第二延时和第三延时与第一延时之差,使得音频信号编解码延时是第二延时和第三延时之和;当所述第一延时大于第二延时时,对所述高频音频信号编码后延时第一延时与第二延时、第三延时和之差,或者对所述低频音频信号编码后延时第二延时加第三延时与第一延时之差,使得音频信号编解码延时是第一延时或第二延时和第三延时之和。
9.一种音频信号编码装置,其特征在于,所述装置包括:
划分单元,用于将音频信号分为高频音频信号和低频音频信号;
低频信号编码单元,用于根据低频音频信号的特征对所述低频音频信号利用相应的低频编码方式编码;
高频信号编码单元,用于根据所述低频编码方式和/或所述音频信号的特征,选择带宽扩展模式对所述高频音频信号编码。
10.根据权利要求9所述的音频信号编码装置,其特征在于,所述低频信号编码单元具体用于根据低频音频信号的特征利用时域编码或频域编码方式对所述低频音频信号编码。
11.根据权利要求9所述的音频信号编码装置,其特征在于,所述高频信号编码单元具体用于根据所述低频音频信号的时域编码或频域编码方式,选择时域或频域带宽扩展模式对所述高频音频信号进行时域或频域编码。
12.根据权利要求9所述的音频信号编码装置,其特征在于,所述音频信号为语音信号时,所述高频信号编码单元具体用于选择时域带宽扩展模式对所述高频音频信号进行时域编码;所述音频信号为音乐信号时,所述高频信号编码单元具体用于选择频域带宽扩展模式对所述高频音频信号进行频域编码。
13.根据权利要求9所述的音频信号编码装置,其特征在于,所述低频音频信号为时域编码方式,且所述音频信号为语音信号时,所述高频信号编码单元具体用于选择时域带宽扩展模式对所述高频音频信号进行时域编码,否则选择频域带宽扩展模式对所述高频音频信号进行频域编码。
14.根据权利要求9所述的音频信号编码装置,其特征在于,所述装置还包括:
低频信号解码单元,用于对所述低频音频信号解码;所述低频音频信号编解码产生第一延时;
所述高频信号编码单元具体用于对所述高频音频信号进行第一延时后编码,所述高频音频信号编码产生第二延时;使得音频信号编解码延时是第一延时和第二延时之和;
或者,所述高频信号编码单元具体用于对所述高频音频信号编码,所述高频音频信号编码产生第二延时;当所述第一延时小于等于第二延时时,所述低频信号编码单元对所述低频音频信号编码后延时第二延时与第一延时之差,使得音频信号编解码延时是第二延时;当所述第一延时大于第二延时时,所述低频信号编码单元对所述高频音频信号编码后延时第一延时与第二延时之差;使得音频信号编解码延时是第一延时;
或者,所述高频信号编码单元具体用于对所述高频音频信号进行第三延时后编码,所述高频音频信号编码产生第二延时;当所述第一延时小于等于第二延时时,所述低频信号编码单元对所述低频音频信号编码后延时第二延时和第三延时与第一延时之差,使得音频信号编解码延时是第二延时和第三延时之和;当所述第一延时大于第二延时时,所述高频信号编码单元对所述高频音频信号编码后延时第一延时与第二延时、第三延时和之差,或者所述低频信号编码单元对所述低频音频信号编码后延时第二延时加第三延时与第一延时之差,使得音频信号编解码延时是第一延时或第二延时和第三延时之和。
Priority Applications (11)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201110297791.5A CN103035248B (zh) | 2011-10-08 | 2011-10-08 | 音频信号编码方法和装置 |
PCT/CN2012/072792 WO2012163144A1 (zh) | 2011-10-08 | 2012-03-22 | 音频信号编码方法和装置 |
KR1020137023033A KR101427863B1 (ko) | 2011-10-08 | 2012-03-22 | 오디오 신호 코딩 방법 및 장치 |
JP2013555743A JP2014508327A (ja) | 2011-10-08 | 2012-03-22 | オーディオ信号符号化方法および装置 |
EP12793206.9A EP2680260A4 (en) | 2011-10-08 | 2012-03-22 | METHOD AND DEVICE FOR AUDIO SIGNAL ENCODING |
EP17150229.7A EP3239980A1 (en) | 2011-10-08 | 2012-03-22 | Audio signal coding method and apparatus |
US14/145,632 US9251798B2 (en) | 2011-10-08 | 2013-12-31 | Adaptive audio signal coding |
JP2015113465A JP2015172778A (ja) | 2011-10-08 | 2015-06-03 | オーディオ信号符号化方法および装置 |
US15/011,824 US9514762B2 (en) | 2011-10-08 | 2016-02-01 | Audio signal coding method and apparatus |
US15/341,451 US9779749B2 (en) | 2011-10-08 | 2016-11-02 | Audio signal coding method and apparatus |
JP2017111397A JP2017187790A (ja) | 2011-10-08 | 2017-06-06 | オーディオ信号符号化方法および装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201110297791.5A CN103035248B (zh) | 2011-10-08 | 2011-10-08 | 音频信号编码方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103035248A CN103035248A (zh) | 2013-04-10 |
CN103035248B true CN103035248B (zh) | 2015-01-21 |
Family
ID=47258352
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201110297791.5A Active CN103035248B (zh) | 2011-10-08 | 2011-10-08 | 音频信号编码方法和装置 |
Country Status (6)
Country | Link |
---|---|
US (3) | US9251798B2 (zh) |
EP (2) | EP2680260A4 (zh) |
JP (3) | JP2014508327A (zh) |
KR (1) | KR101427863B1 (zh) |
CN (1) | CN103035248B (zh) |
WO (1) | WO2012163144A1 (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104321815B (zh) * | 2012-03-21 | 2018-10-16 | 三星电子株式会社 | 用于带宽扩展的高频编码/高频解码方法和设备 |
US9129600B2 (en) * | 2012-09-26 | 2015-09-08 | Google Technology Holdings LLC | Method and apparatus for encoding an audio signal |
FR3008533A1 (fr) * | 2013-07-12 | 2015-01-16 | Orange | Facteur d'echelle optimise pour l'extension de bande de frequence dans un decodeur de signaux audiofrequences |
CN103413553B (zh) * | 2013-08-20 | 2016-03-09 | 腾讯科技(深圳)有限公司 | 音频编码方法、音频解码方法、编码端、解码端和系统 |
JP6531103B2 (ja) | 2013-09-12 | 2019-06-12 | ドルビー・インターナショナル・アーベー | Qmfベースの処理データの時間整列 |
CN104517611B (zh) * | 2013-09-26 | 2016-05-25 | 华为技术有限公司 | 一种高频激励信号预测方法及装置 |
CN106104685B (zh) * | 2014-03-14 | 2019-12-03 | 瑞典爱立信有限公司 | 音频编码方法和装置 |
CN104269173B (zh) * | 2014-09-30 | 2018-03-13 | 武汉大学深圳研究院 | 切换模式的音频带宽扩展装置与方法 |
CN110062945B (zh) * | 2016-12-02 | 2023-05-23 | 迪拉克研究公司 | 音频输入信号的处理 |
US11032580B2 (en) | 2017-12-18 | 2021-06-08 | Dish Network L.L.C. | Systems and methods for facilitating a personalized viewing experience |
US10365885B1 (en) | 2018-02-21 | 2019-07-30 | Sling Media Pvt. Ltd. | Systems and methods for composition of audio content from multi-object audio |
WO2021258350A1 (zh) * | 2020-06-24 | 2021-12-30 | 华为技术有限公司 | 一种音频信号处理方法和装置 |
CN112086102B (zh) * | 2020-08-31 | 2024-04-16 | 腾讯音乐娱乐科技(深圳)有限公司 | 扩展音频频带的方法、装置、设备以及存储介质 |
CN112992167A (zh) * | 2021-02-08 | 2021-06-18 | 歌尔科技有限公司 | 音频信号的处理方法、装置及电子设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1498396A (zh) * | 2002-01-30 | 2004-05-19 | ���µ�����ҵ��ʽ���� | 音频编码与解码设备及其方法 |
CN1942928A (zh) * | 2004-04-15 | 2007-04-04 | 诺基亚公司 | 音频信号编码 |
EP2056294A2 (en) * | 2007-10-30 | 2009-05-06 | Samsung Electronics Co., Ltd. | Apparatus, Medium and Method to Encode and Decode High Frequency Signal |
CN102150200A (zh) * | 2008-07-09 | 2011-08-10 | 三星电子株式会社 | 编码方案确定的方法和设备 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6134518A (en) * | 1997-03-04 | 2000-10-17 | International Business Machines Corporation | Digital audio signal coding using a CELP coder and a transform coder |
EP1356454B1 (en) * | 2001-01-19 | 2006-03-01 | Koninklijke Philips Electronics N.V. | Wideband signal transmission system |
JP4308229B2 (ja) * | 2001-11-14 | 2009-08-05 | パナソニック株式会社 | 符号化装置および復号化装置 |
US7191136B2 (en) | 2002-10-01 | 2007-03-13 | Ibiquity Digital Corporation | Efficient coding of high frequency signal information in a signal using a linear/non-linear prediction model based on a low pass baseband |
KR20060090995A (ko) | 2003-10-23 | 2006-08-17 | 마쓰시다 일렉트릭 인더스트리얼 컴패니 리미티드 | 스펙트럼 부호화 장치, 스펙트럼 복호화 장치, 음향 신호송신 장치, 음향 신호 수신장치 및 이들의 방법 |
KR100614496B1 (ko) * | 2003-11-13 | 2006-08-22 | 한국전자통신연구원 | 가변 비트율의 광대역 음성 및 오디오 부호화 장치 및방법 |
RU2387024C2 (ru) | 2004-11-05 | 2010-04-20 | Панасоник Корпорэйшн | Кодер, декодер, способ кодирования и способ декодирования |
KR100707174B1 (ko) | 2004-12-31 | 2007-04-13 | 삼성전자주식회사 | 광대역 음성 부호화 및 복호화 시스템에서 고대역 음성부호화 및 복호화 장치와 그 방법 |
TWI317933B (en) * | 2005-04-22 | 2009-12-01 | Qualcomm Inc | Methods, data storage medium,apparatus of signal processing,and cellular telephone including the same |
KR101390188B1 (ko) * | 2006-06-21 | 2014-04-30 | 삼성전자주식회사 | 적응적 고주파수영역 부호화 및 복호화 방법 및 장치 |
US8010352B2 (en) * | 2006-06-21 | 2011-08-30 | Samsung Electronics Co., Ltd. | Method and apparatus for adaptively encoding and decoding high frequency band |
CN101140759B (zh) | 2006-09-08 | 2010-05-12 | 华为技术有限公司 | 语音或音频信号的带宽扩展方法及系统 |
JP5098569B2 (ja) * | 2007-10-25 | 2012-12-12 | ヤマハ株式会社 | 帯域拡張再生装置 |
KR101161866B1 (ko) | 2007-11-06 | 2012-07-04 | 노키아 코포레이션 | 오디오 코딩 장치 및 그 방법 |
KR100970446B1 (ko) | 2007-11-21 | 2010-07-16 | 한국전자통신연구원 | 주파수 확장을 위한 가변 잡음레벨 결정 장치 및 그 방법 |
CN102007534B (zh) * | 2008-03-04 | 2012-11-21 | Lg电子株式会社 | 用于处理音频信号的方法和装置 |
CN101572087B (zh) * | 2008-04-30 | 2012-02-29 | 北京工业大学 | 嵌入式语音或音频信号编解码方法和装置 |
PL2176862T3 (pl) * | 2008-07-11 | 2012-03-30 | Fraunhofer Ges Forschung | Urządzenie i sposób do obliczania danych dotyczących zwiększania szerokości pasma za pomocą ramkowania sterowanego z wykorzystaniem nachylenia widma |
KR101261677B1 (ko) * | 2008-07-14 | 2013-05-06 | 광운대학교 산학협력단 | 음성/음악 통합 신호의 부호화/복호화 장치 |
EP2239732A1 (en) * | 2009-04-09 | 2010-10-13 | Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. | Apparatus and method for generating a synthesis audio signal and for encoding an audio signal |
JP5754899B2 (ja) * | 2009-10-07 | 2015-07-29 | ソニー株式会社 | 復号装置および方法、並びにプログラム |
-
2011
- 2011-10-08 CN CN201110297791.5A patent/CN103035248B/zh active Active
-
2012
- 2012-03-22 JP JP2013555743A patent/JP2014508327A/ja active Pending
- 2012-03-22 WO PCT/CN2012/072792 patent/WO2012163144A1/zh active Application Filing
- 2012-03-22 EP EP12793206.9A patent/EP2680260A4/en not_active Ceased
- 2012-03-22 EP EP17150229.7A patent/EP3239980A1/en not_active Withdrawn
- 2012-03-22 KR KR1020137023033A patent/KR101427863B1/ko active Active
-
2013
- 2013-12-31 US US14/145,632 patent/US9251798B2/en active Active
-
2015
- 2015-06-03 JP JP2015113465A patent/JP2015172778A/ja active Pending
-
2016
- 2016-02-01 US US15/011,824 patent/US9514762B2/en active Active
- 2016-11-02 US US15/341,451 patent/US9779749B2/en active Active
-
2017
- 2017-06-06 JP JP2017111397A patent/JP2017187790A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1498396A (zh) * | 2002-01-30 | 2004-05-19 | ���µ�����ҵ��ʽ���� | 音频编码与解码设备及其方法 |
CN1942928A (zh) * | 2004-04-15 | 2007-04-04 | 诺基亚公司 | 音频信号编码 |
EP2056294A2 (en) * | 2007-10-30 | 2009-05-06 | Samsung Electronics Co., Ltd. | Apparatus, Medium and Method to Encode and Decode High Frequency Signal |
CN102150200A (zh) * | 2008-07-09 | 2011-08-10 | 三星电子株式会社 | 编码方案确定的方法和设备 |
Also Published As
Publication number | Publication date |
---|---|
KR20130126695A (ko) | 2013-11-20 |
US9514762B2 (en) | 2016-12-06 |
CN103035248A (zh) | 2013-04-10 |
EP3239980A1 (en) | 2017-11-01 |
KR101427863B1 (ko) | 2014-08-07 |
EP2680260A4 (en) | 2014-09-03 |
US9779749B2 (en) | 2017-10-03 |
US20140114670A1 (en) | 2014-04-24 |
US20160148622A1 (en) | 2016-05-26 |
JP2015172778A (ja) | 2015-10-01 |
JP2014508327A (ja) | 2014-04-03 |
EP2680260A1 (en) | 2014-01-01 |
US20170053661A1 (en) | 2017-02-23 |
WO2012163144A1 (zh) | 2012-12-06 |
US9251798B2 (en) | 2016-02-02 |
JP2017187790A (ja) | 2017-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103035248B (zh) | 音频信号编码方法和装置 | |
CN101512639B (zh) | 用于语音/音频发送器和接收器的方法和设备 | |
CA2658560C (en) | Systems and methods for modifying a window with a frame associated with an audio signal | |
CN101681627B (zh) | 使用音调规则化及非音调规则化译码的信号编码方法及设备 | |
RU2658892C2 (ru) | Устройство и способ для расширения диапазона частот для акустических сигналов | |
JP4918841B2 (ja) | 符号化システム | |
JP2025016508A (ja) | 信号分類方法および信号分類デバイス | |
KR101445294B1 (ko) | 코딩 컨텍스트의 피치 의존 적응을 이용하는 오디오 신호 디코더, 오디오 신호 인코더, 오디오 신호 디코딩 방법, 오디오 신호 인코딩 방법, 및 컴퓨터 프로그램 | |
AU2012297804B2 (en) | Encoding device and method, decoding device and method, and program | |
RU2740359C2 (ru) | Звуковые кодирующее устройство и декодирующее устройство | |
JP4767687B2 (ja) | スペクトル包絡線符号化のための時間境界及び周波数分解能の決定方法 | |
JP2008542838A (ja) | 堅牢なデコーダ | |
KR20190047114A (ko) | 신호 처리 장치 및 방법, 및 컴퓨터 판독가능 기록 매체 | |
CN106463140B (zh) | 具有语音信息的改进型帧丢失矫正 | |
CN101091207A (zh) | 用于确定ltp编码系统中的基音延迟的系统和方法 | |
JP2022521188A (ja) | Mdct係数からのスペクトル形状予測 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |