[go: up one dir, main page]

CN104681029B - 立体声相位参数的编码方法及装置 - Google Patents

立体声相位参数的编码方法及装置 Download PDF

Info

Publication number
CN104681029B
CN104681029B CN201310632664.5A CN201310632664A CN104681029B CN 104681029 B CN104681029 B CN 104681029B CN 201310632664 A CN201310632664 A CN 201310632664A CN 104681029 B CN104681029 B CN 104681029B
Authority
CN
China
Prior art keywords
present frame
value
stereo
itd
phase parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201310632664.5A
Other languages
English (en)
Other versions
CN104681029A (zh
Inventor
张兴涛
苗磊
吴文海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Priority to CN201310632664.5A priority Critical patent/CN104681029B/zh
Priority to PCT/CN2014/074673 priority patent/WO2015078123A1/zh
Priority to EP14866259.6A priority patent/EP3057095B1/en
Priority to JP2016534977A priority patent/JP6335301B2/ja
Priority to KR1020167014661A priority patent/KR101798559B1/ko
Publication of CN104681029A publication Critical patent/CN104681029A/zh
Priority to US15/154,655 priority patent/US10008211B2/en
Application granted granted Critical
Publication of CN104681029B publication Critical patent/CN104681029B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/022Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
    • G10L19/025Detection of transients or attacks for time/frequency resolution switching

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Stereophonic System (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

本发明实施例公开了一种立体声相位参数的编码方法及装置,涉及信息技术领域,可以提高立体声音频相位信息的效果。所述方法包括:首先获取当前帧的立体声全局相位参数,然后确定当前帧的立体声全局相位参数的值,并根据当前帧的立体声全局相位参数的值的确定结果,对当前帧的立体声全局相位参数的值进行调整,最后对调整后的当前帧的立体声全局相位参数的值进行编码。本发明实施例适用于恢复立体声相位信息。

Description

立体声相位参数的编码方法及装置
技术领域
本发明涉及信息技术领域,特别涉及一种立体声相位参数的编码方法及装置。
背景技术
随着人们物质生活水平的不断提高,人们对音频效果的要求越来越高。与单声道音频相比,立体声音频具有各声源的方位感和分布感,能够提高音频信息的清晰度,因此立体声音频可以更好地满足人们对音频效果的需求。
目前,获取立体声音频信号时,通过提取Global(全局)参数,根据Global参数恢复立体声相位信息。其中,Global参数包括G_ITD(Global Inter-Channel Time Difference,群时延)及G_IPD(Global Inter-Channel Phase Difference,群相位)。
然而,通过提取Global参数直接恢复立体声相位信息,提取的G_ITD及G_IPD准确度较低,无法根据G_ITD及G_IPD恢复原始立体声相位信息,从而导致立体声音频信息的效果较差。
发明内容
本发明实施例提供一种立体声相位参数的编码方法及装置,可以提高立体声音频信息的效果。
本发明实施例采用的技术方案为:
第一方面,本发明提实施例供一种立体声相位参数的编码方法,包括:
获取当前帧的立体声全局相位参数;
确定所述当前帧的立体声全局相位参数的值;
根据所述当前帧的立体声全局相位参数的值的确定结果,对所述当前帧的立体声全局相位参数的值进行调整;
对调整后的当前帧的立体声全局相位参数的值进行编码。
在第一方面的第一种实现方式中,所述根据所述当前帧的立体声全局相位参数的值的确定结果,对所述当前帧的立体声全局相位参数的值进行调整具体包括:
获取所述当前帧的各个子带的声道间时间差;
根据所述当前帧的各个子带的声道间时间差,计算所述当前帧的各个子带的声道间时间差的绝对值均值;
根据所述当前帧的立体声全局相位参数的值的确定结果以及所述当前帧的各个子带的声道间时间差的绝对值均值,对所述当前帧的立体声全局相位参数的值进行调整。
结合第一方面或者第一方面的第一种实现方式,在第一方面的第二种实现方式中,在所述当前帧不是数据流的第一个数据帧时,所述根据所述当前帧的立体声全局相位参数的值的确定结果以及所述当前帧的各个子带的声道间时间差的绝对值均值,对所述当前帧的立体声全局相位参数的值进行调整前进一步包括:
对所述当前帧的各个子带的声道间时间差的绝对值均值进行帧间平滑处理,获取所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值;
所述根据所述当前帧的立体声全局相位参数的值的确定结果以及所述当前帧的各个子带的声道间时间差的绝对值均值,对所述当前帧的立体声全局相位参数的值进行调整具体包括:
根据所述当前帧的立体声全局相位参数的值的确定结果以及所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的立体声全局相位参数的值进行调整。
结合第一方面或者第一方面的第一种实现方式,或者第一方面的第二种实现方式,在第一方面的第三种实现方式中,所述立体声全局相位参数包括群时延G_ITD参数;
所述根据所述当前帧的立体声全局相位参数的值的确定结果以及所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的立体声全局相位参数的值进行调整包括:
在所述当前帧的立体声全局相位参数的值的确定结果为所述G_ITD参数的值不为0时,根据所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的G_ITD参数的值进行调整。
结合第一方面或者第一方面的第一种实现方式,或者第一方面的第二种实现方式,或者第一方面的第三种实现方式,在第一方面的第四种实现方式中,所述根据所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的G_ITD参数的值进行调整具体为:
根据公式|G_ITD'|=fac1×|G_ITD|+fac2×ITD_sm,对所述当前帧的G_ITD参数的值的绝对值进行调整,其中,|G_ITD'|为调整之后的G_ITD参数的值的绝对值,|G_ITD|为G_ITD参数的值的绝对值,ITD_sm为所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,fac1与fac2为平滑因子,并且fac1>0,fac2>0,fac1+fac2=1。
结合第一方面或者第一方面的第一种实现方式,或者第一方面的第二种实现方式,或者第一方面的第三种实现方式,或者第一方面的第四种实现方式,在第一方面的第五种实现方式中,fac1=0.5。
结合第一方面或者第一方面的第一种实现方式,或者第一方面的第二种实现方式,或者第一方面的第三种实现方式,或者第一方面的第四种实现方式,或者第一方面的第五种实现方式,在第一方面的第六种实现方式中,所述立体声全局相位参数包括群时延G_ITD参数和群相位G_IPD参数;
所述根据所述当前帧的立体声全局相位参数的值的确定结果以及所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的立体声全局相位参数的值进行调整包括:
在所述当前帧的立体声全局相位参数的值的确定结果为所述G_ITD参数的值为0时,根据所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的G_IPD参数的值进行调整。
结合第一方面或者第一方面的第一种实现方式,或者第一方面的第二种实现方式,或者第一方面的第三种实现方式,或者第一方面的第四种实现方式,或者第一方面的第五种实现方式,或者第一方面的第六种实现方式,在第一方面的第七种实现方式中,在所述当前帧的立体声全局相位参数的值的确定结果为所述G_ITD参数的值为0,且所述当前帧的G_IPD参数的值不为0时,所述根据所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的G_IPD参数的值进行调整具体包括:
根据公式|G_IPD'|=fac3×|G_IPD|+fac4×IPD_sm,对所述G_IPD参数的值的绝对值进行调整,其中,|G_IPD'|为调整之后的G_IPD参数的值的绝对值,|G_IPD|为G_IPD参数的值的绝对值,fac3与fac4为平滑因子,并且fac3>0,fac4>0,fac3+fac4=1,FFT_LEN为变换长度,K为频点值,ITD_sm为所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,IPD_sm为所述当前帧的各个子带的平滑处理后的声道间相位差的绝对值均值。
结合第一方面或者第一方面的第一种实现方式,或者第一方面的第二种实现方式,或者第一方面的第三种实现方式,或者第一方面的第四种实现方式,或者第一方面的第五种实现方式,或者第一方面的第六种实现方式,或者第一方面的第七种实现方式,在第一方面的第八种实现方式中,fac3=0.75。
结合第一方面或者第一方面的第一种实现方式,或者第一方面的第二种实现方式,或者第一方面的第三种实现方式,或者第一方面的第四种实现方式,或者第一方面的第五种实现方式,或者第一方面的第六种实现方式,或者第一方面的第七种实现方式,或者第一方面的第八种实现方式,在第一方面的第九种实现方式中,在所述当前帧的立体声全局相位参数的值的确定结果为所述G_ITD参数的值为0,且所述当前帧的G_IPD参数的值为0时,所述根据所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的G_IPD参数的值进行调整具体包括:
将所述当前帧的各个子带的平滑处理后的声道间相位差的绝对值均值作为所述当前帧的G_IPD参数的绝对值,将所述当前帧的前一帧的G_IPD参数的符号作为所述当前帧的G_IPD参数的符号。
结合第一方面或者第一方面的第一种实现方式,或者第一方面的第二种实现方式,或者第一方面的第三种实现方式,或者第一方面的第四种实现方式,或者第一方面的第五种实现方式,或者第一方面的第六种实现方式,或者第一方面的第七种实现方式,或者第一方面的第八种实现方式,或者第一方面的第九种实现方式,在第一方面的第十种实现方式中,所述对所述当前帧的各个子带的声道间时间差的绝对值均值进行帧间平滑处理,获取所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值包括:
根据公式ITD_sm(k)=fac5×ITD_sm(k-1)+fac6×ITD进行帧间平滑处理,其中,ITD_sm(k)为所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,ITD_sm(k-1)为所述当前帧的前一帧的各个子带的平滑处理后的声道间时间差的绝对值均值,fac5与fac6为平滑因子,并且fac5>0,fac6>0,fac5+fac6=1。
结合第一方面或者第一方面的第一种实现方式,或者第一方面的第二种实现方式,或者第一方面的第三种实现方式,或者第一方面的第四种实现方式,或者第一方面的第五种实现方式,或者第一方面的第六种实现方式,或者第一方面的第七种实现方式,或者第一方面的第八种实现方式,或者第一方面的第九种实现方式,或者第一方面的第十种实现方式,在第一方面的第十一种实现方式中,fac5=0.9844。
第二方面,本发明实施例提供一种立体声相位参数的编码装置,包括:
获取单元,用于获取当前帧的立体声全局相位参数;
确定单元,用于确定所述获取单元获取的所述当前帧的立体声全局相位参数的值;
调整单元,用于根据所述确定单元确定的所述当前帧的立体声全局相位参数的值的确定结果,对所述当前帧的立体声全局相位参数的值进行调整;
编码单元,用于对所述调整单元调整后的当前帧的立体声全局相位参数的值进行编码。
在第二方面的第一种实现方式中,所述调整单元包括:
获取模块,用于获取所述当前帧的各个子带的声道间时间差;
计算模块,用于根据所述获取模块获取的所述当前帧的各个子带的声道间时间差,计算所述当前帧的各个子带的声道间时间差的绝对值均值;
调整模块,用于根据所述当前帧的立体声全局相位参数的值的确定结果以及所述计算模块计算的所述当前帧的各个子带的声道间时间差的绝对值均值,对所述当前帧的立体声全局相位参数的值进行调整。
结合第二方面或者第二方面的第一种实现方式,在第二方面的第二种实现方式中,所述调整单元还包括:
处理模块,用于对所述计算模块计算的所述当前帧的各个子带的声道间时间差的绝对值均值进行帧间平滑处理;
所述获取模块,还用于获取所述当前帧的各个子带的所述处理模块平滑处理后的声道间时间差的绝对值均值;
所述调整模块,还用于根据所述当前帧的立体声全局相位参数的值的确定结果以及所述获取模块获取的所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的立体声全局相位参数的值进行调整。
结合第二方面或者第二方面的第一种实现方式,或者第二方面的第二种实现方式,在第二方面的第三种实现方式中,
所述获取单元获取的所述立体声全局相位参数包括群时延G_ITD参数;
所述调整模块,还用于在所述当前帧的立体声全局相位参数的值的确定结果为所述G_ITD参数的值不为0时,根据所述获取模块获取的所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的G_ITD参数的值进行调整。
结合第二方面或者第二方面的第一种实现方式,或者第二方面的第二种实现方式,或者第二方面的第三种实现方式,在第二方面的第四种实现方式中,
所述调整模块,还用于根据公式|G_ITD'|=fac1×|G_ITD|+fac2×ITD_sm,对所述当前帧的G_ITD参数的值的绝对值进行调整,其中,|G_ITD'|为调整之后的G_ITD参数的值的绝对值,|G_ITD|为G_ITD参数的值的绝对值,ITD_sm为所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,fac1与fac2为平滑因子,并且fac1>0,fac2>0,fac1+fac2=1。
结合第二方面或者第二方面的第一种实现方式,或者第二方面的第二种实现方式,或者第二方面的第三种实现方式,或者第二方面的第四种实现方式,在第二方面的第五种实现方式中,
所述调整模块调整时的平滑因子fac1=0.5。
结合第二方面或者第二方面的第一种实现方式,或者第二方面的第二种实现方式,或者第二方面的第三种实现方式,或者第二方面的第四种实现方式,或者第二方面的第五种实现方式,在第二方面的第六种实现方式中,
所述获取单元获取的所述立体声全局相位参数包括群时延G_ITD参数和群相位G_IPD参数;
所述调整模块,还用于在所述当前帧的立体声全局相位参数的值的确定结果为所述G_ITD参数的值为0时,根据所述获取模块获取的所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的G_IPD参数的值进行调整。
结合第二方面或者第二方面的第一种实现方式,或者第二方面的第二种实现方式,或者第二方面的第三种实现方式,或者第二方面的第四种实现方式,或者第二方面的第五种实现方式,或者第二方面的第六种实现方式,在第二方面的第七种实现方式中,
所述调整模块,还用于在所述当前帧的立体声全局相位参数的值的确定结果为所述G_ITD参数的值为0,且所述当前帧的G_IPD参数的值不为0时,根据公式|G_IPD'|=fac3×|G_IPD|+fac4×IPD_sm,对所述G_IPD参数的值的绝对值进行调整,其中,|G_IPD'|为调整之后的G_IPD参数的值的绝对值,|G_IPD|为G_IPD参数的值的绝对值,fac3与fac4为平滑因子,并且fac3>0,fac4>0,fac3+fac4=1,FFT_LEN为变换长度,K为频点值,ITD_sm为所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,IPD_sm为所述当前帧的各个子带的平滑处理后的声道间相位差的绝对值均值。
结合第二方面或者第二方面的第一种实现方式,或者第二方面的第二种实现方式,或者第二方面的第三种实现方式,或者第二方面的第四种实现方式,或者第二方面的第五种实现方式,或者第二方面的第六种实现方式,或者第二方面的第七种实现方式,在第二方面的第八种实现方式中,
所述调整模块调整时的平滑因子fac3=0.75。
结合第二方面或者第二方面的第一种实现方式,或者第二方面的第二种实现方式,或者第二方面的第三种实现方式,或者第二方面的第四种实现方式,或者第二方面的第五种实现方式,或者第二方面的第六种实现方式,或者第二方面的第七种实现方式,或者第二方面的第八种实现方式,在第二方面的第九种实现方式中,所述调整单元还包括:
配置模块,用于在所述当前帧的立体声全局相位参数的值的确定结果为所述G_ITD参数的值为0,且所述当前帧的G_IPD参数的值为0时,将所述当前帧的各个子带的所述处理模块平滑处理后的声道间相位差的绝对值均值作为所述当前帧的G_IPD参数的绝对值,将所述当前帧的前一帧的G_IPD参数的符号作为所述当前帧的G_IPD参数的符号。
结合第二方面或者第二方面的第一种实现方式,或者第二方面的第二种实现方式,或者第二方面的第三种实现方式,或者第二方面的第四种实现方式,或者第二方面的第五种实现方式,或者第二方面的第六种实现方式,或者第二方面的第七种实现方式,或者第二方面的第八种实现方式,或者第二方面的第九种实现方式,在第二方面的第十种实现方式中,
所述处理模块,还用于根据公式ITD_sm(k)=fac5×ITD_sm(k-1)+fac6×ITD进行帧间平滑处理,其中,ITD_sm(k)为所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,ITD_sm(k-1)为所述当前帧的前一帧的各个子带的平滑处理后的声道间时间差的绝对值均值,fac5与fac6为平滑因子,并且fac5>0,fac6>0,fac5+fac6=1。
结合第二方面或者第二方面的第一种实现方式,或者第二方面的第二种实现方式,或者第二方面的第三种实现方式,或者第二方面的第四种实现方式,或者第二方面的第五种实现方式,或者第二方面的第六种实现方式,或者第二方面的第七种实现方式,或者第二方面的第八种实现方式,或者第二方面的第九种实现方式,或者第二方面的第十种实现方式,在第二方面的第十一种实现方式中,
所述处理模块平滑处理时的平滑因子fac5=0.9844。
本发明实施例提供的立体声相位参数的编码方法及装置,首先获取当前帧的立体声全局相位参数,然后确定当前帧的立体声全局相位参数的值,并根据当前帧的立体声全局相位参数的值的确定结果,对当前帧的立体声全局相位参数的值进行调整,最后对调整后的当前帧的立体声全局相位参数的值进行编码。与目前通过提取Global参数直接恢复立体声相位信息相比,本发明实施例通过调整后的Global参数恢复立体声相位信息,能够提高立体声相位信息的准确度,从而可以提高立体声音频信息的效果。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为本发明实施例提供的一种立体声相位参数的编码方法流程图;
图2为本发明实施例提供的另一种立体声相位参数的编码方法流程图;
图3为本发明实施例提供的又一种立体声相位参数的编码方法流程图;
图4为本发明实施例提供的再一种立体声相位参数的编码方法流程图;
图5为本发明实施例提供的一种立体声相位参数的编码装置的结构示意图;
图6为本发明实施例提供的一种服务器的结构示意图;
图7为本发明实施例提供的另一种立体声相位参数的编码装置的结构示意图;
图8为本发明实施例提供的另一种服务器的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
为使本发明技术方案的优点更加清楚,下面结合附图和实施例对本发明作详细说明。
本发明实施例提供一种立体声相位参数的编码方法,如图1所示,所述方法包括:
101、服务器获取当前帧的立体声全局相位参数。
其中,立体声全局相位参数包括群时延G_ITD及群相位G_IPD。在本发明实施例中,群时延G_ITD表示立体声的左右声道之间的时间延时,计量单位为样点。群相位G_IPD表示立体声的左右声道在时间对齐后的波形相似性,计量单位为弧度,取值范围为(-π,π]。
102、服务器确定当前帧的立体声全局相位参数的值。
其中,当前帧的立体声全局相位参数的值的确定结果包括:当前帧的G_ITD参数的值不为0、当前帧的G_ITD参数的值为0并且当前帧的G_IPD参数的值不为0、当前帧的G_ITD参数的值为0并且当前帧的G_IPD参数的值为0。
103、服务器根据当前帧的立体声全局相位参数的值的确定结果,对当前帧的立体声全局相位参数的值进行调整。
对于本发明实施例,当提取的当前帧的立体声全局相位参数G_ITD及G_IPD准确度较低时,服务器无法根据立体声相位参数恢复原始立体声相位信息,从而无法恢复立体声音频信号。在本发明实施例中,服务器通过对G_ITD或G_IPD进行调整,从而能够避免根据与原始立体声相位参数存在较大差别的G_ITD及G_IPD,恢复立体声相位信息的情况进而可以提高立体声音频信息的效果。
104、服务器对调整后的当前帧的立体声全局相位参数的值进行编码。
其中,服务器可以采用5bit(比特)量化编码方式对调整后的当前帧的立体声全局相位参数的值进行编码,第1位为立体声相位参数标志位flag,第2位至第5位为对调整后的当前帧的立体声全局相位参数的值进行编码处理之后的值。具体地,当flag=1时,服务器传输当前帧的G_ITD量化值;当flag=0时,服务器传输当前帧的G_IPD量化值。
本发明实施例提供的立体声相位参数的编码方法,首先获取当前帧的立体声全局相位参数,然后确定当前帧的立体声全局相位参数的值,并根据当前帧的立体声全局相位参数的值的确定结果,对当前帧的立体声全局相位参数的值进行调整,最后对调整后的当前帧的立体声全局相位参数的值进行编码。与目前通过提取Global参数直接恢复立体声相位信息相比,本发明实施例通过调整后的Global参数恢复立体声相位信息,能够提高立体声相位信息的准确度,从而可以提高立体声音频信息的效果。
本发明实施例提供另一种立体声相位参数的编码方法,如图2所示,所述方法包括:
201、服务器获取当前帧的立体声全局相位参数。
其中,立体声全局相位参数包括群时延G_ITD及群相位G_IPD。在本发明实施例中,群时延G_ITD表示立体声的左右声道之间的时间延时,计量单位为样点。群相位G_IPD表示立体声的左右声道在时间对齐后的波形相似性,计量单位为弧度,取值范围为(-π,π]。
202、服务器确定当前帧的立体声全局相位参数的值。
其中,当前帧的立体声全局相位参数的值的确定结果包括:当前帧的G_ITD参数的值不为0、当前帧的G_ITD参数的值为0并且当前帧的G_IPD参数的值不为0、当前帧的G_ITD参数的值为0并且当前帧的G_IPD参数的值为0。
203、服务器获取当前帧的各个子带的声道间时间差。
其中,当前帧的各个子带可以由服务器预先进行划分。例如,服务器可以将频带划分为12个子带,每个子带均存在对应的声道间时间差。
对于本发明实施例,声道间时间差用于表示声音分别到达左右耳的时间差,当ITD为大于0的数时,声音到达左耳的时间比声音到达右耳的时间早;当ITD为小于0的数时,声音到达左耳的时间比声音到达右耳的时间晚;当ITD等于0时,声音到达左耳的时间与声音到达右耳的时间相同。在本发明实施例中,ITD可以通过样点进行表示。例如,ITD的时间区间为(-5ms,5ms),计量单位为ms(millisecond,毫秒),服务器通过16kHz的带宽进行采样之后,对应的样点区间为(-80,80),计量单位为样点。
204、服务器根据当前帧的各个子带的声道间时间差,计算当前帧的各个子带的声道间时间差的绝对值均值。
对于本发明实施例,服务器可以按照公式计算当前帧的各个子带的声道间时间差的绝对值均值。其中,ITD为各个子带的绝对值均值,ITD(b)为第b个子带的声道间时间差,b为大于或者等于1并且小于或者等于L的整数,L为子带总数。
205、服务器对当前帧的各个子带的声道间时间差的绝对值均值进行帧间平滑处理,获取当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值。
具体地,步骤205可以为,服务器根据公式ITD_sm(k)=fac5×ITD_sm(k-1)+fac6×ITD对当前帧的各个子带的声道间时间差的绝对值均值进行帧间平滑处理,获取当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值。其中,ITD_sm(k)为当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,ITD_sm(k-1)为当前帧的前一帧的各个子带的平滑处理后的声道间时间差的绝对值均值,fac5与fac6为平滑因子,并且fac5>0,fac6>0,fac5+fac6=1。
对于本发明实施例,平滑因子fac5的值可以为fac5=0.9844,对应的平滑因子fac6可以为fac6=1-0.9844=0.0156。
对于本发明实施例,服务器通过对当前帧的相邻数据帧之间进行平滑处理,从而可以避免当前帧的相邻数据帧对应的立体声相位信息发生突变时,立体声音频信号存在突变现象,进而可以提高立体声音频效果。
在当前帧的立体声全局相位参数的值的确定结果为当前帧的G_ITD参数的值不为0时,执行步骤206a、服务器根据当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对当前帧的G_ITD参数的值进行调整。
具体地,步骤206a可以为,在当前帧的立体声全局相位参数的值的确定结果为当前帧的G_ITD参数的值不为0时,服务器根据公式|G_ITD'|=fac1×|G_ITD|+fac2×ITD_sm,对当前帧的G_ITD参数的值的绝对值进行调整。其中,|G_ITD'|为调整之后的G_ITD参数的值的绝对值,|G_ITD|为G_ITD参数的值的绝对值,ITD_sm为当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,fac1与fac2为平滑因子,并且fac1>0,fac2>0,fac1+fac2=1。
对于本发明实施例,平滑因子fac1的值可以为fac1=0.5,对应的平滑因子fac2可以为fac2=1-0.5=0.5。
在当前帧的立体声全局相位参数的值的确定结果为当前帧的G_ITD参数的值为0,且当前帧的G_IPD参数的值不为0时,执行步骤206b、服务器根据公式|G_IPD'|=fac3×|G_IPD|+fac4×IPD_sm,对G_IPD参数的值的绝对值进行调整,其中,|G_IPD'|为调整之后的G_IPD参数的值的绝对值,|G_IPD|为G_IPD参数的值的绝对值,fac3与fac4为平滑因子,并且fac3>0,fac4>0,fac3+fac4=1,FFT_LEN为变换长度,K为频点值,ITD_sm为当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,IPD_sm为当前帧的各个子带的平滑处理后的声道间相位差的绝对值均值。
对于本发明实施例,平滑因子fac3的值可以为fac3=0.75,对应的平滑因子fac4可以为fac4=1-0.75=0.25。
在当前帧的立体声全局相位参数的值的确定结果为当前帧的G_ITD参数的值为0,且当前帧的G_IPD参数的值为0时,执行步骤206c、服务器将当前帧的各个子带的平滑处理后的声道间相位差的绝对值均值作为当前帧的G_IPD参数的绝对值,将当前帧的前一帧的G_IPD参数的符号作为当前帧的G_IPD参数的符号。
对于本发明实施例,服务器可以根据公式计算当前帧的各个子带的平滑处理后的声道间相位差的绝对值均值。其中,FFT_LEN为变换长度,K为频点值,ITD_sm为当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,IPD_sm为当前帧的各个子带的平滑处理后的声道间相位差的绝对值均值。
207、服务器对调整后的当前帧的立体声全局相位参数的值进行编码。
其中,服务器可以采用5bit(比特)量化编码方式对调整后的当前帧的立体声全局相位参数的值进行编码,第1位为立体声相位参数标志位flag,第2位至第5位为对调整后的当前帧的立体声全局相位参数的值进行编码处理之后的值。具体地,当flag=1时,服务器传输当前帧的G_ITD量化值;当flag=0时,服务器传输当前帧的G_IPD量化值。
本发明实施例提供的立体声相位参数的编码方法,首先获取当前帧的立体声全局相位参数,然后确定当前帧的立体声全局相位参数的值,并根据当前帧的立体声全局相位参数的值的确定结果,对当前帧的立体声全局相位参数的值进行调整,最后对调整后的当前帧的立体声全局相位参数的值进行编码。与目前通过提取Global参数直接恢复立体声相位信息相比,本发明实施例通过调整后的Global参数恢复立体声相位信息,能够提高立体声相位信息的准确度,从而可以提高立体声音频信息的效果。
本发明实施例提供又一种立体声相位参数的编码方法,适用于对当前帧的G_ITD参数及G_IPD参数的值均为0的情况进行调整,如图3所示,所述方法包括:
301、服务器获取当前帧的立体声全局相位参数。
其中,立体声全局相位参数包括群时延G_ITD及群相位G_IPD。在本发明实施例中,群时延G_ITD表示立体声的左右声道之间的时间延时,计量单位为样点。群相位G_IPD表示立体声的左右声道在时间对齐后的波形相似性,计量单位为弧度,取值范围为(-π,π]。
302、服务器确定当前帧的立体声全局相位参数的值。
其中,当前帧的立体声全局相位参数的值的确定结果包括:当前帧的G_ITD参数的值不为0、当前帧的G_ITD参数的值为0并且当前帧的G_IPD参数的值不为0、当前帧的G_ITD参数的值为0并且当前帧的G_IPD参数的值为0。
303、服务器获取当前帧的各个子带的声道间时间差。
其中,当前帧的各个子带可以由服务器预先进行划分。例如,服务器可以将频带划分为12个子带,每个子带均存在对应的声道间时间差。
对于本发明实施例,声道间时间差用于表示声音分别到达左右耳的时间差,当ITD为大于0的数时,声音到达左耳的时间比声音到达右耳的时间早;当ITD为小于0的数时,声音到达左耳的时间比声音到达右耳的时间晚;当ITD等于0时,声音到达左耳的时间与声音到达右耳的时间相同。在本发明实施例中,ITD可以通过样点进行表示。例如,ITD的时间区间为(-5ms,5ms),计量单位为ms(millisecond,毫秒),服务器通过16kHz的带宽进行采样之后,对应的样点区间为(-80,80),计量单位为样点。
304、服务器根据当前帧的各个子带的声道间时间差,计算当前帧的各个子带的声道间时间差的绝对值均值。
对于本发明实施例,服务器可以按照公式计算当前帧的各个子带的声道间时间差的绝对值均值。其中,ITD为各个子带的绝对值均值,ITD(b)为第b个子带的声道间时间差,b为大于或者等于1并且小于或者等于L的整数,L为子带总数。
305、服务器对当前帧的各个子带的声道间时间差的绝对值均值进行帧间平滑处理,获取当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值。
具体地,步骤305可以为,服务器根据公式ITD_sm(k)=fac5×ITD_sm(k-1)+fac6×ITD对当前帧的各个子带的声道间时间差的绝对值均值进行帧间平滑处理,获取当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值。其中,ITD_sm(k)为当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,ITD_sm(k-1)为当前帧的前一帧的各个子带的平滑处理后的声道间时间差的绝对值均值,fac5与fac6为平滑因子,并且fac5>0,fac6>0,fac5+fac6=1。
对于本发明实施例,平滑因子fac5的值可以为fac5=0.9844,对应的平滑因子fac6可以为fac6=1-0.9844=0.0156。
对于本发明实施例,服务器通过对当前帧的相邻数据帧之间进行平滑处理,从而可以避免当前帧的相邻数据帧对应的立体声相位信息发生突变时,立体声音频信号存在突变现象,进而可以提高立体声音频效果。
306、在当前帧的立体声全局相位参数的值的确定结果为当前帧的G_ITD参数的值为0,且当前帧的G_IPD参数的值为0时,服务器将当前帧的各个子带的平滑处理后的声道间相位差的绝对值均值作为当前帧的G_IPD参数的绝对值,将当前帧的前一帧的G_IPD参数的符号作为当前帧的G_IPD参数的符号。
对于本发明实施例,服务器可以根据公式计算当前帧的各个子带的平滑处理后的声道间相位差的绝对值均值。其中,FFT_LEN为变换长度,K为频点值,ITD_sm为当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,IPD_sm为当前帧的各个子带的平滑处理后的声道间相位差的绝对值均值。
307、服务器对调整后的当前帧的立体声全局相位参数的值进行编码。
其中,服务器可以采用5bit(比特)量化编码方式对调整后的当前帧的立体声全局相位参数的值进行编码,第1位为立体声相位参数标志位flag,第2位至第5位为对调整后的当前帧的立体声全局相位参数的值进行编码处理之后的值。具体地,当flag=1时,服务器传输当前帧的G_ITD量化值;当flag=0时,服务器传输当前帧的G_IPD量化值。
本发明实施例提供的立体声相位参数的编码方法,首先获取当前帧的立体声全局相位参数,然后确定当前帧的立体声全局相位参数的值,并根据当前帧的立体声全局相位参数的值的确定结果,对当前帧的立体声全局相位参数的值进行调整,最后对调整后的当前帧的立体声全局相位参数的值进行编码。与目前通过提取Global参数直接恢复立体声相位信息相比,本发明实施例通过调整后的Global参数恢复立体声相位信息,能够提高立体声相位信息的准确度,从而可以提高立体声音频信息的效果。
本发明实施例提供再一种立体声相位参数的编码方法,适用于对当前帧的G_ITD参数及G_IPD参数的值不都为0的情况进行调整,如图4所示,所述方法包括:
401、服务器获取当前帧的立体声全局相位参数。
其中,立体声全局相位参数包括群时延G_ITD及群相位G_IPD。在本发明实施例中,群时延G_ITD表示立体声的左右声道之间的时间延时,计量单位为样点。群相位G_IPD表示立体声的左右声道在时间对齐后的波形相似性,计量单位为弧度,取值范围为(-π,π]。
402、服务器确定当前帧的立体声全局相位参数的值。
其中,当前帧的立体声全局相位参数的值的确定结果包括:当前帧的G_ITD参数的值不为0、当前帧的G_ITD参数的值为0并且当前帧的G_IPD参数的值不为0、当前帧的G_ITD参数的值为0并且当前帧的G_IPD参数的值为0。
403、服务器获取当前帧的各个子带的声道间时间差。
其中,当前帧的各个子带可以由服务器预先进行划分。例如,服务器可以将频带划分为12个子带,每个子带均存在对应的声道间时间差。
对于本发明实施例,声道间时间差用于表示声音分别到达左右耳的时间差,当ITD为大于0的数时,声音到达左耳的时间比声音到达右耳的时间早;当ITD为小于0的数时,声音到达左耳的时间比声音到达右耳的时间晚;当ITD等于0时,声音到达左耳的时间与声音到达右耳的时间相同。在本发明实施例中,ITD可以通过样点进行表示。例如,ITD的时间区间为(-5ms,5ms),计量单位为ms(millisecond,毫秒),服务器通过16kHz的带宽进行采样之后,对应的样点区间为(-80,80),计量单位为样点。
404、服务器根据当前帧的各个子带的声道间时间差,计算当前帧的各个子带的声道间时间差的绝对值均值。
对于本发明实施例,服务器可以按照公式计算当前帧的各个子带的声道间时间差的绝对值均值。其中,ITD为各个子带的绝对值均值,ITD(b)为第b个子带的声道间时间差,b为大于或者等于1并且小于或者等于L的整数,L为子带总数。
405、服务器对当前帧的各个子带的声道间时间差的绝对值均值进行帧间平滑处理,获取当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值。
具体地,步骤405可以为,服务器根据公式ITD_sm(k)=fac5×ITD_sm(k-1)+fac6×ITD对当前帧的各个子带的声道间时间差的绝对值均值进行帧间平滑处理,获取当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值。其中,ITD_sm(k)为当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,ITD_sm(k-1)为当前帧的前一帧的各个子带的平滑处理后的声道间时间差的绝对值均值,fac5与fac6为平滑因子,并且fac5>0,fac6>0,fac5+fac6=1。
对于本发明实施例,平滑因子fac5的值可以为fac5=0.9844,对应的平滑因子fac6可以为fac6=1-0.9844=0.0156。
对于本发明实施例,服务器通过对当前帧的相邻数据帧之间进行平滑处理,从而可以避免当前帧的相邻数据帧对应的立体声相位信息发生突变时,立体声音频信号存在突变现象,进而可以提高立体声音频效果。
在当前帧的立体声全局相位参数的值的确定结果为当前帧的G_ITD参数的值不为0时,执行步骤406a、服务器根据当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对当前帧的G_ITD参数的值进行调整。
具体地,步骤406a可以为,在当前帧的立体声全局相位参数的值的确定结果为当前帧的G_ITD参数的值不为0时,服务器根据公式|G_ITD'|=fac1×|G_ITD|+fac2×ITD_sm,对当前帧的G_ITD参数的值的绝对值进行调整。其中,|G_ITD'|为调整之后的G_ITD参数的值的绝对值,|G_ITD|为G_ITD参数的值的绝对值,ITD_sm为当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,fac1与fac2为平滑因子,并且fac1>0,fac2>0,fac1+fac2=1。
对于本发明实施例,平滑因子fac1的值可以为fac1=0.5,对应的平滑因子fac2可以为fac2=1-0.5=0.5。
在当前帧的立体声全局相位参数的值的确定结果为当前帧的G_ITD参数的值为0,且当前帧的G_IPD参数的值不为0时,执行步骤406b、服务器根据公式|G_IPD'|=fac3×|G_IPD|+fac4×IPD_sm,对G_IPD参数的值的绝对值进行调整,其中,|G_IPD'|为调整之后的G_IPD参数的值的绝对值,|G_IPD|为G_IPD参数的值的绝对值,fac3与fac4为平滑因子,并且fac3>0,fac4>0,fac3+fac4=1,FFT_LEN为变换长度,K为频点值,ITD_sm为当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,IPD_sm为当前帧的各个子带的平滑处理后的声道间相位差的绝对值均值。
对于本发明实施例,平滑因子fac3的值可以为fac3=0.75,对应的平滑因子fac4可以为fac4=1-0.75=0.25。
407、服务器对调整后的当前帧的立体声全局相位参数的值进行编码。
其中,服务器可以采用5bit(比特)量化编码方式对调整后的当前帧的立体声全局相位参数的值进行编码,第1位为立体声相位参数标志位flag,第2位至第5位为对调整后的当前帧的立体声全局相位参数的值进行编码处理之后的值。具体地,当flag=1时,服务器传输当前帧的G_ITD量化值;当flag=0时,服务器传输当前帧的G_IPD量化值。
本发明实施例提供的立体声相位参数的编码方法,首先获取当前帧的立体声全局相位参数,然后确定当前帧的立体声全局相位参数的值,并根据当前帧的立体声全局相位参数的值的确定结果,对当前帧的立体声全局相位参数的值进行调整,最后对调整后的当前帧的立体声全局相位参数的值进行编码。与目前通过提取Global参数直接恢复立体声相位信息相比,本发明实施例通过调整后的Global参数恢复立体声相位信息,能够提高立体声相位信息的准确度,从而可以提高立体声音频信息的效果。
本发明实施例提供了一种立体声相位参数的编码装置,如图5所示,所述装置的实体可以为服务器,所述装置包括:获取单元51、确定单元52、调整单元53、编码单元54。
获取单元51,用于获取当前帧的立体声全局相位参数。
确定单元52,用于确定获取单元51获取的当前帧的立体声全局相位参数的值。
调整单元53,用于根据确定单元52确定的当前帧的立体声全局相位参数的值的确定结果,对当前帧的立体声全局相位参数的值进行调整。
编码单元54,用于对调整单元53调整后的当前帧的立体声全局相位参数的值进行编码。
进一步地,所述立体声相位参数的编码装置的实体可以为服务器,如图6所示,所述服务器可以包括:处理器61、输入设备62、输出设备63、存储器64,所述输入设备62、输出设备63及存储器64分别与处理器61相连接。
处理器61,用于获取当前帧的立体声全局相位参数。
处理器61,还用于确定当前帧的立体声全局相位参数的值。
处理器61,还用于根据当前帧的立体声全局相位参数的值的确定结果,对当前帧的立体声全局相位参数的值进行调整。
处理器61,还用于对调整后的当前帧的立体声全局相位参数的值进行编码。
需要说明的是,本发明实施例中提供的立体声相位参数的调整装置中各功能单元所对应的其他相应描述,可以参考图1中的对应描述,在此不再赘述。
本发明实施例提供了另一种立体声相位参数的编码装置,如图7所示,所述装置的实体可以为服务器,所述装置包括:获取单元71、确定单元72、调整单元73、编码单元74。
获取单元71,用于获取当前帧的立体声全局相位参数。
确定单元72,用于确定获取单元71获取的当前帧的立体声全局相位参数的值。
调整单元73,用于根据确定单元72确定的当前帧的立体声全局相位参数的值的确定结果,对当前帧的立体声全局相位参数的值进行调整。
编码单元74,用于对调整单元73调整后的当前帧的立体声全局相位参数的值进行编码。
调整单元73包括:获取模块7301、计算模块7302、调整模块7303。
获取模块7301,用于获取当前帧的各个子带的声道间时间差。
计算模块7302,用于根据获取模块7301获取的当前帧的各个子带的声道间时间差,计算当前帧的各个子带的声道间时间差的绝对值均值。
调整模块7303,用于根据当前帧的立体声全局相位参数的值的确定结果以及计算模块7302计算的当前帧的各个子带的声道间时间差的绝对值均值,对当前帧的立体声全局相位参数的值进行调整。
调整单元73还包括:处理模块7304。
处理模块7304,用于对计算模块7302计算的当前帧的各个子带的声道间时间差的绝对值均值进行帧间平滑处理。
获取模块7301,还用于获取当前帧的各个子带的处理模块7304平滑处理后的声道间时间差的绝对值均值。
调整模块7303,还用于根据当前帧的立体声全局相位参数的值的确定结果以及获取模块7301获取的当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对当前帧的立体声全局相位参数的值进行调整。
获取单元71获取的立体声全局相位参数包括群时延G_ITD参数。
调整模块7303,还用于在当前帧的立体声全局相位参数的值的确定结果为G_ITD参数的值不为0时,根据获取模块7301获取的当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对当前帧的G_ITD参数的值进行调整。
调整模块7303,还用于根据公式|G_ITD'|=fac1×|G_ITD|+fac2×ITD_sm,对当前帧的G_ITD参数的值的绝对值进行调整。
其中,|G_ITD'|为调整之后的G_ITD参数的值的绝对值,|G_ITD|为G_ITD参数的值的绝对值,ITD_sm为当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,fac1与fac2为平滑因子,并且fac1>0,fac2>0,fac1+fac2=1。
调整模块7303调整时的平滑因子fac1=0.5。
获取单元71获取的立体声全局相位参数包括群时延G_ITD参数和群相位G_IPD参数。
调整模块7303,还用于在当前帧的立体声全局相位参数的值的确定结果为G_ITD参数的值为0时,根据获取模块7301获取的当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对当前帧的G_IPD参数的值进行调整。
调整模块7303,还用于在当前帧的立体声全局相位参数的值的确定结果为G_ITD参数的值为0,且当前帧的G_IPD参数的值不为0时,根据公式|G_IPD'|=fac3×|G_IPD|+fac4×IPD_sm,对G_IPD参数的值的绝对值进行调整。
其中,|G_IPD'|为调整之后的G_IPD参数的值的绝对值,|G_IPD|为G_IPD参数的值的绝对值,fac3与fac4为平滑因子,并且fac3>0,fac4>0,fac3+fac4=1,FFT_LEN为变换长度,K为频点值,ITD_sm为当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,IPD_sm为当前帧的各个子带的平滑处理后的声道间相位差的绝对值均值。
调整模块7303调整时的平滑因子fac3=0.75。
调整单元73还包括:配置模块7305。
配置模块7305,用于在当前帧的立体声全局相位参数的值的确定结果为G_ITD参数的值为0,且当前帧的G_IPD参数的值为0时,将当前帧的各个子带的处理模块7304平滑处理后的声道间相位差的绝对值均值作为当前帧的G_IPD参数的绝对值,将当前帧的前一帧的G_IPD参数的符号作为当前帧的G_IPD参数的符号。
处理模块7304,还用于根据公式ITD_sm(k)=fac5×ITD_sm(k-1)+fac6×ITD进行帧间平滑处理。
其中,ITD_sm(k)为当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,ITD_sm(k-1)为当前帧的前一帧的各个子带的平滑处理后的声道间时间差的绝对值均值,fac5与fac6为平滑因子,并且fac5>0,fac6>0,fac5+fac6=1。
处理模块7304平滑处理时的平滑因子fac5=0.9844。
进一步地,所述立体声相位参数的编码装置的实体可以为服务器,如图8所示,所述服务器可以包括:处理器81、输入设备82、输出设备83、存储器84,所述输入设备82、输出设备83及存储器84分别与处理器81相连接。
处理器81,用于获取当前帧的立体声全局相位参数。
处理器81,还用于确定当前帧的立体声全局相位参数的值。
处理器81,还用于根据当前帧的立体声全局相位参数的值的确定结果,对当前帧的立体声全局相位参数的值进行调整。
处理器81,还用于对调整后的当前帧的立体声全局相位参数的值进行编码。
处理器81,还用于获取当前帧的各个子带的声道间时间差。
处理器81,还用于根据当前帧的各个子带的声道间时间差,计算当前帧的各个子带的声道间时间差的绝对值均值。
处理器81,还用于根据当前帧的立体声全局相位参数的值的确定结果以及当前帧的各个子带的声道间时间差的绝对值均值,对当前帧的立体声全局相位参数的值进行调整。
处理器81,还用于对当前帧的各个子带的声道间时间差的绝对值均值进行帧间平滑处理。
处理器81,还用于获取当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值。
处理器81,还用于根据当前帧的立体声全局相位参数的值的确定结果以及当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对当前帧的立体声全局相位参数的值进行调整。
处理器81获取的立体声全局相位参数包括群时延G_ITD参数。
处理器81,还用于在当前帧的立体声全局相位参数的值的确定结果为G_ITD参数的值不为0时,根据当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对当前帧的G_ITD参数的值进行调整。
处理器81,还用于根据公式|G_ITD'|=fac1×|G_ITD|+fac2×ITD_sm,对当前帧的G_ITD参数的值的绝对值进行调整。
其中,|G_ITD'|为调整之后的G_ITD参数的值的绝对值,|G_ITD|为G_ITD参数的值的绝对值,ITD_sm为当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,fac1与fac2为平滑因子,并且fac1>0,fac2>0,fac1+fac2=1。
处理器81调整时的平滑因子fac1=0.5。
处理器81获取的立体声全局相位参数包括群时延G_ITD参数和群相位G_IPD参数。
处理器81,还用于在当前帧的立体声全局相位参数的值的确定结果为G_ITD参数的值为0时,根据当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对当前帧的G_IPD参数的值进行调整。
处理器81,还用于在当前帧的立体声全局相位参数的值的确定结果为G_ITD参数的值为0,且当前帧的G_IPD参数的值不为0时,根据公式|G_IPD'|=fac3×|G_IPD|+fac4×IPD_sm,对G_IPD参数的值的绝对值进行调整。
其中,|G_IPD'|为调整之后的G_IPD参数的值的绝对值,|G_IPD|为G_IPD参数的值的绝对值,fac3与fac4为平滑因子,并且fac3>0,fac4>0,fac3+fac4=1,FFT_LEN为变换长度,K为频点值,ITD_sm为当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,IPD_sm为当前帧的各个子带的平滑处理后的声道间相位差的绝对值均值。
处理器81调整时的平滑因子fac3=0.75。
处理器81,还用于在当前帧的立体声全局相位参数的值的确定结果为G_ITD参数的值为0,且当前帧的G_IPD参数的值为0时,将当前帧的各个子带的平滑处理后的声道间相位差的绝对值均值作为当前帧的G_IPD参数的绝对值,将当前帧的前一帧的G_IPD参数的符号作为当前帧的G_IPD参数的符号。
处理器81,还用于根据公式ITD_sm(k)=fac5×ITD_sm(k-1)+fac6×ITD进行帧间平滑处理。
其中,ITD_sm(k)为当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,ITD_sm(k-1)为当前帧的前一帧的各个子带的平滑处理后的声道间时间差的绝对值均值,fac5与fac6为平滑因子,并且fac5>0,fac6>0,fac5+fac6=1。
处理器81平滑处理时的平滑因子fac5=0.9844。需要说明的是,本发明实施例中提供的立体声相位参数的调整装置中各功能单元所对应的其他相应描述,可以参考图2中的对应描述,在此不再赘述。
本发明实施例提供的立体声相位参数的编码装置可以实现上述提供的方法实施例,具体功能实现请参见方法实施例中的说明,在此不再赘述。本发明实施例提供的立体声相位参数的编码方法及装置可以适用于恢复立体声相位信息,但不仅限于此。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random AccessMemory,RAM)等。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求的保护范围为准。

Claims (22)

1.一种立体声相位参数的编码方法,其特征在于,包括:
获取当前帧的立体声全局相位参数,所述立体声全局相位参数包括群时延G_ITD参数;
确定所述当前帧的立体声全局相位参数的值;
根据所述当前帧的立体声全局相位参数的值的确定结果,对所述当前帧的立体声全局相位参数的值进行调整;
对调整后的当前帧的立体声全局相位参数的值进行编码;
所述根据所述当前帧的立体声全局相位参数的值的确定结果,对所述当前帧的立体声全局相位参数的值进行调整包括:在所述当前帧的立体声全局相位参数的值的确定结果为所述当前帧的G_ITD参数的值不为0时,根据所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的G_ITD参数的值进行调整。
2.根据权利要求1所述的立体声相位参数的编码方法,其特征在于,所述根据所述当前帧的立体声全局相位参数的值的确定结果,对所述当前帧的立体声全局相位参数的值进行调整具体包括:
获取所述当前帧的各个子带的声道间时间差;
根据所述当前帧的各个子带的声道间时间差,计算所述当前帧的各个子带的声道间时间差的绝对值均值;
根据所述当前帧的立体声全局相位参数的值的确定结果以及所述当前帧的各个子带的声道间时间差的绝对值均值,对所述当前帧的立体声全局相位参数的值进行调整。
3.根据权利要求2所述的立体声相位参数的编码方法,其特征在于,在所述当前帧不是数据流的第一个数据帧时,所述根据所述当前帧的立体声全局相 位参数的值的确定结果以及所述当前帧的各个子带的声道间时间差的绝对值均值,对所述当前帧的立体声全局相位参数的值进行调整前进一步包括:
对所述当前帧的各个子带的声道间时间差的绝对值均值进行帧间平滑处理,获取所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值;
所述根据所述当前帧的立体声全局相位参数的值的确定结果以及所述当前帧的各个子带的声道间时间差的绝对值均值,对所述当前帧的立体声全局相位参数的值进行调整具体包括:
根据所述当前帧的立体声全局相位参数的值的确定结果以及所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的立体声全局相位参数的值进行调整。
4.根据权利要求1所述的立体声相位参数的编码方法,其特征在于,所述根据所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的G_ITD参数的值进行调整具体为:
根据公式|G_ITD'|=fac1×|G_ITD|+fac2×ITD_sm,对所述当前帧的G_ITD参数的值的绝对值进行调整,其中,|G_ITD'|为调整之后的G_ITD参数的值的绝对值,|G_ITD|为G_ITD参数的值的绝对值,ITD_sm为所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,fac1与fac2为平滑因子,并且fac1>0,fac2>0,fac1+fac2=1。
5.根据权利要求4所述的立体声相位参数的编码方法,其特征在于,fac1=0.5。
6.根据权利要求3至5任一所述的立体声相位参数的编码方法,其特征在于,所述立体声全局相位参数包括群时延G_ITD参数和群相位G_IPD参数;
所述根据所述当前帧的立体声全局相位参数的值的确定结果以及所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的立 体声全局相位参数的值进行调整包括:
在所述当前帧的立体声全局相位参数的值的确定结果为所述G_ITD参数的值为0时,根据所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的G_IPD参数的值进行调整。
7.根据权利要求6所述的立体声相位参数的编码方法,其特征在于,在所述当前帧的立体声全局相位参数的值的确定结果为所述当前帧的G_ITD参数的值为0,且所述当前帧的G_IPD参数的值不为0时,所述根据所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的G_IPD参数的值进行调整具体包括:
根据公式|G_IPD'|=fac3×|G_IPD|+fac4×IPD_sm,对所述G_IPD参数的值的绝对值进行调整,其中,|G_IPD'|为调整之后的G_IPD参数的值的绝对值,|G_IPD|为G_IPD参数的值的绝对值,fac3与fac4为平滑因子,并且fac3>0,fac4>0,fac3+fac4=1,FFT_LEN为变换长度,K为频点值,ITD_sm为所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,IPD_sm为所述当前帧的各个子带的平滑处理后的声道间相位差的绝对值均值。
8.根据权利要求7所述的立体声相位参数的编码方法,其特征在于,fac3=0.75。
9.根据权利要求6所述的立体声相位参数的编码方法,其特征在于,在所述当前帧的立体声全局相位参数的值的确定结果为所述当前帧的G_ITD参数的值为0,且所述当前帧的G_IPD参数的值为0时,所述根据所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的G_IPD参数的值进行调整具体包括:
将所述当前帧的各个子带的平滑处理后的声道间相位差的绝对值均值作为 所述当前帧的G_IPD参数的绝对值,将所述当前帧的前一帧的G_IPD参数的符号作为所述当前帧的G_IPD参数的符号。
10.根据权利要求1或3至5或7至9任一所述的立体声相位参数的编码方法,其特征在于,所述对所述当前帧的各个子带的声道间时间差的绝对值均值进行帧间平滑处理,获取所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值包括:
根据公式ITD_sm(k)=fac5×ITD_sm(k-1)+fac6×ITD进行帧间平滑处理,其中,ITD_sm(k)为所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,ITD_sm(k-1)为所述当前帧的前一帧的各个子带的平滑处理后的声道间时间差的绝对值均值,fac5与fac6为平滑因子,并且fac5>0,fac6>0,fac5+fac6=1。
11.根据权利要求10所述的立体声相位参数的编码方法,其特征在于,fac5=0.9844。
12.一种立体声相位参数的编码装置,其特征在于,包括:
获取单元,用于获取当前帧的立体声全局相位参数,所述获取单元获取的所述立体声全局相位参数包括群时延G_ITD参数;
确定单元,用于确定所述获取单元获取的所述当前帧的立体声全局相位参数的值;
调整单元,用于根据所述确定单元确定的所述当前帧的立体声全局相位参数的值的确定结果,对所述当前帧的立体声全局相位参数的值进行调整;
编码单元,用于对所述调整单元调整后的当前帧的立体声全局相位参数的值进行编码;
所述调整单元,还用于在所述当前帧的立体声全局相位参数的值的确定结果为所述G_ITD参数的值不为0时,根据所述获取模块获取的所述当前帧的各个 子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的G_ITD参数的值进行调整。
13.根据权利要求12所述的立体声相位参数的编码装置,其特征在于,所述调整单元包括:
获取模块,用于获取所述当前帧的各个子带的声道间时间差;
计算模块,用于根据所述获取模块获取的所述当前帧的各个子带的声道间时间差,计算所述当前帧的各个子带的声道间时间差的绝对值均值;
调整模块,用于根据所述当前帧的立体声全局相位参数的值的确定结果以及所述计算模块计算的所述当前帧的各个子带的声道间时间差的绝对值均值,对所述当前帧的立体声全局相位参数的值进行调整。
14.根据权利要求13所述的立体声相位参数的编码装置,其特征在于,所述调整单元还包括:
处理模块,用于对所述计算模块计算的所述当前帧的各个子带的声道间时间差的绝对值均值进行帧间平滑处理;
所述获取模块,还用于获取所述当前帧的各个子带的所述处理模块平滑处理后的声道间时间差的绝对值均值;
所述调整模块,还用于根据所述当前帧的立体声全局相位参数的值的确定结果以及所述获取模块获取的所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的立体声全局相位参数的值进行调整。
15.根据权利要求13所述的立体声相位参数的编码装置,其特征在于,
所述调整模块,还用于根据公式|G_ITD'|=fac1×|G_ITD|+fac2×ITD_sm,对所述当前帧的G_ITD参数的值的绝对值进行调整,其中,|G_ITD'|为调整之后的G_ITD参数的值的绝对值,|G_ITD|为G_ITD参数的值的绝对值,ITD_sm为所述 当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,fac1与fac2为平滑因子,并且fac1>0,fac2>0,fac1+fac2=1。
16.根据权利要求15所述的立体声相位参数的编码装置,其特征在于,
所述调整模块调整时的平滑因子fac1=0.5。
17.根据权利要求14至16任一所述的立体声相位参数的编码装置,其特征在于,
所述获取单元获取的所述立体声全局相位参数包括群时延G_ITD参数和群相位G_IPD参数;
所述调整模块,还用于在所述当前帧的立体声全局相位参数的值的确定结果为所述G_ITD参数的值为0时,根据所述获取模块获取的所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的G_IPD参数的值进行调整。
18.根据权利要求17所述的立体声相位参数的编码装置,其特征在于,
所述调整模块,还用于在所述当前帧的立体声全局相位参数的值的确定结果为所述G_ITD参数的值为0,且所述当前帧的G_IPD参数的值不为0时,根据公式|G_IPD'|=fac3×|G_IPD|+fac4×IPD_sm,对所述G_IPD参数的值的绝对值进行调整,其中,|G_IPD'|为调整之后的G_IPD参数的值的绝对值,|G_IPD|为G_IPD参数的值的绝对值,fac3与fac4为平滑因子,并且fac3>0,fac4>0,fac3+fac4=1, FFT_LEN为变换长度,K为频点值,ITD_sm为所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,IPD_sm为所述当前帧的各个子带的平滑处理后的声道间相位差的绝对值均值。
19.根据权利要求18所述的立体声相位参数的编码装置,其特征在于,
所述调整模块调整时的平滑因子fac3=0.75。
20.根据权利要求17所述的立体声相位参数的编码装置,其特征在于,所述调整单元还包括:
配置模块,用于在所述当前帧的立体声全局相位参数的值的确定结果为所述G_ITD参数的值为0,且所述当前帧的G_IPD参数的值为0时,将所述当前帧的各个子带的所述处理模块平滑处理后的声道间相位差的绝对值均值作为所述当前帧的G_IPD参数的绝对值,将所述当前帧的前一帧的G_IPD参数的符号作为所述当前帧的G_IPD参数的符号。
21.根据权利要求12或14至16或18至20任一所述的立体声相位参数的编码装置,其特征在于,
所述处理模块,还用于根据公式ITD_sm(k)=fac5×ITD_sm(k-1)+fac6×ITD进行帧间平滑处理,其中,ITD_sm(k)为所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,ITD_sm(k-1)为所述当前帧的前一帧的各个子带的平滑处理后的声道间时间差的绝对值均值,fac5与fac6为平滑因子,并且fac5>0,fac6>0,fac5+fac6=1。
22.根据权利要求21所述的立体声相位参数的编码装置,其特征在于,
所述处理模块平滑处理时的平滑因子fac5=0.9844。
CN201310632664.5A 2013-11-29 2013-11-29 立体声相位参数的编码方法及装置 Active CN104681029B (zh)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CN201310632664.5A CN104681029B (zh) 2013-11-29 2013-11-29 立体声相位参数的编码方法及装置
PCT/CN2014/074673 WO2015078123A1 (zh) 2013-11-29 2014-04-02 立体声相位参数的编码方法及装置
EP14866259.6A EP3057095B1 (en) 2013-11-29 2014-04-02 Method and device for encoding stereo phase parameter
JP2016534977A JP6335301B2 (ja) 2013-11-29 2014-04-02 ステレオ位相パラメータを符号化する方法及び装置
KR1020167014661A KR101798559B1 (ko) 2013-11-29 2014-04-02 스테레오 위상 파라미터 인코딩 방법 및 장치
US15/154,655 US10008211B2 (en) 2013-11-29 2016-05-13 Method and apparatus for encoding stereo phase parameter

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310632664.5A CN104681029B (zh) 2013-11-29 2013-11-29 立体声相位参数的编码方法及装置

Publications (2)

Publication Number Publication Date
CN104681029A CN104681029A (zh) 2015-06-03
CN104681029B true CN104681029B (zh) 2018-06-05

Family

ID=53198276

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310632664.5A Active CN104681029B (zh) 2013-11-29 2013-11-29 立体声相位参数的编码方法及装置

Country Status (6)

Country Link
US (1) US10008211B2 (zh)
EP (1) EP3057095B1 (zh)
JP (1) JP6335301B2 (zh)
KR (1) KR101798559B1 (zh)
CN (1) CN104681029B (zh)
WO (1) WO2015078123A1 (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107358961B (zh) * 2016-05-10 2021-09-17 华为技术有限公司 多声道信号的编码方法和编码器
CN107358960B (zh) * 2016-05-10 2021-10-26 华为技术有限公司 多声道信号的编码方法和编码器
CN107452387B (zh) * 2016-05-31 2019-11-12 华为技术有限公司 一种声道间相位差参数的提取方法及装置
US10217467B2 (en) * 2016-06-20 2019-02-26 Qualcomm Incorporated Encoding and decoding of interchannel phase differences between audio signals
CN107731238B (zh) 2016-08-10 2021-07-16 华为技术有限公司 多声道信号的编码方法和编码器
US10217468B2 (en) * 2017-01-19 2019-02-26 Qualcomm Incorporated Coding of multiple audio signals
US10366695B2 (en) 2017-01-19 2019-07-30 Qualcomm Incorporated Inter-channel phase difference parameter modification
CN108877815B (zh) * 2017-05-16 2021-02-23 华为技术有限公司 一种立体声信号处理方法及装置
CN109215668B (zh) * 2017-06-30 2021-01-05 华为技术有限公司 一种声道间相位差参数的编码方法及装置
CN109300480B (zh) * 2017-07-25 2020-10-16 华为技术有限公司 立体声信号的编解码方法和编解码装置
CN117133297A (zh) * 2017-08-10 2023-11-28 华为技术有限公司 时域立体声参数的编码方法和相关产品
EP4383254A1 (en) * 2022-12-07 2024-06-12 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Encoder comprising an inter-channel phase difference calculator device and method for operating such encoder

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102157152A (zh) * 2010-02-12 2011-08-17 华为技术有限公司 立体声编码的方法、装置
CN102165520A (zh) * 2008-09-25 2011-08-24 Lg电子株式会社 处理信号的方法和装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE0004187D0 (sv) * 2000-11-15 2000-11-15 Coding Technologies Sweden Ab Enhancing the performance of coding systems that use high frequency reconstruction methods
US7006636B2 (en) * 2002-05-24 2006-02-28 Agere Systems Inc. Coherence-based audio coding and synthesis
US8135136B2 (en) * 2004-09-06 2012-03-13 Koninklijke Philips Electronics N.V. Audio signal enhancement
CN101221763B (zh) * 2007-01-09 2011-08-24 昆山杰得微电子有限公司 针对子带编码音频的三维声场合成方法
US8385556B1 (en) * 2007-08-17 2013-02-26 Dts, Inc. Parametric stereo conversion system and method
GB2453117B (en) 2007-09-25 2012-05-23 Motorola Mobility Inc Apparatus and method for encoding a multi channel audio signal
KR101444102B1 (ko) * 2008-02-20 2014-09-26 삼성전자주식회사 스테레오 오디오의 부호화, 복호화 방법 및 장치
US8258849B2 (en) 2008-09-25 2012-09-04 Lg Electronics Inc. Method and an apparatus for processing a signal
WO2010091555A1 (zh) 2009-02-13 2010-08-19 华为技术有限公司 一种立体声编码方法和装置
EP2402941B1 (en) * 2009-02-26 2015-04-15 Panasonic Intellectual Property Corporation of America Channel signal generation apparatus
SG174117A1 (en) * 2009-04-08 2011-10-28 Fraunhofer Ges Forschung Apparatus, method and computer program for upmixing a downmix audio signal using a phase value smoothing
CN102656627B (zh) * 2009-12-16 2014-04-30 诺基亚公司 多信道音频处理方法和装置
CN104246873B (zh) * 2012-02-17 2017-02-01 华为技术有限公司 用于编码多声道音频信号的参数编码器
JP6063555B2 (ja) * 2012-04-05 2017-01-18 華為技術有限公司Huawei Technologies Co.,Ltd. マルチチャネルオーディオエンコーダ及びマルチチャネルオーディオ信号を符号化する方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102165520A (zh) * 2008-09-25 2011-08-24 Lg电子株式会社 处理信号的方法和装置
CN102157152A (zh) * 2010-02-12 2011-08-17 华为技术有限公司 立体声编码的方法、装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
《PARAMETRIC CODING OF SPATIAL AUDIO》;Christof Faller;《ECOLE POLYTECHNIQUE FEDERALE DE LAUSANNE》;20041231;全文 *
《PARAMETRIC CODING OF SPATIAL AUDIO》;Christof Faller;《Proc.of the 7th Int.Conference on Digital Audio Effects(DAFx`04)》;20041008;第151-156页 *

Also Published As

Publication number Publication date
US10008211B2 (en) 2018-06-26
US20160254002A1 (en) 2016-09-01
KR101798559B1 (ko) 2017-12-12
WO2015078123A1 (zh) 2015-06-04
KR20160077201A (ko) 2016-07-01
JP6335301B2 (ja) 2018-05-30
EP3057095A1 (en) 2016-08-17
CN104681029A (zh) 2015-06-03
EP3057095A4 (en) 2016-11-23
JP2017503190A (ja) 2017-01-26
EP3057095B1 (en) 2019-11-20

Similar Documents

Publication Publication Date Title
CN104681029B (zh) 立体声相位参数的编码方法及装置
AU2019213424B2 (en) Apparatus and Method for Encoding or Decoding a Multi-Channel Signal Using Frame Control Synchronization
JP2022137052A (ja) マルチチャネル信号の符号化方法およびエンコーダ
CN104200808B (zh) 信号处理设备和方法
CN107077858B (zh) 使用具有全带隙填充的频域处理器以及时域处理器的音频编码器和解码器
JP7391930B2 (ja) 独立したノイズ充填を用いた強化された信号を生成するための装置および方法
ES2291939T3 (es) Codificacion de señales de audio.
EP3486904B1 (en) Method for encoding multi-channel signal and encoder
CN102160113A (zh) 多声道音频编码器和解码器
JP2013015598A (ja) オーディオ符号化/復号化方法、システム及びノイズレベルの推定方法
KR101662682B1 (ko) 채널간 차이 추정 방법 및 공간적 오디오 코딩 장치
JP4538324B2 (ja) 音声信号符号化
US12230283B2 (en) Stereo signal processing method and apparatus
KR101786863B1 (ko) 고 주파수 복원 알고리즘들을 위한 주파수 대역 테이블 설계
CN103165134A (zh) 音频信号高频参数编解码装置
JP6859379B2 (ja) 快適雑音生成モード選択のための装置および方法
JP2013019968A (ja) 周波数帯コピー方法、装置及びオーディオ復号化方法、システム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant