CN101263740A - 生成3d声音的方法和设备 - Google Patents
生成3d声音的方法和设备 Download PDFInfo
- Publication number
- CN101263740A CN101263740A CNA2006800337095A CN200680033709A CN101263740A CN 101263740 A CN101263740 A CN 101263740A CN A2006800337095 A CNA2006800337095 A CN A2006800337095A CN 200680033709 A CN200680033709 A CN 200680033709A CN 101263740 A CN101263740 A CN 101263740A
- Authority
- CN
- China
- Prior art keywords
- applicable
- audio input
- audio
- unit
- spectral power
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 17
- 230000003595 spectral effect Effects 0.000 claims abstract description 31
- 230000006870 function Effects 0.000 claims description 29
- 230000009466 transformation Effects 0.000 claims description 18
- 238000001914 filtration Methods 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 abstract description 4
- 230000001419 dependent effect Effects 0.000 abstract description 2
- 230000004044 response Effects 0.000 description 9
- 210000003128 head Anatomy 0.000 description 8
- 230000000694 effects Effects 0.000 description 7
- 102000004127 Cytokines Human genes 0.000 description 6
- 108090000695 Cytokines Proteins 0.000 description 6
- 210000005069 ears Anatomy 0.000 description 6
- 210000003454 tympanic membrane Anatomy 0.000 description 5
- 230000004438 eyesight Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000009792 diffusion process Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 230000001172 regenerating effect Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 240000006409 Acacia auriculiformis Species 0.000 description 2
- 230000000052 comparative effect Effects 0.000 description 2
- 230000008030 elimination Effects 0.000 description 2
- 238000003379 elimination reaction Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 230000007306 turnover Effects 0.000 description 2
- 238000010521 absorption reaction Methods 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 238000005314 correlation function Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000005669 field effect Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S5/00—Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2499/00—Aspects covered by H04R or H04S not otherwise provided for in their subgroups
- H04R2499/10—General applications
- H04R2499/11—Transducers incorporated or for use in hand-held devices, e.g. mobile phones, PDA's, camera's
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/01—Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/01—Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/03—Application of parametric coding in stereophonic audio systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Stereophonic System (AREA)
Abstract
一种处理音频数据(101)的设备(100),其中该设备(100)包括适用于接收多个音频输入信号以用于生成总和信号的求和单元(102),适用于根据滤波器系数(SF1,SF2)对所述总和求和信号进行滤波以作为结果产生至少两个音频输出信号(OS1,OS2)的滤波单元(103),和参数变换单元(104),其适用于接收一方面表示所述音频输入信号声源空间位置的位置信息,和另一方面表示所述音频输入信号谱功率的谱功率信息,其中该参数变换单元适用于基于该位置信息和该谱功率信息生成所述滤波器系数(SF1,SF2),并且其中该参数变换单元(104)另外还适用于接收转移函数参数并根据所述转移函数参数生成所述滤波器系数。
Description
技术领域
本发明涉及处理音频数据的设备。
本发明还涉及处理音频数据的方法。
本发明进一步涉及程序单元。
并且,本发明涉及计算机可读介质。
背景技术
随着虚拟空间中的声音处理开始吸引人们的注意,音频声音,特别是3D音频声音在提供人造的真实感方面变得越来越重要,例如在各种游戏软件和与图像结合的多媒体应用中。在音乐中频繁使用的很多效果之中,声场效果被认为是重新产生在特殊空间中听到的声音的一种尝试。
在本上下文中,经常被称作空间声音的3D声音是这样的声音,其被处理以便给听众提供(虚拟)声音源在三维环境中的特定位置上的印象。
在从特定方向到达听众的声学信号到达听众两个耳朵中的鼓膜之前,该信号与听众身体部分进行交互。这种交互的结果是,到达鼓膜的声音被从听众肩膀的反射、与头的交互、耳廓响应和耳道中的共振所修改。可以说身体对到来的声音有滤波效果。具体滤波特性取决于声源位置(相对于头)。并且,由于声音在空气中的速度有限,根据声源位置能够注意到显著的耳间(inter-aural)时延。最近更多地被称为解剖学转移函数(ATF)的头部相关转移函数(Head-RelatedTransfer Functions,HRTF)是声源位置处方位角和仰角(elevation)的函数,其描述了从特定声源方向到听众鼓膜的滤波效果。
HRTF数据库是通过关于声源测量从大的位置集合(通常在1到3米的固定距离上,在水平和垂直方向上分隔开大约5到10度)到两耳的转移函数来构建的。这种数据库可以针对各种声学条件而获得。例如,在消声环境中,由于不存在反射,HRTF只捕捉从位置到鼓膜的直接转移。HRTF还可以在回声条件下测量。如果还捕捉到反射,这种HRTF数据库则是房间特定的。
HRTF数据库经常用于定位“虚拟”声源。通过用一对HRTF卷积声音信号,并将作为结果得到的声音通过耳机呈现出来,则听众能够感知到该声音是从对应于HRTF对的方向过来的,这与感知到声源“在头中”相反,其中后者发生在当未处理的声音通过耳机呈现出来的时候。在这个方面,HRTF数据库是定位虚拟声源的受欢迎的手段。其中使用HRTF数据库的应用包括游戏、电话会议设备和虚拟现实系统。
本发明的目标和内容
本发明的目标是改善用于产生空间化声音的音频数据处理,允许以高效的方式对多个声源进行虚拟化。
为了达到上述目标,提供了定义在独立权利要求中的处理音频数据的设备、处理音频数据的方法、程序单元和计算机可读介质。
根据本发明的实施例,提供了一种处理音频数据的设备,其中该设备包括适用于接收多个音频输入信号以用于生成总和信号的求和单元、适用于根据滤波器系数对所述总和信号进行滤波以得到至少两个音频输出信号的滤波单元,以及适用于一方面接收表示所述音频输入信号声源空间位置的位置信息和另一方面表示所述音频输入信号谱功率的谱功率信息的参数变换单元,其中该参数变换单元适用于基于该位置信息和该谱功率信息生成所述滤波器系数,并且其中该参数变换单元另外还适用于接收转移函数参数并根据所述转移函数参数生成所述滤波器系数。
并且,根据本发明另一个实施例,提供一种处理音频数据的方法,该方法包括如下步骤:接收多个音频输入信号以生成总和信号,根据滤波器系数对所述总和信号进行滤波,得到至少两个音频输出信号,接收一方面表示所述音频输入信号声源空间位置的位置信息和另一方面表示所述音频输入信号谱功率的谱功率信息,基于该位置信息和该谱功率信息生成所述滤波器系数,接收转移函数参数并根据所述转移函数参数生成所述滤波器系数。
根据本发明另一个实施例,提供一种计算机可读介质,其中存储用于处理音频数据的计算机程序,当该计算机程序由处理器运行时,其适用于控制或执行上面提到的方法步骤。
并且,根据本发明的又一个实施例提供处理音频数据的程序单元,当该程序单元由处理器运行时,其适用于控制或执行上面提到的方法步骤。
根据本发明处理音频数据可由计算机程序、即由软件来实现,也可利用一个和更多专用电子最优化电路、即硬件来实现,还可以混合的形式、即借助软件组件和硬件组件来实现。
常规的HRTF数据库就信息量来说通常非常大。每个时域冲激响应可以包括约64个采样(对低复杂度,消声条件)大到几千个采样长(在混响房间内)。如果HRTF对是以在垂直和水平方向上的10度的分辨率来测量,则要被存储的系数量达到至少360/10*180/10*64=41472个系数(假设64采样冲激响应),但是能够容易地达到更高的数量级。对称的头将会需要(180/10)*(180/10)*64个系数(是41472个系数的一半)。
根据本发明的特征性特征尤其具有如下优点,对多个虚拟声源的虚拟化可以以几乎独立于虚拟声源数目的计算复杂度得以实现。
换句话说,可以有益地对多个同时的声源以粗略地等于单个声源的处理复杂度来进行合成。通过降低的处理复杂度,可以有益地实现实时处理,即使是对大量声源也可以实现。
本发明实施例预期的另一个目标是在听众鼓膜处再现这样的声压级,即该声压级等于如果将实际声源放置在虚拟声源的位置(3D位置)中将会出现的声压。
在进一步的方面,目的在于产生丰富的听觉环境,其可对视觉减弱的人和有视力的人用作用户接口。根据本发明的应用能够呈现(rendering)虚拟声学声源,所述虚拟声学声源给听众以该源处于它们的正确空间位置的印象。
本发明的进一步实施例将在后面结合从属权利要求来进行描述。
现在将描述处理音频数据的设备实施例。这些实施例还可应用于处理音频数据的方法、计算机可读介质和程序单元。
在本发明的一个方面中,如果音频输入信号已经被混合,则每个个别音频输入信号的相对等级可以基于谱功率信息而在一定程度上得到调整。这种调整只能在一定限度内(例如,最大变化6和10dB)进行。通常,由于信号等级尺度与声源距离的倒数成近似线性关系的事实,距离效果比10dB大得多。
有益地,该设备可以另外还包括缩放单元,其适用于基于增益因子对音频输入信号进行缩放。在本上下文中,参数变换单元可以另外还适用于有益地接收表示音频输入信号声源距离的距离信息,并基于所述距离信息生成增益因子。由此,可以以简单且令人满意的方式获得距离效果。通过该距离增益因子可以减1。声源功率可以因此根据声学原理建模或改变。
可选地,由于可以适用于远距离声源的情况,增益因子将会反映空气吸收效应。因此,可获得更现实的声音感受。
根据实施例,滤波单元基于快速傅立叶变换(FFT)。这样可实现高效和快速处理。
HRTF数据库可包括虚拟声源位置的有限集合(通常在固定距离和5到10度的空间分辨率)。在很多情况下,不得不为测量位置之间的位置生成声源(特别是如果虚拟声源正随时间移动)。这种生成需要对可获得的冲激响应进行内插。如果HRTF数据库包括针对垂直和水平方向的响应,则必须对每个输出信号实施内插。因此,对每个声源来说,需要对每个耳机输出信号进行4个冲激响应的组合。如果有更多声源必须同时被“虚拟化”,则所需冲激响应的数目变得更加重要。
在本发明的有益方面,HRTF模型参数和代表HRTF的参数可以在被存储的空间分辨率之间被内插。通过根据本发明在常规HRTF表上提供HRTF模型参数,可以实现有益的更快处理。
根据本发明的系统的主要应用领域是处理音频数据。然而,本系统可以嵌入在除了音频数据之外还处理附加数据,例如与视觉内容相关的数据的情形中。因此,本发明可以在视频数据处理系统框架内实现。
根据本发明的设备可被实现为下述一组设备中的其中一种,该组设备包括车辆音频系统、便携式音频播放器、便携式视频播放器、头盔显示器(head-mounted display)、移动电话、DVD播放器、CD播放器、基于硬盘的媒体播放器、互联网无线电设备、公共娱乐设备和MP 3播放器。尽管提到的这些设备与本发明主要应用领域有关,但是任意其它的应用也是可以的,例如在电话会议或远程出席(telepresence);为视觉减弱的人提供的音频显示器;远程学习系统和用于电视电影的专业声音和图片编辑,以及喷气式战斗机(3D音频可以帮助飞行员)和基于PC的音频播放器。
根据将在下面描述的实施例,本发明上面定义的方面和进一步的方面是明显的,并将结合这些实施例进行解释。
附图的简要说明
本发明将在下面结合实施例的例子对本发明进行更加详细的描述,本发明不限于这些例子。
图1示出了根据本发明优选实施例处理音频数据的设备。
图2示出了根据本发明进一步实施例处理音频数据的设备。
图3示出了根据本发明实施例,包括存储单元的处理音频数据的设备。
图4详细示出了在图1或图2所示处理音频数据的设备中实现的滤波单元。
图5示出了根据本发明实施例的又一个滤波单元。
实施例的说明
附图中的图解是示意性的。在不同附图中,同样的附图标记表示相似的或同一个元素。
现在将参照图1,对根据本发明实施例的处理输入音频数据Xi的设备100进行描述。
设备100包括求和单元102,该求和单元102适用于接收多个音频输入信号Xi,以便从该音频输入信号Xi生成总和信号SUM。总和信号SUM被提供给滤波单元103,该滤波单元103适用于基于滤波器系数,即在当前例子中的第一滤波器系数SF1和第二滤波器系数SF2,对所述总和信号SUM进行滤波,得到第一音频输出信号OS1和第二音频输出信号OS2。下面给出对滤波单元103的详细描述。
并且,如图1所示,设备100包括参数变换单元104,该参数变换单元104适用于接收一方面表示所述音频输入信号Xi声源空间位置的位置信息Vi和另一方面表示所述音频输入信号Xi谱功率的谱功率信息Si,其中该参数变换单元104适用于基于对应于输入信号的位置信息Vi和谱功率信息Si生成所述滤波器系数SF1、SF2,并且其中该参数变换单元104另外还适用于接收转移函数参数以及另外根据所述转移函数参数生成所述滤波器系数。
图2示出了在本发明进一步实施例中的配置200。配置200包括根据图1所示实施例的设备100并且另外还包括缩放单元201,该缩放单元201适用于基于增益因子gi对音频输入信号Xi进行缩放。在本实施例中,参数变换单元104另外还适用于接收表示音频输入信号声源距离的距离信息,并基于所述距离信息生成增益因子gi,再将这些增益因子gi提供给缩放单元201。因此,通过简单的措施可靠地获得距离效果。
现在将结合图3,对根据本发明的系统或设备实施例进行更详细描述。
在图3的实施例中,所示的系统300包括根据图2所示实施例的配置200,并且另外还包括存储单元301、音频数据接口302、位置数据接口303、谱功率数据接口304和HRTF参数接口305。
存储单元301适用于存储音频波形数据,音频数据接口302适用于基于所存储的音频波形数据提供多个音频输入信号Xi。
在本例子中,音频波形数据对每个声源以脉冲编码调制(PCM)波表格的形式存储。然而,波形数据可被另外还或单独地存储为其它形式,例如根据标准MPEG-1层3(MP3)、高级音频编码(AAC)、AAC-plus等的压缩格式。
在存储单元301中,还为每个声源存储位置信息Vi,且位置数据接口303适用于提供所存储的位置信息Vi。
在本例子中,优选实施例直接指向计算机游戏应用。在这种计算机游戏应用中,位置信息Vi随着时间变化并取决于空间中编程的绝对位置(即在计算机游戏场景中的虚拟空间位置),但是还取决于用户动作,例如当游戏场景中的虚拟人或用户旋转或改变他/她的虚拟位置时,相对于用户的声源位置变化或者也应该变化。
在这种计算机游戏中,通过在计算机游戏场景中不同空间位置的每个乐器,从单个声源(例如从后面的射击)到复调音乐的任何情况都是可能的。同时的声源数可以例如达到64这么高,因此,音频输入信号Xi范围为从X1到X64。
接口单元302基于所存储的大小为n的帧的音频波形数据提供多个音频输入信号Xi。本例子中,向每个音频输入信号Xi都提供11kHz的采样率。其它的采样率也可以,例如对每个音频输入信号Xi的采样率是44kHz。
在缩放单元201中,根据方程(1),利用每个声道的增益因子或加权gi,大小为n的输入信号Xi即Xi[n]被组合为总和信号SUM,即单音信号m[n]。
增益因子gi由参数变换单元104基于如上所述的存储的伴随有位置信息Vi的距离信息来提供。位置信息Vi和谱功率信息Si参数通常具有低得多的更新率,例如,每第11毫秒进行更新。本例子中,每个声源的位置信息Vi由方位角、仰角和距离信息的三元组构成。可替换地,可使用笛卡儿坐标(x,y,z)或可替换的坐标。可选地,位置信息可包括组合或子集中的信息,即仰角信息和/或方位角信息和/或距离信息方面的信息。
在原理上,增益因子gi[n]是依赖于时间的。然而,由于所需的这些增益因子的更新率大大低于输入音频信号Xi的音频采样率这一事实,假设增益因子gi[n]对于短的时间段(如上所述,大约为11毫秒到23毫秒)是恒定的。该特性允许进行基于帧的处理,其中增益因子gi是恒定的,总和信号m[n]由方程(2)来表示:
现在将结合图4和5对滤波单元103进行解释。
图4所示的滤波单元103包括分段单元401、快速傅立叶变换(FFT)单元402、第一子带分组单元403、第一混合器404、第一组合单元405、第一逆FFT单元406、第一重叠相加单元407、第二子带分组单元408、第二混合器409、第二组合单元410、第二逆FFT单元411和第二重叠相加单元412。第一子带分组单元403、第一混合器404和第一组合单元405构成第一混合单元413。同样地,第二子带分组单元408、第二混合器409和第二组合单元410构成第二混合单元414。
在本例子中,分段单元401适用于将进来的信号,即总和信号SUM和信号m[n]分别分段为重叠的帧,并为每个帧加窗。在本例子中,用汉明窗来加窗。还可使用其它方法,例如韦尔奇(Welch)或三角形窗。
接下来,FFT单元402适用于利用FFT将每个加窗信号变换到频域。
在给出的例子中,利用FFT将每个长度为N(N=0..N-1)的帧m[n]变换到频域:
这种频域表达M[k]被复制到第一声道(也被进一步称作左声道L)和第二声道(也被进一步称作右声道R)。接下来,频域信号M[k]通过为每个声道对FFT处理箱(bins)进行分组而被分割为子带b(b=0..B-1),即通过用于左声道L的第一子带分组单元403并通过用于右声道R的第二子带分组单元408来实施分组。然后一个带接一个带地生成左输出帧L[k]和右输出帧R[k](在FFT域中)。
实际的处理包括根据相应的缩放因子修改(缩放)每个FFT处理箱(其中对当前FFT处理箱对应的频率范围的缩放因子被存储),以及根据存储的时间或相位差来修改相位。关于相位差,该差可以以任意的方式(例如对全部两个声道(分成两个)或者只对一个声道)应用。通过滤波器系数向量提供每个FFT处理箱的相应缩放因子,即在本例子中,第一滤波器系数SF1向第一混合器404提供,第二滤波器系数SF2向第二混合器409提供。
在本例子中,滤波器系数向量为每个输出信号提供用于频率子带的复数值的缩放因子。
然后,在缩放之后,修改的左输出帧L[k]通过逆FFT单元406变换到时域,获得左时域信号,而右输出帧R[k]由逆FFT单元411进行变换,获得右时域信号。最后,对获得的时域信号进行重叠相加操作得到对每个输出声道的最后时域,即通过第一重叠相加单元407获得第一输出声道信号OS1,并通过第二重叠相加单元412获得第二输出声道信号OS2。
图5所示的滤波单元103’与图4所示的滤波单元103的差别在于提供去相关单元501,其适用于将去相关信号提供给每个输出声道,该去相关信号从由FFT单元402获得的频域信号导出。在图5所示的滤波单元103’中,提供与图4所示的第一混合单元413相似的第一混合单元413’,但是其另外还适用于处理去相关信号。同样地,提供与图4所示的第二混合单元414相似的第二混合单元414’,图5所示的第二混合单元414’另外还适用于处理去相关信号。
在本例子中,然后按照下面的方法一个带接一个带地生成两个输出信号L[k]和R[k](在FFT域中)。
这里,D[k]表示根据如下特性,从频域表达M[k]获得的去相关信号:
其中<..>代表期望值运算符。
这里,(*)代表复共轭。
去相关单元501由具有利用FIFO缓冲器所获得的10到20ms(通常为1帧)数量级延时的简单延迟构成。在进一步的实施例中,去相关单元可以基于随机化的量级或相位响应,或者可以由IIR或者FFT、子带或时域中的全通类结构组成。这种去相关方法的例子在如下文献中给出:Heiko Purnhagen,JonasLars Liljeryd(2004):”Synthetic ambiance in parametric stereo coding”,proc.116th AES convention,Berlin,其公开在这里引入作为参考。
去相关滤波器旨在产生特定频带上的“扩散(diffuse)”感受。如果到达听众两耳的输出信号除了时间或等级有差别之外是相同的,则听众将会感觉声音象从特定方向到来的(这取决于时间和等级差别)。在这个例子中,方向是很清楚的,即信号在空间上是“紧凑”的。
然而,如果多个声源同时从不同方向到达,每个耳朵将会接收到声源的不同混合物。因此,两耳之间的差别不能建模为简单的(依赖于频率的)时间和/或等级差。在本例子中,由于不同声源已经混合为单一的声源,因此重新生成不同的混合是不可能的。然而,这种重新生成基本上不需要,因为知道人类听觉系统在基于空间特性来分离个别的声源方面有困难。本例子中,如果补偿了对于时间和等级差的波形,最显著的感知方面是两耳处的波形会多么地不同。已经示出,声道间相干性(或归一化互相关函数的最大值)的数学概念是与空间“紧凑性”感紧密匹配的测度。
主要方面是,为了引起对虚拟声源的相似感觉,即使两耳处的混合物是错的,也必须重新生成正确的声道间相干性。这种感觉可被描述为“空间扩散”,或者缺乏“紧凑性”。这就是去相关滤波器与混合单元相结合所重新生成的。
参数变换单元104确定在常规HRTF系统的情况下,如果这些波形已经基于单一声源处理,则波形将会怎么不同。然后,通过将直接的和去相关信号在两个输出信号中不同地混合,可以在信号中重新生成这种不能归因于简单缩放和时延的差别。有益地,通过重新生成这种扩散参数获得现实的声音阶段。
正如已经提到的,参数变换单元104适用于从位置向量Vi和谱功率信息Si而为每个音频输入信号Xi生成滤波器系数SF1、SF2。在本例子中,滤波器系数由复数值的混合因子hxx,b表示。该复数值的混合因子是有益的,特别是在低频范围内。应该提到,也可以使用实数值的混合因子,特别是当处理高频的时候。
复数值的混合因子hxx,b的值在本例子中特别取决于表示头部相关转移函数(HRTF)模型参数Pl,b(α,ε)、Pr,b(α,ε)和φb(α,ε)的转移函数参数:这里,HRTF模型参数Pl,b(α,ε)表示对左耳的每个子带b中的均方根(rms)功率,HRTF模型参数Pr,b(α,ε)表示对右耳的每个子带b中的rms功率,HRTF模型参数φb(α,ε)表示左耳和右耳HRTF之间平均复数值的相位角。所有HRTF模型参数被提供作为方位角(α)和仰角(ε)的函数。因此,在这个应用中只需要HRTF参数Pl,b(α,ε)、Pr,b(α,ε)和φb(α,ε),而不需要真实的HRTF(其被存储为有限冲激响应表格,由很多不同的方位角和仰角值来索引)。
HRTF模型参数为虚拟声源位置的有限集合存储,在本例子中,为在水平和垂直方向上20度的空间分辨率而存储。其它分辨率,例如10或30度的空间分辨率也是可以或适合的。
在实施例中,可以提供内插单元,其适用于在存储的空间分辨率之间内插HRTF模型参数。优选地应用双线性内插,但是其它(非线性)内插方案也是适合的。
通过根据本发明在常规HRTF表格上提供HRTF模型参数,可以实现有益的更快处理。特别是在计算机游戏应用中,如果考虑头的运动,则音频声源的回放需要在存储的HRTF数据之间进行快速的内插。
在进一步的实施例中,提供给参数变换单元的转移函数参数可以基于并表示球形的头部模型。
在本例子中,谱功率信息Si表示在对应于输入信号Xi当前帧的每个频率子带线性域中的功率值。因此可以将Si解释为具有每个子带的功率或能量值σ2的向量:
Si=[σ2 0,i,σ2 l,i,...,σ2 bi]
在本例子中,频率子带(b)的数目是十(10)。这里应当提到,谱功率信息Si可以用功率或对数域中的功率值表示,并且频率子带的数目可以达到三十(30)或四十(40)个频率子带的值。
功率信息Si基本上描述了特定声源在特定频带和频率子带中分别具有多少能量。如果特定声源在特定频带中与所有其它声源相比占绝对优势(在能量方面),则该占绝对优势的声源的空间参数在由滤波操作应用的“合成的”空间参数上得到更多加权。换句话说,每个声源的空间参数都通过使用频带中的每个声源的能量来加权,以便计算平均的空间参数集。对这些参数的重要扩展是,不仅生成每个声道的相位差和等级,还生成相干值。该值描述了由两个滤波操作生成的波形应该多么地相似。
为了解释用于滤波器因子或复数值混合因子hxx,b的标准,引入可替换的输出信号对L’和R’,该输出信号L’、R’是由根据HRTF参数Pl,b(α,ε)、Pr,b(α,ε)和φb(α,ε),对每个输入信号Xi进行独立修改得到的,接下来是输出的总和:
然后根据下面的标准获得混合因子hxx,b:
1.假定输入信号Xi在每个频带b中是相互独立的:
2.输出信号L[k]在每个子带b中的功率应当等于信号L’[k]在同一子带中的功率:
3.输出信号R[k]在每个子带b中的功率应当等于信号R’[k]在同一子带中的功率:
4.对于每个频带b,信号L[k]和M[k]之间的平均复数角应当等于信号L’[k]和M[k]之间的平均复数相位角:
5.对于每个频带b,信号R[k]和M[k]之间的平均复数角应当等于信号R’[k]和M[k]之间的平均复数相位角:
6.对于每个频带b,信号L[k]与R[k]之间的相关度应当等于信号L’[k]与R’[k]之间的相关度:
可以示出,下面(不唯一)的求解满足上面的标准:
其中
这里,σbi表示信号Xi在子带b中的能量或功率,且δi表示声源i的距离。
在本发明进一步的实施例中,滤波单元103可替换地基于实数值或复数值的滤波器组,即模拟hxx,b的频率依赖性的IIR滤波器或FIR滤波器,使得不再需要FFT方法。
在听觉显示中,音频输出通过扬声器或者通过听众佩戴的耳机而被传送到听众。耳机和扬声器都有它们的优点和缺点,并且一个或另一个可以根据应用产生更满意的结果。关于进一步的实施例,可以提供更多输出声道,例如对于耳机每个耳朵使用一个以上的扬声器,或者扬声器回放配置。
应当注意到,动词“包括”的使用及其变形不排除其它元件或步骤,且冠词“一个”或“一”的使用不排除多个元件或步骤。与不同实施例相关联进行描述的元素也可以结合起来。
应当注意到,权利要求中的附图标记不应解释为对权利要求范围的限制。
Claims (16)
1.一种处理音频数据(Xi)的设备(100),
其中该设备(100)包括:
求和单元(102),适用于接收多个音频输入信号以用于生成总和信号,
滤波单元(103),适用于根据滤波器系数(SF1,SF2)对所述总和信号进行滤波,结果产生至少两个音频输出信号(OS1,OS2),和
参数变换单元(104),适用于接收一方面表示所述音频输入信号声源空间位置的位置信息,和另一方面表示所述音频输入信号谱功率的谱功率信息,其中该参数变换单元适用于基于该位置信息和该谱功率信息生成所述滤波器系数(SF1,SF2),并且
其中该参数变换单元(104)另外还适用于接收转移函数参数并根据所述转移函数参数生成所述滤波器系数。
2.根据权利要求1所述的设备(100),
其中转移函数参数是表示对于每个音频输出信号的头部相关转移函数(HRTF)的参数,所述转移函数参数将频率子带中的功率和每个输出声道的头部相关转移函数之间每个频率子带的实数值相位角或复数值相位角表示为方位角和仰角的函数。
3.根据权利要求2所述的设备(100),
其中每个频率子带的复数值相位角表示每个输出声道的头部相关转移函数之间的平均相位角。
4.根据权利要求1或2所述的设备(100),
另外还包括缩放单元(201),适用于基于增益因子对音频输入信号进行缩放。
5.根据权利要求4所述的设备(100),
其中参数变换单元(104)另外还适用于接收表示音频输入信号声源距离的距离信息,并基于所述距离信息生成增益因子。
6.根据权利要求1或2所述的设备(100),
其中滤波单元(103)基于快速傅立叶变换(FFT)或者实数值或复数值的滤波器组。
7.根据权利要求6所述的设备(100),
其中滤波单元(103)另外还包括去相关单元,适用于向至少两个音频输出信号的每一个施加去相关信号。
8.根据权利要求6所述的设备(100),
其中滤波单元(103)适用于处理滤波器系数,其中所述滤波器系数对于每个输出信号以用于频率子带的复数值缩放因子的形式提供。
9.根据权利要求1至8中任意一项所述的设备(300),
另外还包括存储音频波形数据的存储装置(301),和基于所存储的音频波形数据提供多个音频输入信号的接口单元(302)。
10.根据权利要求9所述的设备(300),
其中存储装置(301)适用于将音频波形数据存储为脉冲编码调制(PCM)格式和/或压缩格式。
11.根据权利要求9或10的设备(300),
其中存储装置(301)适用于存储每个时间和/或频率子带的谱功率信息。
12.根据权利要求1所述的设备(100),
其中位置信息包括仰角信息和/或方位角信息和/或距离信息方面的信息。
13.根据权利要求9所述的设备(100),
实现为下述一组设备中的其中一种,该组设备包括便携式音频播放器、便携式视频播放器、头盔显示器(head-mounted display)、移动电话、DVD播放器、CD播放器、基于硬盘的媒体播放器、互联网无线电设备、公共娱乐设备、MP3播放器、基于PC的媒体播放器、电话会议设备和喷气式战斗机。
14.一种处理音频数据(101)的方法,
其中该方法包括如下步骤:
接收多个音频输入信号以生成总和信号,
根据滤波器系数对所述总和信号进行滤波,结果产生至少两个音频输出信号,
接收一方面表示所述音频输入信号声源空间位置的位置信息,和另一方面表示所述音频输入信号谱功率的谱功率信息,
基于该位置信息和该谱功率信息生成所述滤波器系数,以及
接收转移函数参数并根据所述转移函数参数生成所述滤波器系数。
15.一种计算机可读介质,其中存储有用于处理音频数据的计算机程序,当该计算机程序由处理器运行时,其适用于控制或执行如下方法步骤:
接收多个音频输入信号以生成总和信号,
根据滤波器系数对所述总和信号进行滤波,结果产生至少两个音频输出信号,
接收一方面表示所述音频输入信号声源空间位置的位置信息,和另一方面表示所述音频输入信号谱功率的谱功率信息,
基于该位置信息和该谱功率信息生成所述滤波器系数,以及
接收转移函数参数并根据所述转移函数参数生成所述滤波器系数。
16.一种用于处理音频数据的程序单元,当该程序单元由处理器运行时,其适用于控制或执行如下方法步骤:
接收多个音频输入信号以生成总和信号,
根据滤波器系数对所述总和信号进行滤波,结果产生至少两个音频输出信号,
接收一方面表示所述音频输入信号声源空间位置的位置信息,和另一方面表示所述音频输入信号谱功率的谱功率信息,
基于该位置信息和该谱功率信息生成所述滤波器系数,以及
接收转移函数参数并根据所述转移函数参数生成所述滤波器系数。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP05108405 | 2005-09-13 | ||
EP05108405.1 | 2005-09-13 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201110367721.2A Division CN102395098B (zh) | 2005-09-13 | 2006-09-06 | 生成3d声音的方法和设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN101263740A true CN101263740A (zh) | 2008-09-10 |
Family
ID=37865325
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201110367721.2A Expired - Fee Related CN102395098B (zh) | 2005-09-13 | 2006-09-06 | 生成3d声音的方法和设备 |
CNA2006800337095A Pending CN101263740A (zh) | 2005-09-13 | 2006-09-06 | 生成3d声音的方法和设备 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201110367721.2A Expired - Fee Related CN102395098B (zh) | 2005-09-13 | 2006-09-06 | 生成3d声音的方法和设备 |
Country Status (6)
Country | Link |
---|---|
US (1) | US8515082B2 (zh) |
EP (1) | EP1927265A2 (zh) |
JP (1) | JP4938015B2 (zh) |
KR (2) | KR101370365B1 (zh) |
CN (2) | CN102395098B (zh) |
WO (1) | WO2007031906A2 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103155592A (zh) * | 2010-07-30 | 2013-06-12 | 弗兰霍菲尔运输应用研究公司 | 具有声波反射器的交通工具 |
CN107430861A (zh) * | 2015-03-03 | 2017-12-01 | 杜比实验室特许公司 | 通过调制解相关进行的空间音频信号增强 |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI393121B (zh) * | 2004-08-25 | 2013-04-11 | Dolby Lab Licensing Corp | 處理一組n個聲音信號之方法與裝置及與其相關聯之電腦程式 |
EP1899958B1 (en) | 2005-05-26 | 2013-08-07 | LG Electronics Inc. | Method and apparatus for decoding an audio signal |
JP4988717B2 (ja) | 2005-05-26 | 2012-08-01 | エルジー エレクトロニクス インコーポレイティド | オーディオ信号のデコーディング方法及び装置 |
KR101333031B1 (ko) * | 2005-09-13 | 2013-11-26 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | HRTFs을 나타내는 파라미터들의 생성 및 처리 방법 및디바이스 |
KR100953643B1 (ko) | 2006-01-19 | 2010-04-20 | 엘지전자 주식회사 | 미디어 신호 처리 방법 및 장치 |
EP1982326A4 (en) * | 2006-02-07 | 2010-05-19 | Lg Electronics Inc | DEVICE AND METHOD FOR CODING / DECODING A SIGNAL |
KR101431253B1 (ko) * | 2007-06-26 | 2014-08-21 | 코닌클리케 필립스 엔.브이. | 바이노럴 오브젝트―지향 오디오 디코더 |
PL2384028T3 (pl) * | 2008-07-31 | 2015-05-29 | Fraunhofer Ges Forschung | Generowanie sygnału dla sygnałów dwuusznych |
EP2169664A3 (en) * | 2008-09-25 | 2010-04-07 | LG Electronics Inc. | A method and an apparatus for processing a signal |
US8457976B2 (en) * | 2009-01-30 | 2013-06-04 | Qnx Software Systems Limited | Sub-band processing complexity reduction |
CN102576562B (zh) | 2009-10-09 | 2015-07-08 | 杜比实验室特许公司 | 自动生成用于音频占优性效果的元数据 |
US8693713B2 (en) | 2010-12-17 | 2014-04-08 | Microsoft Corporation | Virtual audio environment for multidimensional conferencing |
WO2013085499A1 (en) * | 2011-12-06 | 2013-06-13 | Intel Corporation | Low power voice detection |
EP2645749B1 (en) * | 2012-03-30 | 2020-02-19 | Samsung Electronics Co., Ltd. | Audio apparatus and method of converting audio signal thereof |
DE102013207149A1 (de) * | 2013-04-19 | 2014-11-06 | Siemens Medical Instruments Pte. Ltd. | Steuerung der Effektstärke eines binauralen direktionalen Mikrofons |
FR3009158A1 (fr) * | 2013-07-24 | 2015-01-30 | Orange | Spatialisation sonore avec effet de salle |
KR101782916B1 (ko) * | 2013-09-17 | 2017-09-28 | 주식회사 윌러스표준기술연구소 | 오디오 신호 처리 방법 및 장치 |
WO2015060652A1 (ko) | 2013-10-22 | 2015-04-30 | 연세대학교 산학협력단 | 오디오 신호 처리 방법 및 장치 |
WO2015099430A1 (ko) | 2013-12-23 | 2015-07-02 | 주식회사 윌러스표준기술연구소 | 오디오 신호의 필터 생성 방법 및 이를 위한 파라메터화 장치 |
EP4294055B1 (en) | 2014-03-19 | 2024-11-06 | Wilus Institute of Standards and Technology Inc. | Audio signal processing method and apparatus |
BR112016022042B1 (pt) * | 2014-03-24 | 2022-09-27 | Samsung Electronics Co., Ltd | Método para renderizar um sinal de áudio, aparelho para renderizar um sinal de áudio, e meio de gravação legível por computador |
EP3128766A4 (en) | 2014-04-02 | 2018-01-03 | Wilus Institute of Standards and Technology Inc. | Audio signal processing method and device |
CN104064194B (zh) * | 2014-06-30 | 2017-04-26 | 武汉大学 | 用于提高三维音频空间感距离感的参数编解码方法及系统 |
US9693009B2 (en) | 2014-09-12 | 2017-06-27 | International Business Machines Corporation | Sound source selection for aural interest |
EP3304927A4 (en) | 2015-06-03 | 2018-07-18 | Razer (Asia-Pacific) Pte. Ltd. | Headset devices and methods for controlling a headset device |
US9980077B2 (en) * | 2016-08-11 | 2018-05-22 | Lg Electronics Inc. | Method of interpolating HRTF and audio output apparatus using same |
CN106899920A (zh) * | 2016-10-28 | 2017-06-27 | 广州奥凯电子有限公司 | 一种声音信号处理方法及系统 |
CN109243413B (zh) * | 2018-09-25 | 2023-02-10 | Oppo广东移动通信有限公司 | 3d音效处理方法及相关产品 |
US11270712B2 (en) | 2019-08-28 | 2022-03-08 | Insoundz Ltd. | System and method for separation of audio sources that interfere with each other using a microphone array |
US11363402B2 (en) | 2019-12-30 | 2022-06-14 | Comhear Inc. | Method for providing a spatialized soundfield |
KR102722998B1 (ko) * | 2020-03-30 | 2024-10-29 | 삼성전자주식회사 | 음성 인식을 위한 디지털 마이크로폰 인터페이스 회로 및 이를 포함하는 전자 장치 |
CN112019994B (zh) * | 2020-08-12 | 2022-02-08 | 武汉理工大学 | 一种基于虚拟扬声器构建车内扩散声场环境的方法及装置 |
CN115086861B (zh) * | 2022-07-20 | 2023-07-28 | 歌尔股份有限公司 | 音频处理方法、装置、设备及计算机可读存储介质 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0775438B2 (ja) * | 1988-03-18 | 1995-08-09 | 日本ビクター株式会社 | モノフォニック信号のステレオフォニック信号化のための信号処理方法 |
JP2827777B2 (ja) * | 1992-12-11 | 1998-11-25 | 日本ビクター株式会社 | 音像定位制御における中間伝達特性の算出方法並びにこれを利用した音像定位制御方法及び装置 |
JP2910891B2 (ja) * | 1992-12-21 | 1999-06-23 | 日本ビクター株式会社 | 音響信号処理装置 |
JP3498888B2 (ja) | 1996-10-11 | 2004-02-23 | 日本ビクター株式会社 | サラウンド信号処理装置と方法及び映像音声再生方法、記録媒体への記録方法及び記録装置、記録媒体、処理プログラムの伝送方法及び受信方法、並びに記録データの伝送方法及び受信方法 |
US6243476B1 (en) | 1997-06-18 | 2001-06-05 | Massachusetts Institute Of Technology | Method and apparatus for producing binaural audio for a moving listener |
JP2000236598A (ja) * | 1999-02-12 | 2000-08-29 | Toyota Central Res & Dev Lab Inc | 音像位置制御装置 |
JP2001119800A (ja) * | 1999-10-19 | 2001-04-27 | Matsushita Electric Ind Co Ltd | 車載用音像制御装置 |
DE60028089D1 (de) | 2000-02-18 | 2006-06-22 | Bang & Olufsen As | Multikanaltonwiedergabesystem für stereophonische signale |
US20020055827A1 (en) | 2000-10-06 | 2002-05-09 | Chris Kyriakakis | Modeling of head related transfer functions for immersive audio using a state-space approach |
EP1274279B1 (en) * | 2001-02-14 | 2014-06-18 | Sony Corporation | Sound image localization signal processor |
US7644003B2 (en) | 2001-05-04 | 2010-01-05 | Agere Systems Inc. | Cue-based audio coding/decoding |
US7583805B2 (en) | 2004-02-12 | 2009-09-01 | Agere Systems Inc. | Late reverberation-based synthesis of auditory scenes |
US7006636B2 (en) * | 2002-05-24 | 2006-02-28 | Agere Systems Inc. | Coherence-based audio coding and synthesis |
US7116787B2 (en) | 2001-05-04 | 2006-10-03 | Agere Systems Inc. | Perceptual synthesis of auditory scenes |
DE60120233D1 (de) * | 2001-06-11 | 2006-07-06 | Lear Automotive Eeds Spain | Verfahren und system zum unterdrücken von echos und geräuschen in umgebungen unter variablen akustischen und stark rückgekoppelten bedingungen |
JP2003009296A (ja) | 2001-06-22 | 2003-01-10 | Matsushita Electric Ind Co Ltd | 音響処理装置および音響処理方法 |
US7039204B2 (en) * | 2002-06-24 | 2006-05-02 | Agere Systems Inc. | Equalization for audio mixing |
JP4540290B2 (ja) * | 2002-07-16 | 2010-09-08 | 株式会社アーニス・サウンド・テクノロジーズ | 入力信号を音像定位させて三次元空間を移動させる方法 |
SE0301273D0 (sv) | 2003-04-30 | 2003-04-30 | Coding Technologies Sweden Ab | Advanced processing based on a complex-exponential-modulated filterbank and adaptive time signalling methods |
JPWO2005025270A1 (ja) * | 2003-09-08 | 2006-11-16 | 松下電器産業株式会社 | 音像制御装置の設計ツールおよび音像制御装置 |
US20050147261A1 (en) | 2003-12-30 | 2005-07-07 | Chiang Yeh | Head relational transfer function virtualizer |
-
2006
- 2006-09-06 KR KR1020137008226A patent/KR101370365B1/ko not_active Expired - Fee Related
- 2006-09-06 WO PCT/IB2006/053126 patent/WO2007031906A2/en active Application Filing
- 2006-09-06 CN CN201110367721.2A patent/CN102395098B/zh not_active Expired - Fee Related
- 2006-09-06 CN CNA2006800337095A patent/CN101263740A/zh active Pending
- 2006-09-06 KR KR1020087008731A patent/KR101315070B1/ko not_active Expired - Fee Related
- 2006-09-06 JP JP2008529747A patent/JP4938015B2/ja not_active Expired - Fee Related
- 2006-09-06 EP EP06795920A patent/EP1927265A2/en not_active Withdrawn
- 2006-09-06 US US12/066,506 patent/US8515082B2/en not_active Expired - Fee Related
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103155592A (zh) * | 2010-07-30 | 2013-06-12 | 弗兰霍菲尔运输应用研究公司 | 具有声波反射器的交通工具 |
CN107430861A (zh) * | 2015-03-03 | 2017-12-01 | 杜比实验室特许公司 | 通过调制解相关进行的空间音频信号增强 |
CN107430861B (zh) * | 2015-03-03 | 2020-10-16 | 杜比实验室特许公司 | 用于对音频信号进行处理的方法、装置和设备 |
US11081119B2 (en) | 2015-03-03 | 2021-08-03 | Dolby Laboratories Licensing Corporation | Enhancement of spatial audio signals by modulated decorrelation |
US11562750B2 (en) | 2015-03-03 | 2023-01-24 | Dolby Laboratories Licensing Corporation | Enhancement of spatial audio signals by modulated decorrelation |
Also Published As
Publication number | Publication date |
---|---|
KR20130045414A (ko) | 2013-05-03 |
WO2007031906A2 (en) | 2007-03-22 |
KR101315070B1 (ko) | 2013-10-08 |
US8515082B2 (en) | 2013-08-20 |
US20080304670A1 (en) | 2008-12-11 |
JP4938015B2 (ja) | 2012-05-23 |
KR20080046712A (ko) | 2008-05-27 |
CN102395098B (zh) | 2015-01-28 |
KR101370365B1 (ko) | 2014-03-05 |
WO2007031906A3 (en) | 2007-09-13 |
EP1927265A2 (en) | 2008-06-04 |
CN102395098A (zh) | 2012-03-28 |
JP2009508385A (ja) | 2009-02-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102395098B (zh) | 生成3d声音的方法和设备 | |
CN101263741B (zh) | 产生和处理表示hrtf的参数的方法和设备 | |
CN111149155B (zh) | 使用多点声场描述生成经增强的声场描述的装置及方法 | |
Bernschütz | Microphone arrays and sound field decomposition for dynamic binaural recording | |
Davis et al. | High order spatial audio capture and its binaural head-tracked playback over headphones with HRTF cues | |
CN101341793B (zh) | 从立体声信号产生多声道音频信号的方法 | |
Verron et al. | A 3-D immersive synthesizer for environmental sounds | |
US20050069143A1 (en) | Filtering for spatial audio rendering | |
Novo | Auditory virtual environments | |
Hollerweger | Periphonic sound spatialization in multi-user virtual environments | |
Spors et al. | Sound field synthesis | |
Picinali et al. | Chapter Reverberation and its Binaural Reproduction: The Trade-off between Computational Efficiency and Perceived Quality | |
Musil et al. | A library for realtime 3d binaural sound reproduction in pure data (pd) | |
Geronazzo | Sound Spatialization | |
Engel et al. | and Perceived Quality | |
Zotkin et al. | Efficient conversion of XY surround sound content to binaural head-tracked form for HRTF-enabled playback | |
Dinda | Virtualized audio as a distributed interactive application | |
Linell | Comparison between two 3d-sound engines of the accuracy in determining the position of a source | |
McGrath et al. | Creation, manipulation and playback of sound field | |
Saari | Modulaarisen arkkitehtuurin toteuttaminen Directional Audio Coding-menetelmälle | |
Pulkki | Implementing a modular architecture for virtual-world Directional Audio Coding | |
Sontacchi et al. | Comparison of panning algorithms for auditory interfaces employed for desktop applications | |
Kan et al. | Psychoacoustic evaluation of different methods for creating individualized, headphone-presented virtual auditory space from B-format room impulse responses | |
KAN et al. | PSYCHOACOUSTIC EVALUATION OF DIFFERENT METHODS FOR CREATING INDIVIDUALIZED, HEADPHONE-PRESENTED VAS FROM B-FORMAT RIRS | |
Duraiswami et al. | Holographic “image-based” rendering of spatial audio |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C12 | Rejection of a patent application after its publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20080910 |