JPH09135499A - Sound image localization control method - Google Patents
Sound image localization control methodInfo
- Publication number
- JPH09135499A JPH09135499A JP7315955A JP31595595A JPH09135499A JP H09135499 A JPH09135499 A JP H09135499A JP 7315955 A JP7315955 A JP 7315955A JP 31595595 A JP31595595 A JP 31595595A JP H09135499 A JPH09135499 A JP H09135499A
- Authority
- JP
- Japan
- Prior art keywords
- sound image
- sound
- hrtf
- head
- image localization
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
- Stereophonic System (AREA)
- Filters That Use Time-Delay Elements (AREA)
- Tone Control, Compression And Expansion, Limiting Amplitude (AREA)
- Complex Calculations (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、離間して配設され
た複数のトランスジューサから、同一の音源が供給され
た複数の信号変換回路で処理した信号を再生して、実際
のトランスジューサ(スピーカ)とは異なる所望の任意
の位置に音像が定位しているように感じさせる音像定位
制御方法に係り、特に、音像定位制御用のデータ(信号
変換回路の伝達特性)の算出の改良に関するものであ
る。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention reproduces signals processed by a plurality of signal conversion circuits supplied with the same sound source from a plurality of transducers arranged apart from each other, and an actual transducer (speaker). The present invention relates to a sound image localization control method that makes a user feel that a sound image is localized at a desired arbitrary position different from the above, and particularly relates to improvement of calculation of data for sound image localization control (transfer characteristics of a signal conversion circuit). .
【0002】[0002]
【従来の技術】本願出願人は、先に特願平4−3434
59号及び特願平4−356358号を出願した。これ
らの内容は、頭部伝達関数(Head Related Transfer Fu
nction;以下、HRTFと称するHRTF)の実測に基
づき特性を定めて音像の定位を行わせるものである。実
現手段としては、デジタル的に周波数振幅特性や周波数
位相特性を信号処理により加工して音像を定位させるも
のである。図7は、そのHRTFの測定システムを示す
図である。このシステムにおいては、ダミーヘッド(ま
たは人頭)DMの両耳に一対のマイクロホンML,MR
を設置し、スピーカSPからの測定音を受け、録音器D
ATにソース音(リファレンスデータ)refL,re
fRと被測定音(測定データ)L,Rを同期して記録す
るようにしたものである。2. Description of the Related Art The applicant of the present application has previously filed Japanese Patent Application No. 4-3434.
No. 59 and Japanese Patent Application No. 4-356358 have been filed. These contents are related to the head related transfer function (Head Related Transfer Fu
nction; hereinafter referred to as HRTF), the characteristics are determined based on actual measurement of HRTF, and the sound image is localized. As a realization means, a sound image is localized by digitally processing the frequency amplitude characteristic and the frequency phase characteristic by signal processing. FIG. 7 is a diagram showing the HRTF measurement system. In this system, a pair of microphones ML and MR are provided on both ears of a dummy head (or human head) DM.
Is installed, the measurement sound from the speaker SP is received, and the recorder D
Source sound (reference data) refL, re to AT
The fR and the to-be-measured sound (measurement data) L and R are recorded in synchronization.
【0003】ソース音XHとしては、インパルス音,ホ
ワイトノイズ,その他のノイズ等を用い、例えば、図8
に示すようにスピーカSPの位置を正面を0度(°)と
して、30度ごとに12ポイントの空間位置に設置し、
それぞれ所定の時間だけ、連続的に記録して、それらの
デ−タを得るようにしたものである。As the source sound XH, impulse sound, white noise, other noises, etc. are used.
As shown in, the position of the speaker SP is 0 degrees (°) on the front side, and the speaker SP is installed at a spatial position of 12 points every 30 degrees.
Each of them is continuously recorded for a predetermined time to obtain the data.
【0004】そして、これらのデ−タを用いて、例え
ば、図9の基本原理システムを用いて音像定位制御を行
わせるようにしたものである。同図において、sp1,
sp2は受聴者の前方左右に配置されるスピーカであ
り、sp1から聴取者左耳までの頭部伝達特性(インパ
ルス応答)をh1L、右耳までの頭部伝達特性をh1
R、sp2から左右耳までの頭部伝達特性をh2L,h
2Rとし、目的とする定位位置xに実際のスピーカを配
置したときの受聴者左右耳までの頭部伝達特性をpL
x,pRxとし、前述の測定システムから得たデ−タに
所定の波形処理を施して各係数cfLx,cfRxを求
め、これら各係数に畳み込み演算処理を施したデ−タを
用いて音像定位制御を行わせるようにしたものである。Then, by using these data, for example, the sound image localization control is performed by using the basic principle system of FIG. In the figure, sp1,
sp2 is a speaker arranged on the left and right of the front of the listener. The head-related transfer characteristic (impulse response) from sp1 to the listener's left ear is h1L, and the head-related transfer characteristic to the right ear is h1.
The head-related transfer characteristics from R, sp2 to the left and right ears are h2L, h
2R and pL is the head-related transfer characteristic to the left and right ears of the listener when an actual speaker is placed at the desired localization position x.
x and pRx, the data obtained from the above-mentioned measurement system is subjected to a predetermined waveform processing to obtain the respective coefficients cfLx and cfRx, and the sound image localization control is performed by using the data obtained by performing the convolution calculation processing on these respective coefficients. It was made to do.
【0005】[0005]
【発明が解決しようとする課題】ところで、上述した内
容のものは、畳み込み演算に用いる各デ−タ(係数)の
算出時に、スピ−カから両耳へのHRTFとして折り込
む成分と、再生時のスピ−カから受聴者の両耳へのHR
TFの不一致により、再生音の音質が損なわれることが
あった。また、上記の不一致により、後方定位時に前方
に高い周波数成分の音が残り、音像が前後反転して聞こ
えるという問題もあった。By the way, in the above-mentioned contents, the components to be folded as HRTFs from the speaker to both ears at the time of calculation of each data (coefficient) used for the convolution operation, and the components at the time of reproduction. HR from the speaker to both ears of the listener
Due to TF mismatch, the quality of reproduced sound may be impaired. Further, due to the above disagreement, there is also a problem that a sound of a high frequency component remains in the front when the sound is localized in the rear, and the sound image is inverted and heard.
【0006】本発明は、こうした再生時のスピ−カから
両耳へのHRTFのばらつきによる悪影響を考慮し、音
像定位係数の算出時に想定したHRTFと再生時のHR
TFの不一致が生じても、上記問題が発生しない音像定
位制御方法を提供するものである。The present invention considers the adverse effect of the HRTF variation from the speaker to both ears during reproduction, and the HRTF assumed during calculation of the sound image localization coefficient and the HR during reproduction.
It is intended to provide a sound image localization control method in which the above problem does not occur even if TF mismatch occurs.
【0007】[0007]
【課題を解決するための手段】本発明は上記課題を解決
するために、離間して配設された複数のトランスジュー
サから、同一の音源が供給された複数の信号変換回路で
処理した信号を再生して、聴取者に前記トランスジュー
サとは異なる任意の位置に音像が定位しているように感
じさせる音像定位制御方法において、実測用に設定配置
されたトランスジューサと各定位目標位置とから人頭又
は疑似人頭までの伝達関数を夫々求め、これら伝達関数
の内、前記トランスジューサから得られた伝達関数を周
波数振幅特性上で移動平均化処理をし、この移動平均化
処理をした伝達関数と前記各音像定位位置から得られた
伝達関数とをもとに前記信号変換回路の伝達特性を求め
るようにしたことを特徴とする音像定位制御方法を提供
するものである。In order to solve the above problems, the present invention reproduces a signal processed by a plurality of signal conversion circuits to which the same sound source is supplied from a plurality of transducers arranged apart from each other. Then, in the sound image localization control method that makes the listener feel that the sound image is localized at an arbitrary position different from the transducer, in the human head or pseudo from the localization target position and the transducer set and set for actual measurement. The transfer functions up to the human head are obtained respectively, and of these transfer functions, the transfer function obtained from the transducer is subjected to moving averaging processing on the frequency-amplitude characteristics, and the transfer function subjected to this moving averaging processing and the respective sound images. A sound image localization control method characterized in that the transfer characteristic of the signal conversion circuit is obtained based on a transfer function obtained from a localization position.
【0008】[0008]
【発明の実施の形態】本発明になる音像定位制御方法の
発明の実施の形態につき、好ましい実施例を図面を用い
て説明する。図1は本発明の制御方法が適用される音像
定位制御装置の一実施例に係る概略構成図である。 こ
の装置は、音源であるシンセサイザ1、実測された各係
数を折り畳み演算させるためのコンボルバ2,3、これ
らのコンボルバ2,3への係数を格納するための係数R
OM5、係数の供給タイミングを制御するためのコント
ロ−ル用サブCPU4、増幅器6,7、及び一対のスピ
−カSP1,SP2等から概略構成されている。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the sound image localization control method according to the present invention will be described with reference to the drawings. FIG. 1 is a schematic configuration diagram according to an embodiment of a sound image localization control device to which the control method of the present invention is applied. This device includes a synthesizer 1 which is a sound source, convolvers 2 and 3 for performing a folding operation of measured coefficients, and a coefficient R for storing the coefficients to these convolvers 2 and 3.
OM5, a control sub CPU 4 for controlling the coefficient supply timing, amplifiers 6 and 7, a pair of speakers SP1 and SP2, and the like.
【0009】ここで、定位させたい音源ソースXを信号
変換装置cfLx,cfRx(コンボルバなどによる伝
達特性)に通して得られる信号を、それぞれsp1,s
p2で再生することを考える。このとき受聴者左右耳に
得られる信号をeL,eRとすると、Here, the signals obtained by passing the sound source X to be localized through signal converters cfLx and cfRx (transfer characteristics by a convolver or the like) are sp1 and s, respectively.
Consider playing on p2. At this time, if the signals obtained in the left and right ears of the listener are eL and eR,
【0010】 eL=h1L・cfLx・X+h2L・cfRx・X (式1) eR=h1R・cfLx・X+h2R・cfRx・X (〃 )EL = h1L · cfLx · X + h2L · cfRx · X (Equation 1) eR = h1R · cfLx · X + h2R · cfRx · X (〃)
【0011】一方、ソースXを目的の定位位置から再生
したときに受聴者左右耳に得られる信号をdL,dRと
すると、 dL=pLx・X (式2) dR=pRx・X (〃 )On the other hand, when the signals obtained in the left and right ears of the listener when the source X is reproduced from the target localization position are dL and dR, dL = pLxX (Equation 2) dR = pRxX (〃)
【0012】この場合、sp1,sp2の再生により受
聴者左右耳に得られる信号が、目的位置からソースを再
生したときの信号に一致すれば、受聴者はあたかも目的
位置にスピーカが存在するように音像を認識することと
なる。この条件eL=dL,eR=dRと(式1),
(式2)より、Xを消去して h1L・cfLx+h2L・cfRx=pLx (式3) h1R・cfRx+h2R・cfRx=pRx (〃 ) (式3)からcfLx,cfRxを求めると cfLx=(h2R・pLx−h2L・pRx)/H (式4a) cfRx=(−h1R・pLx+h1L・pRx)/H (〃 ) ただし、 H=h1L・h2R−h2L・h1R (式4b) In this case, if the signals obtained in the left and right ears of the listener by reproducing sp1 and sp2 match the signals when the source is reproduced from the target position, the listener is as if the speaker exists at the target position. The sound image will be recognized. This condition eL = dL, eR = dR (Equation 1),
From (Equation 2), h1L · cfLx + h2L · cfRx = pLx (Equation 3) h1R · cfRx + h2R · cfRx = pRx (〃) From (Equation 3), cfLx = cfRx−cfLx = (h2R · pLx− h2L · pRx) / H (equation 4a) cfRx = (− h1R · pLx + h1L · pRx) / H (〃) where H = h1L · h2R−h2L · h1R (equation 4b)
【0013】したがって、(式4a),(式4b)によ
り算出した伝達特性cfLx,cfRxを用いてコンボ
ルバ(畳み込み演算処理回路)等により定位させたい信
号を処理すれば、目的の位置xに音像を定位させること
ができる。具体的な信号変換装置の実現方法は様々考え
られるが、非対称なFIRデジタルフィルタ(コンボル
バ)を用いて実現すれば良い。なお、FIRデジタルフ
ィルタで用いる場合の最終の伝達特性は、時間応答関数
である。Therefore, if a signal to be localized is processed by a convolver (convolution operation processing circuit) or the like using the transfer characteristics cfLx and cfRx calculated by (Equation 4a) and (Equation 4b), a sound image is obtained at a target position x. Can be localized. There are various concrete methods for realizing the signal conversion apparatus, but it is sufficient to use an asymmetric FIR digital filter (convolver). The final transfer characteristic when used in the FIR digital filter is a time response function.
【0014】つまり、必要な定位位置xにおける伝達特
性cfLx,cfRxとして、(式4a),(式4b)
で求めたものを、1回のFIRフィルタ処理により実現
するための係数として、cfLx,cfRxの係数をあ
らかじめ作成し、ROMのデータとして準備しておく。
ROMから必要な音像定位位置の係数をFIRデジタル
フィルタに転送し、音源からの信号を畳み込み演算処理
して一対のスピーカから再生すれば、所望の任意の位置
に音像が定位されることになる。That is, as the transfer characteristics cfLx and cfRx at the required localization position x, (Equation 4a) and (Equation 4b)
The coefficients cfLx and cfRx are created in advance as the coefficients for realizing the one obtained in step 1 by the FIR filter processing, and are prepared as ROM data.
If the coefficient of the required sound image localization position is transferred from the ROM to the FIR digital filter and the signal from the sound source is subjected to the convolutional arithmetic processing and reproduced from the pair of speakers, the sound image is localized at any desired position.
【0015】以上のような原理に基づく本音像定位制御
方法について図2を参照して詳述する。同図は音像定位
制御の方法のステップを示すものである。The sound image localization control method based on the above principle will be described in detail with reference to FIG. The figure shows the steps of the method for controlling the sound image localization.
【0016】頭部伝達関数の測定(ステップ101) 前述の図7,図8を用いて説明した方法により各測定ポ
イントのHRTFの測定を行う。Measurement of head related transfer function (step 101) The HRTF of each measurement point is measured by the method described with reference to FIGS.
【0017】HRTFのインパルス応答(Impulse Re
sponse;以下、IRと称する)の算出(ステップ10
2) ステップ101で、同期して記録されたソース音(リフ
ァレンスデータ)refL,refRと被測定音(測定
データ)L,Rとを、ワークステーション(図示せず)
上で処理する。ソース音(リファレンスデータ)の周波
数応答をX(S)、被測定音(測定データ)の周波数応
答をY(S)、測定位置におけるHRTFの周波数応答
をIR(S)とすると、(式5)に示す、入出力の関係
がある。 Y(S)=IR(S)・X(S) (式5) したがって、HRTFの周波数応答をIR(S)は、 IR(S)=Y(S)/X(S) (式6) である。HRTF impulse response (Impulse Re
sponse; hereinafter referred to as IR) (step 10)
2) In step 101, the source sounds (reference data) refL and refR and the to-be-measured sounds (measurement data) L and R, which are synchronously recorded, are stored in a workstation (not shown).
Process above. Letting X (S) be the frequency response of the source sound (reference data), Y (S) be the frequency response of the sound to be measured (measurement data), and IR (S) be the frequency response of the HRTF at the measurement position (Equation 5). There is an input / output relationship as shown in. Y (S) = IR (S) · X (S) (Equation 5) Therefore, the frequency response of the HRTF is IR (S) = Y (S) / X (S) (Equation 6) is there.
【0018】よって、リファレンスの周波数応答X
(S)、測定データの周波数応答Y(S)は、前記ステ
ップ101で求めたデータを時間同期した窓で切り出
し、それぞれFFT変換により、有限のフーリエ級数展
開して離散周波数として計算し、(式6)より、HRT
Fの周波数応答IR(S)が、周知の計算方法で求めら
れる。この場合、IR(S)の精度をあげる(SN比の
向上)ために時間的に異なる数百個の窓に対してそれぞ
れIR(S)を計算し、それらを平均化すると良い。そ
して、計算したHRTFの周波数応答IR(S)を逆F
FT変換して、HRTFの時間軸応答(インパルス応
答)IR(第1のIR)とする。Therefore, the frequency response X of the reference
(S), the frequency response Y (S) of the measurement data is obtained by cutting out the data obtained in step 101 with a window that is time-synchronized, and performing a finite Fourier series expansion by FFT conversion to calculate a discrete frequency, From 6), HRT
The frequency response IR (S) of F is obtained by a known calculation method. In this case, in order to improve the accuracy of IR (S) (improvement of SN ratio), it is preferable to calculate IR (S) for several hundred windows that are temporally different and average them. Then, the frequency response IR (S) of the calculated HRTF is inverse F
FT conversion is performed to obtain a time axis response (impulse response) IR (first IR) of HRTF.
【0019】各頭部伝達特性h1L,h1R,h2
L,h2Rの移動平均化処理(スム−ジング処理)(ス
テップ103) 前述のようにして実測で求めた各頭部伝達特性h1L,
h1R,h2L,h2RをFFT変換して周波数応答を
求めこれを臨界帯域幅に応じた幅で移動平均化する。こ
こで、この移動平均化処理をすることが本発明の要旨で
あり、以下、図3(A)〜(D)を参照して説明する。
不必要なピークやディップを取り除く技術として、前記
のh1L,h1R,h2L,h2Rを、FFT変換して
H1L(S),H1R(S),H2L(S),H2R
(S)を求め、この離散周波数応答として求まったH1
L(S),H1R(S),H2L(S),H2R(S)
を移動平均化し,移動平均化した離散周波数応答を逆F
FT変換して頭部伝達特性の時間応答とすることが考え
られる。Each head-related transfer characteristic h1L, h1R, h2
L, h2R moving averaging process (smoothing process) (step 103) Each head-related transfer characteristic h1L, obtained by actual measurement as described above.
The frequency response is obtained by FFT-transforming h1R, h2L, and h2R, and moving average of the frequency response is performed with a width according to the critical bandwidth. Here, it is the gist of the present invention to perform this moving averaging process, which will be described below with reference to FIGS.
As a technique for removing unnecessary peaks and dips, the above h1L, h1R, h2L, and h2R are FFT-converted to H1L (S), H1R (S), H2L (S), H2R.
(S) is obtained and H1 obtained as this discrete frequency response
L (S), H1R (S), H2L (S), H2R (S)
Is moving averaged and the moving frequency averaged discrete frequency response is inverse F
It is conceivable to perform FT conversion to obtain the time response of the head-related transfer characteristic.
【0020】通常、移動平均化を行う場合、ある帯域幅
を設定し各周波数帯域を同じ帯域幅で移動平均化するの
が一般的である。しかし人間の聴覚は臨界帯域と呼ばれ
る、「可聴周波数帯域全体に並ぶ帯域通過特性により音
の弁別や周波数分析を行っており、通過帯域幅は低域ほ
ど狭く高域ほど広い」という特性を持っている。本願
は、この臨界帯域に着目し、周波数帯域によって移動平
均化する帯域幅を臨界帯域に応じて最適化する方法をと
っている。なお、臨界帯域幅CBc(Hz)は、中心周波数
f(Hz)で記すと、下記式のように表現される。Generally, when performing moving averaging, it is general that a certain bandwidth is set and each frequency band is moving averaged with the same bandwidth. However, human hearing has a characteristic called "critical band", which is that "the sound is discriminated and the frequency is analyzed based on the bandpass characteristics that are arranged in the entire audible frequency band, and the passband width is narrower in the lower range and wider in the higher range". There is. The present application focuses on this critical band, and adopts a method of optimizing the bandwidth for moving and averaging depending on the frequency band according to the critical band. The critical bandwidth CBc (Hz) is expressed by the following equation when expressed by the center frequency f (Hz).
【0021】[0021]
【数1】 (Equation 1)
【0022】以上の処理内容の具体例を図3に示す。図
3の(A)は、実測により求めた頭部伝達関数の時間応
答である。同図(B)は同図(A)をFFT変換して求
めた離散周波数応答と臨界帯域幅CBcを表示したもの
である。同図(C)は同図(B)を臨界帯域幅で移動平
均化した離散周波数応答を表示したものである。同図
(D)は同図(C)を逆FFT変換して求めた頭部伝達
関数の時間応答である。A concrete example of the above processing contents is shown in FIG. FIG. 3A shows the time response of the head related transfer function obtained by actual measurement. The figure (B) displays the discrete frequency response and the critical bandwidth CBc obtained by the FFT transformation of the figure (A). The figure (C) shows the discrete frequency response obtained by moving and averaging the figure (B) with the critical bandwidth. FIG. 6D is a time response of the head related transfer function obtained by performing an inverse FFT transform on FIG.
【0023】このようにすると、図3(C)及び(D)
からも明らかなように、音像定位に必要な中低域におけ
る周波数応答の特徴を残しつつ、高域などにおける不必
要なピークやディップを取り除くことができる。以上の
処理により通常一般者が有するHRTFの特徴を残した
上で、鋭いディップを無くし、結果として再生時に再現
される周波数振幅特性に不必要な鋭いピークの発生を防
止するようにしている。By doing so, FIGS. 3C and 3D are used.
As is clear from the above, it is possible to remove unnecessary peaks and dips in the high frequency range while keeping the characteristic of the frequency response in the low frequency range necessary for sound image localization. By the above processing, the characteristic of the HRTF that a general person has is left, and the sharp dip is eliminated, and as a result, generation of unnecessary sharp peaks in the frequency amplitude characteristic reproduced at the time of reproduction is prevented.
【0024】IR(インパルス応答)の整形処理(ス
テップ104) ここで、ステップ102で求めたIRを整形する。まず
例えばFFT変換により、ステップ102で求めた第1
のIRをオーディオスペクトラムにわたる離散周波数で
展開し、不要な帯域(高域には大きなディップが生じる
が、これは音像定位にあまり影響しない不要なものであ
る)を、BPF(バンドパスフィルタ)で除去する。こ
のように帯域制限すると、周波数軸上での不要なピーク
やディップが除去されて、キャンセルフィルタに不要な
係数が生じなくなるので、収束性がよくなり、係数を短
くすることができる。IR (impulse response) shaping processing (step 104) Here, the IR obtained in step 102 is shaped. First, for example, by the FFT transform, the first obtained in step 102
The IR of the is expanded at discrete frequencies over the audio spectrum, and unnecessary band (a large dip occurs in the high range, but this is unnecessary that does not affect sound image localization) is removed by a BPF (bandpass filter). To do. By limiting the band in this way, unnecessary peaks and dips on the frequency axis are removed and unnecessary coefficients do not occur in the cancel filter, so that the convergence is improved and the coefficients can be shortened.
【0025】そして、帯域制限されたIR(S)を逆F
FT変換して、IR(インパルス応答)を時間軸上で切
り出し窓(例えば、コサイン関数の窓)を掛けて、ウィ
ンド処理する(第2のIRとなる)。ウィンド処理する
ことにより、IRの有効長が長くなくなり、キャンセル
フィルタの収束性が向上して、音質の劣化が生じないよ
うになる。図4にHRTFのIR(インパルス応答)の
具体的な例を示す。横軸は時間(サンプルクロックが 4
8kHzであるクロック単位の時間)、縦軸は振幅のレベル
である。2点鎖線はウィンド窓を示す。Then, the band-limited IR (S) is inverted F
FT conversion is performed, and IR (impulse response) is cut out on the time axis by a window (for example, a cosine function window) and subjected to window processing (second IR). By performing the window processing, the effective length of the IR is not long, the convergence of the cancel filter is improved, and the sound quality is not deteriorated. FIG. 4 shows a specific example of IR (impulse response) of HRTF. The horizontal axis is time (sample clock is 4
The clock unit is 8 kHz), and the vertical axis is the amplitude level. The chain double-dashed line shows the window.
【0026】キャンセルフィルタcfLx、cfRx
の算出(ステップ105) コンボルバ(たたみ込み積分回路)であるキャンセルフ
ィルタcfLx、cfRxは、前述した(式4a)及び
(式4b)に示したように、 cfLx=(h2R・pLx−h2L・pRx)/H (式4a) cfRx=(−h1R・pLx+h1L・pRx)/H (〃 ) ただし、H=h1L・h2R−h2L・h1R (式4b) である。Cancellation filters cfLx, cfRx
(Step 105) The cancel filters cfLx and cfRx, which are convolvers (convolutional integration circuits), are cfLx = (h2R.pLx-h2L.pRx) / H (Formula 4a) cfRx = (-h1R.pLx + h1L.pRx) / H (〃) However, it is H = h1L.h2R-h2L.h1R (Formula 4b).
【0027】ここで、配置されるスピーカsp1,sp
2による頭部伝達特性h1L,h1R,h2L,h2R
及び、目的とする定位位置xに実際のスピーカを配置し
たときの頭部伝達特性pLx,pRxとして、上記ステ
ップ101〜104によって求められた、各角度θごと
の整形処理された第2のIR(インパルス応答)を代入
する。Here, the speakers sp1 and sp to be arranged
Head related transfer characteristics h1L, h1R, h2L, h2R
And, as the head-related transfer characteristics pLx and pRx when the actual speaker is arranged at the target localization position x, the second IR (reshaped) for each angle θ obtained in steps 101 to 104 described above. Impulse response).
【0028】頭部伝達特性h1L,h1Rは、図5のL
チャンネルスピーカの位置に対応するもので、正面から
左に例えば30度(θ=330度)に設置されるとすれ
ば、θ=330度のIRを用いる。頭部伝達特性h2
R,h2Lは、同図のRチャンネルスピーカの位置に対
応するもので、正面から右に例えば30度(θ=30
度)に設置されるとすれば、θ=30度のIRを用い
る。The head-related transfer characteristics h1L and h1R are L in FIG.
Corresponding to the position of the channel speaker, if it is installed at 30 degrees (θ = 330 degrees) from the front to the left, an IR of θ = 330 degrees is used. Head-related transfer characteristic h2
R and h2L correspond to the position of the R channel speaker in the figure, and are, for example, 30 degrees (θ = 30) from the front to the right.
, The IR of θ = 30 degrees is used.
【0029】そして、頭部伝達特性pLx、pRxとし
ては、目的とする音源定位位置である正面から左右90
度の180度の範囲はもちろんのこと、それを越える広
範囲な空間(全空間)における、30度ごとのIRを代
入することにより、それに対応した全空間のcfLx、
cfRx、すなわち30度ごとに12組のキャンセルフ
ィルタcfLx、cfRx群が求められる(図5では、
240度の位置を例としている)。キャンセルフィルタ
cfLx、cfRx群は、最終的には、時間軸上の応答
であるIR(インパルス応答)として求められる。The head-related transfer characteristics pLx and pRx are 90 degrees from the front, which is the target sound source localization position.
The cfLx of the entire space corresponding to that by substituting IR for every 30 degrees in a wide space (overall space) beyond that of 180 °
cfRx, that is, 12 sets of cancellation filters cfLx and cfRx are obtained every 30 degrees (in FIG. 5,
The 240 ° position is taken as an example). The cancel filters cfLx and cfRx group are finally obtained as IR (impulse response) which is a response on the time axis.
【0030】なお、(式4a)によるキャンセルフィル
タcfLx、cfRxの計算は、次のようである。まず
(式4b)のHに対する一種の逆フィルタであるH-1を
最小2乗法により求め、これを逆FFT変換して時間関
数h(t) とする。また(式4a)の各項h1L,h1
R,h2L,pRx,pLx,h2Rをそれぞれ時間関
数で表すことにより、次式が成り立つ。The calculation of the cancel filters cfLx and cfRx according to (Equation 4a) is as follows. First, H -1 , which is a kind of inverse filter for H in (Equation 4b), is obtained by the least squares method, and this is subjected to inverse FFT conversion to obtain a time function h (t). Also, the terms h1L and h1 of (Equation 4a)
By expressing R, h2L, pRx, pLx, and h2R by a time function, respectively, the following equation holds.
【0031】 cfLx(t) =(h2R・pLx−h2L・pRx)・h(t) (式7) cfRx(t) =(−h1R・pLx+h1L・pRx)・h(t) (〃 )CfLx (t) = (h2R · pLx−h2L · pRx) · h (t) (Formula 7) cfRx (t) = (− h1R · pLx + h1L · pRx) · h (t) (〃)
【0032】したがって、これらの(式7)からキャン
セルフィルタcfLx、cfRxの係数が求められるこ
とになる。(式7)から明らかなように、キャンセルフ
ィルタcfLx、cfRxの係数を短くするには、各頭
部伝達特性h1L,h1R,h2L,pRx,pLx,
h2Rをそれぞれ短くすることが極めて大切である。こ
のため、前述したように、ステップ101〜104でウ
ィンド処理,整形処理などの各種の処理をして、各頭部
伝達特性h1L,h1R,h2L,pRx,pLx,h
2Rを短くしている。Therefore, the coefficients of the cancel filters cfLx and cfRx can be obtained from these (formula 7). As is clear from (Equation 7), in order to shorten the coefficients of the cancel filters cfLx and cfRx, the head-related transfer characteristics h1L, h1R, h2L, pRx, pLx,
It is extremely important to shorten each h2R. Therefore, as described above, various processes such as window processing and shaping processing are performed in steps 101 to 104 to perform the head-related transfer characteristics h1L, h1R, h2L, pRx, pLx, h.
2R is shortened.
【0033】図6にキャンセルフィルタ係数cfLx、
cfRxの具体的な係数列を示す。横軸は時間(サンプ
ルクロックが 48kHzであるクロック単位の時間)、縦軸
は振幅のレベルである。2点鎖線はウィンド窓を示す。FIG. 6 shows the cancel filter coefficient cfLx,
The concrete coefficient sequence of cfRx is shown. The horizontal axis is time (time in clock units where the sample clock is 48kHz), and the vertical axis is the amplitude level. The chain double-dashed line shows the window.
【0034】各定位ポイントxのキャンセルフィルタ
のスケーリング(ステップ106) また、実際にコンボルバ(キャンセルフィルタ)で音像
処理される音源(ソース音)のスペクトラム分布は、統
計的にみるとピンクノイズのように分布するもの、ある
いは高域でなだらかに下がるものなどがあり、いずれに
しても音源は単一音とは異なるために、畳み込み演算
(積分)を行ったときオーバーフローして、歪が発生す
る危険がある。Scaling of the cancellation filter at each localization point x (step 106) Further, the spectrum distribution of the sound source (source sound) actually processed by the convolver (cancellation filter) is like pink noise statistically. There are things that are distributed or that drop gently in the high range.In any case, since the sound source is different from a single sound, there is a risk that overflow will occur when convolution calculation (integration) is performed and distortion will occur. is there.
【0035】そこで、オーバーフローを防止するため、
キャンセルフィルタcfLx、cfRxの係数の中で最
大のゲイン(例えば、キャンセルフィルタcfLx、c
fRxの各サンプル値の2乗和)のものを見つけ、その
係数と0dbのホワイトノイズを畳込んだときに、オー
バーフローが生じないように、全係数をスケーリングす
る。実際的には、絶対値の最大値が、許容レベル(振
幅)1に対して0.1〜0.4位(例えば0.2)とな
るように減衰させると良い。Therefore, in order to prevent overflow,
Of the coefficients of the cancel filters cfLx, cfRx, the maximum gain (for example, the cancel filters cfLx, c
Find the square sum of each sampled value of fRx) and scale all the coefficients so that overflow does not occur when the coefficient and the white noise of 0 db are convoluted. In practice, it is advisable to attenuate the maximum absolute value to be about 0.1 to 0.4 (for example, 0.2) with respect to the allowable level (amplitude) 1.
【0036】そして、図6に示したウィンド窓(コサイ
ン窓)により、実際のコンボルバの係数の数にあわせ
て、両端が0となるように、ウィンド処理し、係数の有
効長を短くする。このようにしてスケーリング処理され
て、最終的にコンボルバに係数として供給されるデータ
群(この例では、30度ごとに音像定位が可能な12組
のコンボルバの係数群)cfLx、cfRxが求まる。Then, the window (cosine window) shown in FIG. 6 is used to perform window processing so that both ends become 0 according to the number of coefficients of the actual convolver, and the effective length of the coefficient is shortened. In this way, the data group (in this example, 12 sets of convolver coefficient groups capable of sound localization for every 30 degrees) cfLx and cfRx that are subjected to scaling processing and finally supplied to the convolver as coefficients are obtained.
【0037】音源からの信号を畳み込み演算して再生
(ステップ107) 例えば、ゲーム機の音響再生装置として、図1に示すよ
うに、ゲーム操作者(聴取者)Mを中心として左右30
度づづ離間して一対のスピーカsp1,sp2を配設
し、これら一対のスピーカsp1,sp2には、一対の
コンボルバ(畳み込み演算処理回路)2,3で処理され
た音響信号が再生されるように構成する。A signal from a sound source is convoluted and reproduced (step 107) For example, as a sound reproducing device of a game machine, as shown in FIG.
A pair of loudspeakers sp1 and sp2 are arranged at intervals so that the acoustic signals processed by the pair of convolvers (convolution operation processing circuits) 2 and 3 are reproduced on the pair of loudspeakers sp1 and sp2. Configure.
【0038】一対のコンボルバには、同一の音源X(例
えば、ゲーム用シンセサイザからの飛行音など)1から
の信号が供給されると共に、前記ステップ105で作成
されたIRの係数cfLx、cfRx(例えば、飛行音
を左後方120度(θ=240度)の位置に音像定位さ
せたい時は、θ=240度の係数)が、選択されてコン
ボルバ2,3に設定される。A signal from the same sound source X (for example, a flight sound from a game synthesizer) 1 is supplied to the pair of convolvers, and the IR coefficients cfLx and cfRx (for example, the flight sounds generated at step 105) (for example, , When the sound of the flight is to be localized at a position of 120 degrees leftward (θ = 240 degrees), a coefficient of θ = 240 degrees) is selected and set in the convolvers 2 and 3.
【0039】例えば、ゲーム機などのメインCPU(中
央演算装置)からの音像定位命令にもとづいてコントロ
ール用サブCPU4により係数ROM5から、所望の定
位位置の係数が一対のコンボルバ2,3に転送される。For example, a coefficient for a desired localization position is transferred from the coefficient ROM 5 to the pair of convolvers 2 and 3 by the control sub CPU 4 based on a sound image localization command from a main CPU (central processing unit) of a game machine or the like. .
【0040】このようにして、一対のコンボルバ2,3
により音源X1からの信号は時間軸上で畳み込み演算処
理がなされて、離間して配設された一対のスピーカsp
1,sp2から再生される。一対のスピーカsp1,s
p2から再生された音は、両耳へのクロストークがキャ
ンセルされて、所望の位置に音源があるように音像定位
して、ゲーム操作者(聴取者)Mに聞かれ、極めて現実
感に満ちた音として再生される。In this way, the pair of convolvers 2, 3
Thus, the signal from the sound source X1 is subjected to convolution calculation processing on the time axis, and a pair of speakers sp arranged apart from each other.
It is reproduced from 1, sp2. Pair of speakers sp1, s
The sound reproduced from p2 has its sound image localized such that the crosstalk to both ears is canceled and the sound source is located at the desired position, and is heard by the game operator (listener) M, which is extremely realistic. Played as a sound.
【0041】コンボルバの係数は、操作者の操作に応じ
た飛行機の動きの推移と共に、最適な音像位置が順次選
択され、切換えられる。また、飛行音から、例えばミサ
イル音に変更する時は、音源Xからのソース音が飛行音
からミサイル音に変更される。このようにして、任意の
位置を音像を自由に定位させることができる。The coefficient of the convolver is switched by sequentially selecting the optimum sound image position along with the transition of the movement of the airplane according to the operation of the operator. Further, when the flight sound is changed to, for example, a missile sound, the source sound from the sound source X is changed from the flight sound to the missile sound. In this way, the sound image can be freely localized at any position.
【0042】なお、以上の説明では、臨界帯域幅を式を
もって定義されるものとして、具体的に述べたが、これ
に限定されるものではない。この定義式に類似するも
の、あるいは対数式により近似したものなど、その幅が
低域になるほど狭く高域なるほど広くなるものであれば
良い。In the above description, the critical bandwidth is specifically described as being defined by an equation, but the critical bandwidth is not limited to this. What is similar to this definitional expression, or approximated by a logarithmic expression, may be any as long as its width is narrower in the lower range and wider in the higher range.
【0043】また、再生のためのトランスジューサとし
てはー対のスピーカsp1,sp2のかわりにヘッドホ
ーンを用いることもできる。この場合は、HRTFの測
定条件が異なるので、係数を別に準備して再生状況に応
じて切換えると良い。また、ステップ103に示したI
R(インパルス応答)の整形処理は必ずしも必要ではな
く、省略しても音像定位の制御は可能である。また、実
施例で説明した、離間して配設された一対のトランスジ
ューサから同一の音源が供給された一対のコンボルバで
処理した信号を再生する構成は、本願の効果を得るため
の最小限の構成を示すものである。よって、必要に応じ
ては、一対、すなわち、2つ以上のトランスジューサ及
びコンボルバで追加構成しても良いことはもちろんであ
り、さらに、コンボルバの係数が長い場合には、係数を
分割して複数個のコンボルバで構成しても良い。As a transducer for reproduction, a headphone can be used instead of the pair of speakers sp1 and sp2. In this case, since the HRTF measurement conditions are different, it is advisable to prepare the coefficient separately and switch it according to the reproduction situation. I shown in step 103
R (impulse response) shaping processing is not always necessary, and sound image localization control is possible even if omitted. Further, the configuration described in the embodiment, in which the signal processed by the pair of convolvers to which the same sound source is supplied from the pair of transducers arranged apart from each other is reproduced, is the minimum configuration for obtaining the effect of the present application. Is shown. Therefore, as a matter of course, a pair, that is, two or more transducers and convolvers may be additionally configured, and when the convolver coefficient is long, the coefficient is divided into a plurality of parts. It may be configured with a convolver.
【0044】[0044]
【発明の効果】以上詳述したように、本発明になる音像
定位制御方法は、離間して配設された複数のトランスジ
ューサから、同一の音源が供給された複数の信号変換回
路で処理した信号を再生して、聴取者に前記トランスジ
ューサとは異なる任意の位置に音像が定位しているよう
に感じさせる音像定位制御方法おいて、予め設定配置さ
れたトランスジューサから聴取者の両耳までの伝達特性
を求め、この求めた伝達特性を周波数振幅特性上で移動
平均化処理を施すと共に、この移動平均化処理をした伝
達特性と各音像定位位置において測定した伝達関数とを
もとに前記信号変換回路の伝達特性としたものであるか
ら、臨界帯域幅で最適化された帯域幅で移動平均化され
て、音像定位に必要な中低域における周波数応答の特徴
を残しつつ、高域などにおける不必要なピークやディッ
プを取り除くことができるため、通常一般者が有するH
RTFの特徴を残した上で、鋭いディップを無くし、結
果として再生時に再現される周波数振幅特性に不必要な
鋭いピークの発生を防止して自然な音質を得ることがで
きる。As described above in detail, in the sound image localization control method according to the present invention, a signal processed by a plurality of signal conversion circuits to which the same sound source is supplied from a plurality of transducers arranged at a distance. In a sound image localization control method for reproducing a sound image so that the listener feels that the sound image is localized at an arbitrary position different from that of the transducer, and a transfer characteristic from a preset transducer to both ears of the listener. The obtained transfer characteristic is subjected to a moving averaging process on the frequency amplitude characteristic, and the signal conversion circuit is based on the transfer characteristic subjected to the moving average process and the transfer function measured at each sound image localization position. Since it is the transfer characteristic of the high frequency range, it is moving averaged in the optimized bandwidth with the critical bandwidth, leaving the characteristics of the frequency response in the middle and low range necessary for sound localization. It is possible to eliminate the unnecessary peaks and dips in etc., H normally general public has
It is possible to obtain the natural sound quality by eliminating the sharp dip while keeping the characteristics of the RTF, and as a result, preventing the generation of an unnecessary sharp peak in the frequency amplitude characteristic reproduced at the time of reproduction.
【図1】本発明になる音像定位制御方法にもとづく音像
定位装置の構成図である。FIG. 1 is a configuration diagram of a sound image localization apparatus based on a sound image localization control method according to the present invention.
【図2】本発明になる音像定位制御方法のステップを示
すチャートである。FIG. 2 is a chart showing steps of a sound image localization control method according to the present invention.
【図3】本発明になる音像定位制御方法を説明する図
で、同図(A)は測定により求めた頭部伝達関数をもと
に求めた信号処理回路(コンボルバ)の時間応答であ
り、同図(B)は同図(A)をFFT変換して求めた離
散周波数応答と臨界帯域幅を表示したものであり、同図
(C)は同図(B)を臨界帯域幅で移動平均化した離散
周波数応答を表示したものであり、同図(D)は同図
(C)を逆FFT変換して求めた信号処理回路(コンボ
ルバ)の時間応答である。FIG. 3 is a diagram illustrating a sound image localization control method according to the present invention, in which FIG. 3A is a time response of a signal processing circuit (convolver) obtained based on a head related transfer function obtained by measurement; The figure (B) shows the discrete frequency response and the critical bandwidth obtained by the FFT transformation of the figure (A), and the figure (C) shows the moving average of the figure (B) with the critical bandwidth. The converted discrete frequency response is displayed, and FIG. 6D is the time response of the signal processing circuit (convolver) obtained by performing the inverse FFT conversion on FIG.
【図4】HRTFのIR(インパルス応答)の具体的な
例を示す図である。FIG. 4 is a diagram showing a specific example of IR (impulse response) of HRTF.
【図5】キャンセルフィルタの算出例を説明する図であ
る。FIG. 5 is a diagram illustrating a calculation example of a cancel filter.
【図6】キャンセルフィルタの係数の具体的な例を示す
図である。FIG. 6 is a diagram showing a specific example of coefficients of a cancel filter.
【図7】HRTF(頭部伝達関数)の測定システムを示
す構成図である。FIG. 7 is a configuration diagram showing an HRTF (head related transfer function) measurement system.
【図8】HRTF測定のポイントを説明する図である。FIG. 8 is a diagram illustrating the points of HRTF measurement.
【図9】本発明になる音像定位制御方法の基本原理を示
す構成図である。FIG. 9 is a configuration diagram showing a basic principle of a sound image localization control method according to the present invention.
1 音源(シンセサイザ) 2,3 コンボルバ 5 係数ROM 101 頭部伝達関数(HRTF)を測定するステッ
プ 102 HRTFのインパルス応答を算出するステッ
プ 103 頭部伝達関数h1L,h1R,h2L,h2
Rの移動平均化ステップ 105 キャンセルフィルタcfLx、cfRxを算出
するステップ 107 音源からの信号を畳み込み演算して再生するス
テップ sp1,sp2 スピーカ h1L,h1R スピーカsp1から受聴者左右耳まで
の頭部伝達特性 h2L,h2R スピーカsp2から受聴者左右耳まで
の頭部伝達特性 pLx,pRx 目的とする定位位置xに実際のスピー
カを配置したときの受聴者左右耳までの頭部伝達特性1 sound source (synthesizer) 2, 3 convolver 5 coefficient ROM 101 step for measuring head related transfer function (HRTF) 102 step for calculating impulse response of HRTF 103 head related transfer function h1L, h1R, h2L, h2
Moving averaging step of R 105 Step of calculating cancellation filters cfLx, cfRx 107 Step of convoluting and reproducing a signal from a sound source sp1, sp2 Speakers h1L, h1R Head-related transfer characteristics from the speaker sp1 to the listener's left and right ears h2L , H2R Head-to-head transfer characteristics from speaker sp2 to the left and right ears of the listener pLx, pRx Head-to-head transfer characteristics to the left and right ears of the listener when an actual speaker is placed at the intended localization position x
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 H04R 1/40 310 H04S 1/00 K H04S 1/00 7/00 F 7/00 G06F 15/36 A ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical display location H04R 1/40 310 H04S 1/00 K H04S 1/00 7/00 F 7/00 G06F 15/36 A
Claims (1)
サから、同一の音源が供給された複数の信号変換回路で
処理した信号を再生して、聴取者に前記トランスジュー
サとは異なる任意の位置に音像が定位しているように感
じさせる音像定位制御方法において、 実測用に設定配置されたトランスジューサと各定位目標
位置とから人頭又は疑似人頭までの伝達関数を夫々求
め、これら伝達関数の内、前記トランスジューサから得
られた伝達関数を周波数振幅特性上で移動平均化処理を
し、この移動平均化処理をした伝達関数と前記各音像定
位位置から得られた伝達関数とをもとに前記信号変換回
路の伝達特性を求めるようにしたことを特徴とする音像
定位制御方法。1. A signal processed by a plurality of signal conversion circuits to which the same sound source is supplied is reproduced from a plurality of transducers arranged apart from each other, and a signal is reproduced by a listener at an arbitrary position different from that of the transducer. In the sound image localization control method that makes the user feel that the sound image is localized, the transfer function from the transducer set for measurement and each localization target position to the human head or the pseudo human head is obtained, and the transfer function is calculated from these transfer functions. , The transfer function obtained from the transducer is subjected to moving averaging processing on the frequency-amplitude characteristic, and the signal is obtained based on the transfer function obtained from this moving averaging processing and the transfer function obtained from each of the sound image localization positions. A sound image localization control method characterized in that a transfer characteristic of a conversion circuit is obtained.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP7315955A JPH09135499A (en) | 1995-11-08 | 1995-11-08 | Sound image localization control method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP7315955A JPH09135499A (en) | 1995-11-08 | 1995-11-08 | Sound image localization control method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH09135499A true JPH09135499A (en) | 1997-05-20 |
Family
ID=18071614
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP7315955A Pending JPH09135499A (en) | 1995-11-08 | 1995-11-08 | Sound image localization control method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH09135499A (en) |
Cited By (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007110206A (en) * | 2005-10-11 | 2007-04-26 | Yamaha Corp | Signal processing apparatus and sound image localizing apparatus |
| JP2007221445A (en) * | 2006-02-16 | 2007-08-30 | Sharp Corp | Surround system |
| JP2009206691A (en) * | 2008-02-27 | 2009-09-10 | Sony Corp | Head-related transfer function convolution method and head-related transfer function convolution device |
| JP2010187401A (en) * | 2010-04-26 | 2010-08-26 | Sony Corp | Head-related transfer function convolution method and head-related transfer function convolution apparatus |
| EP2243136A4 (en) * | 2007-12-18 | 2012-04-04 | Korea Electronics Telecomm | APPARATUS AND METHOD FOR PROCESSING 3D AUDIO SIGNAL BASED ON HEAD TRANSFER FUNCTION (HRTF), AND HIGHLY REALISTIC MULTIMEDIA READING SYSTEM USING SUCH APPARATUS AND METHOD |
| US8520857B2 (en) | 2008-02-15 | 2013-08-27 | Sony Corporation | Head-related transfer function measurement method, head-related transfer function convolution method, and head-related transfer function convolution device |
| US8831231B2 (en) | 2010-05-20 | 2014-09-09 | Sony Corporation | Audio signal processing device and audio signal processing method |
| US8873761B2 (en) | 2009-06-23 | 2014-10-28 | Sony Corporation | Audio signal processing device and audio signal processing method |
| US9232336B2 (en) | 2010-06-14 | 2016-01-05 | Sony Corporation | Head related transfer function generation apparatus, head related transfer function generation method, and sound signal processing apparatus |
-
1995
- 1995-11-08 JP JP7315955A patent/JPH09135499A/en active Pending
Cited By (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007110206A (en) * | 2005-10-11 | 2007-04-26 | Yamaha Corp | Signal processing apparatus and sound image localizing apparatus |
| US8121297B2 (en) | 2005-10-11 | 2012-02-21 | Yamaha Corporation | Signal processing device and sound image orientation apparatus |
| JP2007221445A (en) * | 2006-02-16 | 2007-08-30 | Sharp Corp | Surround system |
| EP2243136A4 (en) * | 2007-12-18 | 2012-04-04 | Korea Electronics Telecomm | APPARATUS AND METHOD FOR PROCESSING 3D AUDIO SIGNAL BASED ON HEAD TRANSFER FUNCTION (HRTF), AND HIGHLY REALISTIC MULTIMEDIA READING SYSTEM USING SUCH APPARATUS AND METHOD |
| US8520857B2 (en) | 2008-02-15 | 2013-08-27 | Sony Corporation | Head-related transfer function measurement method, head-related transfer function convolution method, and head-related transfer function convolution device |
| JP2009206691A (en) * | 2008-02-27 | 2009-09-10 | Sony Corp | Head-related transfer function convolution method and head-related transfer function convolution device |
| US8503682B2 (en) | 2008-02-27 | 2013-08-06 | Sony Corporation | Head-related transfer function convolution method and head-related transfer function convolution device |
| US9432793B2 (en) | 2008-02-27 | 2016-08-30 | Sony Corporation | Head-related transfer function convolution method and head-related transfer function convolution device |
| US8873761B2 (en) | 2009-06-23 | 2014-10-28 | Sony Corporation | Audio signal processing device and audio signal processing method |
| JP2010187401A (en) * | 2010-04-26 | 2010-08-26 | Sony Corp | Head-related transfer function convolution method and head-related transfer function convolution apparatus |
| US8831231B2 (en) | 2010-05-20 | 2014-09-09 | Sony Corporation | Audio signal processing device and audio signal processing method |
| US9232336B2 (en) | 2010-06-14 | 2016-01-05 | Sony Corporation | Head related transfer function generation apparatus, head related transfer function generation method, and sound signal processing apparatus |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US5404406A (en) | Method for controlling localization of sound image | |
| US5598478A (en) | Sound image localization control apparatus | |
| US5579396A (en) | Surround signal processing apparatus | |
| JP2001507879A (en) | Stereo sound expander | |
| JP4904461B2 (en) | Voice frequency response processing system | |
| JPH09322299A (en) | Sound image localization controller | |
| WO2006067893A1 (en) | Acoustic image locating device | |
| JPH09135499A (en) | Sound image localization control method | |
| JPH09327099A (en) | Sound reproduction device | |
| JP2827777B2 (en) | Method for calculating intermediate transfer characteristics in sound image localization control and sound image localization control method and apparatus using the same | |
| JPH06245300A (en) | Sound image localization controller | |
| KR20040039480A (en) | Method for canceling unwanted loudspeaker signals | |
| JPH08205298A (en) | Sound image localization controller | |
| JP3395809B2 (en) | Sound image localization processor | |
| JP2755081B2 (en) | Sound image localization control method | |
| JP2910891B2 (en) | Sound signal processing device | |
| JP2006279863A (en) | Correction method of head-related transfer function | |
| JP2005505177A (en) | Method and system for reproducing audio signal | |
| JP4306815B2 (en) | Stereophonic sound processor using linear prediction coefficients | |
| JP2924539B2 (en) | Sound image localization control method | |
| JP2870562B2 (en) | Method of sound image localization control | |
| JPH099398A (en) | Sound image localization device | |
| JP2985919B2 (en) | Sound image localization control device | |
| JPH08102999A (en) | 3D sound reproduction device | |
| JPH06198074A (en) | Video game machine |